JP2014175703A - 撮像装置、その制御方法及びプログラム - Google Patents

撮像装置、その制御方法及びプログラム Download PDF

Info

Publication number
JP2014175703A
JP2014175703A JP2013044240A JP2013044240A JP2014175703A JP 2014175703 A JP2014175703 A JP 2014175703A JP 2013044240 A JP2013044240 A JP 2013044240A JP 2013044240 A JP2013044240 A JP 2013044240A JP 2014175703 A JP2014175703 A JP 2014175703A
Authority
JP
Japan
Prior art keywords
image data
main subject
region
area
focus lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2013044240A
Other languages
English (en)
Inventor
Takaaki Fukui
貴明 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013044240A priority Critical patent/JP2014175703A/ja
Publication of JP2014175703A publication Critical patent/JP2014175703A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)

Abstract

【課題】ユーザにとって好ましい、背景をぼかした画像データを提供する。
【解決手段】撮像装置は、主要被写体領域のフォーカスレンズの合焦位置を検出するとともに、主要被写体領域とは異なる領域の前記フォーカスレンズの合焦位置を検出する(S402、S403)。次に、撮像装置は、主要被写体領域に合焦させて第1の画像データを撮像する(S405、S408)。次に、主要被写体領域に対応する被写体距離と主要被写体領域とは異なる領域に対応する被写体距離とに基づいて、主要被写体領域の前記フォーカスレンズの合焦位置よりも遠側又は近側のフォーカスレンズ位置で第2の画像データを取得する(S406、S409)。次に、撮像装置は、第1の画像データと第2の画像データとに基づいて、主要被写体領域と背景領域とを判定する。
【選択図】図4

Description

本発明は、背景をぼかした画像データを提供する技術に関するものである。
背景がぼけた画像データは、被写体を浮き立たせて印象付ける効果があるため、ポートレート写真等に広く利用されている。一般に、一眼レフカメラのように撮像素子が大きい撮像装置では許容錯乱円が十分大きい。そのため、被写界深度が浅い設定(絞りを大きく開く(絞り値を小さくする)、焦点距離を長くする(望遠)、被写体とカメラの間の距離を短くする)にすることで、合焦している被写体以外の背景をぼかした画像データを撮影することが比較的容易である。一方、コンパクトデジタルカメラ等の撮像素子が小さい撮像装置では、上述した一眼レフカメラの方法を用いたとしても、被写界深度が深くなる傾向にあるため、背景をぼかした画像データを撮影することが困難である。
これに対し、画像処理で疑似的に背景にぼかし効果を与える機能を持ったコンパクトデジタルカメラが数多く開発されている。例えば、特許文献1には、主要被写体にピントの合った画像と、背景がボケた画像とを取得して合成する技術が開示されている。また、特許文献2には、主要被写体にピントの合った画像と背景にピントの合った画像を用いて主要被写体領域と背景領域を判定し、2枚の画像の少なくとも一方に、主要被写体領域と背景領域とで異なる画像処理を施す技術が開示されている。
特開2008−245054号公報 特開平10−233919号公報
しかしながら、特許文献1に開示されるような、主要被写体に合焦した画像と、背景がボケた画像とを取得して合成する方法では、主要被写体と背景領域との繋ぎ目で、主要被写体領域と背景領域との二重像を発生させてしまう等の弊害が発生する。また、特許文献2に開示される技術においては、主要被写体までの第1の被写体距離と背景までの第2の被写体距離とが被写界深度では切り分けられないような関係にある場合、主要被写体領域と背景領域を判定することができず、背景をぼかす画像処理を施すことができない。
そこで、本発明の目的は、ユーザにとって好ましい、背景をぼかした画像データを提供することにある。
本発明の撮像装置は、主要被写体領域のフォーカスレンズの合焦位置と、前記主要被写体領域とは異なる領域の前記フォーカスレンズの合焦位置を検出する焦点検出手段と、前記主要被写体領域に合焦させて第1の画像データを取得するとともに、前記主要被写体領域に対応する被写体距離と前記主要被写体領域とは異なる領域に対応する被写体距離とに基づいて、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも遠側又は近側のフォーカスレンズ位置で第2の画像データを取得する撮像手段と、前記第1の画像データと前記第2の画像データとに基づいて、前記主要被写体領域と背景領域とを判定する判定手段とを有することを特徴とする。
本発明によれば、ユーザにとって好ましい、背景をぼかした画像データを提供することが可能となる。
本発明の実施形態に係る撮像装置の構成を示す図である。 背景ぼかし画像生成部の内部構成を示す図である。 本発明の実施形態に係る撮像装置における背景ぼかし処理を示すフローチャートである。 図3のステップS301における、主要被写体合焦画像データ及び背景画像データの取得処理の詳細を示すフローチャートである。 画面上に設定される複数のフォーカス検出枠のうちの主要被写体領域のフォーカス枠aと背景領域のフォーカス枠bとを示す図である。 図5に示す主要被写体領域のフォーカス枠aのコントラスト値及び背景領域のフォーカス枠bのコントラスト値と、被写体距離との関係を示す図である。 主要被写体合焦画像データと、遠側画像データ又は近側画像データとを用いて領域判定処理を示すフローチャートである。
以下、本発明を適用した好適な実施形態を、添付図面を参照しながら詳細に説明する。
図1は、本発明の実施形態に係る撮像装置100の構成を示す図である。撮像装置100は、当該撮像装置100全体の制御を司る制御部115を有する。制御部115は、CPUやMPU等により構成され、後述する各回路等の動作を制御する。図1において、撮像素子101は、CCDやCMOS等から成り、その表面は、例えばベイヤー配列のようなRGBカラーフィルタにより覆われ、カラー撮影が可能な構成となっている。被写体像が撮像素子101上で結像されると、画像データ(画像信号)が生成され、生成された画像データはメモリ102に記憶される。
制御部115は、画像データ全体が適正露出になるようなシャッタ速度及び絞り値を算出するとともに、合焦領域内にある被写体に合焦するように、撮像レンズ116内の不図示のフォーカスレンズの駆動量を算出する。算出されたシャッタ速度、絞り値及びフォーカスレンズの駆動量は、制御部115から撮像制御回路114に入力される。撮像制御回路114は、制御部115から入力した各値に基づいて、シャッタ、絞り及びフォーカスレンズを制御する。撮像制御回路114は、制御部115からの信号に応じて、フォーカスレンズを光軸方向に移動させてピント合わせを行う不図示のレンズ駆動機構を制御する。レンズ駆動機構は、ステッピングモータやDCモータを駆動源として有している。なお、撮像レンズ116内のレンズとしてフォーカスレンズの他に変倍レンズや固定レンズが設けられ、これらを含めてレンズユニットが構成される。
色変換マトリックス(MTX)回路103は、取得された画像データが最適な色で再現されるように、メモリ102から画像データを読み込み、当該画像データに色ゲインをかけて色差信号R−Y、B−Yに変換する。ローパスフィルタ(LPF)回路104は、色変換マトリックス回路103から出力される色差信号R−Y、B−Yの帯域を制限する。CSUP(Chroma Supress)回路105は、LPF回路104において帯域が制限された色差信号R−Y、B−Yのうち、飽和部分の偽色信号を抑圧する。
輝度信号生成回路106は、メモリ102から画像データを読み込み、当該画像データから輝度信号Yを生成する。エッジ強調回路107は、生成された輝度信号Yに対してエッジ強調処理を施す。RGB変換回路108は、CSUP回路105から出力される色差信号R−Y、B−Yと、エッジ強調回路107から出力される輝度信号YとをRGB信号に変換する。ガンマ(γ)補正回路109は、RGB変換回路108から出力されるRGB信号に対して階調補正を施す。色輝度変換回路110は、ガンマ補正回路109において階調補正が施されたRGB信号をYUV信号に変換する。
背景ぼかし画像生成部111は、色輝度変換回路110から出力されるYUV信号に対して背景ぼけ効果を与える画像処理を施す。背景ぼかし画像生成部111の詳細な構成については後述する。JPEG圧縮回路112は、背景ぼけ効果が与えられたYUV信号をJPEG方式等により圧縮し、記録媒体113に記録する。なお、色変換マトリックス回路103、LPF回路104、CSUP回路105、輝度信号生成回路106、エッジ強調回路107、RGB変換回路108、ガンマ補正回路109、色輝度変換回路110、背景ぼかし画像生成部111、及び、JPEG圧縮回路112は、画像処理部117を構成する。なお、図1の例では、記録媒体113は、撮像装置100内部に配置した構成としたが、撮像装置100外部に配置した構成としてもよい。
図2は、背景ぼかし画像生成部111の内部構成を示す図である。図2に示すように、背景ぼかし画像生成部111は、エッジ検出部201、エッジ減算部202、エッジ積分値算出部203、エッジ積分値評価部204、領域マップ生成部205、ぼかし処理部206及び画像合成部207を備える。
エッジ検出部201は、主要被写体領域に合焦させて取得された画像データ(以下、主要被写体合焦画像データと称す)と、主要被写体合焦画像データを取得した際のフォーカスレンズ位置とは異なるフォーカスレンズ位置で取得された画像データ(以下、背景画像データと称す)とのそれぞれからエッジを抽出する。エッジ減算部202は、主要被写体合焦画像データから抽出されたエッジから、背景画像データから抽出されたエッジを減算することにより、エッジの差分をとった画像データ(以下、エッジ差分画像データと称す)を生成する。エッジ積分値算出部203は、エッジ差分画像データの各領域においてエッジ量を積分する。エッジ積分値評価部204は、エッジ積分値算出部203により算出された各領域のエッジ量に基づいて、各領域が主要被写体領域であるか背景領域であるかを判定する。領域マップ生成部205は、エッジ積分値評価部204の判定結果に基づいて、主要被写体領域と背景領域とを判別可能な切り出しマップを生成する。ぼかし処理部206は、切り出しマップに基づいて、ぼけ画像データを生成する。画像合成部207は、切り出しマップに基づいて、主要被写体合焦画像データとぼけ画像データとを合成する。これにより、背景領域がぼけた画像データ(以下、背景ぼかし画像データと称す)が生成される。なお、主要被写体合焦画像データは第1の画像データの例であり、背景画像データは第2の画像データの例である。
次に、図3を参照しながら、本実施形態に係る撮像装置100における背景ぼかし処理について説明する。
ステップS301において、制御部115は、主要被写体に合焦する位置へフォーカスレンズを移動させて主要被写体合焦画像データを取得させる。そして、制御部115は、主要被写体合焦画像データを取得した際のフォーカスレンズ位置とは異なるフォーカスレンズ位置へフォーカスレンズを移動させて、背景画像データを取得させる。ステップS302において、エッジ検出部201は、主要被写体合焦画像データ及び背景画像データそれぞれのエッジを抽出する。エッジ抽出方法の一例として、画像データに対してバンドパスフィルタリングを行って絶対値をとり、それぞれの画像データのエッジを抽出する方法が挙げられる。なお、エッジ抽出方法は、この方法に限定されない。
ステップS303において、エッジ減算部202は、画素毎に、主要被写体合焦画像データから抽出されたエッジから、背景画像データから抽出されたエッジを減算することにより、エッジ差分画像データを生成する。ステップS304において、エッジ積分値算出部203は、ステップS303で生成されたエッジ差分画像データを複数の領域に分割し、各領域においてエッジ量を積分する。
ステップS305において、エッジ積分値評価部204は、分割された領域毎に、エッジ量の積分値に基づいて当該領域が主要被写体領域であるか背景領域であるかを判定する。なお、閾値は、予め定められた固定値でもよいし、画像データのエッジのヒストグラム分布から適応的に求められた値でもよい。
ステップS306において、領域マップ生成部205は、ステップS305における判定結果に基づいて、主要被写体領域と背景領域とを判別可能な切り出しマップを生成する。切り出しマップの例として、合成比率を画像データ自体の画素値で表したものが挙げられる。なお、主要被写体領域と背景領域との境界の段差を目立たなくさせるために、境界部分にローパスフィルタをかけてもよい。
ステップS307において、ぼかし処理部206は、切り出しマップに基づいて、背景合焦画像データの背景領域に対してぼかし処理を行うことにより、ぼけ画像データを生成する。ぼかし処理は、点像ぼかし関数の特性を用いた手法でもよいし、2次元ローパスフィルタを用いた手法でもよいし、画像データの拡大縮小処理を用いた手法でもよい。
ステップS308において、画像合成部207は、切り出しマップに基づいて、主要被写体合焦画像データとぼけ画像データとを合成することにより、背景ぼかし画像データを生成する。即ち、画像合成部207は、切り出しマップの画素値から求まるα(0≦α≦1)に基づき、主要被写体合焦画像データIMG1とぼけ画像データIMG2とを合成することにより、背景ぼかし画像データBを生成する。このときの合成処理は、次の式1で表される。
B[i,j]=IMG1[i,j]*α[i,j]+IMG2[i,j]*(1−α)・・・式1
以上により、主要被写体領域付近の背景領域に対する被写体ぼけの影響を抑えた背景ぼかし画像データを生成することができる。
図4は、図3のステップS301における、主要被写体合焦画像データ及び背景画像データの取得処理の詳細を示すフローチャートである。なお、図4に示す処理は、ユーザにより撮影が指示されることに応じて開始される処理である。
ステップS401において、制御部115は、主要被写体領域を検出する。主要被写体領域の検出は、顔認識機能を利用したものであってもよいし、色やオートフォーカスによる焦点位置情報から算出したものでもよい。勿論、主要被写体領域の検出は、本撮影指示の前である、ライブビュー画像表示の際に行ってもよいことはいうまでもない。
ステップS402において、制御部115は、ステップS401で検出した主要被写体領域のフォーカスレンズの合焦位置を検出することで主要被写体距離を算出する。ステップS403において、制御部115は、背景領域のフォーカスレンズの合焦位置を検出することで背景領域距離を算出する。ステップS402における主要被写体距離の算出処理と、ステップS403における背景領域距離の算出処理とは、コンパクトデジタルカメラの代表的なオートフォーカスの制御方法であるコントラスト方式にて実行される。具体的には、フォーカスレンズを遠側から近側に移動させながら主要被写体領域に含まれる画像のコントラスト評価値を取得し、主要被写体領域におけるコントラスト評価値がピーク値をとるフォーカスレンズ位置である合焦位置を検出する。そして、その合焦位置、レンズ情報、絞り値及び焦点距離等に基づいて、主要被写体距離が算出される。背景領域距離の算出処理についても同様である。勿論、その際に深度情報も算出することができる。
図5は、主被写体領域と背景領域との画像のコントラスト評価値を取得するための画面上に設定される複数のフォーカス検出枠のうちの主要被写体領域のフォーカス枠aと背景領域のフォーカス枠bとを示す図である。また、図6は、図5に示す主要被写体領域のフォーカス枠aのコントラスト評価値及び背景領域のフォーカス枠bのコントラスト評価値と、被写体距離との関係を示す図である。一般的に、合焦位置と被写体距離とは、絞りやズームポジション毎に、予めフォーカスレンズ駆動用モータの制御情報と被写体距離とを測定する等して対応付けることが可能である。
ステップS404において、制御部115は、ステップS402で算出した主要被写体距離とステップS403で算出した背景領域距離とに基づいて、主要被写体領域に対応する被写体距離と背景領域に対応する被写体距離との距離が所定の深度以上離れているか否かを判定する。ここでいう所定の深度とは、所定の絞り、焦点距離及び主要被写体距離(被写体とカメラの間の距離)において、フォーカスレンズ位置を変化させたときのコントラスト評価値の低下量を予め測定しておき、主要被写体距離と背景領域距離とにおいて、コントラスト評価値の変動量が一定以上存在するかを判定することで得ることが可能である。
図6(a)の例においては、主要被写体距離が2560mmであり、背景領域距離が5120mm以上の無限位置であることを示している。そして、主要被写体距離では、主要被写体領域のコントラスト評価値が1.0であり、背景領域のコントラスト評価値が0.6である。一方、背景領域距離では、主要被写体領域のコントラスト評価値が0.5であり、背景領域のコントラスト評価値が1.0である。つまり、主要被写体距離において、主要被写体領域のコントラスト評価値より背景領域のコントラスト評価値がある程度下がっている。従って、この例においては、主要被写体領域に対応する被写体距離と背景領域に対応する被写体距離との距離が所定の深度以上離れている。そのため、図3のステップS303において、主要被写体合焦画像データと背景画像データとの間でエッジ量の差分が生じさせることができ、図3のステップS306において、主要被写体領域と背景領域とを判別可能な切り出しマップを生成することが可能となる。この場合、処理はステップS404からS408に移行する。
ステップS408において、制御部115は、主要被写体合焦画像データを取得させる。例えば、主要被写体領域のフォーカス枠aのコントラスト評価値がピークとなるフォーカスレンズ位置で画像データを取得させることで主要被写体合焦画像データを取得させる。ステップS409において、制御部115は、遠側画像データの取得、即ち、主要被写体領域よりも遠側のフォーカスレンズ位置で背景画像データを取得させる。主要被写体領域よりも遠側のフォーカスレンズ位置は、例えば背景領域に合焦するフォーカスレンズ位置(背景領域のフォーカス枠bのコントラスト評価値がピークとなるフォーカスレンズ位置)とすればよい。
図6(b)の例においては、主要被写体距離が5120mmであり、背景領域距離が5120mm以上の無限位置であることを示している。そして、主要被写体距離では、主要被写体領域のコントラスト評価値が1.0であり、背景領域のコントラスト評価値が0.9である。一方、背景領域距離では、主要被写体領域のコントラスト評価値が0.9であり、背景領域のコントラスト評価値が1.0である。つまり、主要被写体合焦画像データと背景画像データとの間でコントラスト差がほとんどなく、主要被写体領域に対応する被写体距離と背景領域に対応する被写体距離との距離が所定の深度未満である。従って、図3のステップS303において、主要被写体合焦画像データと背景画像データとの間でエッジ量の差分が生じさせることができず、図3のステップS306において、主要被写体領域と背景領域とを判別可能な切り出しマップを生成することもできなくなる。この場合、処理はステップS404からS405に移行する。
ステップS405において、制御部115は、主要被写体合焦画像データを取得させる。例えば、主要被写体領域のフォーカス枠aのコントラスト評価値がピークとなるフォーカスレンズ位置で画像データを取得させることで主要被写体合焦画像データを取得させる。ステップS406において、制御部115は、近側画像データの取得、即ち、主要被写体領域よりも近側のフォーカスレンズ位置で背景画像データを取得させる。以下、ステップS406にて取得された背景画像データを、近側画像データと称す。図6(b)の例では、2560mmの被写体距離で画像データを取得することにより、主要被写体領域のコントラスト評価値が0.9となり、背景領域のコントラスト評価値が0.6となり、主要被写体領域と背景領域とのコントラスト差をつけることができる。従って、図3のステップS303において、主要被写体合焦画像データと背景画像データとの間でエッジ量の差分が生じさせることができ、図3のステップS306において、主要被写体領域と背景領域とを判別可能な切り出しマップを生成することが可能となる。
近側画像データの取得の際のフォーカスレンズ位置の算出方法は、上述したように、主要被写体領域と背景領域とのコントラスト値の差分に基づいて決定してもよいし、一律に所定の深度だけ主要被写体領域より近側のフォーカスレンズ位置で近側画像データを取得するようにしてもよい。また、例えば、主要被写体領域が無限位置に位置する場合、コントラスト値の差分に基づいて近側画像データの取得の際のフォーカスレンズ位置を算出せず、所定の深度だけ主要被写体領域より近側のフォーカスレンズ位置で近側画像データを取得するようにしてもよい。
図7(a)は、主要被写体合焦画像データと遠側画像データとを用いて領域判定処理を示すフローチャートである。即ち、図7(a)は、図4のステップS404からS408に処理が分岐した場合に実行される処理を示している。なお、図7(a)は、図3のステップS302〜S305をより詳細に示したものである。
ステップS701において、エッジ検出部201は、主要被写体合焦画像データを入力し、当該主要被写体合焦画像データからエッジを抽出する。ステップS702において、エッジ検出部201は、遠側画像データを入力し、当該遠側画像データからエッジを抽出する。ステップS701とステップS702とは同時に実行してもよいし、順次実行するようにしてもよい。なお、ステップS701及びS702は、図3のステップS302に対応する処理である。
ステップS703において、エッジ減算部202は、画素毎に、主要被写体合焦画像データから抽出されたエッジから、遠側画像データから抽出されたエッジを減算し、エッジ差分画像データを生成する。なお、ステップS703は、図3のステップS303に対応する処理である。
ステップS704において、エッジ積分値算出部203は、ステップS703で生成されたエッジ差分画像データを複数の領域に分割し、各領域においてエッジ量を積分する。そして、エッジ積分値評価部204は、分割された領域毎に、エッジ量の積分値が正の値か負の値であるかに応じて、主要被写体合焦画像データ側のエッジが強いか、遠側画像データ側のエッジが強いかを判定する。即ち、エッジ積分値評価部204は、エッジ量の積分値が正の値である場合、当該領域については主要被写体合焦画像データ側のエッジが強いと判定し、エッジ量の積分値が負の値である場合、当該領域については遠側画像データ側のエッジが強いと判定する。主要被写体合焦画像データ側のエッジが強い場合、処理はステップS705に移行する。一方、遠側画像データ側のエッジが強い場合、処理はステップS706に移行する。
ステップS705において、エッジ積分値評価部204は、当該領域を主要被写体領域として判定する。ステップS706において、エッジ積分値評価部204は、当該領域を背景領域として判定する。ステップS707において、エッジ積分値評価部204は、全ての領域についてステップS704の判定処理を実行したか否かを判定する。全ての領域についてステップS704の判定処理を実行した場合、処理は終了する。一方、全ての領域についてステップS704の判定処理を実行していない場合、処理はステップS704に戻り、新たな領域についてステップS704の判定処理が実行される。なお、ステップS704〜S706は、図3のステップS304及びS305に対応する処理である。
図7(b)は、主要被写体合焦画像データと近側画像データとを用いて領域判定処理を示すフローチャートである。即ち、図7(b)は、図4のステップS404からS405に処理が分岐した場合に実行される処理を示している。なお、図7(b)は、図3のステップS302〜S305をより詳細に示したものである。また、図7(b)のステップS711〜S713は、図7(a)のステップS701〜S703と同一の処理であるため、それらの説明は省略する。
ステップS714において、エッジ積分値算出部203は、ステップS713で生成されたエッジ差分画像データを複数の領域に分割し、各領域においてエッジ量を積分する。そして、エッジ積分値評価部204は、分割された領域毎に、エッジ量の積分値が所定の閾値以上であるか否かに応じて、主要被写体合焦画像データのエッジ量と近側画像データのエッジ量との差分が大きいか否かを判定する。エッジ量の積分値が所定の閾値以上である場合、即ち、当該領域における主要被写体合焦画像データのエッジ量と近側画像データのエッジ量との差分が大きい場合、処理はステップS715に移行する。一方、エッジ量の積分値が所定の閾値未満である場合、即ち、当該領域における主要被写体合焦画像データのエッジ量と近側画像データのエッジ量との差分が小さい場合、処理はステップS716に移行する。
ステップS715において、エッジ積分値評価部204は、当該領域を背景領域として判定する。ステップS716において、エッジ積分値評価部204は、当該領域を主要被写体領域として判定する。ステップS716において、エッジ積分値評価部204は、全ての領域についてステップS714の判定処理を実行したか否かを判定する。全ての領域についてステップS714の判定処理を実行した場合、処理は終了する。一方、全ての領域についてステップS714の判定処理を実行していない場合、処理はステップS714に戻り、新たな領域についてステップS714の判定処理が実行される。
本実施形態では、コントラスト方式を用いて説明したが、位相差方式による方法でも可能である。その場合、画面上の複数の位置に位相差検出枠を設定することにより、主要被写体距離及び背景領域距離を算出できることはいうまでもない。
以上のように、本実施形態によれば、主要被写体領域の被写体距離と背景領域の被写体距離とが深度的に近く、主要被写体領域と背景領域との切り分けが難しい場合においても、フォーカスレンズの位置を変化させて、主要被写体領域と背景領域との間でコントラスト差がとれるような画像取得を行う。これにより、主要被写体領域を適切に抽出することが可能となり、ユーザにとって好ましい背景ぼかし画像データを提供することができる。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
111:背景ぼかし画像生成部、201:エッジ検出部、202:エッジ減算部、203:エッジ積分値算出部、204:エッジ積分値評価部、205:領域マップ生成部、206:ぼかし処理部、207:画像合成部

Claims (11)

  1. 主要被写体領域のフォーカスレンズの合焦位置と、前記主要被写体領域とは異なる領域の前記フォーカスレンズの合焦位置を検出する焦点検出手段と、
    前記主要被写体領域に合焦させて第1の画像データを取得するとともに、前記主要被写体領域に対応する被写体距離と前記主要被写体領域とは異なる領域に対応する被写体距離とに基づいて、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも遠側又は近側のフォーカスレンズ位置で第2の画像データを取得する撮像手段と、
    前記第1の画像データと前記第2の画像データとに基づいて、前記主要被写体領域と背景領域とを判定する判定手段とを有することを特徴とする撮像装置。
  2. 前記撮像手段は、前記主要被写体領域に対応する被写体距離と、前記主要被写体領域とは異なる領域に対応する被写体距離とに基づいて、前記主要被写体領域に対応する被写体距離と前記主要被写体領域とは異なる領域に対応する被写体距離との距離差が所定の深度以上であるか否かを判定し、前記主要被写体領域と前記主要被写体領域とは異なる領域との距離差が前記所定の深度以上である場合に前記主要被写体領域の前記フォーカスレンズの合焦位置よりも遠側のフォーカスレンズ位置で前記第2の画像データを取得し、前記主要被写体領域と前記主要被写体領域とは異なる領域との距離差が前記所定の深度未満である場合に前記主要被写体領域の前記フォーカスレンズの合焦位置よりも近側のフォーカスレンズ位置で前記第2の画像データを取得することを特徴とする請求項1に記載の撮像装置。
  3. 前記判定手段は、前記主要被写体領域に対応する被写体距離と前記主要被写体領域とは異なる領域に対応する被写体距離との距離差が前記所定の深度以上である場合、前記第1の画像データと、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも遠側のフォーカスレンズ位置で取得された前記第2の画像データとに基づいて、前記主要被写体領域と前記背景領域とを判定し、前記主要被写体領域に対応する被写体距離と前記主要被写体領域とは異なる領域に対応する被写体距離との距離差が前記所定の深度未満である場合、前記第1の画像データと、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも近側のフォーカスレンズ位置で取得された前記第2の画像データとに基づいて、前記主要被写体領域と前記背景領域とを判定することを特徴とする請求項2に記載の撮像装置。
  4. 前記判定手段は、前記第1の画像データと、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも遠側のフォーカスレンズ位置で取得された前記第2の画像データとに基づいて、前記主要被写体領域と前記背景領域とを判定する場合、前記第2の画像データから抽出されたエッジ量より前記第1の画像データから抽出されたエッジ量の方が高い領域を、前記主要被写体領域と判定し、前記第1の画像データから抽出されたエッジ量より前記第2の画像データから抽出されたエッジ量の方が高い領域を、前記背景領域と判定することを特徴とする請求項3に記載の撮像装置。
  5. 前記判定手段は、前記第1の画像データと、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも近側のフォーカスレンズ位置で取得された前記第2の画像データとに基づいて、前記主要被写体領域と前記背景領域とを判定する場合、前記第1の画像データから抽出されたエッジ量と前記第2の画像データから抽出されたエッジ量との差分が所定の閾値より高い領域を、前記背景領域と判定し、前記第1の画像データから抽出されたエッジ量と前記第2の画像データから抽出されたエッジ量との差分が所定の閾値未満の領域を、前記主要被写体領域と判定することを特徴とする請求項3又は4に記載の撮像装置。
  6. 前記撮像手段は、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも近側のフォーカスレンズ位置で前記第2の画像データを取得する際、前記主要被写体領域の画像データと前記背景領域の画像データとのコントラスト評価値の差分に基づいて当該フォーカスレンズ位置を決定することを特徴とする請求項1乃至5の何れか1項に記載の撮像装置。
  7. 前記撮像手段は、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも近側のフォーカスレンズ位置で前記第2の画像データを取得する際、前記主要被写体領域より所定の深度だけ近側のフォーカスレンズ位置で前記第2の画像データを取得することを特徴とする請求項1乃至6の何れか1項に記載の撮像装置。
  8. 前記判定手段の判定結果に基づいて、ぼかし処理が施された画像データと前記第1の画像データとを合成する合成手段を更に有することを特徴とする請求項1乃至7の何れか1項に記載の撮像装置。
  9. 前記ぼかし処理は、点像ぼかし関数、ローパスフィルタ、又は、画像データの拡大縮小処理を用いた手法の処理であることを特徴とする請求項8に記載の撮像装置。
  10. 撮像装置の制御方法であって、
    主要被写体領域のフォーカスレンズの合焦位置と、前記主要被写体領域とは異なる領域の前記フォーカスレンズの合焦位置とを検出する焦点検出ステップと、
    前記主要被写体領域に合焦させて第1の画像データを取得するとともに、前記主要被写体領域に対応する被写体距離と前記主要被写体領域とは異なる領域に対応する被写体距離とに基づいて、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも遠側又は近側のフォーカスレンズ位置で第2の画像データを取得する撮像ステップと、
    前記第1の画像データと前記第2の画像データとに基づいて、前記主要被写体領域と背景領域とを判定する判定ステップとを有することを特徴とする撮像装置の制御方法。
  11. 主要被写体領域のフォーカスレンズの合焦位置と、前記主要被写体領域とは異なる領域の前記フォーカスレンズの合焦位置とを検出する焦点検出ステップと、
    前記主要被写体領域に合焦させて第1の画像データを取得するとともに、前記主要被写体領域に対応する被写体距離と前記主要被写体領域とは異なる領域に対応する被写体距離とに基づいて、前記主要被写体領域の前記フォーカスレンズの合焦位置よりも遠側又は近側のフォーカスレンズ位置で第2の画像データを取得する撮像ステップと、
    前記第1の画像データと前記第2の画像データとに基づいて、前記主要被写体領域と背景領域とを判定する判定ステップとをコンピュータに実行させるためのプログラム。
JP2013044240A 2013-03-06 2013-03-06 撮像装置、その制御方法及びプログラム Withdrawn JP2014175703A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013044240A JP2014175703A (ja) 2013-03-06 2013-03-06 撮像装置、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013044240A JP2014175703A (ja) 2013-03-06 2013-03-06 撮像装置、その制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2014175703A true JP2014175703A (ja) 2014-09-22

Family

ID=51696573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013044240A Withdrawn JP2014175703A (ja) 2013-03-06 2013-03-06 撮像装置、その制御方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2014175703A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016086200A (ja) * 2014-10-23 2016-05-19 日本放送協会 画像合成装置および画像合成プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016086200A (ja) * 2014-10-23 2016-05-19 日本放送協会 画像合成装置および画像合成プログラム

Similar Documents

Publication Publication Date Title
CN107948519B (zh) 图像处理方法、装置及设备
JP5460173B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、撮像装置
JP4582423B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
EP2608527B1 (en) Image pickup apparatus, control method for image pickup apparatus, and storage medium
KR101847392B1 (ko) 화상처리장치 및 그 제어 방법
TWI602152B (zh) 影像擷取裝置及其影像處理方法
WO2017045558A1 (zh) 景深调节方法、装置及终端
JP2008294785A (ja) 画像処理装置、撮像装置、画像ファイル及び画像処理方法
US20120307009A1 (en) Method and apparatus for generating image with shallow depth of field
CN107872631B (zh) 基于双摄像头的图像拍摄方法、装置及移动终端
CN110177212B (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
JP2015040941A (ja) 撮像装置、その制御方法およびプログラム
JP2016032181A (ja) 画像処理装置、撮像装置および画像処理方法
JP5144724B2 (ja) 撮像装置、画像処理装置、撮像方法、及び画像処理方法
JP5499853B2 (ja) 電子カメラ
JP2010135984A (ja) 複眼撮像装置及び撮像方法
JP2023033355A (ja) 画像処理装置およびその制御方法
JP2015041865A (ja) 画像処理装置及び画像処理方法
JP2019016893A (ja) 画像処理装置およびその制御方法及びプログラム
JP5832618B2 (ja) 撮像装置、その制御方法及びプログラム
JP7246894B2 (ja) 撮像装置およびその制御方法
JP2014175703A (ja) 撮像装置、その制御方法及びプログラム
JP2014131188A (ja) 撮像装置、その制御方法、および制御プログラム
JP2012142729A (ja) カメラ
JP5871590B2 (ja) 撮像装置、及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161108

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20161114