JP2018042092A - 画像処理装置、撮像装置、制御方法およびプログラム - Google Patents
画像処理装置、撮像装置、制御方法およびプログラム Download PDFInfo
- Publication number
- JP2018042092A JP2018042092A JP2016174525A JP2016174525A JP2018042092A JP 2018042092 A JP2018042092 A JP 2018042092A JP 2016174525 A JP2016174525 A JP 2016174525A JP 2016174525 A JP2016174525 A JP 2016174525A JP 2018042092 A JP2018042092 A JP 2018042092A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- subject
- divided
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
【課題】設定した合焦面位置を確認しながら置きピン撮影ができる。【解決手段】画像処理装置は、被写体を撮像した撮像画像を生成する画像処理部106と、撮像画像内の各被写体の奥行き方向の深さを示す深度情報を生成する距離画像生成部108と、深度情報に基づいて、撮像画像から、深さ方向の異なる被写体それぞれに対応する複数の分割画像を生成し、生成された分割画像と焦点を合わせる合焦面を示す合焦面画像とを、深さ方向の距離に基づいて配置し表示画像を生成する表示画像生成部109と、を備える。【選択図】図1
Description
本発明は、画像処理装置、撮像装置、制御方法およびプログラムに関する。
動いている被写体(動体)に合焦面を合わせるときに、予め所望の位置に合焦面を合わせておき、動体が合焦面位置付近に到達した時に撮影を行う置きピン撮影が知られている。しかし、撮影レンズの光軸方向に移動する動体を置きピン撮影する場合、ファインダ等で視認される動体は、被写界深度範囲外ではぼけて見難くなる。このため、置きピン撮影は、熟練者でなければ、シャッターチャンスを逃したり動体のピントがぼけたりして、失敗画像を得る恐れがある。特許文献1は、まず合焦面を合わせたい位置と等距離にある基準対象物に合焦させてその位置を記憶し、次に主被写体に対して合焦させ追尾合焦し、動体が基準被写体距離付近に到達したタイミングで自動撮影を行う技術を開示している。
しかしながら、特許文献1に記載の発明では、合焦面を合わせたい位置に基準対象物が無い場合、置きピン撮影を行うことができない。また、基準対象物が無い位置に置きピンを設定しても所望の位置に設定できているかを確認する方法は言及されていない。
本発明は、設定した合焦面位置を確認しながら置きピン撮影ができる画像処理装置を提供することを目的とする。
上記課題を解決するために、本発明の画像処理装置は、被写体を撮像した撮像画像を生成する画像生成手段と、撮像画像内の各被写体の奥行き方向の深さを示す深度情報を生成する深度情報生成手段と、前記深度情報に基づいて、前記撮像画像から、深さ方向の異なる被写体それぞれに対応する複数の分割画像を生成する分割画像生成手段と、前記分割画像生成手段により生成された前記分割画像と焦点を合わせる合焦面を示す合焦面画像とを、深さ方向の距離に基づいて配置し表示画像を生成する表示画像生成手段と、を備える。
本発明によれば、設定した合焦面位置を確認しながら置きピン撮影ができる画像処理装置を提供することができる。
(実施例1)
本実施例の画像データを距離毎に分離して並べて表示する画像処理装置を適用したデジタルカメラの構成について図1を用いて説明する。図1は、本実施例のデジタルカメラの構成を示すブロック図である。
撮像装置100は、デジタルカメラであり、撮像素子102、A/D変換部103、メモリカードコントローラ104、メモリ部105、画像処理部106、制御部107、距離画像生成部108、表示画像生成部109、内部バス113を含む。また、撮像装置100は、表示部110、操作部111を備える。さらに、撮像装置100は、光学系101を備える。なお、光学系101は、カメラ本体部と一体に構成されていてもよいし、着脱可能であってもよい。メモリカード112は、撮像装置100に着脱可能である。
本実施例の画像データを距離毎に分離して並べて表示する画像処理装置を適用したデジタルカメラの構成について図1を用いて説明する。図1は、本実施例のデジタルカメラの構成を示すブロック図である。
撮像装置100は、デジタルカメラであり、撮像素子102、A/D変換部103、メモリカードコントローラ104、メモリ部105、画像処理部106、制御部107、距離画像生成部108、表示画像生成部109、内部バス113を含む。また、撮像装置100は、表示部110、操作部111を備える。さらに、撮像装置100は、光学系101を備える。なお、光学系101は、カメラ本体部と一体に構成されていてもよいし、着脱可能であってもよい。メモリカード112は、撮像装置100に着脱可能である。
制御部107は、例えばプログラマブルプロセッサ(以下、CPU)と、ROMと、RAMを有する。ROMに記憶されたプログラムをCPUで実行し、各部を制御して撮像装置100の機能を実現する。また、制御部107は、光学系101のレンズ位置と焦点距離に基づき合焦面までの距離を算出し、メモリ部105に格納する。合焦面までの距離の算出は、既知の公式であるニュートンの結像公式を用いる。
図2を参照して、ニュートンの結像公式について説明する。ニュートンの結像公式は、レンズの焦点距離をf、合焦面からレンズ101aまでの距離をA、レンズ101aから撮像素子102までの距離をBとすると、以下の式(1)で表される。
1/A+1/B=1/f ・・・(1)
例えば、焦点距離50mmのレンズを5mm繰り出したとき、合焦面からレンズまでの距離Aは、式(1)より、1/A+1/(50+5)=1/50となり、A=550mmで算出される。
1/A+1/B=1/f ・・・(1)
例えば、焦点距離50mmのレンズを5mm繰り出したとき、合焦面からレンズまでの距離Aは、式(1)より、1/A+1/(50+5)=1/50となり、A=550mmで算出される。
メモリカードコントローラ104は、各ブロックからの要求に基づき、画像データをメモリカード112に記録する。メモリカード112は、例えば、SDカードなどの撮像装置100本体に接続された着脱可能な記録媒体である。
メモリ部105は、揮発性メモリであり、各ブロックからの要求に基づき、一時的に画像データや距離画像などを保存するためのバッファメモリである。
メモリ部105は、揮発性メモリであり、各ブロックからの要求に基づき、一時的に画像データや距離画像などを保存するためのバッファメモリである。
光学系101は、レンズ、シャッター、絞りを有し、制御部107の指示に基づき、合焦距離、絞りの開口量、およびシャッターの開閉を制御することができる。
撮像素子102は、制御部107の制御に基づき、光学系101を通過した光束を光電変換して被写体像のアナログ信号を生成する。また、撮像素子102は、測距機能を有する素子を備える。測距機能を有する素子は、例えば、光学系101のレンズの瞳上の異なる領域を通過した光束が、測距機能を有する画素を配置した撮像素子102に露光し、露光された光像の像ズレ量(位相差)からデフォーカス量を算出できるよう構成する。
撮像素子102は、制御部107の制御に基づき、光学系101を通過した光束を光電変換して被写体像のアナログ信号を生成する。また、撮像素子102は、測距機能を有する素子を備える。測距機能を有する素子は、例えば、光学系101のレンズの瞳上の異なる領域を通過した光束が、測距機能を有する画素を配置した撮像素子102に露光し、露光された光像の像ズレ量(位相差)からデフォーカス量を算出できるよう構成する。
A/D変換部103は、制御部107の制御に基づき、撮像素子102から出力されたアナログ信号に対してA/D変換を行うことによりデジタル信号を生成する。
画像処理部106は、制御部107の制御に基づき、A/D変換部103の出力信号に対して、ノイズ除去、ガンマ補正処理、ホワイトバランス調整処理などを施すことにより画像データを生成する。さらに、必要に応じて符号化処理や復号処理を行い、得られた撮像画像の画像データをメモリ部105に格納する。
画像処理部106は、制御部107の制御に基づき、A/D変換部103の出力信号に対して、ノイズ除去、ガンマ補正処理、ホワイトバランス調整処理などを施すことにより画像データを生成する。さらに、必要に応じて符号化処理や復号処理を行い、得られた撮像画像の画像データをメモリ部105に格納する。
距離画像生成部108は、制御部107の制御に基づき、撮像素子102で得られた像ズレ量から被写体領域毎のデフォーカス量を算出し、距離画像を生成して、メモリ部105に格納する。距離画像は、領域毎(被写体毎)の奥行き方向の深さを示す深度情報を表すものであり、距離画像生成部108は、深度情報生成手段である。
表示画像生成部109は、分割画像生成手段として、制御部107の制御に基づき、メモリ部105に格納された画像データと距離画像から、画像データを特定の距離範囲の被写体のみを含むような複数の画像に分離した分割画像を生成する。また、合焦面の位置を示す半透明の合焦面画像を生成する。そして、表示画像生成部109は、距離画像と合焦面までの距離に基づいて、分割画像と合焦面画像を、奥行方向を距離とした軸上に配置し、奥行き分割画像を生成し、メモリ部105に設けた表示用フレームメモリに格納する。
表示画像生成部109は、分割画像生成手段として、制御部107の制御に基づき、メモリ部105に格納された画像データと距離画像から、画像データを特定の距離範囲の被写体のみを含むような複数の画像に分離した分割画像を生成する。また、合焦面の位置を示す半透明の合焦面画像を生成する。そして、表示画像生成部109は、距離画像と合焦面までの距離に基づいて、分割画像と合焦面画像を、奥行方向を距離とした軸上に配置し、奥行き分割画像を生成し、メモリ部105に設けた表示用フレームメモリに格納する。
表示部110は、LCD(液晶表示装置)とLCDコントローラーを有し、制御部107の制御に基づき、メモリ部105に格納された表示用フレームメモリの内容を読み出して、LCDに表示する。また、制御部107の制御に基づき、撮像装置100の状態や各種設定値などの各種情報、メニュー画面のようなユーザインタフェースなどを表示する。
操作部111は、デジタルカメラの外装に設けられたボタン等で構成され、ユーザはそれを操作することで、制御部107へ指示を伝えることができる。
操作部111は、デジタルカメラの外装に設けられたボタン等で構成され、ユーザはそれを操作することで、制御部107へ指示を伝えることができる。
次に、図3を用いて、奥行き分割画像と距離画像の例について説明する。
図3(A)、(B)、(C)は、撮影対象の被写体が合焦面に到達する前の奥行き分割画像と距離画像の例である。
図3(A)は、フレーミングを行うために光学系101、撮像素子102、A/D変換部103、画像処理部106によって撮像された画像データ310である。被写体として、人物311と人物312が異なる距離に位置している。ここでの撮影対象は、人物311とする。
図3(A)、(B)、(C)は、撮影対象の被写体が合焦面に到達する前の奥行き分割画像と距離画像の例である。
図3(A)は、フレーミングを行うために光学系101、撮像素子102、A/D変換部103、画像処理部106によって撮像された画像データ310である。被写体として、人物311と人物312が異なる距離に位置している。ここでの撮影対象は、人物311とする。
図3(B)は、距離画像生成部108によって生成される距離画像320ある。画素値(輝度値)が、その画素における被写体距離(奥行き方向の深さ)を表す単色画像である。距離画像320では、白色で表される画素値が高い(輝度値が高い)方が、奥行き方向の距離が短い位置(深度が浅い位置)にあることを示している。一方、黒色で示される画素値が低い(輝度値が低い)領域は、奥行き方向の距離が長い位置(深度が深い位置)にあることを示している。
図3(C)は、画像データ310と距離画像320から、表示画像生成部109によって生成される奥行き分割画像330である。奥行き分割画像330は、画像データ310を奥行き方向(深さ方向)に分割して、分割した画像を奥行き方向に並べて配置し、3次元的に表示される画像であり、画像データ310と距離画像320の画素値の分布に基づいて生成される。奥行き方向を示す軸上の数値は、メートル単位で表示している。分割画像331は、人物311が位置する被写体距離範囲を抽出した分割画像である。分割画像332は、人物312が位置する被写体距離範囲を抽出した分割画像である。分割画像333は、特定の距離より遠い範囲にある背景を抽出した分割画像である。背景に指定する特定の距離は、ユーザによって任意に設定できる。撮像素子102から見て、手前に(近距離)に位置する人物311に対応する分割画像331は、最も手前側のレイヤーに配置され、背景に対応する分割画像333は、もっとも奥側のレイヤーに配置される。分割画像332は、距離画像320に応じて設定されるレイヤーに配置される。
合焦面画像334は、ユーザが設定した合焦位置を示す合焦面画像である。本体位置335は、撮像装置100の位置を示す。図3(C)の奥行き分割画像330は、合焦面画像334で示される合焦面位置に主被写体である人物311がまだ到達していない状態を示している。
合焦面画像334は、ユーザが設定した合焦位置を示す合焦面画像である。本体位置335は、撮像装置100の位置を示す。図3(C)の奥行き分割画像330は、合焦面画像334で示される合焦面位置に主被写体である人物311がまだ到達していない状態を示している。
次に、時間が経過して、撮影対象の被写体が合焦面位置に到達したときの奥行き分割画像の例について、図4(A)、(B)を用いて説明する。
図4(A)は、図3(A)に対して、時間が経過したときの画像データ410である。主被写体である人物311と人物312が、図3(A)の時点より撮像装置100の方向に移動している。
図4(A)は、図3(A)に対して、時間が経過したときの画像データ410である。主被写体である人物311と人物312が、図3(A)の時点より撮像装置100の方向に移動している。
図4(B)は、画像データ410から表示画像生成部109によって生成される奥行き分割画像420である。人物311の被写体距離範囲を抽出した分割画像421と人物312の被写体距離範囲を抽出した分割画像422が、図3(C)の時点より合焦位置を示す合焦面画像424の方向に向かって移動し、分割画像421と合焦面画像424が等距離になっている。ユーザは、分割画像421と合焦面画像424が等距離になったタイミングで静止画撮影の指示を行えばよい。
撮像装置100は、所定のフレームレートで逐次撮像し、生成した奥行き分割画像を逐次LCDに表示する。ユーザは、表示される奥行き分割画像を確認しながら、所望のタイミングで静止画撮影の指示を行う。撮像装置100は、静止画撮影の指示に従い、静止画記録のための画像データを生成し、メモリ部105に格納する。
撮像装置100は、所定のフレームレートで逐次撮像し、生成した奥行き分割画像を逐次LCDに表示する。ユーザは、表示される奥行き分割画像を確認しながら、所望のタイミングで静止画撮影の指示を行う。撮像装置100は、静止画撮影の指示に従い、静止画記録のための画像データを生成し、メモリ部105に格納する。
次に、図5を用いて、画像データを距離毎に分離して並べて表示する奥行き分割画像の表示フローについて説明する。
ステップS501において、制御部107が、光学系101、撮像素子102、A/D変換部103、画像処理部106を制御し、所定のフレームレートで撮像して画像データを生成する。例えば、先に示した図3(A)の画像データ310が生成される。
ステップS501において、制御部107が、光学系101、撮像素子102、A/D変換部103、画像処理部106を制御し、所定のフレームレートで撮像して画像データを生成する。例えば、先に示した図3(A)の画像データ310が生成される。
ステップS502において、距離画像生成部108が、各被写体の奥行き方向の深さを示す深度情報を生成する。具体的には、被写体領域毎のデフォーカス量を算出し、各被写体の領域毎の距離画像を生成する。例えば、画像データ310の撮影に対して、先に示した図3(B)の距離画像320が生成される。なお、本実施形態において、デフォーカス量の算出方法は、位相差方式を用いるが、光学系を2つ搭載し2眼の撮像系により得た視差画像を用いるなど他の方法で算出しても良い。
ステップS503において、制御部107が、光学系101のレンズ位置と焦点距離に基づき、撮像素子102から合焦面までの距離を算出する。
ステップS503において、制御部107が、光学系101のレンズ位置と焦点距離に基づき、撮像素子102から合焦面までの距離を算出する。
ステップS504において、表示画像生成部109が、画像データと各被写体の領域毎の距離画像から、画像データを特定の距離範囲の被写体のみを含むような複数の画像に分離した分割画像を生成する。例えば、画像データ310と距離画像320に対して、先に示した図3(C)の分割画像331、分割画像332、分割画像333が生成される。
ステップS505において、表示画像生成部109が、奥行き分割画像を生成する。奥行き分割画像を生成するために、表示画像生成部109は、まず、合焦面の位置を示す半透明の合焦面画像を生成する。そして、合焦面までの距離と距離画像(深さ方向の距離)に基づいて、合焦面画像と分割画像を並べて配置し、奥行き分割画像を生成する。例えば、先に示した図3(C)の奥行き分割画像330が生成される。
ステップS506において、表示部110が、奥行き分割画像330を所定のフレームレートでLCDに表示する。
ステップS506において、表示部110が、奥行き分割画像330を所定のフレームレートでLCDに表示する。
ステップS507において、操作部111から合焦面位置の調整指示があるかを判定する。例えば、ユーザは、表示部110に表示された奥行き分割画像330の合焦面画像334を確認し、合焦面の調整が必要であれば、操作部より調整指示を行う。合焦面位置の調整は、合焦面を合わせる対象物が無い場合でも所望の位置に調整が可能であり、奥行き分割画像330に表示されている軸上の距離の数値を目安に調整する。合焦面位置を合わせたい対象物を目印にして調整することも可能である。合焦面位置の調整指示がある場合、ステップS508へ移行し、調整指示がない場合、ステップS509へ移行する。
ステップS508において、制御部107が、操作部111からの合焦面位置の調整指示に従い、光学系101のレンズを駆動し合焦面までの距離を変更する。
ステップS508において、制御部107が、操作部111からの合焦面位置の調整指示に従い、光学系101のレンズを駆動し合焦面までの距離を変更する。
ステップS509において、制御部107は、操作部111から静止画の撮影指示があるかを判定する。撮影指示がある場合、ステップS510へ移行し、撮影指示がない場合、ステップS501へ戻る。ユーザは表示部110に表示された奥行き分割画像330を確認し、所望の被写体が合焦面位置に到達したときに操作部111より撮影指示を行うことができる。このときの奥行き分割画像は、例えば、先に示した図4(B)の420である。
ステップS510において、操作部からの撮影指示に従い、制御部107が、光学系101、撮像素子102、A/D変換部103、画像処理部106を制御し、静止画記録のための画像データを生成し、メモリ部105に格納する。
ステップS510において、操作部からの撮影指示に従い、制御部107が、光学系101、撮像素子102、A/D変換部103、画像処理部106を制御し、静止画記録のための画像データを生成し、メモリ部105に格納する。
本実施例においては、深度情報として距離画像生成部108は距離画像を生成した。しかし、これに限られるものではなく、深度情報は撮像画像内の各被写体の奥行き方向の深さ(深度)を示すものであればよい。深度情報は、各被写体の撮像画像を撮像した撮像素子からの被写体距離を示す情報、あるいは各被写体のデフォーカス量を示す情報であってもよい。また、深度情報は、撮像画像内の被写体を撮像した複数視点の撮像画像間の像ずれ量を示す情報であってもよい。
以上説明したように、本実施例によれば、合焦面位置および被写体を距離毎に分離して並べて表示することで、確認しながら所望の位置に合焦面を合わせることができる。また、動体を撮影する際に、被写体の動きを3次元的に捉えながらの置きピン撮影が可能となる。
(実施例2)
次に、実施例2について説明する。本実施例では、実施例1の画像処理装置を適用したデジタルカメラの構成に対し、さらに被写体を認識する機能が追加され、画像データを距離毎に分離して並べて表示する際に、表示する画像を取捨選択することが可能となっている。
次に、実施例2について説明する。本実施例では、実施例1の画像処理装置を適用したデジタルカメラの構成に対し、さらに被写体を認識する機能が追加され、画像データを距離毎に分離して並べて表示する際に、表示する画像を取捨選択することが可能となっている。
図6を用いて、本実施例におけるデジタルカメラの構成について説明する。デジタルカメラである撮像装置600において、光学系101から距離画像生成部108、表示部110から内部バス113のブロックは、実施例1の撮像装置100のブロックと同じである。
被写体認識部614は、制御部107の制御に基づき、メモリ部105に格納された各分割画像に対し被写体検出および被写体領域の切り出しを行い、切り出した被写体領域から被写体を認識するための特徴情報を抽出し、メモリ部105に格納する。そして、被写体認識部614は、抽出した特徴情報とあらかじめ辞書データとしてメモリ部105に登録されている被写体(以下、登録済被写体と称す)の特徴情報とを比較して、類似度を算出する。被写体認識部614は、特徴情報を比較することで得られた類似度に基づいて、被認識対象の被写体がどの登録済被写体であるか、または該当する登録済被写体存在しないかの認識処理を行う。
表示画像生成部109は、実施例1と同様に、奥行き分割画像を生成し、メモリ部105に設けた表示用フレームメモリに格納する。その際に、被写体認識部614の認識処理の結果に基づき、登録済被写体として認識された被写体の分割画像のみを用いて奥行き分割画像を生成する。
次に、図7を用いて、本実施例における奥行き分割画像について説明する。
図7は、図3(A)の画像データ310から表示画像生成部109によって生成される奥行き分割画像700である。実施例1で生成した奥行き分割画像330との相違点は、人物311の位置する距離範囲の分割画像331のみが表示されている点である。撮影対象である人物311の特徴情報は、あらかじめ辞書データとしてメモリ部105に登録されているものとする。そして、被写体認識部614が、分割画像331、332、333と辞書データの人物311の特徴情報とを比較することで認識処理を行い、人物311の分割画像のみが一致する結果を得る。表示画像生成部109は、被写体認識部614の認識処理結果を受けて、人物311の分割画像331と合焦位置を示す合焦面画像334のみを配置した奥行き分割画像を生成する。
図7は、図3(A)の画像データ310から表示画像生成部109によって生成される奥行き分割画像700である。実施例1で生成した奥行き分割画像330との相違点は、人物311の位置する距離範囲の分割画像331のみが表示されている点である。撮影対象である人物311の特徴情報は、あらかじめ辞書データとしてメモリ部105に登録されているものとする。そして、被写体認識部614が、分割画像331、332、333と辞書データの人物311の特徴情報とを比較することで認識処理を行い、人物311の分割画像のみが一致する結果を得る。表示画像生成部109は、被写体認識部614の認識処理結果を受けて、人物311の分割画像331と合焦位置を示す合焦面画像334のみを配置した奥行き分割画像を生成する。
次に、図8を用いて、実施例2における画像データを距離毎に分離して並べて表示する奥行き分割画像表示フローについて説明する。ステップS801からステップS804は、実施例1の図5で説明したステップS501からステップS504と同じ処理フローである。また、ステップS806からステップS810も、実施例1の図5で説明したステップS506からステップS510と同じ処理フローである。
ステップS811において、被写体認識部614が、ステップS804で生成した各分割画像と辞書データの特徴情報とを比較することで認識処理を行う。辞書データは、本フローを実施する前に、あらかじめ登録されているものとする。
ステップS805において、ステップS811の認識処理結果に基づいて、被写体認識された分割画像のみを抽出し、奥行き分割画像を生成する。例えば、図7では、被写体として人物311が認識されるため、分割画像331が抽出され、奥行き分割画像700が生成される。
ステップS805において、ステップS811の認識処理結果に基づいて、被写体認識された分割画像のみを抽出し、奥行き分割画像を生成する。例えば、図7では、被写体として人物311が認識されるため、分割画像331が抽出され、奥行き分割画像700が生成される。
以上説明したように、本実施例によれば、被写体の認識処理を行い、表示する画像を主被写体のみに限定することで、被写体の動きを3次元的に捉えながらの置きピン撮影において、主被写体の動きに注力して撮影することができる。
(実施例3)
次に、実施例3について説明する。本実施例では、実施例1の画像処理装置を適用したデジタルカメラの構成に対し、さらに被写体の光軸方向の動き量を算出する機能が追加され、画像データを距離毎に分離して並べて表示する際に、表示する画像を取捨選択することが可能となっている。
次に、実施例3について説明する。本実施例では、実施例1の画像処理装置を適用したデジタルカメラの構成に対し、さらに被写体の光軸方向の動き量を算出する機能が追加され、画像データを距離毎に分離して並べて表示する際に、表示する画像を取捨選択することが可能となっている。
図9を用いて、本実施例におけるデジタルカメラの構成について説明する。
撮像装置900において、光学系101から距離画像生成部108、表示部110から内部バス113のブロックは、実施例1の撮像装置100のブロックと同じである。
撮像装置900において、光学系101から距離画像生成部108、表示部110から内部バス113のブロックは、実施例1の撮像装置100のブロックと同じである。
動き量算出部914は、制御部107の制御に基づき、メモリ部105に格納された現在のフレームの分割画像と前フレームの分割画像との相関値を算出する。相関値の算出は、例えば、一方の画像を複数のマクロブロックに分割し、個々のマクロブロックをテンプレートとして、他方の画像における対応するマクロブロックの位置を中心とする所定の探索範囲内を移動しながら両者の類似度を求める方法で行われる。そして、動き量算出部914は、算出結果より、現在のフレームの分割画像と前フレームの分割画像との対応付けを行い、対応付けられた分割画像が位置する距離の差分から分割画像の光軸方向の動き量(動きベクトル)を算出し、動きを検出する。
表示画像生成部109は、実施例1と同様の処理を行い、奥行き分割画像を生成し、メモリ部105に設けた表示用フレームメモリに格納する。その際に、動き量算出部914の動きベクトル算出結果(動きの検出結果)に基づき、合焦面に向かって動く被写体の分割画像のみを抽出し、メモリ部105に設けた表示用フレームメモリに格納する。つまり、所望の方向に動いていない被写体の分割画像は削除した奥行き分割画像を生成する。
次に、図10を用いて、本実施例における奥行き分割画像の例について説明する。
図10(A)は、フレーミングを行うために光学系101、撮像素子102、A/D変換部103、画像処理部106によって撮像された画像データ1010である。被写体として、人物1011と人物1012が異なる距離に位置している。人物1011は、合焦面に向かって移動しており、人物1012は、静止している。ここでの撮影対象は、人物1011とする。
図10(A)は、フレーミングを行うために光学系101、撮像素子102、A/D変換部103、画像処理部106によって撮像された画像データ1010である。被写体として、人物1011と人物1012が異なる距離に位置している。人物1011は、合焦面に向かって移動しており、人物1012は、静止している。ここでの撮影対象は、人物1011とする。
図10(B)は、実施例1と同様に動き量算出結果に基づかずに、図10(A)の画像データから表示画像生成部109によって生成される奥行き分割画像1020である。奥行き分割画像1020は、人物1011の分割画像1021、人物1012の分割画像1022、背景の分割画像1023および合焦面画像1024を、距離画像に従って並べた画像である。
図10(C)は、動き量算出結果に基づいて、分割画像を抽出した奥行き分割画像1030である。奥行き分割画像1020との相違点は、分割画像として人物1011の分割画像のみが表示されている点である。動き量算出部914が、各分割画像に対し前フレームの分割画像とブロックマッチングを行い、人物1011の位置する距離範囲の分割画像1021についてのみ動き量を算出したため、分割画像1021のみが表示されている。
次に、図11を用いて、第3の実施例における画像データを距離毎に分離して並べて表示するフローについて説明する。ステップS1101からステップS1104は、実施例1の図5で説明したステップS501からステップS504と同じ処理フローである。また、ステップS1106からステップS1110も、実施例1の図5で説明したステップS506からステップS510と同じ処理フローである。
ステップS1111において、動き量算出部914が、ステップS1104で生成した各分割画像と前フレームの分割画像とをブロックマッチングすることで被写体の動きベクトルを算出し、動きの検出を行う。
ステップS1105において、ステップS1111の被写体の動きの検出(動きベクトル算出結果)に基づいて、合焦面に向かって動く被写体の分割画像のみを抽出し、奥行き分割画像を生成する。
ステップS1105において、ステップS1111の被写体の動きの検出(動きベクトル算出結果)に基づいて、合焦面に向かって動く被写体の分割画像のみを抽出し、奥行き分割画像を生成する。
以上説明したように、本実施例によれば、被写体の動きベクトルの算出を行い、表示する画像を主被写体のみに限定することで、被写体の動きを3次元的に捉えながらの置きピン撮影において、主被写体の動きに注力して撮影することができる。
(実施例4)
次に、実施例4について説明する。本実施例では、画像データを距離毎に分離して並べて表示する際に、被写体が所定の距離範囲に入ったことを明示する機能が追加されている。
本実施例におけるデジタルカメラの構成は、実施例1の画像処理装置を適用したデジタルカメラの構成と同様であるため、図1を用いて、本実施例におけるデジタルカメラの構成について説明する。
本実施例の撮像装置100において、光学系101から画像処理部106、距離画像生成部108から内部バス113のブロックは、実施例1の撮像装置100のブロックと同じである。
次に、実施例4について説明する。本実施例では、画像データを距離毎に分離して並べて表示する際に、被写体が所定の距離範囲に入ったことを明示する機能が追加されている。
本実施例におけるデジタルカメラの構成は、実施例1の画像処理装置を適用したデジタルカメラの構成と同様であるため、図1を用いて、本実施例におけるデジタルカメラの構成について説明する。
本実施例の撮像装置100において、光学系101から画像処理部106、距離画像生成部108から内部バス113のブロックは、実施例1の撮像装置100のブロックと同じである。
制御部107は、実施例1と同様の処理を行い、さらに所定の深さ方向の距離範囲(被写界深度)を算出し、範囲設定する。被写界深度の計算式において、許容錯乱円径をδ、レンズの焦点距離をf、絞り値をF、合焦面からレンズまでの距離をAとする。前方被写界深度Tfは式(2)、後方被写界深度Trは式(3)で表される。
Tf=(δ×F×A^2)/(f^2+δ×F×A) ・・・(2)
Tr=(δ×F×A^2)/(f^2―δ×F×A) ・・・(3)
許容錯乱円径δは、撮像素子によって決まる係数で、本実施例では制御部107のROMに格納されているものとする。
なお、本実施形態において、深さ方向の距離範囲である被写界深度の範囲は、ユーザ操作によって手動で設定されてもよい。
Tf=(δ×F×A^2)/(f^2+δ×F×A) ・・・(2)
Tr=(δ×F×A^2)/(f^2―δ×F×A) ・・・(3)
許容錯乱円径δは、撮像素子によって決まる係数で、本実施例では制御部107のROMに格納されているものとする。
なお、本実施形態において、深さ方向の距離範囲である被写界深度の範囲は、ユーザ操作によって手動で設定されてもよい。
表示画像生成部109は、実施例1と同様の処理を行い、奥行き分割画像を生成し、メモリ部105に設けた表示用フレームメモリに格納する。その際に、分割画像が所定の深さ方向の距離範囲に配置されたとき、分割画像の枠を強調表示する。強調表示の目的は、被写体が所定の距離範囲に入ったことをユーザに通知することであり、分割画像の枠を強調する方法に限られず、分割画像の背面を黒塗りするなど他の方法でも構わない。
次に、図12を用いて、実施例における奥行き分割画像の例について説明する。
図12(A)は、フレーミングを行うために光学系101、撮像素子102、A/D変換部103、画像処理部106によって撮像された画像データ1210である。被写体として、人物1211と人物1212が異なる距離に位置している。ここでの撮影対象は、人物1211とする。
図12(B)は、図12(A)に対して、時間が経過したときの画像データ1220である。被写体が撮像装置100に向かって移動し、人物1211が所定の距離範囲に入っている。
図12(A)は、フレーミングを行うために光学系101、撮像素子102、A/D変換部103、画像処理部106によって撮像された画像データ1210である。被写体として、人物1211と人物1212が異なる距離に位置している。ここでの撮影対象は、人物1211とする。
図12(B)は、図12(A)に対して、時間が経過したときの画像データ1220である。被写体が撮像装置100に向かって移動し、人物1211が所定の距離範囲に入っている。
図12(C)は、図12(A)の画像データから表示画像生成部109によって生成される奥行き分割画像1230である。距離の軸上に、制御部107によって算出された前方被写界深度Tfと後方被写界深度Trが示されている。ここでは、前方被写界深度が5m、後方被写界深度が5mであるとする。分割画像1231は、人物1211が位置する被写体距離範囲を抽出した分割画像である。分割画像1232は、人物1212が位置する被写体距離範囲を抽出した分割画像である。分割画像1233は、特定の距離より遠い範囲にある背景を抽出した分割画像である。背景に指定する特定距離は、ユーザによって任意に設定できる。合焦面画像1234は、ユーザが設定した合焦位置を示す合焦面画像である。
図12(D)は、図12(B)の画像データから表示画像生成部109によって生成される奥行き分割画像1230である。人物1211が、合焦面に対して後方被写界深度Trの位置に到達しているので、分割画像1231の枠が強調表示されている。
図12(D)は、図12(B)の画像データから表示画像生成部109によって生成される奥行き分割画像1230である。人物1211が、合焦面に対して後方被写界深度Trの位置に到達しているので、分割画像1231の枠が強調表示されている。
次に、図13を用いて、実施例4における画像データを距離毎に分離して配置し、奥行き分割画像を表示するフローについて説明する。ステップS1301からステップS1303は、実施例1の図5で説明したステップS501からステップS503と同じ処理フローである。また、ステップS1304、ステップS1305からステップS1310も、実施例1の図5で説明したステップS504と同じ処理フローである。
ステップS1311において、制御部107が、被写界深度の計算式に基づき、深さ方向の所定の距離範囲(被写界深度)である前方被写界深度Tfと後方被写界深度Trを算出する。
ステップS1312は、ステップS1311の被写界深度の算出結果に基づいて、被写体が被写界深度の範囲にいるかを判断する。被写体が被写界深度の範囲にいる場合、ステップS1313に移行し、被写体が被写界深度の範囲にいない場合、ステップS1305に移行する。
ステップS1313は、表示画像生成部109が、被写界深度の範囲に入った被写体の分割画像の枠を強調する加工を行う。
ステップS1312は、ステップS1311の被写界深度の算出結果に基づいて、被写体が被写界深度の範囲にいるかを判断する。被写体が被写界深度の範囲にいる場合、ステップS1313に移行し、被写体が被写界深度の範囲にいない場合、ステップS1305に移行する。
ステップS1313は、表示画像生成部109が、被写界深度の範囲に入った被写体の分割画像の枠を強調する加工を行う。
以上説明したように、本実施例によれば、被写体の動きを3次元的に捉えながらの置きピン撮影において、被写界深度の算出を行い、被写体が被写界深度の範囲に入ったことを明示することで、撮影タイミングを逃すことを防ぐことができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について説明したが、本発明は、これらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。
100 撮像装置
106 画像処理部
108 距離画像生成部
109 表示画像生成部
106 画像処理部
108 距離画像生成部
109 表示画像生成部
Claims (13)
- 被写体を撮像した撮像画像を生成する画像生成手段と、
撮像画像内の各被写体の奥行き方向の深さを示す深度情報を生成する深度情報生成手段と、
前記深度情報に基づいて、前記撮像画像から、深さ方向の異なる被写体それぞれに対応する複数の分割画像を生成する分割画像生成手段と、
前記分割画像生成手段により生成された前記分割画像と焦点を合わせる合焦面を示す合焦面画像とを、深さ方向の距離に基づいて配置し表示画像を生成する表示画像生成手段と、を備えることを特徴とする画像処理装置。 - 前記撮像画像から特定の被写体を認識する認識手段を備え、
前記表示画像生成手段は、前記分割画像として、前記認識手段において認識した被写体に対応する分割画像のみを配置することを特徴とする請求項1に記載の画像処理装置。 - 前記認識手段は、予め登録されている特定の被写体の特徴情報と、撮像画像から抽出した被写体の特徴情報とを比較して、前記特定の被写体を認識することを特徴とする請求項2に記載の画像処理装置。
- 前記被写体の深さ方向の動きを検出する検出手段を備え、
前記表示画像生成手段は、前記分割画像として、前記検出手段において動きの検出された被写体に対応する分割画像のみを配置することを特徴とする請求項1に記載の画像処理装置。 - 前記表示画像生成手段は、前記分割画像として、前記検出手段において動きの検出された被写体のうち、前記合焦面の方向に動く被写体に対応する分割画像のみを配置することを特徴とする請求項4に記載の画像処理装置。
- 深さ方向の所定の範囲を設定する範囲設定手段を備え、
前記表示画像生成手段は、前記分割画像が、前記深さ方向の所定の範囲に含まれる場合、該分割画像を強調表示する表示画像を生成することを特徴とする請求項1乃至5のうちいずれか1項に記載の画像処理装置。 - 前記深度情報生成手段は、前記深度情報を、画素値あるいは輝度値によって表す距離画像として生成することを特徴とする請求項1乃至6のうちいずれか1項に記載の画像処理装置。
- 前記表示画像には、さらに、深さ方向を示す軸及び深さ方向の距離を示す数値を表示し、前記分割画像および前記合焦面画像は、前記軸に沿って配置されることを特徴とする請求項1乃至7のうちいずれか1項に記載の画像処理装置。
- 前記合焦面を、ユーザの操作により設定する操作手段と、
前記ユーザの操作に基づいて、レンズを駆動する制御を行う制御部と、を備え、
前記合焦面までの深さ方向の距離は、レンズの位置とレンズの焦点距離に基づいて算出されることを特徴とする請求項1乃至8のうちいずれか1項に記載の画像処理装置。 - 前記表示画像を表示する表示手段を備えることを特徴とする請求項1乃至9のうちいずれか1項に記載の画像処理装置。
- 請求項1乃至10のうちいずれか1項に記載の画像処理装置と、
被写体を撮像する撮像手段を備えることを特徴とする撮像装置。 - 画像処理装置の制御方法であって、
被写体を撮像した撮像画像を生成する工程と、
撮像画像内の各被写体の奥行き方向の深さを示す深度情報を生成する工程と、
前記深度情報に基づいて、前記撮像画像から、深さ方向の異なる被写体それぞれに対応する複数の分割画像を生成する工程と、
生成された前記分割画像と焦点を合わせる合焦面を示す合焦面画像とを、深さ方向の距離に基づいて配置し表示画像を生成する工程と、を有することを特徴とする制御方法。 - コンピュータを請求項1乃至10のうちいずれか1項に記載の画像処理装置の各手段として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016174525A JP2018042092A (ja) | 2016-09-07 | 2016-09-07 | 画像処理装置、撮像装置、制御方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016174525A JP2018042092A (ja) | 2016-09-07 | 2016-09-07 | 画像処理装置、撮像装置、制御方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018042092A true JP2018042092A (ja) | 2018-03-15 |
Family
ID=61626434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016174525A Pending JP2018042092A (ja) | 2016-09-07 | 2016-09-07 | 画像処理装置、撮像装置、制御方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018042092A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023011302A1 (zh) * | 2021-07-31 | 2023-02-09 | 华为技术有限公司 | 拍摄方法及相关装置 |
-
2016
- 2016-09-07 JP JP2016174525A patent/JP2018042092A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023011302A1 (zh) * | 2021-07-31 | 2023-02-09 | 华为技术有限公司 | 拍摄方法及相关装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10264174B2 (en) | Photographing apparatus and focus detection method using the same | |
JP5206095B2 (ja) | 構図判定装置、構図判定方法、プログラム | |
JP6512810B2 (ja) | 撮像装置および制御方法とプログラム | |
JP5713055B2 (ja) | 撮像装置、撮像方法及びプログラム | |
JP6184189B2 (ja) | 被写体検出装置およびその制御方法、撮像装置、被写体検出装置の制御プログラムおよび記憶媒体 | |
JP5789091B2 (ja) | 撮像装置および撮像装置の制御方法 | |
JP2010015024A (ja) | 撮像装置、その制御方法、プログラム及び記憶媒体 | |
KR20070118036A (ko) | 촬상 장치와 촬상 장치 제어 방법, 및 컴퓨터 프로그램 | |
US8648960B2 (en) | Digital photographing apparatus and control method thereof | |
JP2014126710A (ja) | 自動焦点検出装置およびその制御方法、撮像装置 | |
JP2012027229A (ja) | 撮像装置および撮像方法 | |
JP6548436B2 (ja) | 焦点検出装置およびその制御方法 | |
JP6391304B2 (ja) | 撮像装置、制御方法およびプログラム | |
JP2013008004A (ja) | 撮像装置 | |
JP2010091669A (ja) | 撮像装置 | |
JP2008282031A (ja) | 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム | |
JP2007133301A (ja) | オートフォーカスカメラ | |
JP6881909B2 (ja) | 撮像装置及びその制御方法、及び画像処理装置及び方法 | |
US10248859B2 (en) | View finder apparatus and method of operating the same | |
JP4996568B2 (ja) | 撮像装置および撮像装置の制御方法 | |
EP2690859B1 (en) | Digital photographing apparatus and method of controlling same | |
JP2018042092A (ja) | 画像処理装置、撮像装置、制御方法およびプログラム | |
KR20160123757A (ko) | 이미지 촬영 장치 및 이미지 촬영 방법 | |
JP2019032370A (ja) | 撮像装置、及びその制御方法 | |
JP2008098739A (ja) | 撮像装置、撮像装置に用いられる画像処理方法および当該画像処理方法をコンピュータに実行させるプログラム |