JP6728421B2 - 画像処理装置、撮影装置、画像処理方法及びプログラム - Google Patents

画像処理装置、撮影装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6728421B2
JP6728421B2 JP2019028159A JP2019028159A JP6728421B2 JP 6728421 B2 JP6728421 B2 JP 6728421B2 JP 2019028159 A JP2019028159 A JP 2019028159A JP 2019028159 A JP2019028159 A JP 2019028159A JP 6728421 B2 JP6728421 B2 JP 6728421B2
Authority
JP
Japan
Prior art keywords
focus position
focus
display
distance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019028159A
Other languages
English (en)
Other versions
JP2019113856A (ja
Inventor
進太郎 下倉
進太郎 下倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019028159A priority Critical patent/JP6728421B2/ja
Publication of JP2019113856A publication Critical patent/JP2019113856A/ja
Application granted granted Critical
Publication of JP6728421B2 publication Critical patent/JP6728421B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像処理装置、撮影装置、画像処理方法及びプログラムに関し、特に、フォーカスブラケット撮影機能を備えた画像処理装置、撮影装置、画像処理方法及びプログラムに関する。
カメラ等の撮像装置において、撮影の際に決定したフォーカス位置を前後に移動させて複数のフォーカス位置に対応する複数回の撮影を行うフォーカスブラケット撮影機能を備えた撮像装置が知られている。フォーカスブラケット撮影機能は、例えば、フォーカス位置を合わせるのがシビアな場合の救済策として使用される。また、フォーカスブラケット撮影機能は、フォーカス位置の異なる複数の画像を撮影してベストショットを選択するか又は各画像の良否等を比較する場合に有用である。
しかし、フォーカス位置を前後に移動させて行うフォーカスブラケット撮影は、ユーザが意識してフォーカスを合わせて行う撮影ではないので、撮影の際に、ユーザがフォーカス位置を把握し難いという問題がある。
このような問題に対し、特許文献1には、撮影前に被写体の顔までの距離を想定しておくことによって、撮影の際にフォーカスが合わせられる被写体位置に枠を表示する技術が開示されている。また、特許文献2には、フォーカスブラケット撮影の前に、フォーカスが合わない撮影を検出し、当該フォーカスが合わない撮影をフォーカスブラケット撮影から除外する技術が開示されている。
特開2010−002860号公報 特開2010−206552号公報
しかしながら、特許文献1記載の技術は、被写体に顔があれば、フォーカス位置を把握することができるものの被写体に顔がない場合は枠が表示されないので、例えば、景色をフォーカスブラケット撮影する際のフォーカス位置を把握することはできない。また、特許文献2記載の技術は、フォーカスが合っていない無駄な撮影をなくしてフォーカスが合っている画像のみを撮影する技術であり、撮影前にフォーカス位置を把握できる技術ではない。
本発明は、上記従来技術に鑑み、フォーカスブラケット撮影機能によって複数枚の画像を撮影する際に、ユーザが、撮影ごとにフォーカスが合っている撮影箇所を把握することができる画像処理装置、撮影装置、画像処理方法及びプログラムを提供することを目的とする。
上記課題を解決するために、請求項1記載の画像処理装置は、第1のフォーカス位置と少なくとも1つの第2のフォーカス位置とを含む異なる複数のフォーカス位置にフォーカスを合わせた複数の画像をフォーカスブラケットにて撮影する際の被写体までの距離情報を取得する取得手段と、前記複数の画像に対応する表示を行う表示手段と、前記第1のフォーカス位置に基づく前記少なくとも1つの第2のフォーカス位置に対応する部位であって、前記表示手段によって表示されている像の部位に、前記第2のフォーカス位置である旨の表示を前記表示手段に行わせる制御手段と、を有することを特徴とする。
本発明によれば、フォーカスブラケット撮影機能によって複数枚の画像を撮影する際に、撮影ごとのフォーカス位置が表示されるので、ユーザは、撮影ごとにフォーカスが合っている撮影箇所を把握することができる。
第1の実施形態に係る撮像装置の制御構成を示すブロック図である。 図1の撮像装置で実行されるフォーカス位置表示処理の手順を示すフローチャートである。 図1の撮像装置における撮像素子の画素配列を示す図である。 図3の画素配列を有する撮像素子からの画像信号に基づいて被写体距離を算出する方法を説明するための図である。 図1の撮像装置におけるレンズ、被写体、背景の位置関係を示す図である。 図1の撮像装置における撮像素子で得られた画像の距離マップ情報を示す図である。 フォーカス位置までの距離と、距離マップ情報における距離情報が一致するか否かを判定する判定方法を示す工程図である。 フォーカス位置に被写体が存在しない場合におけるフォーカス位置までの距離と、距離マップ情報における距離情報が一致するか否かを判定する判定方法を示す工程図である。 第2の実施の形態で実行されるフォーカスブラケット撮影時のフォーカス位置表示処理の手順を示すフローチャートである。 被写界深度を加味したフォーカス位置の範囲内に距離情報が含まれる距離マップ情報があるか否かを判定する判定方法を示す工程図である。 第3の実施の形態で実行されるフォーカスブラケット撮影処理の手順を示すフローチャートである。 図11のステップS318で実行される再生方法の工程を示す図である。 図11のステップS318で実行される再生処理の手順を示すフローチャートである。
以下、本発明の実施の形態について図面を参照しつつ詳細に説明する。
図1は、第1の実施の形態に係る撮像装置の制御構成を示すブロック図である。
図1において、画像処理装置としての撮像装置100は、CPU101を備えている。CPU101は、レンズ駆動部103、タイミング発生回路106、A/D変換回路105、撮像SW(シャッター)107、操作部108とそれぞれ接続されている。CPU101は、また、レンズ駆動部103を介して光学ユニット部102に接続されており、タイミング発生回路106を介して撮像素子104と接続されている。CPU101は、また、バスを介してRAM109、ROM110、画像処理部111、表示部112、距離マップ情報取得部113、距離比較判定部114、インターフェース(I/F)115と接続されている。インターフェース(I/F)115は、コネクタ116及び201を介して外部記録装置200と接続されている。外部記録装置200は、インターフェース(I/F)202及び記録部203を備えている。
CPU101は、撮像装置100の全ての動作を統括して制御する。光学ユニット部102は、被写体像を結像させるためのレンズ、例えば、ズームレンズやフォーカスレンズで構成されている。レンズ駆動部103は、光学ユニット部102に対して撮影倍率やフォーカス位置などの調整を行う。光学ユニット部102、レンズ駆動部103は、CPU101からの指示を受けてフォーカス制御を行う。その際、CPU101は、レンズ駆動部103に対するレンズ制御情報に基づいてフォーカスを合わせた被写体までの距離を算出する。
撮像素子104は、被写体の光学像を電気信号に変換するためのCCDやCMOSで構成されている。A/D変換回路105は、撮像素子104から出力されるアナログ信号をデジタル信号に変換する。タイミング発生回路106は、CPU101の制御を受けて撮像素子104、A/D変換回路105にクロック信号や制御信号を供給する。撮像SW107は、ユーザが撮像を指示するためのシャッターである。操作部108は、ユーザが撮像装置100に対して種々の設定を行うためのものである。
RAM109は、CPU101のワークエリアとして使用される一時記録領域である。ROM110は、後述するフローチャート等の制御プログラムを格納する記録領域である。画像処理部111は、A/D変換回路105からのデータに対し、画像処理や、画像データの圧縮・伸張処理などを行う。
表示部112は、撮像装置としてのカメラのライブビュー表示や撮像された静止画である撮像画像を再生、表示する。距離マップ情報取得部113は、撮像装置100から被写体までの距離情報と座標情報を取得する。距離マップ情報の取得方法としては、2枚の画像に対して画像処理を行うことによって奥行き情報を得る方法や、測距センサを用いて被写体までの距離を測定する方法等がある。距離マップ情報の詳細については後述する。距離比較判定部114は、撮影の際にフォーカスを合わせた被写体までの距離と、距離マップ情報取得部113で取得した距離情報とを比較する。距離の比較と判定方法の詳細については後述する。外部記録装置200は、メモリカードやハードディスク等で構成されており、記録部203は静止画を記録する。
次に、図1の撮像装置100で実行されるフォーカスブラケット撮影時のフォーカス位置表示処理(以下、単に、「フォーカス位置表示処理」という。)について説明する。
図2は、図1の撮像装置100で実行されるフォーカス位置表示処理の手順を示すフローチャートである。フォーカス位置表示処理は、撮像装置100のCPU101がROM110に格納されたフォーカス位置表示処理プログラムに従って実行する。
図2において、撮像装置100に電源が投入されると、CPU101は、ユーザによって操作部108からフォーカスブラケット撮影モードが指示されたか否か判定し、フォーカスブラケット撮影モードが指示されるまで待機する(ステップS101)。フォーカスブラケット撮影モードが指示された後(ステップS101で「YES」)、CPU101は、撮影モードをフォーカスブラケット撮影モードに設定し(ステップS102)、処理をステップS103に進める。すなわち、CPU101は、ユーザによって撮像SW(シャッター)107が半押しされたか否か判定し、半押しされるまで待機する(ステップS103)。
撮像SW107が半押しされた場合(ステップS103で「YES」)、CPU101は、レンズ駆動部103を介して光学ユニット部102を制御して被写体にフォーカスを合わせる。そして、CPU101は、レンズ駆動部103に対するレンズ制御情報に基づいてフォーカス位置F0までの距離を算出し、算出結果をRAM109に記録する(ステップS104)。
次いで、CPU101は、ステップS104で算出したフォーカス位置F0までの距離と、予め設定されている距離Kに基づいてフォーカス位置F1、F2までの距離を算出し、同様に、算出結果をRAM109に記録する(ステップS105)。これによって、フォーカスブラケット撮影モードで適用する複数のフォーカス位置までの距離が得られる。距離Kは、一のフォーカス位置から隣接するフォーカス位置までの任意の距離である。
次いで、CPU101は、距離マップ情報取得部113を制御して、撮像素子104から得られた画像に対し所定の処理を行うことで、光学ユニット部102から被写体までの距離マップ情報を取得し、RAM109に記録する(ステップS106)。
以下に、図3〜図6を用いてステップS106で取得される距離マップ情報について説明する。
図3は、図1の撮像装置における撮像素子の画素配列を示す図である。
図3において、撮像素子104は、ベイヤー配列のRGB画素と焦点検出用画素Sで構成されている。R画素は、赤色のカラーフィルター、G画素は、緑色のカラーフィルター、B画素は、青色のカラーフィルターを用いて構成されている。また、焦点検出用画素Sは、距離情報を算出するために必要な画素であり、左目焦点検出画素、及び右目焦点検出画素から構成されている。
図4は、図3の画素配列を有する撮像素子からの画像信号に基づいて被写体距離を算出する方法を説明するための図である。
図4において、焦点検出用画素Sの焦点が撮像素子104よりも手前側に結像している。Pで示される射出瞳の左側(図4の場合上)を通る半光束は、撮像素子104上で被写体像P’となり、Qで示される射出瞳の右側(図4の場合下)を通る半光束は、撮像素子104上で被写体像Q’となる。すなわち、各画素において撮像光学系の瞳の半分ずつを通った光束から生成される一対の画像信号の位相は互いに左右にシフトしている。従って、2つの画像信号から被写体像の相対位置関係であるずれ量を求めることによってデフォーカス量を算出できる。更に、フォーカスレンズの位置とデフォーカス量の和に基づいて光学ユニット部102から図示省略した対応する被写体までの距離を算出できる。
次に、算出した被写体までの距離と画像上の座標との関係について説明する。
図5は、図1の撮像装置におけるレンズ、被写体、背景の位置関係を示す図である。
図5において、光学ユニット部102、被写体11、及び背景12が示されている。距離Z、r、s、tは、例えば、それぞれZ=3.0m、r=0.3m、s=0.6m、t=1.0mである。また、光学ユニット部102から背景12までの距離は、例えば3.6m以上であり、被写体11は、光学ユニット部102から3.0m〜3.3mの範囲内にあるものとする。
図6は、図1の撮像装置における撮像素子で得られた画像の距離マップ情報を示す図である。距離マップ情報は、撮影する被写体までの距離情報と、ライブビュー画像又は撮影画像における座標情報とを含む情報である。
図6において、画像は10×10画素のブロック単位の区画で区切られている。各ブロックには座標情報が設定されており、各ブロックの座標情報は、図5で示した距離情報と1対1で対応している。従って、図6の距離マップ情報における座標情報を指定すれば、対応する図5の距離情報が取得でき、図5の距離情報を指定すれば、指定した距離情報を有する図6の距離マップ情報における座標情報を取得することができる。本実施の形態においては、フォーカス位置までの距離と、距離マップ情報における距離情報とを比較して一致する距離情報を有する距離マップ情報に基づいて、後述するように、フォーカス位置を特定し、フォーカス表示する。
図2に戻り、距離情報と座標情報とを含む距離マップ情報(図6)を取得してRAM109に記録した後、CPU101は、フォーカス位置までの距離と、距離マップ情報における距離情報とを比較して一致するか否か判定する(ステップS107〜S111)。
図7は、フォーカス位置までの距離と、距離マップ情報における距離情報が一致するか否かを判定する判定方法を示す工程図である。
図7において、図7(a)は、被写体11に対してフォーカス位置F0〜F2を設定する工程を示している。図7(a)において、光学ユニット部102を被写体11に向けた状態で撮像SW107を半押しすると、オートフォーカス機能により、被写体11にフォーカスが合わせられ、フォーカス位置F0が設定される。このとき、オートフォーカスの設定値を用いて、フォーカス位置F0までの距離が算出される。次に、フォーカス位置F0までの距離からそれぞれ上述した距離Kに相当する分だけ加算、または減算してフォーカス位置F1、F2が算出される。フォーカス位置F0〜F2は、フォーカスブラケット撮影に適用される。なお、距離Kは、予め設定されている値であるが、撮影前にユーザがマニュアルで距離Kを設定することもできる。なお、図7(a)におけるフォーカス位置の設定は、一般的なフォーカスブラケット撮影においても同様に行われているものである。
次に、図7(b)は、距離マップ情報を取得する工程を示している。図7(b)では、撮像SW107を半押した状態のままで、光学ユニット部102から被写体11までの距離情報と座標情報を含む距離マップ情報A〜Eが取得される。
次に、図7(c)は、フォーカス位置までの距離と、距離マップ情報を比較する工程を示している。図7(c)では、図7(a)で設定されたフォーカス位置F0〜F2までの距離と、図7(b)で取得した距離マップ情報A〜Eにおける距離情報を比較して、一致する距離情報があるか否かを判定する。図7(c)において、フォーカス位置F0までの距離は、距離マップ情報Cの距離情報と一致し、フォーカス位置F1までの距離は、距離マップ情報Dの距離情報と一致し、フォーカス位置F2までの距離は、距離マップ情報Aの距離情報と一致している。
図7(d)は、図7(c)での判定結果と表示部112に表示されるライブビューとの関係を示している。すなわち、図7(d)では、図7(c)においてフォーカス位置F0〜F2までの距離と、距離マップ情報の距離情報とを比較した結果、一致すると判定された距離マップ情報の座標情報から、ライブビュー上での座標に対応する位置に枠WF0〜WF2が表示される。すなわち、枠WF0〜WF2で示される部位は、被写体におけるフォーカスが合うフォーカス位置であり、枠WF0〜WF2は、フォーカス表示枠として機能する。ユーザは、フォーカス表示枠WF0〜WF2によって、撮影の際、画像中でフォーカスの合う部位を把握することができる。
次に、フォーカスブラケット撮影時に、フォーカス位置に被写体が存在しない場合について説明する。
図8は、フォーカス位置に被写体が存在しない場合におけるフォーカス位置までの距離と、距離マップ情報における距離情報が一致するか否かを判定する判定方法を示す工程図である。
図8において、図8(a)及び図8(b)では、それぞれ図7(a)と、図7(b)と同様の処理が行われる。
図8(c)は、フォーカス位置までの距離と、距離マップ情報を比較する際の工程を示している。すなわち、図8(c)では、図8(a)で設定されたフォーカス位置F0〜F2までの距離と、図8(b)で取得した距離マップ情報A〜Eの距離情報を比較して、一致する距離情報があるか否か判定する。このとき、フォーカス位置F0までの距離は、距離マップ情報Cの距離情報と一致し、フォーカス位置F2までの距離は、距離マップ情報Aの距離情報と一致している。しかしながら、フォーカス位置F1までの距離に対応する距離情報を有する距離マップ情報がないので、フォーカス位置F1と一致する距離情報はないと判定される。
図8(d)は、図8(c)の判定結果と表示部112に表示されるライブビューとの関係を示している。すなわち、図8(d)では、図8(c)で一致すると判定された距離マップ情報の座標情報から、ライブビュー上での座標に対応する位置に枠WF0、WF2が表示される。一方、フォーカス位置F1には対応する距離マップ情報がないので、フォーカス位置F1には被写体が存在しない旨が表示部112に表示される。この表示によってユーザは、撮影の際にフォーカスが合う被写体が存在しない撮影もあり得ることを把握することができる。
以下、図7及び図8を参照しつつ、図2のステップS107〜S111におけるフォーカス位置までの距離と、距離マップ情報における距離情報とを比較して一致するか否か判定する判定方法について説明する。
ステップS106の後、CPU101は、読み込んだ1つのフォーカス位置までの距離と、距離マップ情報における全ての距離情報とを比較する(ステップS107、図7(b)、図8(b))。次いで、CPU101は、距離比較判定部114を制御してフォーカス位置までの距離と一致する距離マップ情報における距離情報があるか否か判定する(ステップS108、図7(c)、図8(c))。
フォーカス位置までの距離と一致する距離マップ情報の距離情報があるか否か判定した結果(ステップS108)、一致する距離マップ情報がある場合(ステップS108で「YES」)、CPU101は、処理をステップS110に進める。すなわち、CPU101は、フォーカス位置と一致した距離マップ情報をRAM109に記録する(ステップS110)。図7(c)及び図8(c)において、フォーカス位置までの距離と一致する距離マップ情報は、○で示されている。一方、ステップS108の判定の結果、一致する距離マップ情報がない場合(ステップS108で「NO」)、CPU101は、一致する距離マップ情報がないフォーカス位置をRAM109に記録し(ステップS109)、処理をステップS111へ進める。
次いで、CPU101は、全てのフォーカス位置に対して、距離マップ情報との比較が完了したか否か判定する(ステップS111)。ステップS111の判定の結果、全てのフォーカス位置での比較が完了した場合(ステップS111で「YES」)、CPU101は、処理をステップS112に進める。すなわち、CPU101は、ステップS109で処理された一致する距離マップ情報がないフォーカス位置が、RAM109に記録されているか否か判定する(ステップS112)。ステップS112の判定の結果、一致する距離マップ情報がないフォーカス位置が記録されている場合(ステップS112で「YES」)、CPU101は、処理をステップS113に進める。すなわち、CPU101は、表示部112にフォーカス位置に一致する距離マップ情報がないこと、換言すれば、フォーカス位置に被写体が存在しないことを表示し(ステップS113、図8(d))、処理をステップS114に進める。
一方、ステップS112の判定の結果、一致する距離マップ情報がないフォーカス位置が、RAM109に記録されていない場合(ステップS112で「NO」)、CPU101は、処理をステップS114に進める。すなわち、CPU101は、ステップS110で記録された各フォーカス位置の距離マップ情報の座標情報をRAM109から読込む。そして、CPU101は、読込んだ座標に対応する表示部112上の撮影画像のフォーカス位置に枠を表示し(ステップS114)、その後、本処理を終了する。フォーカス位置が複数ある場合は、複数の枠を表示する。
一方、ステップS111の判定の結果、全てのフォーカス位置における比較が完了していないと判定された場合(ステップS111で「NO」)、CPU101は、処理をステップS107に戻す。
図2の処理によれば、フォーカス位置までの距離に距離情報が一致する距離マップ情報から、各撮影のフォーカス位置にある被写体の部位を検出して、ライブビュー上の該当箇所に枠体を表示する(ステップS114)。また、フォーカス位置に被写体が存在しない場合には、枠体表示を行うことなく、被写体が存在しないことを表示して注意喚起する(ステップS113)。これによって、ユーザは、フォーカス位置を前後に移動させて撮影するフォーカスブラケット撮影モードによって複数枚の画像を撮影する際、フォーカスが合っている部位を容易に把握できるようになる。従って、例えば、フォーカス位置を合わせるのがシビアな撮影であっても、フォーカス位置が合った撮影を実施することができる。また、フォーカス位置の異なる複数の画像を撮影して、ベストショットを選択するか、または各画像の良否等を比較することもできる。
本実施の形態において、撮像装置100を、外部記録装置を取り付けるインターフェース及びコネクタを一系統だけ有する装置として説明したが、外部記録装置を取り付けるインターフェース及びコネクタを複数系統を備える構成とすることもできる。また、撮像装置100は、異なる規格のインターフェース及びコネクタを組み合わせて備える構成であってもよい。更に、撮像装置100のインターフェースとして無線機器等に対応させることにより、他のコンピュータ等の周辺機器との間で静止画の転送が可能な構成とすることもできる。
上述の第1の実施の形態では、図7(c)に示したように、フォーカス位置までの距離と距離マップ情報の距離情報が一致した場合のみ、被写体にフォーカスが合っていると判定される。しかしながら、実際の撮影では、フォーカスが合っている部分の前後にフォーカスが合っているように見える範囲(被写界深度)が存在する。そのため、被写体にフォーカスが合っているように見えるにもかかわらず、フォーカスが合っていないと判定されてしまう場合もあり得る。
そこで、第2の実施の形態では、被写界深度の範囲を距離判定の範囲として採用することによって、フォーカスが合っているように見える範囲をユーザが把握できるようにした。
以下、第2の実施の形態について説明する。
第2の実施の形態に係る撮像装置のハード構成は、第1の実施の形態に係る撮像装置のハード構成と同様である。以下、本実施の形態で実行されるフォーカス位置表示処理について、第1の実施の形態におけるフォーカス位置表示処理(図2)との相違点を中心に説明する。
図9は、本実施の形態で実行されるフォーカスブラケット撮影時のフォーカス位置表示処理の手順を示すフローチャートである。このフォーカス位置表示処理は、撮像装置100のCPU101がROM110に格納されたフォーカス位置表示処理プログラムに従って実行する。
図9において、ステップS201〜S205では、図2のステップS101〜S105と同様の処理が行われるため、説明を省略する。
ステップS205の後、CPU101は、撮像装置100に設定されている絞り、焦点距離、フォーカス位置までの距離に基づいて、フォーカス位置F0〜F2に対応する被写界深度を加味した距離判定の範囲H0〜H2を算出する。次いで、CPU101は、算出した距離判定の範囲H0〜H2をRAM109に記録する(ステップS206)。次いで、CPU101は、図2のステップS106と同様にして、光学ユニット部102から被写体までの距離マップ情報を取得し、RAM109に記録する(ステップS207)。
ステップS207の後、CPU101は、距離比較判定部114を制御して範囲H0〜H2と、ステップS207で取得した距離マップ情報における距離情報を比較する(ステップS208)。次いで、CPU101は、各範囲H0〜H2内に距離情報が含まれる距離マップ情報があるか否か判定する(ステップS209)。
図10は、被写界深度を加味したフォーカス位置の範囲内に距離情報が含まれる距離マップ情報があるか否かを判定する判定方法を示す工程図である。なお、実際は、フォーカス位置F0、F1、F2ともに被写界深度で設定される範囲を加味した判定が行われるが、説明の便宜上、フォーカス位置F1に対して被写界深度で決定される範囲を加味した場合について説明する。
図10において、図10(a)及び図10(b)では、それぞれ図7(a)及び図7(b)と同様の処理が行われる。
図10(c)は、フォーカス位置までの距離と、距離マップ情報を比較する際の工程を示している。すなわち、図10(c)では、まず、各フォーカス位置F0〜F2に対応する距離の判定範囲H0〜H2が、撮影条件である絞り、焦点距離、フォーカス位置までの距離に基づいて算出される。
次に、判定範囲H0〜H2内に距離情報が含まれる距離マップ情報があるか否かが判定される。図10(c)の場合、フォーカス位置F1に一致する距離情報の距離マップ情報は存在しないが、判定範囲H1内に距離情報が含まれる距離マップ情報として距離マップ情報D、及び距離マップ情報Eが存在している。なお、フォーカス位置F0、F2では、フォーカス位置F0、F2に一致する距離情報の距離マップ情報が存在している。
図10(d)は、図10(c)での判定結果と表示部112に表示されるライブビューとの関係を示している。すなわち、図10(d)では、図10(c)でフォーカス位置に対応するか又はフォーカス位置判定範囲内に存在すると判定された距離情報の距離マップ情報の座標情報から、ライブビュー画像上での座標に対応する位置に枠WF0〜WF2を表示する。このとき、ライブビュー画像上に距離マップ情報D及び距離マップ情報Eの枠を表示すると、距離マップ情報の座標間隔が狭いために、枠WF1dと枠WF1eが重複する。従って、図10(e)に示すように、重複した枠WF1dと枠WF1eを全て含むような外形の枠WF1にして表示する。この表示によってユーザは、フォーカス位置F1に対応する被写界深度を加味した判定範囲H1内に距離情報が一致する距離マップ情報があること、すなわち、距離の判定範囲H1内にフォーカスが合う被写体の部位があることを把握することができる。
図9に戻り、ステップS209の判定の結果、距離判定範囲内に距離情報が含まれる距離マップ情報があると判定された場合(ステップS209で「YES」)、CPU101は、処理をステップS211に進める。すなわち、CPU101は、距離判定範囲内にある距離情報を含む距離マップ情報をRAM109に記録する(ステップS211)。一方、ステップS209の判定の結果、距離判定範囲内に距離情報が含まれる距離マップ情報がないと判定された場合(ステップS209で「NO」)、CPU101は、処理をステップS210に進める。すなわち、CPU101は、距離判定範囲内に距離情報が含まれる距離マップ情報がなかったフォーカス位置範囲、例えば、判定範囲H1をRAM109に記録して(ステップS210)、処理をステップS212に進める。
次いで、CPU101は、図2の処理S111と同様、全てのフォーカス位置範囲での比較が完了したか否か判定する(ステップS212)。ステップS212の判定の結果、全てのフォーカス位置範囲で比較が完了している場合(ステップS212で「YES」)、CPU101は、処理をステップS213に進める。すなわち、CPU101は、ステップS210で処理された範囲内に距離マップ情報がないフォーカス位置範囲が、RAM109に記録されているか否か判定する(ステップS213)。ステップS213の判定の結果、範囲内に距離マップ情報がないフォーカス位置範囲が記録されている場合(S213で「YES」)、CPU101は、処理をステップS214に進める。すなわち、CPU101は、例えば、判定範囲H1内に対応する距離マップ情報がないことを表示部112に表示し(ステップS214)、処理をS215に進める。
また、ステップS213の判定の結果、範囲内に距離マップ情報がないフォーカス位置範囲が、RAM109に記録されていないと判定された場合(ステップS213で「NO」)、CPU101は、処理をステップS215に進める。すなわち、CPU101は、ステップS211で記録された各フォーカス位置の距離マップ情報の座標情報を読込み、座標情報から枠の重複がないか否か判定する(ステップS215)。
ステップS215の判定の結果、枠の重複がある場合(ステップS215で「NO」)、CPU101は、重複する枠を全て含む外形の枠を作成して、RAM109に記録し(ステップS216)、処理をステップS217に進める。一方、ステップS215の判定の結果、枠の重複がない場合(ステップS215で「YES」)、CPU101は、処理をステップS217へ進める。すなわち、CPU101は、ステップS211で記録された各フォーカス位置の距離マップ情報の座標情報をRAM109から読込み、読込んだ座標情報に対応する表示部112上の撮影位置に枠を表示し(ステップS217)、その後、本処理を終了する。
一方、ステップS212の判定の結果、全てのフォーカス位置範囲における比較が完了していない場合(ステップS212で「NO」)、CPU101は、処理をステップS208に戻す。
図9の処理によれば、被写界深度の範囲を距離判定に加味したことにより、上記第1の実施の形態の効果に加え、ユーザは、被写体にフォーカスが合っているように見える範囲までも把握することができる。これによって、ユーザは、被写体にフォーカスが合っているように見える範囲を含む複数のフォーカス位置で複数の画像を撮影してベストショットを選択するか、または各画像の良否等を比較することができる。
上述の第1及び第2の実施の形態では、距離マップ情報を用いて、フォーカスブラケット撮影時に各撮影のフォーカス位置にある被写体を検出することによって、被写体にフォーカスが合っている部位を把握できるようにした。
しかしながら、フォーカスブラケット撮影では、多くのフォーカス位置に対応する撮影を一度に行うので、撮影後に複数の撮影画像から特定の部位にフォーカスが合った画像を探すのが困難な場合が想定される。
そこで、第3の実施の形態では、撮影した画像を1枚表示するだけで、他にフォーカスが合っている画像の有無や、特定の部位にフォーカスが合っている画像を容易に探すことのできるフォーカスブラケット撮影処理について説明する。
すなわち、第3の実施の形態は、図1の撮像装置を用いたフォーカスブラケット撮影時のフォーカス位置表示処理を含むフォーカスブラケット撮影処理に関する。
本実施の形態に係る撮像装置のハード構成は、第1の実施の形態に係る撮像装置のハード構成と同様である。以下、本実施の形態で実行されるフォーカスブラケット撮影処理について図2のフォーカス位置表示処理との相違点を中心に説明する。
図11は、本実施の形態で実行されるフォーカスブラケット撮影処理の手順を示すフローチャートである。このフォーカスブラケット撮影処理は、撮像装置100のCPU101がROM110に格納されたフォーカスブラケット撮影処理プログラムに従って実行する。
図11において、ステップS301〜S314では、図2のステップS101〜S114と同様の処理が行われる。従って、説明を省略する。
ステップS314の後、CPU101は、撮像SW107が全押しされることを条件に、フォーカスブラケット撮影を実行する(ステップS315)。次いで、CPU101は、表示した各枠(図7の(d)参照)の座標情報と、各フォーカス位置で撮影された画像のリンク先を、フォーカス位置F0で撮影された画像のヘッダ部分に記録する(ステップS316)。次いで、CPU101は、フォーカス位置F0〜F2で撮影された画像を外部記録装置200の記録部203に記録する(ステップS317)。次いで、CPU101は、ユーザが操作部108から入力した指示に基づいて再生処理を実行し(ステップS318)、その後、本処理を終了する。
図12は、図11のステップS318で実行される再生方法の工程を示す図である。図12の再生方法では、フォーカスブラケット撮影時にライブビュー上に表示した各枠の座標情報と、各フォーカス位置で撮影された撮影画像のリンク先が、フォーカス位置F0の撮影画像のヘッダに記録される。
図12において、まず、フォーカス位置F0で撮影された撮影画像に対して、フォーカス位置F0に対応する枠WF0を表示する(図12(a))。次に、枠WF0と同様に、記録されている各枠の座標情報から、撮影画像上に枠WF1、WF2を表示する(図12(b))。ここで、表示画像が枠WF0にフォーカスが合っている画像であることを示すために、枠WF1及び枠WF2は、破線の枠とし、枠WF0は実線の枠とする。複数の枠が表示された再生画像において、ユーザが、例えば、フォーカス位置F1に焦点が合った画像を選択するために枠WF1を選択すると、表示部112の再生画像が、枠WF1にフォーカスの合った撮影画像に切替わる画像切替が行われる(図12(c))。一方、図12(b)において、ユーザが、フォーカス位置F2に焦点が合った画像を選択するために枠WF2を選択すると、表示部112の再生画像が、枠WF2にフォーカスの合った撮影画像に切り替えられる画像切替が行われる(図12(d))。
図13は、図11のステップS318で実行される再生処理の手順を示すフローチャートである。この再生処理は、撮像装置100のCPU101がROM110に格納された再生処理プログラムに従って実行する。
以下、図12の再生工程を参照しつつ図13の再生処理について説明する。
図13において、CPU101は、ユーザによる再生処理モード開始の指示に応じて撮像装置100を再生モードに移行させる(ステップS401)。再生モードに移行した後、CPU101は、ユーザからの指示に応じてフォーカス位置F0の撮影画像を表示部112に表示する(ステップS402)。
次いで、CPU101は、フォーカス位置F0の撮影画像のヘッダ情報に記録された各枠の座標情報を読込み、表示部112上のフォーカス位置F0に対応する箇所に実線の枠を表示する(ステップS403、図12(a))。次いで、CPU101は、表示部112上のフォーカス位置F1、F2に対応する箇所に破線の枠を表示する(ステップS404、図12(b))。次いで、CPU101は、表示部112に表示された枠のいずれかがユーザによって選択されたか否か判定し(ステップS405)、枠が選択されるまで待機する。
次いで、CPU101は、ユーザによっていずれかの枠が選択された後、処理をステップS406に進める。すなわち、CPU101は、フォーカス位置F0の撮影画像のヘッダ情報から、選択された枠に対応する撮影画像の記録先を読込み、表示部112にユーザが選択した枠に対応する撮影画像を表示し(ステップS406)、その後、本処理を終了する。このとき、ユーザがフォーカス位置F1に対応する枠を選択した場合(図12(c))、CPU101は、表示部112にフォーカス位置F1に焦点が合った撮影画像を再生する。一方、ユーザがフォーカス位置F2に対応する枠を選択した場合(図12(d))、CPU101は、表示部112にフォーカス位置F2に焦点が合った撮影画像を再生する。
このように、1枚の画像に複数の枠を表示することで、他にフォーカスが合っている画像の有無が容易に確認できる。さらに、ユーザが枠を選択することで、選択された枠にフォーカスが合っている撮影画像に切り換えることができる。これによって、他にフォーカスが合っている画像の有無の確認や、特定の部位にフォーカスが合っている画像を容易に探すことができる。
図11及び図12の処理によれば、撮影した撮影画像を1枚表示して、画像上に各フォーカス位置の枠を表示することによって、ユーザは、所望の枠を選択して選択した枠にフォーカスが合っている撮影画像に切り換えることができる。これによって、他の部位にフォーカスが合っている画像の有無の確認や、特定の部位にフォーカスが合っている画像を容易に探すことができる。また、ユーザは、例えば、フォーカス位置の異なる複数の画像の中から容易にベストショットを選択することができる。
以上、本発明の好ましい実施の形態について説明したが、本発明はこれらの実施の形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100 撮像装置
101 CPU
102 光学ユニット部
103 レンズ駆動部
104 撮像素子
107 撮像SW
108 操作部
111 画像処理部
112 表示部
113 距離マップ情報取得部
114 距離比較判定部
200 外部記録装置
203 記録部

Claims (12)

  1. 第1のフォーカス位置と少なくとも1つの第2のフォーカス位置とを含む異なる複数のフォーカス位置にフォーカスを合わせた複数の画像をフォーカスブラケットにて撮影する際の被写体までの距離情報を取得する取得手段と、
    前記複数の画像に対応する表示を行う表示手段と、
    前記第1のフォーカス位置に基づく前記少なくとも1つの第2のフォーカス位置に対応する部位であって、前記表示手段によって表示されている画像の前記部位に、前記第2のフォーカス位置である旨の表示を前記表示手段に行わせる制御手段と、を有することを特徴とする画像処理装置。
  2. 前記表示手段が、枠を表示することによって前記第2のフォーカス位置である旨の表示を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記制御手段が、前記距離情報のうち、前記第1のフォーカス位置に基づいて予め定められた第1の条件を満たす距離情報に対応する、前記表示手段に表示された画像上の部位に、前記第2のフォーカス位置である旨の表示を前記表示手段に行わせることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1の条件とは、前記第2のフォーカス位置と前記第1のフォーカス位置との前記距離情報の違いが予め定められた第1の距離であることを特徴とする請求項3に記載の画像処理装置。
  5. 前記距離情報のうち、前記第1の条件を満たすと判定した距離情報に対応する、前記表示手段に表示された画像上の部位が複数ある場合、前記制御手段が、前記複数の部位に、前記表示を前記表示手段に行わせることを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記表示手段が、さらに、ライブビュー画像を表示することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. さらに、注意手段を有し、
    前記注意手段が、前記距離情報と前記第2のフォーカス位置を比較し、前記第2のフォーカス位置が対応するところに前記被写体が存在しない場合、前記表示手段に注意を表示させることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記表示手段に表示された画像上の部位において、前記第2のフォーカス位置である旨の表示が選択された場合、前記表示手段は、該部位にフォーカスが合った撮影画像に切り換えることを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記複数の画像が撮影されたときの各フォーカス位置は、予め設定された距離、あるいは、ユーザによって設定された距離だけ、互いに離れていることを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 第1のフォーカス位置と少なくとも1つの第2のフォーカス位置とを含む異なる複数のフォーカス位置にフォーカスを合わせた複数の画像をフォーカスブラケットにて撮影する撮影手段と、
    前記撮影手段が撮影する際の被写体までの距離情報を取得する取得手段と、
    前記複数の画像に対応する表示を行う表示手段と、
    前記第1のフォーカス位置に基づく前記少なくとも1つの第2のフォーカス位置に対応する部位であって、前記表示手段によって表示されている画像の前記部位に、前記第2のフォーカス位置である旨の表示を前記表示手段に行わせる制御手段と、を有することを特徴とする撮影装置。
  11. 第1のフォーカス位置と少なくとも1つの第2のフォーカス位置とを含む異なる複数のフォーカス位置にフォーカスを合わせた複数の画像をフォーカスブラケットにて撮影する際の被写体までの距離情報を取得する取得ステップと、
    前記複数の画像に対応する表示を表示手段に行わせる表示ステップと、
    前記第1のフォーカス位置に基づく前記少なくとも1つの第2のフォーカス位置に対応する部位であって、前記表示手段によって表示されている画像の前記部位に、前記第2のフォーカス位置である旨の表示を前記表示手段に行わせる制御ステップと、を有することを特徴とする画像処理方法。
  12. 画像処理装置をコンピュータに動作させるコンピュータのプログラムであって、
    第1のフォーカス位置と少なくとも1つの第2のフォーカス位置とを含む異なる複数のフォーカス位置にフォーカスを合わせた複数の画像をフォーカスブラケットにて撮影する際の被写体までの距離情報を取得する取得ステップと、
    前記複数の画像に対応する表示を表示手段に行わせる表示ステップと、
    前記第1のフォーカス位置に基づく前記少なくとも1つの第2のフォーカス位置に対応する部位であって、前記表示手段によって表示されている画像の前記部位に、前記第2のフォーカス位置である旨の表示を前記表示手段に行わせる制御ステップと、を行わせることを特徴とするプログラム。
JP2019028159A 2019-02-20 2019-02-20 画像処理装置、撮影装置、画像処理方法及びプログラム Active JP6728421B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019028159A JP6728421B2 (ja) 2019-02-20 2019-02-20 画像処理装置、撮影装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019028159A JP6728421B2 (ja) 2019-02-20 2019-02-20 画像処理装置、撮影装置、画像処理方法及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015040250A Division JP6489876B2 (ja) 2015-03-02 2015-03-02 撮像装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2019113856A JP2019113856A (ja) 2019-07-11
JP6728421B2 true JP6728421B2 (ja) 2020-07-22

Family

ID=67221572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019028159A Active JP6728421B2 (ja) 2019-02-20 2019-02-20 画像処理装置、撮影装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6728421B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4582295B2 (ja) * 2004-05-28 2010-11-17 カシオ計算機株式会社 撮影装置及びそのプログラム
JP5381060B2 (ja) * 2008-02-05 2014-01-08 株式会社リコー 撮像装置およびその画像処理方法
WO2014083737A1 (ja) * 2012-11-30 2014-06-05 パナソニック株式会社 画像処理装置および画像処理方法
JP6172934B2 (ja) * 2012-12-27 2017-08-02 キヤノン株式会社 撮像装置、その制御方法、プログラム及び記憶媒体
JP6139881B2 (ja) * 2012-12-27 2017-05-31 キヤノン株式会社 撮像装置およびその制御方法
JP2015026880A (ja) * 2013-07-24 2015-02-05 株式会社ニコン 撮像装置

Also Published As

Publication number Publication date
JP2019113856A (ja) 2019-07-11

Similar Documents

Publication Publication Date Title
US8184192B2 (en) Imaging apparatus that performs an object region detection processing and method for controlling the imaging apparatus
JP2010200239A (ja) 撮像装置、画像表示装置と、撮像方法及び画像表示方法並びに合焦領域枠の位置補正方法
US7391461B2 (en) Apparatus, method and control computer program for imaging a plurality of objects at different distances
JP4645413B2 (ja) 撮像装置
JP4957263B2 (ja) 撮像装置、撮像方法及びそのプログラム
JP6525809B2 (ja) 焦点検出装置及びその制御方法
JP5100410B2 (ja) 撮像装置及びその制御方法
JP4586707B2 (ja) 画像処理装置、電子カメラおよび画像処理プログラム
JP2003114378A (ja) カメラ
JP5400396B2 (ja) 撮像装置
JP2013113857A (ja) 撮像装置及びその制御方法
JP2007225897A (ja) 合焦位置決定装置及び方法
JP5328528B2 (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
JP2010114577A (ja) 撮像装置、画像処理装置、撮像装置の制御方法及び画像処理方法
JP5409201B2 (ja) 焦点検出装置及び焦点検出方法
JP6728421B2 (ja) 画像処理装置、撮影装置、画像処理方法及びプログラム
JP6489876B2 (ja) 撮像装置及びその制御方法
JP2005078009A (ja) カメラ
JP2004309653A (ja) 撮像装置
JP4747568B2 (ja) カメラ装置及び撮影制御プログラム
JP2006157604A (ja) カメラ装置及び自動撮影制御プログラム
JP2018010245A (ja) 信号処理装置、その制御方法
JP2010134291A (ja) 撮像装置及びその制御方法
JP5163333B2 (ja) カメラ装置、及びその画像表示方法と画像表示プログラム
JP6723853B2 (ja) 撮像装置およびその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200701

R151 Written notification of patent or utility model registration

Ref document number: 6728421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151