JP5845912B2 - 撮像装置および画像処理プログラム - Google Patents

撮像装置および画像処理プログラム Download PDF

Info

Publication number
JP5845912B2
JP5845912B2 JP2012006097A JP2012006097A JP5845912B2 JP 5845912 B2 JP5845912 B2 JP 5845912B2 JP 2012006097 A JP2012006097 A JP 2012006097A JP 2012006097 A JP2012006097 A JP 2012006097A JP 5845912 B2 JP5845912 B2 JP 5845912B2
Authority
JP
Japan
Prior art keywords
angle
image
view
imaging
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012006097A
Other languages
English (en)
Other versions
JP2013146010A (ja
Inventor
麻理 杉原
麻理 杉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012006097A priority Critical patent/JP5845912B2/ja
Publication of JP2013146010A publication Critical patent/JP2013146010A/ja
Application granted granted Critical
Publication of JP5845912B2 publication Critical patent/JP5845912B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Description

本発明は、撮像装置および画像処理プログラムに関する。
従来、カラーマッチングに関する様々な技術が考えられている。例えば、特許文献1の発明では、撮影条件や測光センサの出力から画像の観察条件を算出し、算出した観察条件を画像の付加情報として格納することにより、一般ユーザの利用する環境において観察条件パラメータ設定の自動化を図り、観察条件設定に対するユーザ負荷を軽減している。
特開2005−354230号公報
しかし、特許文献1の発明では、画像自体の示す領域を対象として観察条件パラメータを設定するため、実際にユーザが認識する環境とは十分にマッチしない場合があった。このような場合には、設定されたパラメータを用いて、撮影シーンを再現するための画像処理を行っても、ユーザにとって望ましい結果が得られない。
本発明の撮像装置は、被写体像を撮像し、第1の画角に対応する被写体領域の画像を生成する撮像部と、前記第1の画角と異なる第2の画角に対応する被写体領域の情報を取得する取得部と、前記画像に関して、刺激、背景、周囲の少なくとも3つの領域を算出エリアとして定義し、撮影時観察パラメータを算出するとともに、前記背景および前記周囲の領域については、前記第1の画角と前記第2の画角とを比較し、比較結果に基づいて定義する算出部と、前記画像と前記撮影時観察パラメータとを関連付けて記録する記録部とを備える。
本発明の画像処理プログラムは、第1の画角に対応する被写体領域の画像と、前記第1の画角と異なる第2の画角に対応する被写体領域の情報とを取得する取得ステップと、前記画像に関して、刺激、背景、周囲の少なくとも3つの領域を算出エリアとして定義し、撮影時観察パラメータを算出するとともに、前記背景および前記周囲の領域については、前記第1の画角と前記第2の画角とを比較し、比較結果に基づいて定義する算出ステップと、前記画像と前記撮影時観察パラメータとを関連付けて記録する記録ステップとをコンピュータに実行させる。
本発明によれば、撮影シーンを再現するための処理を行う際に、ユーザが実際に認識する環境を反映した結果を得ることが可能なパラメータを算出することができる。
見え変換処理の概念図である。 刺激、背景、周囲の3つの領域について説明する図である。 第1実施形態の電子カメラ1の構成を示すブロック図である。 撮影時の制御部18の動作を説明するフローチャートである。 撮影時の制御部18の動作を説明するフローチャート(続き)である。 撮影時の制御部18の動作を説明するフローチャート(続き)である。 撮影時の制御部18の動作を説明するフローチャート(続き)である。 ズーム量補正テーブルについて説明する図である。 クロップ処理について説明する図である。 撮影時の制御部18の動作を説明するフローチャートである。 撮影時の制御部18の動作を説明するフローチャートである。 撮影時の制御部18の動作を説明するフローチャートである。
はじめに、カラーマッチングにおいて、異なる観察条件下に画像の見えを一致させるための見え変換処理について説明する。図1は、見え変換処理の概念図である。
図1に示すように、入力画像に対して、まず、Scene Colorimetryを行う。Scene Colorimetryでは、例えば、入力画像を、撮影シーンの白色点下でのXYZ色空間に変換する。次に、Appearance変換を行う。Appearance変換では、観察条件に依存しない色空間にデータを変換する。一般的には、人間の色知覚モデルが用いられる。代表的な色知覚モデルとして、CIECAM02などがある。次に、Output Colorimetryを行う。Output Colorimetryでは、出力色空間の色度値(例えばsRGB)への変換を行う。そして、Output referredへの変換を行う。Output referredへの変換では、好ましい色再現に合わせた変換や、出力デバイスの色域に合わせた変換などを行う。
これらの処理においては、入力に関する観察パラメータと、出力に関する観察パラメータとが必要となる。以下の各実施形態では、撮像により入力画像に相当する画像を生成する際に、入力に関する観察パラメータとして、撮影時観察パラメータを算出する。
上述したCIECAM02において用いられる撮影時観察パラメータは、以下のように定義される。
1)順応白色点(Xw,Yw,Zw)
順応白色点は、順応領域の白色点を示し、より簡単には照明白色点を示す。
2)順応輝度La[cd/m^2]
順応輝度La[cd/m^2]は、順応領域の絶対輝度を示す。
3)周囲の明るさc
周囲の明るさcは、周囲領域と順応領域との明るさの比を示す。周囲領域の明るさが順応領域の明るさ以上の場合はAverageに分類され、順応領域の明るさが暗くなるほどにDim、Darkにそれぞれ分類される。
4)背景輝度Yb
背景輝度Ybは、白色点絶対輝度の20%を示す。
なお、上述した撮影時観察パラメータは、刺激、背景、周囲の3つの領域を算出エリアとして定義して算出される。図2に示すように、例えば、刺激は、視野角2度に対応し、背景は、刺激の外側の視野角10度に対応し、周囲は、背景の外側に対応する。
また、撮影時観察パラメータを常に算出しても良いし、ユーザ操作などに基づいて、撮影時観察パラメータの算出の有無を切り換える構成としても良い。
<第1実施形態>
以下、図面を用いて本発明の第1実施形態について説明する。以下では、本発明の撮像装置の一例として、電子カメラを例に挙げて説明する。
図3は、第1実施形態の電子カメラ1の構成を示すブロック図である。
電子カメラ1は、図3に示すように、撮影レンズ部10、CCD等の撮像素子11を含む撮像部12、撮像部12により生成された画像データに対して画像処理を施す画像処理部13、画像を表示する液晶モニタなどを備えた表示部14、画像を記録する記録媒体などからなる記録部15、撮影レンズ部10の駆動を行う光学系駆動部16、不図示のレリーズボタンなどを有し、ユーザ操作を受け付ける操作部17、各部を制御する制御部18を備える。撮像部12、画像処理部13、記録部15、光学系駆動部16、制御部18は、バスを介して相互に接続される。また、制御部18および画像処理部13の出力は、バスを介して表示部14にも接続される。また、操作部17の出力は、制御部18に接続される。
撮影レンズ部10は、不図示のズームレンズを備える。ズームレンズの制御は、光学系駆動部16により行われる。撮像部12は、撮影レンズ部10を介した被写体像を撮像素子11により光電変換し、さらにA/D変換を行って、画像データを出力する。画像処理部13は、撮像部10により取得された画像データに対してホワイトバランス調整、色処理、ガンマ処理などの処理を行う。また、画像処理部13は、撮像部10により取得された画像データや、記録部15に記録された画像データに対して、見え変換処理などのカラーマッチングに関する処理も行う。表示部14は、画像処理部13により生成された画像や記録部15に記録された画像を表示するとともに、構図確認用のスルー画像を表示することにより、ファインダーとしても利用される。制御部18は、内部にメモリ19を備え、各部を制御するためのプログラムを予め記憶する。そして、制御部18は、このプログラムにしたがって各部を制御する。また、制御部18は、操作部17の状態を検知する。
以上説明した構成の電子カメラ1において、操作部17により撮像指示が行われると、制御部18はこれを検知し、撮影レンズ部10を介した被写体像を撮像素子11により光電変換し、さらにA/D変換を行う。そして、制御部18は、画像処理部13を介して、ホワイトバランス調整、色処理、ガンマ処理などの処理を行い、記録部15に記録する。なお、制御部18は、記録部15への記録を行う際に、上述した撮影時観察パラメータを算出して同様に記録する。
以下、図4から図7のフローチャートを参照して、撮影時の制御部18の動作を説明する。
ステップS1において、制御部18は、操作部17を介したユーザ操作により、ズーム指示が行われたか否かを判定する。ズーム指示が行われたと判定すると、制御部18は、ステップS2に進む。一方、所定時間を経過してもズーム指示が行われないと判定すると、制御部18は、後述するステップS4に進む。
ステップS2において、制御部18は、ユーザにより行われたズーム指示の内容と、ズーム量補正テーブルとに基づいて、ズーム量を決定する。ズーム量補正テーブルとは、操作部17を介したユーザ操作により指定されたズーム量に応じて、実際にズーム制御を行うズーム量が定められたテーブルである。このズーム量補正テーブルは、図8に示すように、ユーザ操作により指定されたズーム量を、ワイド側にシフトするためのテーブルである。このようにズーム量を決定することにより、ユーザ操作により指定されたズーム量よりも広い画角で撮影が行われるようにズーム量が決定される。なお、ズーム量補正テーブルは、予めメモリ19に記録される。
ステップS3において、制御部18は、光学系駆動部16を制御し、ステップS2で決定したズーム量にしたがって、ズーム制御を行う。
ステップS4において、制御部18は、撮影指示が行われたか否かを判定する。撮影指示が行われたと判定すると、制御部18は、ステップS5に進む。一方、所定時間を経過しても撮影指示が行われないと判定すると、制御部18は、ステップS1に戻る。
ステップS5において、制御部18は、撮像部12を制御して撮影を行う。
ステップS6において、制御部18は、ステップS5で行った撮影により得られた画像に基づいて、注視点を推定する。なお、注視点の推定には、顔検出処理も含まれる。注視点の推定の詳細は後述する。
ステップS7において、制御部18は、画像処理部13を制御してクロップ処理を行う。画像処理部13は、ステップS5で行った撮影により得られた画像から、ユーザ操作により指定されたズーム量に相当する画角の画像を切りだすクロップ処理を行う。例えば、図9Aにおいて、枠F1で示す範囲がステップS5で行った撮影により得られた画像に相当する範囲であり、枠F2で示す範囲がユーザ操作により指定されたズーム量に相当する範囲である場合、枠F2をクロップ領域とし、図9Bに示すようにクロップ処理を行う。なお、クロップ領域の中心は、ステップS6で推定した注視点であっても良いし、ステップS5で行った撮影により得られた画像の中心であっても良い。
ステップS8において、制御部18は、撮影時観察パラメータを決定する。制御部18は、ステップS6で推定した注視点を刺激、クロップ領域内の注視点を除く領域を背景、クロップ領域外を周囲と定義して、撮影時観察パラメータを決定する。例えば、図9Aの例では、図9Cに示すように、顔領域A1(ステップS6で推定した注視点)を刺激とし、斜線で示す領域A2(クロップ領域F2内の顔領域A1を除く領域)を背景とし、さらに外側の領域A3(クロップ領域F2外=F1)を周囲として、撮影時観察パラメータを決定する。
ステップS9において、制御部18は、画像処理部13を制御して、ステップS7でクロップ処理を行った画像(例えば、図9B参照)に対して、見え変換処理を含む画像処理を行う。
ステップS10において、制御部18は、ステップS9で画像処理を施した画像を、記録部15に記録する。ただし、制御部18は、ステップS8で決定した撮影時観察パラメータと画像とを関連付けて記録する。
次に、ステップS6で説明した注視点の推定時の制御部18の動作を、図5から図7のフローチャートを参照して説明する。
ステップS21において、制御部18は、シーンモードで撮影が行われたか否かを判定する。シーンモードで撮影が行われたと判定すると、制御部18は、ステップS22に進む。一方、シーンモードで撮影が行われていないと判定すると、制御部18は、後述するステップS23に進む。
シーンモードとは、「マクロモード」、「風景モード」、「ポートレートモード」などのシーンのそれぞれについて、撮影条件などが予め定められている撮影モードである。ユーザは、操作部17を介したユーザ操作によって、何れかのシーンモードを選択することができる。
ステップS22において、制御部18は、特定のシーンモードで撮影が行われたか否かを判定する。特定のシーンモードで撮影が行われたと判定すると、制御部18は、後述するステップS41に進む。一方、特定のシーンモードで撮影が行われていないと判定すると、制御部18は、後述するステップS51に進む。
特定のシーンモードとは、主要被写体に注目して撮影が行われると推定できるシーンモードである。例えば、マクロモード、ポートレートモード、スポーツモードなどのシーンモードは、主要被写体に注目して撮影が行われる。
ステップS21においてシーンモードで撮影が行われていないと判定すると、ステップS23において、制御部18は、撮影情報が記録されているか否かを判定する。撮影情報が記録されていると判定すると、制御部18は、ステップS23に進む。一方、撮影情報が記録されていないと判定すると、制御部18は、後述するステップS27に進む。撮影情報とは、焦点距離、絞り値、撮影感度、測距情報などの情報である。
ステップS24において、制御部18は、測距情報が記録されているか否かを判定する。測距情報が記録されていると判定すると、制御部18は、ステップS24に進む。一方、測距情報が記録されていないと判定すると、制御部18は、後述するステップS30に進む。
ステップS25において、制御部18は、絞り値、焦点距離、測距情報に基づいて、被写界深度を算出する。
ステップS26において、制御部18は、ステップS25で算出した被写界深度が所定値よりも浅いか否かを判定する。所定値よりも浅いと判定すると、制御部18は、後述するステップS41に進む。一方、所定値よりも深いと判定すると、制御部18は、後述するステップS51に進む。
ステップS23において撮影情報が記録されていないと判定すると、ステップS27において、制御部18は、ボケ分布量を算出する。制御部18は、ステップS5で行った撮影により得られた画像から高周波成分を抽出し、エッジを検出することによりボケ分布量を算出する。
ステップS28において、制御部18は、ステップS27で算出したボケ分布量に基づいて、被写界深度を推定する。
ステップS29において、制御部18は、ステップS28で推定した被写界深度が所定値よりも浅いか否かを判定する。所定値よりも浅いと判定すると、制御部18は、後述するステップS41に進む。一方、所定値よりも深いと判定すると、制御部18は、後述するステップS51に進む。
ステップS24において測距情報が記録されていないと判定すると、ステップS30において、制御部18は、ステップS5で行った撮影により得られた画像の画角を算出する。
ステップS31において、制御部18は、ステップS30で算出した画角が所定値よりも狭いか否かを判定する。所定値よりも狭いと判定すると、制御部18は、後述するステップS41に進む。一方、所定値よりも広いと判定すると、制御部18は、後述するステップS51に進む。
ステップS41において、制御部18は、主要被写体に注目していると判定する。すなわち、特定のシーンモードで撮影が行われた場合、被写界深度が所定値よりも浅い場合、画角が所定値よりも狭い場合には、主要被写体に注目していると判定する。
ステップS42において、制御部18は、ステップS5で行った撮影により得られた画像に対して顔検出を行う。
ステップS43において、制御部18は、ステップS42で行った顔検出により顔が検出されたかを判定する。顔が検出されたと判定すると、制御部18は、ステップS44に進む。一方、顔が検出されないと判定すると、制御部18は、後述するステップS45に進む。
ステップS44において、制御部18は、注視点=ステップS42で検出した顔部分とする。
ステップS45において、制御部18は、注視点=AF合焦点とする。
ステップS51において、制御部18は、広い範囲に注目していると判定する。すなわち、特定のシーンモードで撮影が行われていない場合、被写界深度が所定値よりも深い場合、画角が所定値よりも広い場合には、広い範囲に注目していると判定する。
ステップS52において、制御部18は、注視点=最終画像の範囲とする。
以上説明したように、第1実施形態によれば、被写体像を撮像し、第1の画角に対応する被写体領域の画像を生成するとともに、第1の画角と異なる第2の画角に対応する被写体領域の情報を取得する。そして、生成した画像に関して、刺激、背景、周囲の少なくとも3つの領域を算出エリアとして定義し、撮影時観察パラメータを算出するとともに、背景および周囲の領域については、第1の画角と第2の画角とを比較し、比較結果に基づいて定義する。そして、生成した画像と撮影時観察パラメータとを関連付けて記録する。そのため、ユーザの知覚にマッチした撮影時観察パラメータを高精度かつ自動に決定することができる。したがって、撮影シーンを再現するための画像処理を行う際に、ユーザの意図を反映させるとともに、ユーザが実際に認識する環境を反映した結果を得ることが可能なパラメータを算出することができる。
また、第1実施形態によれば、第1の画角を設定するユーザ操作を受け付ける受付部を備え、ユーザ操作により設定された第1の画角よりも広い画角で撮像を行い、生成した第2の画像から第1の画角に対応する部分を切り出して、第1の画角に対応する被写体領域の画像を生成する。そして、撮像により生成した第2の画像から、第2の画角に対応する被写体領域の情報を取得するとともに、第1の画角に対応する被写体領域の画像と撮影時観察パラメータとを関連付けて記録する。したがって、記録する画像と、撮影時観察パラメータの算出に用いる情報との両方を、1回の撮影で得ることができる。
また、第1実施形態によれば、第2の画角に対応する被写体領域の情報として、ユーザの視野角に対応する被写体領域の情報を取得する。したがって、ユーザが実際に認識する環境を適切に反映した結果を得ることが可能なパラメータを算出することができる。
また、第1実施形態によれば、撮像時の撮影条件に基づいて、ユーザの注視点を推定し、注視点を基準として、撮影時観察パラメータを算出する。したがって、画像に含まれる被写体に応じて、最適な撮影時観察パラメータを算出することができる。
なお、第1実施形態において、電子カメラ1がクロップ処理のオン、オフを自動または手動で切り替え可能なクロップモードを備える場合には、クロップ処理がオンである場合には、常に第1実施形態で説明した処理を行う構成としても良い。
<第2実施形態>
以下、図面を用いて本発明の第2実施形態について説明する。第2実施形態は、第1実施形態の変形例である。そのため、以下では、第1実施形態と異なる部分についてのみ説明する。また、第1実施形態と同様の部分については、第1実施形態と同様の符号を用いて説明する。
第2実施形態は、第1実施形態で説明したクロップ処理を行う代わりに、撮影を2回行う実施例である。
以下、図10のフローチャートを参照して、撮影時の制御部18の動作を説明する。
ステップS61において、制御部18は、撮影指示が行われたか否かを判定する。撮影指示が行われるまで待機し、撮影指示が行われたと判定すると、制御部18は、ステップS62に進む。なお、撮影指示が行われるまでの間に、操作部17を介したズーム指示が行われた場合には、公知技術と同様に、ズーム指示にしたがってズーム制御を行う(第1実施形態で説明したようなズーム量の補正は行わない)。
ステップS62において、制御部18は、撮像部12を制御して撮影を行う。
ステップS63において、制御部18は、第1実施形態で説明したズーム量補正テーブルに基づいて、ズーム量を決定する。ただし、ここでのズーム量補正テーブルとは、ステップS62で撮影を行った際よりも、画角をワイド側にシフトするためのテーブルである。このようにズーム量を決定することにより、ステップS62で撮影を行った際よりも広い画角で撮影が行われるようにズーム量が決定される。
ステップS64において、制御部18は、光学系駆動部16を制御し、ステップS63で決定したズーム量にしたがって、ズーム制御を行う。
ステップS65において、制御部18は、撮像部12を制御して2回目の撮影を行う。なお、図9の例を当てはめると、ステップS62の1回目の撮影では、図9Bに示した画像が生成され、ステップS65の2回目の撮影では、図9Aに示した画像が生成されることになる。
ステップS66において、制御部18は、図4のフローチャートのステップS6と同様に、注視点を推定する。
ステップS67において、制御部18は、図4のフローチャートのステップS8と同様に、撮影時観察パラメータを決定する。ただし、制御部18は、ステップS66で推定した注視点を刺激、ステップS62の1回目の撮影により得られた画像内の注視点を除く領域を背景、ステップS65の2回目の撮影により得られた画像からステップS62の1回目の撮影により得られた画像を除いた領域を周囲と定義して、撮影時観察パラメータを決定する。
ステップS68において、制御部18は、画像処理部13を制御して、ステップS62の1回目の撮影により得られた画像に対して、見え変換処理を含む画像処理を行う。
ステップS69において、制御部18は、ステップS68で画像処理を施した画像を、記録部15に記録する。ただし、制御部18は、ステップS67で決定した撮影時観察パラメータと画像とを関連付けて記録する。
以上説明したように、第2実施形態によれば、第1の画角で撮像を行って画像を生成するとともに、第2の画角で撮像を行って第2の画像を生成し、第2の画像から、第2の画角に対応する被写体領域の情報を取得する。したがって、クロップ処理を行うことなく、第1実施形態と同様の効果を得ることができる。
<第3実施形態>
以下、図面を用いて本発明の第3実施形態について説明する。第3実施形態は、第1実施形態の変形例である。そのため、以下では、第1実施形態と異なる部分についてのみ説明する。また、第1実施形態と同様の部分については、第1実施形態と同様の符号を用いて説明する。
第3実施形態は、第1実施形態で説明したクロップ処理を行う代わりに、環境光を取得するセンサを備える実施例である。第3実施形態の電子カメラは、第1実施形態で説明した電子カメラ1の各構成に加えて、撮像素子11とは独立に環境光センサを備える。環境光センサは、撮影時の環境情報を取得するためのセンサであり、人間の視野角と略同様の固定された画角を有するセンサである。環境光センサは、撮影時の環境情報を取得することができれば、電子カメラのどの部分に備えられても良い。また、測光センサなどを兼用したセンサであっても良い。
以下、図11のフローチャートを参照して、撮影時の制御部18の動作を説明する。
ステップS71において、制御部18は、撮影指示が行われたか否かを判定する。撮影指示が行われるまで待機し、撮影指示が行われたと判定すると、制御部18は、ステップS72に進む。なお、撮影指示が行われるまでの間に、操作部17を介したズーム指示が行われた場合には、公知技術と同様に、ズーム指示にしたがってズーム制御を行う(第1実施形態で説明したようなズーム量の補正は行わない)
ステップS72において、制御部18は、撮像部12を制御して撮影を行う。
ステップS73において、制御部18は、図4のフローチャートのステップS6と同様に、注視点を推定する。
ステップS74において、制御部18は、環境光センサの出力を取得する。
ステップS75において、制御部18は、ステップS72の撮影を行った際の画角と、環境光センサの画角とを比較する。
ステップS76において、制御部18は、ステップS75において行った比較の結果に基づいて、撮影時観察パラメータを決定する。
ステップS72の撮影を行った際の画角をθとし、環境光センサの画角をθとする。そして、θ≧θである場合には、制御部18は、ステップS73で推定した注視点を刺激、環境光センサの画角θに相当する領域を背景、ステップS72の撮影により得られた画像から環境光センサの画角θに相当する領域を除いた領域を周囲と定義して、撮影時観察パラメータを決定する。
一方、θ<θである場合には、制御部18は、ステップS73で推定した注視点を刺激、ステップS72の撮影により得られた画像に相当する領域を背景、環境光センサの画角θに相当する領域からステップS72の撮影により得られた画像に相当する領域を除いた領域を周囲と定義して、撮影時観察パラメータを決定する。
ステップS77において、制御部18は、画像処理部13を制御して、ステップS72の撮影により得られた画像に対して、見え変換処理を含む画像処理を行う。
ステップS78において、制御部18は、ステップS77で画像処理を施した画像を、記録部15に記録する。ただし、制御部18は、ステップS76で決定した撮影時観察パラメータと画像とを関連付けて記録する。
以上説明したように、第3実施形態によれば、ユーザの視野角に対応する被写体領域の情報を検出する検出部を備え、検出部による検出結果から、第2の画角に対応する被写体領域の情報を取得する。したがって、クロップ処理を行うことなく、第1実施形態と同様の効果を得ることができる。
<第4実施形態>
以下、図面を用いて本発明の第4実施形態について説明する。第4実施形態は、第1実施形態と第3実施形態とを組み合わせた変形例である。そのため、以下では、第1実施形態および第3実施形態と同様の部分については、第1実施形態と同様の符号を用いて説明する。
以下、図12のフローチャートを参照して、撮影時の制御部18の動作を説明する。
ステップS81からステップS86において、制御部18は、図4のステップS1からステップS6と同様の処理を行う。
ステップS87において、制御部18は、ズーム量を補正したか否かを判定する。ステップS82においてズーム量を補正したと判定すると、制御部18は、ステップS88に進む。一方、ズーム量を補正していないと判定すると、制御部18は、後述するステップS90に進む。ズーム量を補正するか否かは、撮影レンズ部10のレンズが単焦点レンズであるか否かや、ズーム操作の有無などに依存する。
ステップS88およびステップS89において、制御部18は、図4のステップS7およびステップS8と同様の処理を行う。
ステップS90からステップS92において、制御部18は、図11のステップS74からステップS76と同様の処理を行う。
ステップS93およびステップS94において、制御部18は、図4のステップS9およびステップS10と同様の処理を行う。
以上説明したように、第4実施形態によれば、撮影の条件などに応じて最適な撮影時観察パラメータを算出することができる。
なお、第4実施形態では、第1実施形態と第3実施形態とを組み合わせた処理を例に挙げて説明したが、他の組み合わせであっても良い。例えば、第2実施形態と第3実施形態とを組み合わせた処理を行っても良い。
また、第3実施形態および第4実施形態では、撮像素子11とは独立に環境光センサを備える例を挙げて説明したが、本発明はこの例に限定されない。例えば、撮像素子11の撮像領域の外周に沿って、環境光センサに相当する受光領域を設ける構成としても良い。
また、上記各実施形態で説明した注視点の推定方法は一例であり、本発明はこの例に限定されない。例えば、視線検出センサなどを用いて注視点の推定を行っても良い。
また、コンピュータと画像処理プログラムとにより、上記各実施形態で説明した画像処理装置をソフトウェア的に実現しても良い。この場合、図4のフローチャートで説明したステップS6以降の処理の一部または全部をコンピュータで実現する構成とすれば良い。または、図10のフローチャートで説明したステップS66以降の処理の一部または全部をコンピュータで実現する構成とすれば良い。または、図11のフローチャートで説明したステップS73以降の処理の一部または全部をコンピュータで実現する構成とすれば良い。または、図12のフローチャートで説明したステップS86以降の処理の一部または全部をコンピュータで実現する構成とすれば良い。コンピュータで実現するためには、画像データとともに、ズーム量の補正やクロップ処理の有無や、環境光センサの出力を示す情報などをコンピュータに供給すれば良い。このような情報は画像データのEXIF情報などを利用して供給することができる。このような構成とすることにより、本実施形態と同様の処理を実施することが可能になる。
1…電子カメラ,10…撮影レンズ部,12…撮像部,13…画像処理部,16…光学系駆動部,18…制御部

Claims (7)

  1. 被写体像を撮像し、第1の画角に対応する被写体領域の画像を生成する撮像部と、
    前記第1の画角と異なる第2の画角に対応する被写体領域の情報を取得する取得部と、
    前記画像に関して、刺激、背景、周囲の少なくとも3つの領域を算出エリアとして定義し、撮影時観察パラメータを算出するとともに、前記背景および前記周囲の領域については、前記第1の画角と前記第2の画角とを比較し、比較結果に基づいて定義する算出部と、
    前記画像と前記撮影時観察パラメータとを関連付けて記録する記録部と
    を備えることを特徴とする撮像装置。
  2. 請求項1に記載の撮像装置において、
    前記第1の画角を設定するユーザ操作を受け付ける受付部を備え、
    前記撮像部は、前記ユーザ操作により設定された前記第1の画角よりも広い画角で撮像を行い、生成した第2の画像から前記第1の画角に対応する部分を切り出して、前記第1の画角に対応する被写体領域の画像を生成し、
    前記取得部は、前記撮像部により生成した前記第2の画像から、前記第2の画角に対応する被写体領域の情報を取得し、
    前記記録部は、前記第1の画角に対応する被写体領域の画像と前記撮影時観察パラメータとを関連付けて記録する
    ことを特徴とする撮像装置。
  3. 請求項1又は請求項2に記載の撮像装置において、
    ユーザの視野角に対応する被写体領域の情報を検出する検出部を備え、
    前記取得部は、前記検出部による検出結果から、前記第2の画角に対応する被写体領域の情報を取得する
    ことを特徴とする撮像装置。
  4. 請求項1から請求項3のいずれか一項に記載の撮像装置において、
    前記撮像部は、前記第1の画角で撮像を行って前記画像を生成するとともに、前記第2の画角で撮像を行って第2の画像を生成し、
    前記取得部は、前記撮像部により生成した前記第2の画像から、前記第2の画角に対応する被写体領域の情報を取得する
    ことを特徴とする撮像装置。
  5. 請求項1から請求項4のいずれか一項に記載の撮像装置において、
    前記取得部は、前記第2の画角に対応する被写体領域の情報として、ユーザの視野角に対応する被写体領域の情報を取得する
    ことを特徴とする撮像装置。
  6. 請求項1から請求項5のいずれか一項に記載の撮像装置において、
    前記算出部は、前記撮像部による撮像時の撮影条件に基づいて、ユーザの注視点を推定し、前記注視点を基準として、前記撮影時観察パラメータを算出する
    ことを特徴とする撮像装置。
  7. 第1の画角に対応する被写体領域の画像と、前記第1の画角と異なる第2の画角に対応する被写体領域の情報とを取得する取得ステップと、
    前記画像に関して、刺激、背景、周囲の少なくとも3つの領域を算出エリアとして定義し、撮影時観察パラメータを算出するとともに、前記背景および前記周囲の領域については、前記第1の画角と前記第2の画角とを比較し、比較結果に基づいて定義する算出ステップと、
    前記画像と前記撮影時観察パラメータとを関連付けて記録する記録ステップと
    をコンピュータに実行させることを特徴とする画像処理プログラム。
JP2012006097A 2012-01-16 2012-01-16 撮像装置および画像処理プログラム Active JP5845912B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012006097A JP5845912B2 (ja) 2012-01-16 2012-01-16 撮像装置および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012006097A JP5845912B2 (ja) 2012-01-16 2012-01-16 撮像装置および画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2013146010A JP2013146010A (ja) 2013-07-25
JP5845912B2 true JP5845912B2 (ja) 2016-01-20

Family

ID=49041590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012006097A Active JP5845912B2 (ja) 2012-01-16 2012-01-16 撮像装置および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP5845912B2 (ja)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4652535B2 (ja) * 2000-07-25 2011-03-16 キヤノン株式会社 画像処理装置およびその方法
JP4756831B2 (ja) * 2004-06-08 2011-08-24 キヤノン株式会社 画像撮影装置及び画像処理方法
JP5361283B2 (ja) * 2008-08-21 2013-12-04 キヤノン株式会社 色処理装置およびその方法
JP5407600B2 (ja) * 2009-07-01 2014-02-05 株式会社ニコン 画像処理装置、画像処理方法及び電子カメラ
JP2012010017A (ja) * 2010-06-23 2012-01-12 Nikon Corp 画像処理装置、撮像装置、および画像処理プログラム

Also Published As

Publication number Publication date
JP2013146010A (ja) 2013-07-25

Similar Documents

Publication Publication Date Title
JP4760742B2 (ja) デジタルカメラ、及び情報表示方法、情報表示制御プログラム
JP5025532B2 (ja) 撮影装置、撮像装置の制御方法及び撮像装置の制御プログラム
JP4787180B2 (ja) 撮影装置及び撮影方法
US8106995B2 (en) Image-taking method and apparatus
US8111315B2 (en) Imaging device and imaging control method that detects and displays composition information
JP4460560B2 (ja) 撮像装置及び撮影方法
US10194074B2 (en) Imaging system, warning generation device and method, imaging device and method, and program
JP5553230B2 (ja) 撮像装置および撮像処理方法
US10237466B2 (en) Recognition of degree of focus of an image
TW201102938A (en) Image capturing apparatus, face area detecting method and program recording medium
JP2011010194A (ja) ボカシ画像形成装置及びそれを備えたカメラ
KR20140031804A (ko) 촬상 장치, 촬상 방법 및 기록 매체
JP5169399B2 (ja) 画像処理装置およびデジタルカメラ
JP2009118083A (ja) デジタルカメラ
US20110102632A1 (en) Image pick-up apparatus, white balance setting method and recording medium
JP2008263478A (ja) 撮像装置
JP2008054031A (ja) デジタルカメラ及び表示制御方法
JP5845912B2 (ja) 撮像装置および画像処理プログラム
JP2006128793A (ja) 撮像装置、及びその制御方法
JP6225463B2 (ja) 撮像装置、撮像方法および記録媒体
JP2012049841A (ja) 撮像装置およびプログラム
JP5493273B2 (ja) 撮像装置、撮影方法及びプログラム
JP2014103450A (ja) 画像処理装置、方法及びプログラム
JP2010016783A (ja) 撮像装置
JP4326997B2 (ja) 撮像装置および合焦方法、制御プログラム、記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151109

R150 Certificate of patent or registration of utility model

Ref document number: 5845912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250