JP2017228899A - 撮像装置、撮像装置の制御方法、及び、プログラム - Google Patents
撮像装置、撮像装置の制御方法、及び、プログラム Download PDFInfo
- Publication number
- JP2017228899A JP2017228899A JP2016122928A JP2016122928A JP2017228899A JP 2017228899 A JP2017228899 A JP 2017228899A JP 2016122928 A JP2016122928 A JP 2016122928A JP 2016122928 A JP2016122928 A JP 2016122928A JP 2017228899 A JP2017228899 A JP 2017228899A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- light
- optical system
- subject image
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Focusing (AREA)
- Viewfinders (AREA)
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
Abstract
【課題】種々の要因により生じる画像データの劣化を抑制することを目的とする。【解決手段】本発明の撮像装置1は、画像データを変換する撮像装置1であって、撮像手段214と、光学系100を透過した光束に基づく被写体像に遮光領域を形成する形成手段208と、デフォーカス状態の光学系100を透過した光束に基づく被写体像における遮光領域902c、及び、遮光領域902cを含まない領域である透過領域902aを含む評価領域902に対応する撮像手段214の出力信号に基づいて、被写体像の画像データを変換する変換手段と、を備えることを特徴とする。【選択図】図8
Description
本発明は、画像データを変換する撮像装置、撮像装置の制御方法、及び、プログラムに関する。
一眼レフカメラ等の撮像装置には、撮影レンズの焦点状態を位相差検出方式により検出する焦点検出システムや、焦点検出板において拡散された光から被写界中に存在する人物等の被写体を検出する被写体検出システムが搭載されているものがある。焦点検出システムや被写体検出システムは、撮影レンズを透過して一次結像した被写体光を二次結像する二次結像光学系と、二次結像光学系により二次結像した被写体像の信号を出力する撮像素子とにより構成される。焦点検出システムや被写体検出システムでは、撮像素子の出力信号により生成される画像を用いて焦点状態の検出や被写体の検出が行われる。
しかしながら、撮像装置のサイズやコストの制約により、二次結像光学系は少数のレンズによって構成され、軸上色収差等の収差を有することが多い。また、撮像装置の製造誤差、経時変化、温度変化、湿度変化等の種々の要因により二次結像光学系の結像性能が低下することがある。したがって、焦点検出システムや被写体検出システムにおいて用いられる画像の解像力が低下し、各システムの検出精度が低下するという問題がある。
なお、特許文献1は、温度変化による光学系の結像状態の変化を補償するソフトウェア処理を開示するが、温度変化以外の要因による画像データの劣化の抑制についての開示はない。
なお、特許文献1は、温度変化による光学系の結像状態の変化を補償するソフトウェア処理を開示するが、温度変化以外の要因による画像データの劣化の抑制についての開示はない。
本発明は以上のような状況に鑑みてなされたものであり、種々の要因により生じる画像データの劣化を抑制することを目的とする。
本発明の撮像装置は、画像データを変換する撮像装置であって、撮像手段と、光学系を透過した光束に基づく被写体像に遮光領域を形成する形成手段と、デフォーカス状態の前記光学系を透過した光束に基づく被写体像における前記遮光領域、及び、前記遮光領域を含まない領域を含む評価領域である透過領域に対応する前記撮像手段の出力信号に基づいて、被写体像の画像データを変換する変換手段と、を備えることを特徴とする。
本発明によれば、種々の要因により生じる画像データの劣化を抑制できる。
以下、添付図面を参照して、本発明の好適な実施形態について説明する。
まず、図1を参照して、本実施形態に係るカメラ1について説明する。図1は、カメラ1の構成図である。
カメラ1は、撮像装置の一例である一眼レフカメラであり、カメラ本体200と、マウント部のレンズ装着機構を介してカメラ本体200に着脱可能に取り付けられるレンズユニット(撮影レンズ)100とを備える。マウント部には、電気接点ユニット104が設けられている。カメラ本体200は、電気接点ユニット104を介して、レンズユニット100と通信を行い、レンズユニット100内のフォーカスレンズ101を制御する。なお、図1には、レンズユニット100内のレンズとしてフォーカスレンズ101のみを示しているが、この他に変倍レンズや固定レンズが設けられる場合がある。
まず、図1を参照して、本実施形態に係るカメラ1について説明する。図1は、カメラ1の構成図である。
カメラ1は、撮像装置の一例である一眼レフカメラであり、カメラ本体200と、マウント部のレンズ装着機構を介してカメラ本体200に着脱可能に取り付けられるレンズユニット(撮影レンズ)100とを備える。マウント部には、電気接点ユニット104が設けられている。カメラ本体200は、電気接点ユニット104を介して、レンズユニット100と通信を行い、レンズユニット100内のフォーカスレンズ101を制御する。なお、図1には、レンズユニット100内のレンズとしてフォーカスレンズ101のみを示しているが、この他に変倍レンズや固定レンズが設けられる場合がある。
被写体からの光束は、光学系の一例であるレンズユニット100を介してカメラ本体200内のメインミラー201に導かれる。メインミラー201は、第1の位置と第2の位置とに移動可能である。第1の位置は、図1に示されたメインミラー201の位置であり、撮影光路内であって、光軸に対して斜めに配置されて、被写体からの光束を上方のファインダ光学系に導く位置である。第2の位置は、撮影光路外に退避した位置である。
メインミラー201の中央部はハーフミラーになっており、メインミラー201が第1の位置にあるときには、被写体からの光束の一部が、このハーフミラー部を透過する。ハーフミラー部を透過した光束は、メインミラー201の背面側に設けられたサブミラー202で反射し、焦点検出装置203に導かれる。一方、メインミラー201で反射した光束は、撮像センサ205と光学的に共役な位置に配置された焦点検出板206上に一次結像する。焦点検出板206上の一次結像される面は、結像面、及び、一次結像面の一例である。焦点検出板206に一次結像した被写体像は第1被写体像の一例である。
焦点検出板206で拡散されて透過した光(被写体像)は、ファインダ視野枠207を通過し、PN液晶パネル(高分子分散液晶パネル)208を透過し、ペンタプリズム210によって正立像に変換される。正立像は、接眼レンズ211によって拡大され、撮影者により観察される。
メインミラー201の中央部はハーフミラーになっており、メインミラー201が第1の位置にあるときには、被写体からの光束の一部が、このハーフミラー部を透過する。ハーフミラー部を透過した光束は、メインミラー201の背面側に設けられたサブミラー202で反射し、焦点検出装置203に導かれる。一方、メインミラー201で反射した光束は、撮像センサ205と光学的に共役な位置に配置された焦点検出板206上に一次結像する。焦点検出板206上の一次結像される面は、結像面、及び、一次結像面の一例である。焦点検出板206に一次結像した被写体像は第1被写体像の一例である。
焦点検出板206で拡散されて透過した光(被写体像)は、ファインダ視野枠207を通過し、PN液晶パネル(高分子分散液晶パネル)208を透過し、ペンタプリズム210によって正立像に変換される。正立像は、接眼レンズ211によって拡大され、撮影者により観察される。
ファインダ視野枠207は、焦点検出板206の近傍に配置されており、焦点検出板206で拡散されて透過した光の周辺部を遮光することによって撮像センサ205で撮像される領域を撮影者に視認させる。
PN液晶パネル208は、表示手段の一例であって、焦点検出板206の近傍に配置されており、焦点検出処理の状態表示や焦点検出領域を表示し、これらの情報を、光学ファインダを覗いている撮影者に提示する。
PN液晶パネル用照明装置209は、照明手段の一例であり、PN液晶パネル208を照明し、PN液晶パネル208の表示を点灯させる。PN液晶パネル用照明装置209の光源色は、例えば赤色とする。
PN液晶パネル208は、表示手段の一例であって、焦点検出板206の近傍に配置されており、焦点検出処理の状態表示や焦点検出領域を表示し、これらの情報を、光学ファインダを覗いている撮影者に提示する。
PN液晶パネル用照明装置209は、照明手段の一例であり、PN液晶パネル208を照明し、PN液晶パネル208の表示を点灯させる。PN液晶パネル用照明装置209の光源色は、例えば赤色とする。
焦点検出板206で拡散されて透過した光の一部は、測光用プリズム212で折り曲げられ、測光レンズ213を透過し、測光センサ214上に二次結像して、測光センサ214が受光する。カメラ本体200は、レンズユニット100からカメラ1の内部に入射する光束を除いたカメラ1の外部から光の測光センサ214への入射を遮断する部材を備える。
ファインダ内表示部215は、絞り値やシャッタ速度等、カメラの各種撮影情報を表示する。ファインダ内表示部215からの光束は、ファインダ内表示部用プリズム216で折り曲げられ、ペンタプリズム210、接眼レンズ211を透過し、撮影者により観察される。
ファインダ内表示部215は、絞り値やシャッタ速度等、カメラの各種撮影情報を表示する。ファインダ内表示部215からの光束は、ファインダ内表示部用プリズム216で折り曲げられ、ペンタプリズム210、接眼レンズ211を透過し、撮影者により観察される。
メインミラー201が第2の位置にアップした際には、サブミラー202もメインミラー201に対して折り畳まれて撮影光路外に退避する。これにより、レンズユニット100からの光束は、機械シャッタであるフォーカルプレーンシャッタ204を通過し、撮像センサ205に至る。フォーカルプレーンシャッタ204は、撮像手段である撮像センサ205に入射する光量を制限する。撮像センサ205は、電気信号を出力するCCDセンサやCMOSセンサ等の光電変換素子により構成され、レンズユニット100により形成された被写体像を光電変換して画像を生成する。
カメラ本体200は、カメラ全体の制御を司るCPU217を有する。CPU217は、電気接点ユニット104を介して、レンズユニット100内のレンズ制御回路103と通信を行う。レンズ制御回路103は、CPU217からの信号に応じてレンズ駆動機構102を制御し、フォーカスレンズ101を光軸方向に駆動してピント合わせを行う。レンズ駆動機構102は、駆動源としてステッピングモータを有する。
CPU217には、記憶手段であるEEPROM218が接続されている。EEPROM218は、カメラを制御する上で調整が必要なパラメータや、カメラ個体の識別を行うための固有の情報であるカメラID(識別)情報や、カメラの製造工程において取得された撮影に関するパラメータの調整値等を記憶している。さらに、EEPROM218は、CPU217が実行する処理のプログラム等を記憶している。
また、CPU217には、撮影者が意思をカメラに伝えるための不図示の操作検出部が接続されている。操作検出部は、レリーズボタンや選択ボタン等の操作を検出する。
CPU217には、記憶手段であるEEPROM218が接続されている。EEPROM218は、カメラを制御する上で調整が必要なパラメータや、カメラ個体の識別を行うための固有の情報であるカメラID(識別)情報や、カメラの製造工程において取得された撮影に関するパラメータの調整値等を記憶している。さらに、EEPROM218は、CPU217が実行する処理のプログラム等を記憶している。
また、CPU217には、撮影者が意思をカメラに伝えるための不図示の操作検出部が接続されている。操作検出部は、レリーズボタンや選択ボタン等の操作を検出する。
外部表示部219は、撮像センサ205で撮像された画像データや撮影者が設定する項目等を表示するための表示装置であり、一般にはカラーの液晶表示素子により構成される。CPU217に接続される不図示の表示制御部は、外部表示部219、ファインダ内表示部215、PN液晶パネル208の表示及びPN液晶パネル用照明装置209の光源を制御する。
次に、図2を参照して、接眼レンズ211を通して撮影者が視認できる表示であるファインダ内表示について説明する。図2は、ファインダ内表示の図である。
ファインダ視野枠207内には、複数の焦点検出領域230がPN液晶パネル208により表示される。焦点検出処理では一般的に複数の領域で焦点を検出できる。本実施形態では、図2に示すように、例えば焦点を検出できる領域となる19点の焦点検出領域230が配置されている。焦点検出領域230aは、中央にある1点の焦点検出領域230である。
ファインダ視野枠207内の測光領域231は、測光センサ214の感度領域に対応した領域である。なお、測光領域231を表す図2の破線は、仮想線であり、撮影者は視認できない。
ファインダ視野枠207内には、複数の焦点検出領域230がPN液晶パネル208により表示される。焦点検出処理では一般的に複数の領域で焦点を検出できる。本実施形態では、図2に示すように、例えば焦点を検出できる領域となる19点の焦点検出領域230が配置されている。焦点検出領域230aは、中央にある1点の焦点検出領域230である。
ファインダ視野枠207内の測光領域231は、測光センサ214の感度領域に対応した領域である。なお、測光領域231を表す図2の破線は、仮想線であり、撮影者は視認できない。
PN液晶パネル208は、各焦点検出領域230とその他の領域に電極パターンを有しており、各電極パターンに印加する電圧を制御することにより、各電極パターンの透過、非透過を独立に切り替えることが可能である。電圧が印加されていない電極パターンの領域は、PN液晶パネル208の液晶部材の屈折率が一様でないことから、光の散乱を生じ、外観上は不透明な非透過の状態となる。一方、電圧が印加されている電極パターンの領域は、PN液晶パネル208の液晶部材の屈折率が一様となり、外観上は透明な透過の状態となる。PN液晶パネル208の非透過の領域は、焦点検出板206で拡散されて透過した被写体光を遮光する。一方、PN液晶パネル208の透過の領域では、被写体光がそのまま透過する。これにより、PN液晶パネル208の透過の領域と非透過の領域との間にコントラストが生じ、光学ファインダを覗いている撮影者は、PN液晶パネル208の表示を視認できる。なお、PN液晶パネル208は、レンズユニット100のメインミラー201を透過した光束に基づく被写体像に遮光領域の一例である非透過な領域を形成できることから、被写体像に遮光領域を形成する形成手段といえる。
また、PN液晶パネル用照明装置209がPN液晶パネル208を照明するとき、PN液晶パネル208の非透過の領域では、PN液晶パネル用照明装置209の照明光が拡散される。一方、PN液晶パネル208の透過の領域では、PN液晶パネル用照明装置209の照明光は拡散されない。これにより、光学ファインダを覗いている撮影者は、PN液晶パネル208の表示を視認できる。
PN液晶パネル208の非透過の領域で遮光され、透過の領域を透過した被写体光やPN液晶パネル208の非透過の領域で拡散されたPN液晶パネル用照明装置209の照明光の一部は測光レンズ213を透過する。そして、測光レンズ213を透過した光は撮像手段である測光センサ214に導かれる。なお、測光レンズ213は、二次光学系の一例であり二次結像光学系といえる。
PN液晶パネル208の非透過の領域で遮光され、透過の領域を透過した被写体光やPN液晶パネル208の非透過の領域で拡散されたPN液晶パネル用照明装置209の照明光の一部は測光レンズ213を透過する。そして、測光レンズ213を透過した光は撮像手段である測光センサ214に導かれる。なお、測光レンズ213は、二次光学系の一例であり二次結像光学系といえる。
次に、カメラ1の焦点調整処理について説明する。
焦点調整処理は、焦点検出装置203により行われる位相差検出方式の焦点検出処理と、被写体に対して自動的にフォーカスレンズ101を合焦位置に駆動するレンズ駆動処理とを含む。
焦点調整処理は、焦点検出装置203により行われる位相差検出方式の焦点検出処理と、被写体に対して自動的にフォーカスレンズ101を合焦位置に駆動するレンズ駆動処理とを含む。
まず、焦点調整処理に含まれる焦点検出処理について説明する。
メインミラー201のハーフミラー部を透過した被写体光は、メインミラー201の背面側に設けられたサブミラー202で反射し、焦点検出装置203に導かれる。焦点検出装置203は、フィールドレンズ221、メガネレンズ222、焦点検出センサ223、及び不図示の焦点検出用絞りを有する。フィールドレンズ221は、レンズユニット100の不図示の瞳内の一対の領域と、不図示の焦点検出用絞りとを、光学的に共役な関係に位置付ける。メガネレンズ222は、一対のレンズ222a、222bを有し、レンズユニット100の不図示の瞳内の一対の領域を通過する光束を焦点検出センサ223上にA像224a、B像224bとしてそれぞれ結像させる。
メインミラー201のハーフミラー部を透過した被写体光は、メインミラー201の背面側に設けられたサブミラー202で反射し、焦点検出装置203に導かれる。焦点検出装置203は、フィールドレンズ221、メガネレンズ222、焦点検出センサ223、及び不図示の焦点検出用絞りを有する。フィールドレンズ221は、レンズユニット100の不図示の瞳内の一対の領域と、不図示の焦点検出用絞りとを、光学的に共役な関係に位置付ける。メガネレンズ222は、一対のレンズ222a、222bを有し、レンズユニット100の不図示の瞳内の一対の領域を通過する光束を焦点検出センサ223上にA像224a、B像224bとしてそれぞれ結像させる。
焦点検出処理では、焦点検出センサ223における被写体像の像ずれ量からデフォーカス量DEF1が算出される。
図3を参照して、焦点検出センサ223における被写体像の像ずれ量の検出方法を説明する。図3(a)は、レンズユニット100が合焦状態の場合の点光源の被写体像である。図3(b)は、レンズユニット100が非合焦状態の場合の点光源の被写体像である。焦点検出センサ223は、A像224a、B像224bをそれぞれ光電変換する光電変換画素群223a、223bを有する。レンズユニット100が合焦状態の場合のA像224aとB像224bの像ずれ量(位相差)p0は、カメラ本体200の製造工程においてEEPROM218に記憶されている。
焦点検出装置203は、レンズユニット100を通過した被写体光によって形成されたA像224a、B像224bの像ずれ量p(図3(b)を参照)を検出し、像ずれ量pをCPU217に出力する。像ずれ量pは、例えばA像224aとB像224bとの距離で表す。その後、CPU217は、取得した像ずれ量pと、レンズユニット100が合焦状態の場合の像ずれ量p0との差に、所定の係数kを掛けて、レンズユニット100のデフォーカス量DEF1を、以下の式(1)に従い算出する。
DEF1=k(p−p0) ・・・(1)
図3を参照して、焦点検出センサ223における被写体像の像ずれ量の検出方法を説明する。図3(a)は、レンズユニット100が合焦状態の場合の点光源の被写体像である。図3(b)は、レンズユニット100が非合焦状態の場合の点光源の被写体像である。焦点検出センサ223は、A像224a、B像224bをそれぞれ光電変換する光電変換画素群223a、223bを有する。レンズユニット100が合焦状態の場合のA像224aとB像224bの像ずれ量(位相差)p0は、カメラ本体200の製造工程においてEEPROM218に記憶されている。
焦点検出装置203は、レンズユニット100を通過した被写体光によって形成されたA像224a、B像224bの像ずれ量p(図3(b)を参照)を検出し、像ずれ量pをCPU217に出力する。像ずれ量pは、例えばA像224aとB像224bとの距離で表す。その後、CPU217は、取得した像ずれ量pと、レンズユニット100が合焦状態の場合の像ずれ量p0との差に、所定の係数kを掛けて、レンズユニット100のデフォーカス量DEF1を、以下の式(1)に従い算出する。
DEF1=k(p−p0) ・・・(1)
次に、焦点調整処理に含まれるレンズ駆動処理について説明する。
レンズ駆動処理では、CPU217が、デフォーカス量DEF1に基づいてフォーカスレンズ101のレンズ駆動量を算出する。その後、レンズ制御回路103は、CPU217からの信号に応じてレンズ駆動機構102を制御して、フォーカスレンズ101を駆動制御する。
レンズ駆動処理では、CPU217が、デフォーカス量DEF1に基づいてフォーカスレンズ101のレンズ駆動量を算出する。その後、レンズ制御回路103は、CPU217からの信号に応じてレンズ駆動機構102を制御して、フォーカスレンズ101を駆動制御する。
焦点検出領域230を選択する方法には、例えば、任意選択モード及び自動選択モードの2種類があり、撮影者により選択される。
任意選択モードは、撮影者が撮影範囲内の焦点を合わせたい位置に対応する1つの焦点検出領域230を任意に選択するモードである。図2において、例えば19点のうち1点の焦点検出領域230を任意選択した状態では、対応する焦点検出領域230のみが表示され、他の18点の焦点検出領域230は非表示となり、撮影者は選択した焦点検出領域230のみを視認できる。
自動選択モードは、各焦点検出領域230の焦点状態の検出結果から所定のアルゴリズムに則り、焦点検出領域230が自動的に選択されるモードである。自動選択モードでは、後述する被写体検出処理の結果に基づいて、被写体優先自動選択又は通常の自動選択がなされる。被写体検出処理の結果、被写界中に人物の顔等の所定の被写体が存在する場合、この被写体の位置に対応する焦点検出領域230を選択する被写体優先自動選択がなされる。その他の場合は、各焦点検出領域230において算出したデフォーカス量DEF1から、各領域の中で最もカメラ側に近い被写体や明暗差(コントラスト)が高い被写体の位置に対応した焦点検出領域230を選択する通常の自動選択がなされる。
任意選択モードは、撮影者が撮影範囲内の焦点を合わせたい位置に対応する1つの焦点検出領域230を任意に選択するモードである。図2において、例えば19点のうち1点の焦点検出領域230を任意選択した状態では、対応する焦点検出領域230のみが表示され、他の18点の焦点検出領域230は非表示となり、撮影者は選択した焦点検出領域230のみを視認できる。
自動選択モードは、各焦点検出領域230の焦点状態の検出結果から所定のアルゴリズムに則り、焦点検出領域230が自動的に選択されるモードである。自動選択モードでは、後述する被写体検出処理の結果に基づいて、被写体優先自動選択又は通常の自動選択がなされる。被写体検出処理の結果、被写界中に人物の顔等の所定の被写体が存在する場合、この被写体の位置に対応する焦点検出領域230を選択する被写体優先自動選択がなされる。その他の場合は、各焦点検出領域230において算出したデフォーカス量DEF1から、各領域の中で最もカメラ側に近い被写体や明暗差(コントラスト)が高い被写体の位置に対応した焦点検出領域230を選択する通常の自動選択がなされる。
次に、カメラ1の露出制御処理について説明する。
露出制御処理は、後述する測光処理により算出された露出制御値に基づいて、レンズユニット100内の不図示の開口絞りの制御値又はフォーカルプレーンシャッタ204のシャッタ速度制御値を設定する。この設定によって、被写体に対して適正な光量が撮像センサ205に到達し、所望の明るさの写真を撮影することが可能である。
測光処理は、測光レンズ213及び測光センサ214を用いて行われる。
測光センサ214は、2種類以上の分光感度特性を有しており、2種類以上の色成分を検知できる。測光センサ214は、例えば画素ピッチが約6umの横640×縦480画素の高画素のCCDであって、ベイヤー配列又はストライプ配列にR,G,Bの3色のカラーフィルタが画素上に配置され、3色の色成分を検知できる。測光センサ214の出力に対して、YUV変換処理を行うことで、被写界の輝度信号及び色差信号が取得可能となっており、後述する被写体検出処理や露出制御値演算に用いられる。
露出制御処理は、後述する測光処理により算出された露出制御値に基づいて、レンズユニット100内の不図示の開口絞りの制御値又はフォーカルプレーンシャッタ204のシャッタ速度制御値を設定する。この設定によって、被写体に対して適正な光量が撮像センサ205に到達し、所望の明るさの写真を撮影することが可能である。
測光処理は、測光レンズ213及び測光センサ214を用いて行われる。
測光センサ214は、2種類以上の分光感度特性を有しており、2種類以上の色成分を検知できる。測光センサ214は、例えば画素ピッチが約6umの横640×縦480画素の高画素のCCDであって、ベイヤー配列又はストライプ配列にR,G,Bの3色のカラーフィルタが画素上に配置され、3色の色成分を検知できる。測光センサ214の出力に対して、YUV変換処理を行うことで、被写界の輝度信号及び色差信号が取得可能となっており、後述する被写体検出処理や露出制御値演算に用いられる。
測光レンズ213は、例えば結像倍率0.15倍のレンズであり、焦点検出板206で拡散されて透過した光を測光センサ214上に二次結像する。二次結像した被写体像は第2被写体像の一例である。
測光領域231は、測光センサ214が観察可能な被写体像の領域であって、かつ、測光処理において被写体像の輝度値を取得する領域である。図2に示すように、測光領域231は、ファインダ視野枠207の開口の内側の領域である。測光動作では、測光領域231を横20×縦20の粗い分割(1領域は32×24画素となる)で区切って生成される低画素の画像(400画素)を用いる。CPU217は、400画素のRGBセンサ出力値から輝度値を算出することで、各々の領域の和や平均値から被写界輝度の検出ができる。測光センサ214から得られた横20×縦20分割分の被写界輝度値に対して、主要被写体に適正な露光を行うため、CPU217は、選択された焦点検出領域230を中心とした所定の重み付け演算によって露出制御値を算出する。
測光領域231は、測光センサ214が観察可能な被写体像の領域であって、かつ、測光処理において被写体像の輝度値を取得する領域である。図2に示すように、測光領域231は、ファインダ視野枠207の開口の内側の領域である。測光動作では、測光領域231を横20×縦20の粗い分割(1領域は32×24画素となる)で区切って生成される低画素の画像(400画素)を用いる。CPU217は、400画素のRGBセンサ出力値から輝度値を算出することで、各々の領域の和や平均値から被写界輝度の検出ができる。測光センサ214から得られた横20×縦20分割分の被写界輝度値に対して、主要被写体に適正な露光を行うため、CPU217は、選択された焦点検出領域230を中心とした所定の重み付け演算によって露出制御値を算出する。
次に、図4を参照して、測光レンズ213の結像性能について説明する。図4(a)は、次に説明するデフォーカス量DEF2が0のときの測光レンズ213の結像位置と測光センサ214の位置との関係を示す図である。図4(b)は、デフォーカス量DEF2がdrのときの測光レンズ213の結像位置と測光センサ214の位置との関係を示す図である。
測光レンズ213はカメラ1のサイズやコストの制約により、1枚又は2枚のレンズで構成されることが多く、その場合には軸上色収差等の収差が発生する。
測光レンズ213はカメラ1のサイズやコストの制約により、1枚又は2枚のレンズで構成されることが多く、その場合には軸上色収差等の収差が発生する。
図4(a)及び(b)におけるFr,Fg,Fbは、それぞれ測光センサ214が検知できるR,G,Bの各色の主波長と対応した波長の光線の光軸上の結像位置を示す。波長の長さは、B<G<Rであり、また、測光レンズ213は、波長が短い光線ほど屈折率が高い特徴を有する。したがって、Gの結像位置Fgよりも測光レンズ213に近い側にBの結像位置Fbが位置し、Gの結像位置Fgよりも測光レンズ213に対して遠い側にRの結像位置Frが位置する。このような現象を一般に軸上色収差という。
測光レンズ213のデフォーカス量DEF2を、測光センサ214の表面に対するGの結像位置Fgのずれ量と定義する。デフォーカス量DEF2は、結像位置Fgが測光センサ214の表面よりも測光レンズ213に近いときを正とし、遠いときを負とする。
図4(a)に示す第1状態では、結像位置Fgが測光センサ214の表面に位置するため、デフォーカス量DEF2は0である。カメラ1の製造工程において、デフォーカス量DEF2が0となるように測光センサ214と測光レンズ213の位置関係が不図示の保持部材等によって位置調整されて固定される。
図4(b)に示す第2状態では、結像位置Frが測光センサ214の表面に位置する。結像位置Frと結像位置Fgとの距離をdrとすると、デフォーカス量DEF2はdrとなる。結像位置Fgが測光センサ214の表面よりも測光レンズ213に近い位置にあるため、図4(b)に示す第2状態ではデフォーカス量DEF2は正の値である。図4(b)に示す状態では、製造誤差、経時変化、温度変化、湿度変化等の種々の要因によりデフォーカス量DEF2がdrになっている。
図4(a)に示す第1状態では、結像位置Fgが測光センサ214の表面に位置するため、デフォーカス量DEF2は0である。カメラ1の製造工程において、デフォーカス量DEF2が0となるように測光センサ214と測光レンズ213の位置関係が不図示の保持部材等によって位置調整されて固定される。
図4(b)に示す第2状態では、結像位置Frが測光センサ214の表面に位置する。結像位置Frと結像位置Fgとの距離をdrとすると、デフォーカス量DEF2はdrとなる。結像位置Fgが測光センサ214の表面よりも測光レンズ213に近い位置にあるため、図4(b)に示す第2状態ではデフォーカス量DEF2は正の値である。図4(b)に示す状態では、製造誤差、経時変化、温度変化、湿度変化等の種々の要因によりデフォーカス量DEF2がdrになっている。
次に、図5を参照して、デフォーカス量DEF2と結像状態IP(Imaging Performance)との関係について説明する。図5は、デフォーカス量DEF2と結像状態IPとの関係を示す特性図である。図5の特性図の横軸はデフォーカス量DEF2であり、縦軸は結像状態IPである。
結像状態IPは、測光レンズ213と測光センサ214とによって再現される各色の解像力を表わしており、便宜上Gの解像力の最大値で割っている。結像状態IPは、大きいほど解像力が高いといえる。R,G,Bの結像状態をそれぞれIPr,IPg,IPbと呼ぶ。図4(a)に示した第1状態では、デフォーカス量DEF2が0であるため、図5に示すように、IPgが最大値(100%)となっている。一方、図4(b)に示した第2状態では、デフォーカス量DEF2がdrであるため、図5に示すように、IPrは最大値であり、IPrはIPg及びIPbより大きい。
図5のデフォーカス量DEF2がdbの状態は、IPbが最大値となる状態であり、IPbが、IPr及びIPgより大きい状態である。なお、dbは負の値である。
結像状態IPは、測光レンズ213と測光センサ214とによって再現される各色の解像力を表わしており、便宜上Gの解像力の最大値で割っている。結像状態IPは、大きいほど解像力が高いといえる。R,G,Bの結像状態をそれぞれIPr,IPg,IPbと呼ぶ。図4(a)に示した第1状態では、デフォーカス量DEF2が0であるため、図5に示すように、IPgが最大値(100%)となっている。一方、図4(b)に示した第2状態では、デフォーカス量DEF2がdrであるため、図5に示すように、IPrは最大値であり、IPrはIPg及びIPbより大きい。
図5のデフォーカス量DEF2がdbの状態は、IPbが最大値となる状態であり、IPbが、IPr及びIPgより大きい状態である。なお、dbは負の値である。
次に、カメラ1の被写体検出処理について説明する。
被写体検出処理は、測光センサ214の出力を用いて行われる。そのため、測光領域231が被写体検出範囲となる。被写体検出処理では、より小さな被写体像を検出するため、測光センサ214の出力から生成される横640×縦480画素(約30万画素)の高画素の被写体検出用画像データを用いる。
本実施形態では、被写体検出処理の検出の対象として、人物の顔を検出することを例として説明を行う。人物の顔を検出する方法は様々な方法が存在するが、測光センサ214から得られた輝度情報から、目、鼻又は口等の顔の特徴部を抽出して顔か否かを判定する方法を用いる。
被写体検出処理は、測光センサ214の出力を用いて行われる。そのため、測光領域231が被写体検出範囲となる。被写体検出処理では、より小さな被写体像を検出するため、測光センサ214の出力から生成される横640×縦480画素(約30万画素)の高画素の被写体検出用画像データを用いる。
本実施形態では、被写体検出処理の検出の対象として、人物の顔を検出することを例として説明を行う。人物の顔を検出する方法は様々な方法が存在するが、測光センサ214から得られた輝度情報から、目、鼻又は口等の顔の特徴部を抽出して顔か否かを判定する方法を用いる。
被写体検出用画像データは、測光センサ214によるR,G,B各色の出力値からなる画像データを、後述する重み付け係数に基づいて変換して生成される。本実施形態では、被写体検出用画像データは、測光センサ214によるR,G,B各色の出力信号の値に後述する重み付け係数を掛け合わせて算出した輝度信号により生成される。被写体検出用画像データを生成する処理は変換手段による処理の一例である。
解像力の高い色に大きな重み付けをすることにより、被写体検出用画像データの解像力は高くなり、被写体検出の精度が高くなる。そこで、R,G,B各色の重み付け係数Wr,Wg,Wbを、R,G,B各色の結像状態IPg,IPr,IPbの数値から、以下の重み付け係数算出式(2)から(4)に従って決定する。
Wr=IPr/(IPr+IPg+IPb) ・・・(2)
Wg=IPg/(IPr+IPg+IPb) ・・・(3)
Wb=IPb/(IPr+IPg+IPb) ・・・(4)
解像力の高い色に大きな重み付けをすることにより、被写体検出用画像データの解像力は高くなり、被写体検出の精度が高くなる。そこで、R,G,B各色の重み付け係数Wr,Wg,Wbを、R,G,B各色の結像状態IPg,IPr,IPbの数値から、以下の重み付け係数算出式(2)から(4)に従って決定する。
Wr=IPr/(IPr+IPg+IPb) ・・・(2)
Wg=IPg/(IPr+IPg+IPb) ・・・(3)
Wb=IPb/(IPr+IPg+IPb) ・・・(4)
次に、図6を参照して、結像状態と重み付け係数との関係を説明する。図6は、結像状態と重み付け係数との関係を示す図である。図6に示す第1状態は、図4(a)に示す状態であり、図6に示す第2状態は、図4(b)に示す状態である。図6には、それぞれの状態での結像状態と重み付け係数を示す。
重み付け係数の初期値として、第1状態での結像状態IPg,IPr,IPbの数値から算出された重み付け係数Wr,Wg,WbがEEPROM218に記憶されている。したがって、撮影時におけるカメラが第1状態である場合、重み付け係数の初期値を使うことで、解像力の高い被写体検出用画像データが生成される。
しかし、製造誤差、経時変化、温度変化、湿度変化等の種々の要因により撮影時のカメラ1が第2状態である場合、第1状態での重み付け係数Wr,Wg,Wbを用いると、解像力の低い色に重み付けがされた被写体検出用画像データが生成される。そのため、被写体検出用画像データの解像力が低下し、被写体検出の精度も低下してしまう。
そこで、本実施形態では、撮影前にR,G,B各色の結像状態IPr,IPg,IPbを算出し、これらの値から重み付け係数を算出する重み付け係数取得処理を行うことにより、被写体検出用画像データの劣化を抑制する。
しかし、製造誤差、経時変化、温度変化、湿度変化等の種々の要因により撮影時のカメラ1が第2状態である場合、第1状態での重み付け係数Wr,Wg,Wbを用いると、解像力の低い色に重み付けがされた被写体検出用画像データが生成される。そのため、被写体検出用画像データの解像力が低下し、被写体検出の精度も低下してしまう。
そこで、本実施形態では、撮影前にR,G,B各色の結像状態IPr,IPg,IPbを算出し、これらの値から重み付け係数を算出する重み付け係数取得処理を行うことにより、被写体検出用画像データの劣化を抑制する。
次に、図7を参照して、カメラ1の撮影処理について説明する。図7は撮影処理のフローチャートである。
ステップS701において、カメラ1の電源がオンになると、CPU217は処理をステップS702に進める。カメラ1の電源がオンになるまでステップS701の処理が繰り返される。
ステップS702において、CPU217は、焦点検出領域を選択する方法が自動選択モードであるか否かを判定する。焦点検出領域を選択する方法は、予め撮影者が操作検出部を使って設定しているものとする。自動選択モードが設定されている場合、CPU217は処理をステップS703に進める。自動選択モードが設定されていない場合、すなわち任意選択モードが設定されている場合、CPU217は処理をステップS709に進める。
ステップS701において、カメラ1の電源がオンになると、CPU217は処理をステップS702に進める。カメラ1の電源がオンになるまでステップS701の処理が繰り返される。
ステップS702において、CPU217は、焦点検出領域を選択する方法が自動選択モードであるか否かを判定する。焦点検出領域を選択する方法は、予め撮影者が操作検出部を使って設定しているものとする。自動選択モードが設定されている場合、CPU217は処理をステップS703に進める。自動選択モードが設定されていない場合、すなわち任意選択モードが設定されている場合、CPU217は処理をステップS709に進める。
ステップS703において、CPU217は、撮影者によってレリーズボタンが半押しされたか(SW1がONか)否かを確認する。レリーズボタンが半押しされたことを確認すると、CPU217は、処理をステップS704に進める。レリーズボタンが半押しされたことが確認されるまで、CPU217は、ステップS703の処理を繰り返す。
ステップS704において、CPU217の制御下、重み付け係数を算出する重み付け係数取得処理が行われる。重み付け係数取得処理の詳細は後述する。重み付け係数取得処理が完了すると、CPU217は処理をステップS705に進める。
ステップS704において、CPU217の制御下、重み付け係数を算出する重み付け係数取得処理が行われる。重み付け係数取得処理の詳細は後述する。重み付け係数取得処理が完了すると、CPU217は処理をステップS705に進める。
ステップS705において、CPU217は、レンズユニット100のデフォーカス状態を解除し、レンズユニット100の焦点が被写体に合うように制御する。CPU217は、例えば、レンズユニット100のデフォーカス量DEF1の絶対値|DEF1|が、所定のフォーカス閾値d1以下になり、レンズユニット100がフォーカス状態になるように制御を行う。
そして、CPU217は、被写体検出処理を行う。すなわち、まず、測光センサ214がR,G,B各色の出力値からなる画像データを出力する。次に、CPU217は、ステップS704において取得した重み付け係数を用いて測光センサ214の出力値からなる画像データを変換して、被写体検出用画像データを生成する。次に、CPU217は、被写体検出用画像データから被写体を検出する。被写体検出処理が完了すると、CPU217は、処理をステップS706に進める。
そして、CPU217は、被写体検出処理を行う。すなわち、まず、測光センサ214がR,G,B各色の出力値からなる画像データを出力する。次に、CPU217は、ステップS704において取得した重み付け係数を用いて測光センサ214の出力値からなる画像データを変換して、被写体検出用画像データを生成する。次に、CPU217は、被写体検出用画像データから被写体を検出する。被写体検出処理が完了すると、CPU217は、処理をステップS706に進める。
ステップS706において、ステップS705における被写体検出処理の結果、被写界中に所定の被写体が存在するか否かを判定する。所定の被写体が存在する場合、CPU217は、処理をステップS707に進める。一方、所定の被写体が存在しない場合、CPU217は処理をステップS708に進める。
ステップS707において、CPU217の制御下、上記の被写体優先自動選択による焦点調整処理が行われる。焦点調整処理が完了すると、CPU217は処理をステップS710に進める。
ステップS708おいて、CPU217の制御下、上記の通常の自動選択による焦点調整処理が行われる。焦点調整処理が完了すると、CPU217は処理をステップS710に進める。
ステップS709おいて、CPU217の制御下、上記の任意選択による焦点調整処理が行われる。焦点調整処理が完了すると、CPU217は処理をステップS710に進める。
ステップS707において、CPU217の制御下、上記の被写体優先自動選択による焦点調整処理が行われる。焦点調整処理が完了すると、CPU217は処理をステップS710に進める。
ステップS708おいて、CPU217の制御下、上記の通常の自動選択による焦点調整処理が行われる。焦点調整処理が完了すると、CPU217は処理をステップS710に進める。
ステップS709おいて、CPU217の制御下、上記の任意選択による焦点調整処理が行われる。焦点調整処理が完了すると、CPU217は処理をステップS710に進める。
ステップS710において、CPU217の制御下、露出制御処理が行われる。露出制御処理が完了すると、CPU217は処理をステップS711に進める。
ステップS711において、CPU217は、撮影者によってレリーズボタンが全押しされたか(SW2がONか)否かを確認する。CPU217は、レリーズボタンが全押しされたことを確認すると、処理をステップS712に進める。CPU217は、レリーズボタンが全押しされたことが確認されるまで、ステップS711の処理を繰り返す。
ステップS711において、CPU217は、撮影者によってレリーズボタンが全押しされたか(SW2がONか)否かを確認する。CPU217は、レリーズボタンが全押しされたことを確認すると、処理をステップS712に進める。CPU217は、レリーズボタンが全押しされたことが確認されるまで、ステップS711の処理を繰り返す。
ステップS712において、CPU217の制御下、ミラーアップ動作が行われる。メインミラー201及びサブミラー202が第2の位置に退避すると、CPU217は処理をステップS713に進める。なお、ステップS701からS712において、レンズユニット100の絞りは開放状態である。
ステップS713において、CPU217の制御下、撮影動作が行われる。CPU217は、不図示のシャッタ制御部、絞り駆動部、撮像センサ制御部に各々信号を送信する。撮像センサ205はレンズユニット100によって投影された被写体像を光電変換し、アナログ信号を出力する。撮像センサ205に出力されたアナログ信号は、不図示の撮像センサ制御部及び画像処理部により処理され、撮影画像データが生成される。撮影動作が完了すると、カメラ1の撮影処理は完了する。
ステップS713において、CPU217の制御下、撮影動作が行われる。CPU217は、不図示のシャッタ制御部、絞り駆動部、撮像センサ制御部に各々信号を送信する。撮像センサ205はレンズユニット100によって投影された被写体像を光電変換し、アナログ信号を出力する。撮像センサ205に出力されたアナログ信号は、不図示の撮像センサ制御部及び画像処理部により処理され、撮影画像データが生成される。撮影動作が完了すると、カメラ1の撮影処理は完了する。
次に、図8を参照して、図7のステップS704の重み付け係数取得処理について説明する。図8は、重み付け係数取得処理のフローチャートである。以下の説明では、図2の焦点検出領域230a付近に対応した被写体光を用いた重み付け係数取得動作の場合を例にとって説明するが、他の焦点検出領域230付近に対応した被写体光を用いてもよい。
ステップS801において、CPU217の制御下、PN液晶パネル208が焦点検出領域230aを表示する。なお、焦点検出領域230aの表示とは、焦点検出領域230aを表す枠の表示のことである。
ステップS802において、レンズユニット100の焦点状態の検出が行われる。焦点検出装置203は、焦点検出領域230aに対応した被写体像の像ずれ量を検出し、CPU217に出力する。CPU217は、取得した像ずれ量から、レンズユニット100のデフォーカス量DEF1を算出する。CPU217は、デフォーカス量DEF1を算出すると、処理をステップS803に進める。
ステップS802において、レンズユニット100の焦点状態の検出が行われる。焦点検出装置203は、焦点検出領域230aに対応した被写体像の像ずれ量を検出し、CPU217に出力する。CPU217は、取得した像ずれ量から、レンズユニット100のデフォーカス量DEF1を算出する。CPU217は、デフォーカス量DEF1を算出すると、処理をステップS803に進める。
ステップS803において、CPU217はデフォーカス状態判定を行う。CPU217は、ステップS802で算出されたデフォーカス量DEF1の絶対値|DEF1|が所定のデフォーカス閾値d0以上のとき、レンズユニット100がデフォーカス状態と判定する。d0の値は、後述する結像状態算出において被写体の明暗差の影響を受けずに解像力を正しく評価できる程度に十分大きい値が設定される。なお、d0は固定値でもよいし、レンズユニット100の開放絞り値等によって変動する値であってもよい。CPU217は、「|DEF1|<d0」の場合、すなわち、レンズユニット100がデフォーカス状態ではない場合、処理をステップS804に進める。CPU217は、「|DEF1|≧d0」の場合、すなわち、レンズユニット100がデフォーカス状態である場合、処理をステップステップS805に進める。
ステップS804において、CPU217の制御により、デフォーカス駆動が行われ、レンズユニット100がデフォーカス状態にされる。レンズ制御回路103は、現時点におけるフォーカスレンズ101の位置の情報をCPU217に出力する。CPU217は、現時点におけるフォーカスレンズ101の位置に対して、レンズユニット100の焦点状態が無限遠側、及び、至近側となるために必要なレンズ駆動量をそれぞれ算出する。CPU217は、無限側、及び、至近側となるためのレンズ駆動量のうち、絶対値が大きいほうをデフォーカス駆動量と決定し、レンズ制御回路103に出力する。レンズ制御回路103は、フォーカスレンズ101を、デフォーカス駆動量だけ駆動する駆動制御を行う。フォーカスレンズ101が駆動し、レンズユニット100の焦点状態が無限遠側又は至近側となったら、CPU217は処理をステップS805に進める。ステップS803及びS804におけるCPU217の処理は、制御手段による処理の一例である。
ステップS805において、CPU217の制御の下、測光センサ214により取得された測光領域231の信号が出力される。そして、CPU217は、処理をステップS806に進める。
ステップS805において、CPU217の制御の下、測光センサ214により取得された測光領域231の信号が出力される。そして、CPU217は、処理をステップS806に進める。
ステップS806において、CPU217は、結像状態IPを算出する。ここで、図9Aから図9Dを参照して、結像状態IPの算出方法を説明する。図9Aは、焦点検出領域230aが表示されたファインダ内表示を示す図である。図9Bは、焦点検出領域230aの一部を含む領域である一部領域901の拡大図である。図9Cは、画素出力信号グラフの図である。図9Dは、規格化画素出力信号グラフの図である。
CPU217は、ステップS805において出力された信号から結像状態算出用画像データを生成する。図9Aで示すように、ファインダ内表示には、ステップS801での処理によって、PN液晶パネル208の焦点検出領域230aが表示されている。したがって、ファインダ内表示には焦点検出領域230aの枠の部分であって遮光領域の一例である非透過領域と、非透過領域を含まない被写体像の領域である透過領域とが表れる。そして、非透過領域と透過領域との間で明暗差が発生している。
結像状態IPの算出には、非透過領域と透過領域とを含む被写体像の領域である評価領域902における測光センサ214の信号が使用される。評価領域902は、図9Bに示すように、透過領域902aと、境界領域902bと、非透過領域902cとに分けられる。透過領域902aと非透過領域902cとは、透過領域902aと非透過領域902cとの境界領域902bを介して隣り合う。
CPU217は、ステップS805において出力された信号から結像状態算出用画像データを生成する。図9Aで示すように、ファインダ内表示には、ステップS801での処理によって、PN液晶パネル208の焦点検出領域230aが表示されている。したがって、ファインダ内表示には焦点検出領域230aの枠の部分であって遮光領域の一例である非透過領域と、非透過領域を含まない被写体像の領域である透過領域とが表れる。そして、非透過領域と透過領域との間で明暗差が発生している。
結像状態IPの算出には、非透過領域と透過領域とを含む被写体像の領域である評価領域902における測光センサ214の信号が使用される。評価領域902は、図9Bに示すように、透過領域902aと、境界領域902bと、非透過領域902cとに分けられる。透過領域902aと非透過領域902cとは、透過領域902aと非透過領域902cとの境界領域902bを介して隣り合う。
CPU217は、図9Bに示すように、透過領域902aと非透過領域902cとを繋ぐ走査線903に沿って、測光センサ214の出力信号を読み出して結像状態IPを算出する。走査線903は、透過領域902aと非透過領域902cと間において境界領域902bが伸びる方向に垂直な線であり、本実施形態では図9Bに示すように走査線903aから903eまでの異なる5本の線がある。CPU217は、出力信号を読み込む対象とする測光センサ214の画素を、透過領域902aから非透過領域902cの方向に走査線903に沿って進ませる。なお、走査線903は、焦点検出領域230aの枠の縁である境界線に垂直な線といえる。この境界線は、境界領域902bに包含される。
図9Cに、CPU217が、1つの走査線903に沿って読み出したGについての測光センサ214の出力信号ygrawを表す画素出力信号グラフを示す。画素出力信号グラフの横軸は、走査線903における測光センサ214の画素の位置であり、縦軸は、測光センサ214の画素の出力信号ygrawを表す。ygtraは透過領域902aにおけるygrawの平均値であり、ygperは非透過領域902cにおけるygrawの平均値である。
図9Cに、CPU217が、1つの走査線903に沿って読み出したGについての測光センサ214の出力信号ygrawを表す画素出力信号グラフを示す。画素出力信号グラフの横軸は、走査線903における測光センサ214の画素の位置であり、縦軸は、測光センサ214の画素の出力信号ygrawを表す。ygtraは透過領域902aにおけるygrawの平均値であり、ygperは非透過領域902cにおけるygrawの平均値である。
図9Dに示す規格化画素出力信号グラフは、画素出力信号グラフを規格化したグラフである。規格化画素出力信号グラフの横軸は、図9Cの画素出力信号グラフと同様に、走査線903における測光センサ214の画素の位置である。規格化画素出力信号グラフの縦軸は、測光センサ214の画素の出力信号ygrawを規格化した規格化信号ygを表す。規格化信号ygは、次の式(5)で表される値であって、Gの出力信号ygrawを規格化した値である。
yg=(ygraw−ygper)/(ygtra−ygper) ・・・(5)
このように規格化する理由は、被写体光の明るさの影響をなくして正しく結像状態IPを算出するためである。
yg=(ygraw−ygper)/(ygtra−ygper) ・・・(5)
このように規格化する理由は、被写体光の明るさの影響をなくして正しく結像状態IPを算出するためである。
CPU217は、走査線903ごとに、測光センサ214の画素の規格化信号ygを算出する。そして、CPU217は、走査線903ごとに、測光センサ214の隣り合う画素の規格化信号ygの差の最大値Δygmaxを算出する。これは、Δygmaxが大きいほど解像力が高いと評価できるためである。なお、Δygmaxを算出する際の元になる走査線903は、境界領域902bのみならず、透過領域902a及び非透過領域902cも含む。なぜならば、測光センサ214に形成される境界線の像が製造誤差によってずれた場合でも、境界領域902bが境界線の像を包含するために、十分広く設ける必要があるためである。
本実施形態では、測光センサ214の隣り合う画素の規格化信号ygの差の最大値Δygmaxを算出する。しかし、測光センサ214の所定の間隔にある画素の規格化信号ygの差の最大値Δygmaxを算出するようにしてもよい。
本実施形態では、測光センサ214の隣り合う画素の規格化信号ygの差の最大値Δygmaxを算出する。しかし、測光センサ214の所定の間隔にある画素の規格化信号ygの差の最大値Δygmaxを算出するようにしてもよい。
次に、CPU217は、それぞれの走査線903について算出したΔygmaxの平均値であるave(Δygmax)を算出する。
次に、CPU217は、次の式(6)でGの結像状態IPgを算出する。すなわち、CPU217は、算出したave(Δygmax)を、DEF2が0の状態におけるave(Δygmax)で割って規格化することにより、Gの結像状態IPgを算出する。DEF2が0の状態におけるave(Δygmax)は、カメラ1の製造工程等においてEEPROM218に記録された値である。
IPg=ave(Δygmax)/{DEF2が0の状態におけるave(Δygmax)} ・・・(6)
次に、CPU217は、次の式(6)でGの結像状態IPgを算出する。すなわち、CPU217は、算出したave(Δygmax)を、DEF2が0の状態におけるave(Δygmax)で割って規格化することにより、Gの結像状態IPgを算出する。DEF2が0の状態におけるave(Δygmax)は、カメラ1の製造工程等においてEEPROM218に記録された値である。
IPg=ave(Δygmax)/{DEF2が0の状態におけるave(Δygmax)} ・・・(6)
CPU217は、Rの結像状態IPr、及び、Bの結像状態IPbについても、Gの場合と同様に算出する。すなわち、CPU217は、走査線903ごとに、R及びBのそれぞれについて、隣り合う画素の規格化信号の差の最大値の平均値ave(Δyrmax),ave(Δybmax)を算出する。そして、CPU217は、次の式(7)、(8)でRの結像状態IPr、及び、Bの結像状態IPbを算出する。
IPr=ave(Δyrmax)/{DEF2が0の状態におけるave(Δygmax)} ・・・(7)
IPb=ave(Δybmax)/{DEF2が0の状態におけるave(Δygmax)} ・・・(8)
CPU217は、各色の結像状態IPを算出した後に、処理をステップS807に進める。
IPr=ave(Δyrmax)/{DEF2が0の状態におけるave(Δygmax)} ・・・(7)
IPb=ave(Δybmax)/{DEF2が0の状態におけるave(Δygmax)} ・・・(8)
CPU217は、各色の結像状態IPを算出した後に、処理をステップS807に進める。
ステップS807において、CPU217は、重み付け係数を算出する。CPU217は、重み付け係数Wr,Wg,Wbを、ステップS805において算出された各色の結像状態IPから重み付け係数算出式(2)〜(4)を用いて算出する。CPU217は、重み付け係数を算出した後に、処理をステップS808に進める。
ステップS808において、CPU217は、ステップS807で算出した重み付け係数をEEPROM218に格納する。CPU217は、重み付け係数を格納すると、重み付け係数取得動作を終了する。
ステップS808において、CPU217は、ステップS807で算出した重み付け係数をEEPROM218に格納する。CPU217は、重み付け係数を格納すると、重み付け係数取得動作を終了する。
次に、図1及び図9Cを参照して、焦点検出板206とPN液晶パネル208との位置関係について説明する。PN液晶パネル208は、焦点検出板206の近傍に配置される。これにより、図9Cに示すように、境界領域902bでのygrawの差が明確に表れる。
PN液晶パネル208は、例えば、カメラ1が所定の条件で所定の被写体を撮影したとき、次のようになるような位置に配置される。すなわち、図9Bの走査線903に対応する撮像センサ205の出力信号ygrawが図9Cに示す所定範囲L1に含まれる撮像センサ205の画素が、所定数より少なくなるような位置に配置される。なお、出力信号ygrawの代わりに、RやBの出力信号yrraw、rbrawを用いてもよく、これらの平均値等を用いてもよい。また、出力信号の代わりに、出力信号を規格化した規格化信号を用いてもよい。また、所定の条件の例として、レンズユニット100がデフォーカス状態であることが挙げられる。
PN液晶パネル208は、例えば、カメラ1が所定の条件で所定の被写体を撮影したとき、次のようになるような位置に配置される。すなわち、図9Bの走査線903に対応する撮像センサ205の出力信号ygrawが図9Cに示す所定範囲L1に含まれる撮像センサ205の画素が、所定数より少なくなるような位置に配置される。なお、出力信号ygrawの代わりに、RやBの出力信号yrraw、rbrawを用いてもよく、これらの平均値等を用いてもよい。また、出力信号の代わりに、出力信号を規格化した規格化信号を用いてもよい。また、所定の条件の例として、レンズユニット100がデフォーカス状態であることが挙げられる。
次に、図10を参照して、レンズユニット100の焦点状態と、測光センサ214の出力信号との関係について説明する。
まず、図10(a)、(c)を参照して、被写体が市松模様であり、レンズユニット100が被写体に合焦している場合について説明する。図10(a)は、この場合における結像状態算出用画像データの一部領域901の拡大図である。図10(b)は、図10(a)に示す評価領域902の1つの走査線903におけるGについて規格化画素出力信号グラフである。
市松模様のような明暗差の大きい被写体像を含む結像状態算出用画像データを用いると、結像状態IPが適切に算出されない場合がある。図10(c)中のΔyga、Δygbは、それぞれ透過領域902a、境界領域902bにおいて隣り合う画素のygの差の最大値である。被写体光の明暗差が大きく、図10(c)のように、Δyga>Δygbとなるとき、ΔygmaxはΔygaとなる。この場合、レンズユニット100の結像性能や焦点状態に影響された結像状態IPが式(6)から(8)で算出されるため、測光レンズ213と測光センサ214によって再現される各色の解像力を正しく評価できない。
まず、図10(a)、(c)を参照して、被写体が市松模様であり、レンズユニット100が被写体に合焦している場合について説明する。図10(a)は、この場合における結像状態算出用画像データの一部領域901の拡大図である。図10(b)は、図10(a)に示す評価領域902の1つの走査線903におけるGについて規格化画素出力信号グラフである。
市松模様のような明暗差の大きい被写体像を含む結像状態算出用画像データを用いると、結像状態IPが適切に算出されない場合がある。図10(c)中のΔyga、Δygbは、それぞれ透過領域902a、境界領域902bにおいて隣り合う画素のygの差の最大値である。被写体光の明暗差が大きく、図10(c)のように、Δyga>Δygbとなるとき、ΔygmaxはΔygaとなる。この場合、レンズユニット100の結像性能や焦点状態に影響された結像状態IPが式(6)から(8)で算出されるため、測光レンズ213と測光センサ214によって再現される各色の解像力を正しく評価できない。
次に、図10(b)、(d)を参照して、被写体が市松模様であり、レンズユニット100がデフォーカス状態の場合について説明する。図10(b)は、この場合における結像状態算出用画像データの一部領域901の拡大図である。図10(d)は、図10(b)に示す評価領域902の1つの走査線903におけるGについて規格化画素出力信号グラフである。
図10(d)に示す例では、Δygmaxは、境界領域902bにおいて隣り合う画素のygの差の最大値となる。したがって、式(6)から(8)で算出された結像状態IPから、測光レンズ213と測光センサ214によって再現される各色の解像力を正しく評価することができる。
図10(d)に示す例では、Δygmaxは、境界領域902bにおいて隣り合う画素のygの差の最大値となる。したがって、式(6)から(8)で算出された結像状態IPから、測光レンズ213と測光センサ214によって再現される各色の解像力を正しく評価することができる。
以上説明したように、PN液晶パネル208は、レンズユニット100を透過した光束に基づく被写体像に非透過領域902cを形成する。また、CPU217は、デフォーカス状態のレンズユニット100で結像される被写体像の評価領域902に対応する測光センサ214の出力信号に基づいて、被写体像の画像データを変換して、被写体検出用画像データを生成する。デフォーカス状態のレンズユニット100で結像される被写体像の評価領域902に対応する測光センサ214の出力信号からは、製造誤差、経時変化、温度変化、湿度変化等の種々の要因による画像劣化の基となる情報を高精度に抽出できる。したがって、この出力信号に基づいて、被写体像の画像データを変換して、被写体検出用画像データを生成することで、製造誤差、経時変化、温度変化、湿度変化等の種々の要因により生じる被写体検出用画像データの劣化を抑制できる。
また、測光レンズ213は、レンズユニット100が焦点検出板206に一次結像させた被写体像に基づく光束を、測光センサ214に二次結像させる。PN液晶パネル208は、二次結像された測光センサ214の被写体像に非透過領域902cを形成する。ここで、測光レンズ213は、カメラのサイズやコストの制約により、1枚又は2枚のレンズで構成されることが多く、その場合には軸上色収差等の収差が発生する。また、測光レンズ213のデフォーカス量は、製造誤差、経時変化、温度変化、湿度変化等の種々の要因により変動する。この場合でも、CPU217は、デフォーカス状態のレンズユニット100で結像される被写体像の評価領域902に対応する測光センサ214の出力信号に基づいて、被写体像の画像データを変換して、被写体検出用画像データを生成する。したがって、被写体検出用画像データの劣化を抑制できる。
また、CPU217は、レンズユニット100のデフォーカス量が所定の閾値より小さいとき、レンズユニット100のデフォーカス量が前記所定の閾値以上になるようにして、レンズユニット100をデフォーカス状態にする制御を行う。したがって、レンズユニット100がどのような状態であっても被写体検出用画像データの劣化を抑制できる。
また、CPU217は、デフォーカス状態のレンズユニット100で結像される被写体像における評価領域902に対応する測光センサ214の出力信号に基づいて色成分ごとの重み付け係数を決定する。そして、CPU217は、重み付け係数に基づいて、変換対象となる画像データの色成分の信号の重みを変化させて、被写体検出用画像データを生成する。したがって、色成分ごとに適した重み付け係数が算出されることになり、被写体検出用画像データの劣化を抑制できる。
また、CPU217は、デフォーカス状態のレンズユニット100で結像される被写体像における評価領域902に対応する測光センサ214の隣接する2つの画素の出力信号の差に基づいて色成分ごとの解像力を決定する。そして、CPU217は、決定した解像力が高い色成分ほど大きくなるように重み付け係数を決定する。したがって、解像力が高い色成分が強調されることになって、被写体検出用画像データの劣化を抑制できる。
また、CPU217は、デフォーカス状態のレンズユニット100を透過した光束に基づく被写体像の透過領域902aと非透過領域902cとを繋ぐ線に対応する測光センサ214の出力信号のうち、隣接する2つの画素の出力信号の差の最大値を決定する。そして、CPU217は、決定した最大値に基づいて、色成分ごとの解像力を決定する。したがって、CPU217は、格別困難な計算等をすることなく解像力を決定できる。
また、PN液晶パネル208は焦点検出板206の近傍に配置される。したがって、図9Cに示すように、境界領域902bでのygrawの差が明確に表れる。
また、CPU217は、被写体検出用画像データから被写体を検出する。被写体検出用画像データは、上記の通り劣化が抑制されている。したがって、被写体の検出精度の低下を防止する。
また、非透過領域902cは、PN液晶パネル208によって形成される。PN液晶パネル208は、PN液晶パネル用照明装置209で表示が点灯される。したがって、カメラの撮影環境によらずに結像状態IPを算出できる。
また、CPU217は、被写体検出用画像データから被写体を検出する。被写体検出用画像データは、上記の通り劣化が抑制されている。したがって、被写体の検出精度の低下を防止する。
また、非透過領域902cは、PN液晶パネル208によって形成される。PN液晶パネル208は、PN液晶パネル用照明装置209で表示が点灯される。したがって、カメラの撮影環境によらずに結像状態IPを算出できる。
(その他の実施形態)
上記実施形態では、測光レンズ213により得られる被写体検出用画像データを対象とする画像の改質処理について説明した。しかしながら、本発明はこれに限定されず、改質する対象をその他の画像データとしてもよい。
また、上記実施形態では、図9Bに示す非透過領域902cはPN液晶パネル208で形成される。しかし、非透過領域は、ファインダ視野枠207や焦点検出板206で形成されるようにしてもよい。このとき、評価領域902は、ファインダ視野枠207や焦点検出板206で形成される非透過領域と、非透過領域を含まない被写体像の領域である透過領域とを含むように定める。
また、上記実施形態では、重み付け係数をカメラの状態によって変更するものとして説明したが、さらに像高によって変更することも可能である。
上記実施形態では、測光レンズ213により得られる被写体検出用画像データを対象とする画像の改質処理について説明した。しかしながら、本発明はこれに限定されず、改質する対象をその他の画像データとしてもよい。
また、上記実施形態では、図9Bに示す非透過領域902cはPN液晶パネル208で形成される。しかし、非透過領域は、ファインダ視野枠207や焦点検出板206で形成されるようにしてもよい。このとき、評価領域902は、ファインダ視野枠207や焦点検出板206で形成される非透過領域と、非透過領域を含まない被写体像の領域である透過領域とを含むように定める。
また、上記実施形態では、重み付け係数をカメラの状態によって変更するものとして説明したが、さらに像高によって変更することも可能である。
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
1 カメラ、100 レンズユニット、200 カメラ本体、217 CPU
Claims (14)
- 画像データを変換する撮像装置であって、
撮像手段と、
光学系を透過した光束に基づく被写体像に遮光領域を形成する形成手段と、
デフォーカス状態の前記光学系を透過した光束に基づく被写体像における前記遮光領域、及び、前記遮光領域を含まない領域である透過領域を含む評価領域に対応する前記撮像手段の出力信号に基づいて、被写体像の画像データを変換する変換手段と、を備えることを特徴とする撮像装置。 - 前記光学系を透過した光束が一次結像面に一次結像した第1被写体像に基づく光束を、前記撮像手段に二次結像させて第2被写体像を形成する二次光学系をさらに備え、
前記形成手段は、第2被写体像に前記遮光領域を形成することを特徴とする請求項1に記載の撮像装置。 - 前記形成手段は、前記一次結像面の近傍に配置されることを特徴とする請求項2に記載の撮像装置。
- 前記形成手段は、前記第1被写体像を拡散する焦点検出板、前記焦点検出板で拡散されて透過した光の周辺部を遮光する枠、及び、撮影に関する情報を前記第2被写体像に表示する表示手段のいずれかであることを特徴とする請求項2又は3に記載の撮像装置。
- 前記光学系のデフォーカス量が所定の閾値より小さいとき、前記光学系のデフォーカス量が前記所定の閾値以上になるようにして、前記光学系をデフォーカス状態にする制御を行う制御手段をさらに備え、
前記変換手段は、前記光学系のデフォーカス量が所定の閾値より小さいとき、前記制御手段によって前記光学系がデフォーカス状態になった後に、デフォーカス状態の前記光学系を透過した光束に基づく被写体像における前記遮光領域、及び、前記透過領域に対応する前記撮像手段の出力信号に基づいて、被写体像の画像データを変換することを特徴とする請求項1乃至4のいずれか1項に記載の撮像装置。 - 前記撮像手段は、2種類以上の色成分を検知でき、
前記変換手段は、デフォーカス状態の前記光学系で結像される被写体像における前記遮光領域、及び、前記透過領域に対応する前記撮像手段の色成分ごとの出力信号に基づいて、変換対象となる画像データの色成分の信号の重みを変化させることを特徴とする請求項1乃至5のいずれか1項に記載の撮像装置。 - 前記変換手段は、デフォーカス状態の前記光学系を透過した光束に基づく被写体像における前記遮光領域、及び、前記透過領域に対応する前記撮像手段の色成分ごとの出力信号に基づいて前記色成分ごとの重み付け係数を決定し、前記重み付け係数に基づいて、変換対象となる画像データの色成分の信号の重みを変化させることを特徴とする請求項6に記載の撮像装置。
- 前記遮光領域と前記透過領域とは境界領域を介して隣り合い、
前記変換手段は、デフォーカス状態の前記光学系を透過した光束に基づく被写体像における前記遮光領域、前記透過領域、及び、前記境界領域における前記撮像手段の所定の間隔にある2つの画素の色成分ごとの出力信号の差に基づいて前記色成分ごとの解像力を決定し、前記解像力が高い前記色成分ほど大きくなるように色成分ごとの重み付け係数を決定することを特徴とする請求項7に記載の撮像装置。 - 前記変換手段は、デフォーカス状態の前記光学系を透過した光束に基づく被写体像の前記遮光領域と前記透過領域とを繋ぐ線に対応する前記撮像手段の出力信号のうち、前記所定の間隔にある2つの画素の色成分ごとの出力信号の差の最大値に基づいて、前記色成分ごとの前記解像力を決定することを特徴とする請求項8に記載の撮像装置。
- 前記形成手段が配置される位置は、デフォーカス状態の前記光学系を透過した光束に基づく被写体像の前記遮光領域と前記透過領域とを繋ぐ線に対応する前記撮像手段の出力信号のうち、前記撮像手段の出力信号が所定範囲に含まれる前記撮像手段の画素の数が所定数より少なくなるような位置であることを特徴とする請求項1乃至9のいずれか1項に記載の撮像装置。
- 前記変換手段は、デフォーカス状態が解除された前記光学系を透過した光束に基づく被写体像の画像データを変換することを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。
- 前記変換手段が変換した画像データから被写体を検出する検出手段をさらに備えることを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。
- 撮像手段と、光学系を透過した光束に基づく被写体像に遮光領域を形成する形成手段と、を備える撮像装置の制御方法であって、
デフォーカス状態の前記光学系を透過した光束に基づく被写体像における前記遮光領域、及び、前記遮光領域を含まない領域である透過領域に対応する前記撮像手段の出力信号に基づいて、被写体像の画像データを変換する変換ステップを備えることを特徴とする撮像装置の制御方法。 - 撮像手段と、光学系を透過した光束に基づく被写体像に遮光領域を形成する形成手段と、を備える撮像装置を制御するためのプログラムであって、
デフォーカス状態の前記光学系を透過した光束に基づく被写体像における前記遮光領域、及び、前記遮光領域を含まない領域である透過領域に対応する前記撮像手段の出力信号に基づいて、被写体像の画像データを変換する変換ステップをコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016122928A JP2017228899A (ja) | 2016-06-21 | 2016-06-21 | 撮像装置、撮像装置の制御方法、及び、プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016122928A JP2017228899A (ja) | 2016-06-21 | 2016-06-21 | 撮像装置、撮像装置の制御方法、及び、プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017228899A true JP2017228899A (ja) | 2017-12-28 |
Family
ID=60892289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016122928A Pending JP2017228899A (ja) | 2016-06-21 | 2016-06-21 | 撮像装置、撮像装置の制御方法、及び、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017228899A (ja) |
-
2016
- 2016-06-21 JP JP2016122928A patent/JP2017228899A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5424708B2 (ja) | 焦点検出装置 | |
JP4998308B2 (ja) | 焦点調節装置および撮像装置 | |
US7940323B2 (en) | Image-pickup apparatus and control method thereof | |
KR20080084563A (ko) | 합초 제어 장치 및 촬상 장치 | |
JP2009015185A (ja) | 画像検出装置、焦点調節装置および撮像装置 | |
US9921454B2 (en) | Imaging apparatus capable of generating an image with a weight of a signal corresponding to each type of spectral sensitivity characteristics and method of controlling the apparatus | |
US20160073007A1 (en) | Focus control apparatus, image capturing apparatus, interchangeable lens, focus control method, and storage medium storing focus control program | |
JP6486098B2 (ja) | 撮像装置及びその制御方法 | |
JP6336337B2 (ja) | 撮像装置及びその制御方法、プログラム、記憶媒体 | |
US20230072475A1 (en) | Accuracy estimation apparatus, image capturing apparatus, accuracy estimation method, control method, and storage medium | |
JP2014206711A (ja) | 撮像装置およびその制御方法 | |
US20140293064A1 (en) | Image pickup apparatus | |
JP5794665B2 (ja) | 撮像装置 | |
JP2018197812A (ja) | 撮像装置、その制御方法及びプログラム | |
JP4950634B2 (ja) | 撮像装置及び撮像システム | |
JP2007156304A (ja) | カメラ、カメラシステムおよび交換レンズ装置 | |
JP7387265B2 (ja) | 撮像素子、撮像装置、及び制御方法、並びにプログラム | |
JP4938922B2 (ja) | カメラシステム | |
JP2017228899A (ja) | 撮像装置、撮像装置の制御方法、及び、プログラム | |
JP2012203278A (ja) | 撮像装置、レンズ装置、およびカメラシステム | |
JP2006072084A (ja) | 自動焦点検出装置およびカメラシステム | |
JP2017021177A (ja) | レンズケラレ時の測距点、測距エリア遷移方法 | |
JP2006135513A (ja) | 撮像装置 | |
JP2015087494A (ja) | 撮像装置 | |
JP4928236B2 (ja) | 撮像装置及び撮像システム |