JP2000075351A - カメラ - Google Patents

カメラ

Info

Publication number
JP2000075351A
JP2000075351A JP10247317A JP24731798A JP2000075351A JP 2000075351 A JP2000075351 A JP 2000075351A JP 10247317 A JP10247317 A JP 10247317A JP 24731798 A JP24731798 A JP 24731798A JP 2000075351 A JP2000075351 A JP 2000075351A
Authority
JP
Japan
Prior art keywords
information
scene
area
photometric
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10247317A
Other languages
English (en)
Inventor
Motoyuki Yamaguchi
基志 山口
Kotaro Kawabe
浩太郎 川邉
Reiji Seki
玲二 関
Akihiko Fujino
明彦 藤野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP10247317A priority Critical patent/JP2000075351A/ja
Priority to US09/363,863 priority patent/US6167200A/en
Publication of JP2000075351A publication Critical patent/JP2000075351A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)

Abstract

(57)【要約】 【課題】 短時間で高精度のシーン判別が可能なカメラ
を提供する。 【解決手段】 撮影領域を撮像して画像処理情報を出力
する撮像手段S1と、画像処理情報に基づいて撮影シー
ンを判別し、その判別した撮影シーンに関するシーン判
別情報を出力するシーン判別手段S2と、複数の分割さ
れた測光領域を測光し、測光した測光領域とその測光値
に関する測光情報を出力する多分割測光手段S3と、シ
ーン判別情報と測光情報とに基づき、その撮影時に最適
な露出値を演算する露出演算手段S4とを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、カメラに関する。
【0002】
【従来の技術】従来、撮影シーン(たとえば、風景、接
写、夜景、ポートレート、スポーツ等)を判別して露出
を演算することができるカメラが種々提供されている。
この種のカメラでは、たとえば図1(C)に示すよう
に、シーン判別手段S2は、多分割測光手段S6で複数
の測光領域を測光した測光値と、測距手段S5で測距し
た測距値とに基づいて、撮影シーンを判別し、露出演算
手段S4は、シーン判別手段S2で判別した撮影シーン
に関する情報と多分割測光手段S6による測光値とか
ら、最適な露出値を算出する。たとえば、スポーツシー
ンではシャッター速度を優先し、風景シーンでは絞りを
優先する。シーン判別は所定アルゴリズムによって行う
が、シーン判別精度を向上しようとすると、測光、測距
ポイントを多くしたり、アルゴリズムを複雑にする必要
があり、それに伴って、シーン判別に要する時間が長く
なってしまう。
【0003】
【発明が解決しようとする課題】したがって、本発明が
解決しようとする技術的課題は、短時間で高精度のシー
ン判別が可能なカメラを提供することである。
【0004】
【課題を解決するための手段および作用・効果】上記技
術的課題を解決するために、本発明は、撮影領域を撮像
した画像を利用してシーン判別を行ない、このシーン判
別情報に基づいて最適露出値を決定することを基本的特
徴とする露出演算装置を備えたカメラを提供する。
【0005】具体的には、以下のように構成したカメラ
を提供する。
【0006】カメラは、撮影領域を撮像して画像処理情
報を出力する撮像手段と、この撮像手段から出力された
画像処理情報に基づいて撮影シーンを判別し、その判別
した撮影シーンに関するシーン判別情報を出力するシー
ン判別手段と、複数の分割された測光領域を測光し、測
光した測光領域とその測光値に関する測光情報を出力す
る多分割測光手段と、シーン判別手段から出力されたシ
ーン判別情報と多分割測光手段から出力された測光情報
とに基づき、その撮影時に最適な露出値を演算する露出
演算手段とを備える。
【0007】上記構成の各手段は、図1(A)に示すよ
うに、相互に関連している。すなわち、撮像手段S1
は、撮影領域を撮像して、画像処理情報(たとえば、撮
像画像の画像情報、輪郭検出情報、ベクトル検出情報、
色情報等)をシーン判別手段S2に出力する。シーン判
別手段S2は、この画像処理情報に基づいて、撮影シー
ンを判別し、シーン判別情報を露出演算手段S4に出力
する。たとえば、主要な撮影対象である主被写体が存在
する主被写体領域、主被写体までの距離、背景などに関
する情報を利用してシーン判別を行う。また、光源検知
または色かぶり検知によって、夜景シーンを判別する。
また、ベクトル情報により、動体やスポーツシーンを判
別する。また、主被写体領域と背景領域との占有比率に
よって、接写シーン、ポートレートシーン、風景シーン
を判別する。露出演算手段S4は、多分割測光手段S3
からの測光情報と、シーン判別手段S2からのシーン判
別情報とに基づいて、最適な露出値を演算する。
【0008】上記構成によれば、撮像手段から出力され
た画像処理情報に基づいて、撮影シーンの状態を精度良
く選択することにより、露出精度の向上、もしくは、露
出演算時間の短縮を図ることが可能となる。
【0009】したがって、短時間で高精度のシーン判別
が可能である。
【0010】また、本発明は、別の構成のカメラを提供
する。
【0011】カメラは、撮影領域を撮像して画像処理情
報を出力する撮像手段と、少なくとも1つの測距領域を
測距し、測距した測距領域とその測距値に関する測距情
報を出力する測距手段と、上記撮像手段から出力された
画像処理情報と、上記測距手段から出力された測距情報
とに基づいて撮影シーンを判別し、その判別した撮影シ
ーンに関するシーン判別情報を出力するシーン判別手段
と、複数の分割された測光領域を測光し、測光した測光
領域とその測光値に関する測光情報を出力する多分割測
光手段と、上記シーン判別手段から出力されたシーン判
別情報と、上記多分割測光手段から出力された測光情報
とに基づき、その撮影時の最適な露出値を算出する露出
演算手段とを備える。
【0012】上記構成の各手段は、図1(B)に示すよ
うに、相互に関連している。すなわち、撮像手段S1
は、撮影領域内を撮像して、画像処理情報(たとえば、
撮像画像の画像情報、輪郭検出情報、ベクトル検出情
報、色情報等)をシーン判別手段S2に出力する。シー
ン判別手段S2は、この画像処理情報と測距手段S7か
らの測距情報とに基づいて、撮影シーンを判別し、シー
ン判別情報を露出演算手段S4に出力する。たとえば、
主要な撮影対象である主被写体が存在する主被写体領
域、主被写体までの距離、背景などに関する情報を利用
してシーン判別を行う。また、光源の検知または色かぶ
り検知によって、夜景シーンを判別する。また、ベクト
ル情報により、動体やスポーツシーンを判別する。ま
た、主被写体領域と背景領域との占有比率によって、接
写シーン、ポートレートシーン、風景シーンを判別す
る。露出演算手段S4は、多分割測光手段S3からの測
光情報と、シーン判別手段S2からのシーン判別情報と
に基づいて、最適な露出値を演算する。
【0013】上記構成によれば、撮像手段から出力され
た画像処理情報に基づいてその撮影シーンの状態を判別
するにあたり、さらに測距情報を加味することにより、
シーン状態をより精度良く判別することが可能となり、
露出精度の向上、さらに、測光時間の短縮、もしくは、
露出演算時間の短縮を図ることができる。
【0014】したがって、短時間で高精度のシーン判別
が可能である。
【0015】好ましくは、上記シーン判別情報出力手段
は、主被写体が画面上に占める主被写体領域と背景が画
面上に占める背景領域とを検出し、その検出した主被写
体領域および背景領域にそれぞれ関する主被写体領域情
報および背景領域情報から、画面上での主被写体領域と
背景領域との占有比率を表す主背占有比率を求め、少な
くともこの主背占有比率を含む情報に基づいてシーン判
別情報を決定する。
【0016】上記構成によれば、主被写体領域情報、及
び、主背占有比率に応じてシーン判別することで、特
に、逆光、接写、ポートレート、風景といったシーンで
より正確なシーン判別を行なうことができるようにな
り、露出演算精度の向上を図ることが可能となる。
【0017】好ましくは、上記撮像手段は、撮影領域を
撮像した画像の輪郭又は色の少なくとも一方を検出し、
その検出した輪郭又は色に関する輪郭検出情報又は色情
報を画像処理情報に含めて出力する。上記シーン判別情
報出力手段は、この輪郭検出情報又は色検出情報の少な
くとも一方に基づいて、シーン判別情報を決定する。
【0018】上記構成によれば、撮像手段から出力され
た、少なくとも輪郭検出情報または色情報を含む画像処
理情報に基づいて、シーン判別を精度よく行なうことに
より、露出演算精度の向上を図る。夜景や夕景などの背
景に光源、もしくは、色かぶりが存在するようなシーン
で特に効果がある。
【0019】好ましくは、上記撮像手段は、撮影領域を
撮像した画像の動く速度と方向を検出し、その検出した
速度および方向に関するベクトル検出情報を画像処理情
報に含めて出力する。上記シーン判別情報出力手段は、
このベクトル検出情報に基づいて、シーン判別情報を決
定する。
【0020】上記構成によれば、撮像手段から出力され
た、少なくともベクトル検出情報を含む画像処理情報に
基づいて、シーン判別を精度よく行なうことにより、露
出演算精度の向上を図る。動体やスポーツシーンなど、
動きのある被写体が存在するようなシーンで特に効果が
ある。
【0021】
【発明の実施の形態】以下、図2〜図27を参照しなが
ら、本発明の各実施形態に係るカメラについて説明す
る。
【0022】まず、本発明の一実施形態に係るカメラの
主要な内部構成について、図2の構成図を参照しながら
説明する。
【0023】カメラ本体10は、制御マイコン30に接
続された、補助光発光部32、調光モジュール34、測
光モジュール36、測距モジュール38、C−MOS画
像演算処理センサー40、AFエンコーダ42、および
AFアクチュエータ44を備える。
【0024】制御マイコン30は、CPUやメモリを含
み、カメラの動作の制御を統括する。補助光発光部32
は、補助光を発光する。調光モジュール34は、補助光
発光部32の発光を制御する。測光モジュール36すな
わち測光センサー36は、被写体の輝度を測定する。測
距モジュール38すなわち測距センサー38は、被写体
までの距離を測定する。
【0025】C−MOS画像演算処理センサー40は、
ファインダー光学系のファインダー像の結像位置(ペン
タプリズム下の焦点板)を撮像するように配置され、カ
メラの撮影領域の画像を取り込み、その画像を高速に処
理して、画像の形状(輪郭)や画像の動き(方向と移動
量)等の画像処理情報を制御マイコン30に出力する。
C−MOS画像演算処理センサー40は、CCDに比べ
て高速に読み出しができるMOS型の受光セルと、読み
出したデータを高速に処理して特徴抽出を行う画像演算
処理部とが1つの素子として形成されたものである。C
−MOS画像演算処理センサー40は、人の網膜が持つ
情報圧縮機能と並列処理機能を有しており、このC−M
OS画像演算処理センサー40を使用することにより、
画像情報入力装置の高機能化、小型化、高速化、低消費
電力化を実現することができる。制御マイコン30は、
特徴抽出後の少ない情報量のデータを処理すればよいの
で、高速に制御を行うことが可能である。
【0026】AFエンコーダ42は、AFアクチュエー
タ44の動作量を検出する。AFアクチュエータ44
は、交換レンズ50のレンズ駆動系を介して、交換レン
ズ50の光学系54のフォーカスレンズを駆動する。
【0027】交換レンズ50は、光学系54の他に、レ
ンズマイコン52と、モーター53とを備える。レンズ
マイコン52は、カメラ本体10の制御マイコン30と
接続され、交信するようになっている。モーター53
は、光学系54のフォーカスレンズを駆動する。
【0028】さらに詳しくは、このカメラは、図4のブ
ロック図に示すように構成さている。
【0029】すなわち、カメラ本体10は、制御マイコ
ン30に、DC/DCコンバータ24、測光センサー3
6、測距センサー38、C−MOS画像演算処理センサ
ー40、モータードライバ41,43、絞りマグネット
46、シャッターマグネット48、ボディ表示16、調
整端子14、および各種スイッチS1,S2,SMOD
E,SUP,SDOWNが接続されている。
【0030】DC/DCコンバータ24は、カメラ本体
10に装填された電池22からの電圧を一定電圧にし
て、制御マイコン30に常時供給する。また、いずれか
のスイッチS1,S2,SMODE,SUP,SDOW
Nが操作されると、制御マイコン30からの制御によっ
て、DC/DCコンバータ24は、各種センサー36,
38,40、モータードライバ41,43、絞りマグネ
ッ46、シャッターマグネット48、ボディ表示16、
および、交換レンズ50のレンズマイコン52に一定電
圧を供給する。
【0031】モータードライバ41,43は、交換レン
ズ50のフォーカスレンズを移動するためのAFモータ
ー44およびフィルムを給送するためのフィルム給送モ
ーター45をそれぞれ駆動する。絞りマグネット46
は、露光動作を行う絞りを制御する。シャッターマグネ
ット48は、シャッターを制御する。
【0032】ボディ表示16は、カメラの状態や撮影情
報などを表示する。調整端子14は、センサー36,4
0の調整時に用いる。
【0033】S1スイッチは、撮影の準備のために測
光、測距、演算処理、交換レンズ50のAF駆動制御を
行うためのスイッチである。S1スイッチは、不図示の
シャッター釦を途中まで押すと、オンとなる。S2スイ
ッチは、露光動作を行うためのスイッチである。S2ス
イッチは、不図示のシャッター釦を完全に押すと、オン
となる。SUPスイッチおよびSDOWNスイッチは、
シャッター速度および絞りの設定値を変更するためのス
イッチである。SMODEスイッチは、撮影条件の設定
を変更するスイッチである。
【0034】本発明のカメラは、図2の構成に限定され
るものではなく、その他種々の態様で構成することがで
きる。たとえば、図3に示すように、交換レンズ50a
の駆動制御機構、すなわち、光学系54のフォーカスレ
ンズを駆動するAFアクチュエータ56、AFアクチュ
エータ56の駆動量を検出するAFエンコーダ57、フ
ォーカスレンズの位置を検出するPFエンコーダ58、
フォーカスレンズの移動限界を検出する終端スイッチ5
9が交換レンズ50a内に備えられ、交換レンズ50a
のレンズマイコン52とカメラ本体10の制御マイコン
30との交信によって、光学系54のフォーカスレンズ
が駆動されるようにしてもよい。
【0035】また、図2および図3の構成に代え、図5
および図6に示すように、測光モジュール36すなわち
測光センサー36を省略し、C−MOS画像演算処理セ
ンサー40aが測光センサーとしての機能を兼ねるよう
にしてもよい。
【0036】上記各実施形態のカメラにおいて、C−M
OS画像演算処理センサー40の各画素と、測光センサ
ー36の多分割測光素子と、測距センサー38の多点測
距素子との画面上での配置関係は、図7に示すようにな
っている。すなわち、図7(A)および(C)は、多点
測距素子と多分割調光素子とを組み合わせた例である。
図7(B)は、図5および図6のカメラのように、測光
センサー36の多分割測光素子を省略し、C−MOS画
像演算処理センサー40の出力を測光にも用い、C−M
OS画像演算処理センサー40と多点測距素子とを組み
合わせた場合の例である。
【0037】上記各実施形態のカメラにおいて、C−M
OS画像演算処理センサー40は、撮像した画像を処理
して、図8および図9に示すように、種々の画像処理情
報を出力することができる。
【0038】すなわち、図8に示すように、C−MOS
画像演算処理センサー40は、(A)画像情報、(B)
反転情報、(C)エッジ検出情報(輪郭検出情報)、
(D)色情報を出力することができる。画像情報は、
(A)に示すように、各画素の光電出力をそのまま出力
したものである。反転情報は、(B)に示すように、各
画素の光電出力を反転して出力したものであり、暗黒時
には基準電圧Vrefを出力し、明るい程、出力は0vに
近付く。エッジ検出情報(輪郭検出情報)は、(C)に
示すように、隣合う画素の差分の出力であり、差分が所
定値以上の画素のみをエッジとして検出できる。色情報
は、(D)に示すように、撮像画像を、R、G、Bフィ
ルタを介して分解したR、G、Bの各成分画像の画像情
報である。C−MOS画像演算処理センサー40は、そ
れぞれの成分画像について、さらに、(A)画像情報、
(B)反転情報、(C)エッジ検出情報を出力すること
ができる。
【0039】また、図9に示すように、C−MOS画像
演算処理センサー40は、これらの画像情報、反転情
報、エッジ検出情報(輪郭情報)、および色情報に基づ
いて、さらに、重心検出情報、ベクトル検出情報、被写
体領域情報などの種々の画像処理情報を算出し、出力す
ることができる。
【0040】重心検出情報は、(A−1)に示すよう
に、エッジとして検出された全ての画素(合計個数をk
個とする)の座標(X1,Y1)、(X2,Y2)、・
・・、(Xk,Yk)に基づいて、(A−2)に示すよ
うに、重心Gの座標(Gx,Gy)を、(Gx,Gy)
=((X1+X2+・・・+Xk)/k,(Y1+Y2
+・・・+Yk)/k)により算出したものである。複
数のエッジ検出情報がある場合には、一連のエッジ毎に
重心を算出してもよい。
【0041】ベクトル検出情報は、(B−1)に示すよ
うに、(n−1)フレームでの重心Gn-1(GXn-1,G
n-1)と、nフレームでの重心Gn(GXn,GYn)と
から、(B−2)に示すように、重心の移動ベクトルV
について算出したものである。すなわち、ベクトルの始
点座標:Gn-1(GXn-1,GYn-1)、方向成分:D
(GXn−GXn-1,GYn―GYn-1)、速度成分:VG
={(GXn−GXn-1)2+(GYn―GYn-1)2 }1/2
(フレーム時間)、を算出する。エッジが複数ある場合
は、エッジを領域毎に分割し、分割されたエッジ毎に重
心を求めて、各々ベクトル情報を求め、同じベクトルの
方向と速度を持つエッジを同一被写体のエッジと判定し
てもよい。
【0042】被写体領域情報は、(C−1)に示すよう
に、エッジ検出情報および重心検出情報に基づいて、
(C−2)に示すように、上下左右のエッジ座標と、X
Y方向の大きさとを算出したものである。すなわち、Y
座標が重心G(Gx,Gy)と同じGyであり重心Gの
左側にある最近接のエッジの座標を左エッジ座標X
L(HXL,Gy)、Y座標が重心Gと同じGyであり重
心Gの右側にある最近接のエッジの座標を右エッジ座標
R(HXR,Gy)、X座標が重心Gと同じGxであり
重心Gの上側にある最近接のエッジの座標を上エッジ座
標YU(Gx,VYU)、X座標が重心Gと同じGxであ
り重心Gの下側にある最近接のエッジの座標を下エッジ
座標YD(Gx,VYD)をそれぞれ算出する。また、X
方向の大きさLxは、Lx=|HXR−HXL|、Y方向
の大きさLyは、Ly=|VYD−VYU|により算出す
る。複数のエッジ検出情報、重心検出情報がある場合
は、重心毎に被写体領域情報を算出してもよい。
【0043】次に、被写体領域情報等を用いて測光領域
を選択するアルゴリズムについて説明する。
【0044】まず、主被写体領域Asについて、測光領
域を選択するアルゴリズムについて説明する。
【0045】たとえば図5または図6のカメラのよう
に、C−MOS画像演算処理センサー40からの画像デ
ータ(測光出力)をそのまま露出演算の測光値として用
いる場合には、図10(A)に示す被写体領域の左エッ
ジ座標XL、右エッジ座標XR、上エッジ座標YU、下エ
ッジ座標YDから、図10(B)に示すようにこれらの
座標で囲まれる矩形領域を主被写体領域Asとして選択
する。そして、C−MOS画像演算処理センサー40の
画素のうち主被写体領域Asに含まれる画素の測光出力
を、そのまま露出演算の測光値として用いる。このと
き、図10(C)に示すように、被写体領域Asの重心
G(Gx,Gy)に近い画素の重みを高くしてもよい。
【0046】一方、たとえば図2または図3のカメラの
ように、、C−MOS画像演算処理センサー40とは別
に設けた測光センサー36の測光素子による測光値を露
出演算の測光値として用いる場合には、図11に示すよ
うに、被写体領域情報から上記と同様にして主被写体領
域Asを求め、主被写体領域As内にその重心が含まれ
る測光素子S2,S3,S7を用いて測光を行い、露出
演算の測光値として用いる。このとき、選択した測光素
子S2,S3,S7の測光出力を単純平均した主被写体
輝度を決めても、あるいは、たとえば図10(C)と同
様に重み付けして、主被写体輝度を決めてもよい。
【0047】次に、背景領域Aaについて、測光領域を
選択するアルゴリズムについて説明する。
【0048】C−MOS画像演算処理センサー40の測
光出力をそのまま露出演算の測光値として用いる場合に
は、図12(A)に示す被写体領域の各エッジ座標
L、XR、YU、YDから、図12(B)または(C)に
示すように、これらのエッジ座標XL、XR、YU、YD
含む矩形領域の外側を、背景測光領域Aaとして選択す
る。このとき、(B)のように、背景領域Aaに含まれ
る全ての画素を同じ重みで扱っても、あるいは、(C)
のように、画素の位置や画素出力に応じて、重みを変え
てもよい。
【0049】一方、C−MOS画像演算処理センサー4
0とは別に設けた測光センサー36の測光素子の測光値
を露出演算に用いる場合には、図13(D)に示すよう
に、被写体領域の各エッジ座標XL、XR、YU、YDを含
む矩形領域で囲まれる領域の外側の領域Aaに重心を持
つ測光素子S0,S1,S4〜S6,S8〜S13を背
景領域Aaの測光素子として選択する。測光領域として
選択した測光素子の測光出力を同じ重みで処理して背景
輝度を決めても、あるいは、図12(C)と同様に、各
測光素子の重みを変えてもよい。
【0050】次に、測距情報をも用いて測光領域を選択
するアルゴリズムについて説明する。
【0051】C−MOS画像演算処理センサー40の測
光出力をそのまま露出演算の測光値として用いる場合、
図14(A)〜(C)に示すように、被写体領域情報と
測距領域すなわち合焦アイランドI1〜I3との相互の
位置関係に基づいて、主被写体領域Asを決定する。す
なわち、測距値が合焦距離に等しい合焦アイランド、も
しくは、測距値が最も小さい最近接アイランドに最も近
い重心を持つ被写体領域を、主被写体領域Asとして選
択する。たとえば(D)に示すように、合焦アイランド
I2を最近接アイランドとした場合、重心G2を持つエ
ッジ領域を主被写体領域Asとする。また、これに輝度
情報を加味して、主被写体領域Asを選択決定してもよ
い。たとえば、重心G2周辺の輝度があまりにも低輝度
または高輝度の場合は、重心G2を持つエッジ領域を主
被写体領域として選択しない。また、(E)に示すよう
に、最近接アイランドI2以外のアイランドI1,I3
を含み、かつ、主被写体領域Asの外側の領域を背景測
光領域Aaとして選択する。あとは、前述の手順と同様
に、主被写体測光領域Asと背景領域Aaにそれぞれ含
まれる画素の測光出力に基づいて露出演算を行う。
【0052】C−MOS画像演算処理センサー40とは
別に設けた測光センサー36の測光素子を用いて測光す
る場合も、同様である。
【0053】次に、複数の被写体領域が存在する場合、
それらに優先度を設定して主被写体輝度を算出するアル
ゴリズムについて説明する。
【0054】C−MOS画像演算処理センサー40の測
光出力をそのまま露出演算の測光値として用いる場合、
たとえば図15に示すように、(A)の被写体領域情報
と(B)の合焦アイランドI1〜I3とが(C)に示す
ような関係にあり、主被写体となる複数の候補領域があ
るときには、(D)に示すように、前述の場合と同様の
方法で、各候補領域について測光領域As1,As2,
As3を設定する。そして、各測光領域As1,As
2,As3の優先度P1,P2,P3を所定設定する。
【0055】たとえば、合焦アイランド、もしくは、最
近接アイランドに最も近い重心を持つ領域を優先度1位
の主被写体領域として選択し、最も高い優先度を設定す
る。たとえば、合焦アイランドI2を最近接アイランド
とした場合、重心G2を持つエッジ領域を主被写体とみ
なし、たとえば、測光領域As2の優先度P2を5に設
定する。その他の重心G1,G3を持つ測光領域As
1,As3については、各アイランドI1,I3の測距
値に基き、被写体距離が小さい順に優先度を設定してい
く。たとえば、As2、As3、As1の順に近いとす
ると、測光領域As3の優先度P3は3、測光り領域A
s1の優先度P1は1に設定にする。ここで、優先度P
1〜P3は、数字が大きいほど順位が高い(優先度が高
い)ものとする。優先度は、別の決定方法で決めてもよ
い。たとえば、最近接領域の領域As2に近い順に各領
域の優先度を高くしてもよい。
【0056】主被写体輝度BVSは、測光領域As1〜
As3に含まれる画素の測光出力と、測光領域の優先度
P1〜P3とから、次式で算出する。
【数1】
【0057】ここで、n1は、領域As1に含まれる画
素の個数、n2は、領域As2に含まれる画素の個数、
n3は、領域As3に含まれる画素の個数、BVAs1
は、領域As1のk番目の画素の測光出力、BVAs2
は、領域As1のi番目の画素の測光出力、BVAs3
は、領域As1のj番目の要素の測光出力である。
【0058】なお、全ての被写体領域の優先度を等しく
すれば(たとえば、P1=P2=P3=1とすれば)、
各領域の重みを同じにして計算することになる。これに
よって、演算は単純化される。
【0059】次に、最も高い優先度以外の優先度を、種
々の要因を加味して決定する場合にについて、説明す
る。
【0060】まず、合焦する測距領域を含む被写体領域
についての測光領域を、最優先領域AsMとして決定す
る。このとき、最優先領域AsMの優先度PMを5に設定
する。さらに、最優先領域AsMの合焦距離をDVM、最
優先領域AsMの重心座標をGM(GxM,GyM)、最優
先領域AsMの領域内平均輝度をBVsM_aveとす
る。
【0061】次に、最優先領域AsM以外の測光領域A
kについて、優先領域AsMとの比較演算等により各種
の優先比率ED,EDL,EG、EDB,EB,ESを算出し、
次式を用いて、最優先領域AsM以外の領域Askの優先
度Pkを求める。 Pk=PM×(ED×EDL×EG×EDB×EB×ES
【0062】優先比率EDは、最優先領域AsMから光軸
方向に近いか遠いかを表す距離優先比率であり、領域A
kの測距距離DVskと最優先領域AsMの測距距離D
Mとの比較により求める。すなわち、領域Askと最優
先領域AsMとの測距距離の差の絶対値:ΔDVMK=|
DVsk−DVM|をまず求め、次の表により、距離優先
比率EDを求める。
【0063】
【表1】
【0064】優先比率EDLは、最優先領域AsMからX
Y方向に近いか遠いかを表す重心位置優先比率である。
領域Askの重心座標Gk(Gxk,Gyk)と最優先
領域AsMの重心座標GM(GxM,GyM)と間の距離:
ΔL={(Gxk−GxM2+(Gyk−GyM2 }1/2
をまず求め、次の表により、重心位置優先比率EDLを求
める。
【0065】
【表2】
【0066】優先比率EGは、領域AsKの重心位置があ
まりに画面上の端にある場合には優先度を下げるための
絶対重心位置比率である。領域Askの重心座標Gk
(Gxk,Gyk)と、画面上の左端のX座標Xmi
n、画面上の右端のX座標Xmax、画面上の上端のY
座標Ymax、画面上の下端のY座標Yminとの大小
関係により、次の表により、絶対重心位置優先比率EG
を求める。
【0067】
【表3】
【0068】優先比率EDBは、最優先領域AsMとの輝
度差が大きいか小さいかを表す輝度優先比率である。領
域Askの領域内平均輝度BVsk_aveと最優先領域
AsMの領域内平均輝度BVsM_aveの差の絶対値:
ΔBVMK=|BVsk_ave−BVsM_ave|を算
出し、次の表により求める。
【0069】
【表4】
【0070】優先比率EBは、領域AsKの領域内平均輝
度BVsk_aveが極端に高輝度の場合に優先度を下
げるための絶対輝度優先比率であり、次の表により求め
る。
【0071】
【表5】
【0072】優先比率ESは、領域Askの大きさが極端
に小さい場合には優先度を下げる大きさ優先比率であ
る。領域Askの大きさ情報、すなわち領域内に含まれ
る画素数(C−MOS画像演算処理センサーの画素数)
Skから、次の表によりを求める。
【0073】
【表6】
【0074】なお、PK=PMとしてもよい。そうすれ
ば、全ての被写体領域を同じ重みで処理することにな
り、演算の簡略化を図ることができる。
【0075】次に、主背占有比率の算出について、説明
する。
【0076】C−MOS画像演算処理センサー40の測
光出力をそのまま露出演算の測光値として用いる場合、
主背占有比率は、図16(A)に示した主被写体領域情
報、すなわち各エッジ座標XL、XR、YU、YDから、
(B)に示すようにエッジ座標XL、XR、YU、YDを含
む矩形の内側を主被写体領域Asとして選択し、(C)
に示すようにエッジ座標XL、XR、YU、YDを含む矩形
の外側を背景領域Aaとして選択する。そして、主被写
体領域Asの画素数Nsと、背景領域Aaの画素数Na
とを求め、主背占有比率Osaを、Osa=Ns/(Ns+
Na)×100(%)により算出する。図16の例で
は、Ns=9×12=108、Na=16×24―9×
12=276であるので、Osa=108/(108+2
76)×100=28.1(%)となる。
【0077】C−MOS画像演算処理センサー40とは
別に設けた測光センサー36に測光素子の測光値を露出
演算に用いる場合も、上記と同様である。すなわち、図
17に示すように、被写体領域のエッジ座標XL、XR
U、YDを含む矩形の内側を主被写体領域As、外側を
背景領域Aaとして選択する。そして、主被写体領域A
sに重心が含まれる測光素子の個数Nsと、背景領域A
aに重心が含まれる測光素子の個数Naとを求め、主背
占有比率Osaを、Osa=Ns/(Ns+Na)×100
(%)により算出する。図17の例では、Osa=3/
(3+10)×100=23(%)となる。
【0078】次に、カメラの動作について、図18〜図
27のフローチャートを参照しながら説明する。
【0079】まず、このカメラの基本的な動作につい
て、図18のフローチャートを参照しながら説明する。
【0080】まず、ステップ#12において、シャッタ
ーボタンが途中通まで押し込まれ、S1スイッチがオン
になるのを待つ。S1スイッチがオンになると、ステッ
プ#14において測距を行い、ステップ#16において
測光を行い、それぞれのデータをメモリに記憶する。次
に、ステップ#18において、詳しくは後述するよう
に、AE演算を行い、露出条件(フラッシュ発光の有
無、絞りAV、シャッター速度TV)などを決定する。
そして、シャッターボタンが完全に押し込まれ、S2ス
イッチがオンになるまで、上記ステップ#12〜#18
を繰り返す。
【0081】S2スイッチがオンになると、ステップ#
22以降のレリーズルーチンを実行する。すなわち、ス
テップ#24において、ミラーアップ、シャッターチャ
ージ等のレリーズ準備動作を行い、ステップ#26にお
いて、ステップ#18で決定した絞りAVとなるように
絞りを駆動し、ステップ#28において、シャッターを
開き、露光を開始する。このとき、ステップ#30およ
び#32において、必要に応じてフラッシュを発光す
る。そして、ステップ#34において、シャッター速度
をカウントし、ステップ#18で決定したシャッター速
度TVになれば、ステップ#36において、シャッター
を閉じ、露光を終了する。そして、ステップ#38にお
いて、ミラーダウン、フィルムの1コマ給送等の次コマ
準備処理を行う。
【0082】次に、上記ステップ#18のAE演算につ
いて、図19の詳細フローチャートを参照しながら、さ
らに説明する。
【0083】制御マイコン30は、ステップ#42にお
いて、上記ステップ#14で測距したデータをメモリか
ら読み出し、ステップ#44において、上記ステップ#
16で測光したデータをメモリから読み出す。次に、詳
しくは後述するが、ステップ#46において、画像演算
処理センサー40から画像処理情報の入力を受け、その
情報に基づいて、ステップ#48において被写体領域情
報を算出し、ステップ#50において主被写体輝度と背
景輝度を算出する。
【0084】次に、ステップ#52において、詳しくは
後述するシーン判別1処理を実行し、ステップ#54に
おいて、フラッシュ発光の要否を決定する。そして、ス
テップ#56において、フラッシュ発光制御の要否を判
定する。
【0085】フラッシュ発光制御をしないときには、ス
テップ#58において、後述するシーン判別2処理を実
行し、ステップ#60において、定常光制御用の絞りA
Vとシャッター速度TVとを算出して、AE演算処理を
終了する。
【0086】フラッシュ発光制御を行うときには、フラ
ッシュ発光要求フラグを1にセットし、ステップ#62
において、フラッシュ光制御用の絞りAVとシャッター
速度TVとを算出する。そして、詳しくは後述するが、
ステップ#64において調光寄与率を算出し、ステップ
#66において調光補正値を算出して、AE演算処理を
終了する。
【0087】次に、上記ステップ#46および#48に
ついて、図20の詳細フローチャートを参照しながら、
さらに説明する。
【0088】まず、ステップ#72以降の画像処理情報
入力ルーチンを実行する。すなわち、ステップ#72に
おいて、制御マイコン30は、画像演算処理センサー4
0から、画像処理情報、すなわちエッジ検出情報、画像
情報、色情報の入力を受け、メモリに記憶する。また、
ステップ#74において、画像演算処理センサー40が
フレーム毎の差分をとって算出したベクトルVnの入力
を受ける。
【0089】次に、制御マイコン30は、ステップ#7
6以降の被写体領域情報算出ルーチンを実行する。すな
わち、ステップ#78において、一連のエッジ毎に、重
心G1,G2,・・・,Gkを求める。次に、ステップ#
80において、一連のエッジ毎に、重心GjとX座標ま
たはY座標が等しいエッジ座標XLj,XRj,YUj
YDjを求める(j=1,2,・・・,k)。
【0090】次に、ステップ#82において、被写体領
域情報を算出する。すなわち、一連のエッジで囲まれた
領域を、それぞれ主被写体領域Asj(j=1,2,・
・・,k)とし、それ以外の領域を背景領域Aaとし、
各領域について、領域内平均輝度、大きさ情報、優先度
を求める。
【0091】詳しくは、主被写体領域Asjの領域内平
均輝度BVsj_ave(j=1,2,・・・,k)
は、主被写体領域Asj内の画素(合計nj個の画素とす
る)の各測光出力BVAsj1,BVAsj2,・・・B
VAsjjの平均値である。背景領域Aaの領域内平均
輝度BVa_aveは、主被写体領域Asjのいずれに
も含まれない領域の画素(合計m個の画素とする)の各
測光出力BVAa1,BVAa2,・・・,BVAam
の平均値である。主被写体領域Asjの大きさ情報S
jは、その主被写体領域Asjに含まれる画素数nj(j
=1,2,・・・,k)とする。なお、大きさ情報Sj
は、各主被写体領域AsjのX、Y方向の大きさLxj
Lyjから、Sj=Lxj×Lyj(j=1,2,・・・,
k)として求めてもよい。各主被写体領域Asjの優先
度Pjは、前述のように,距離情報(最近接情報)、大
きさ情報(画素数)、中央付近のもの、最も明るいもの
(逆逆光)、最も暗いもの(逆光)などから求める。な
お、全ての優先度を等しく置いてもよく、そうすれば、
等価な平均測光状態となり、演算を簡素化できる。
【0092】次に、ステップ#84において、主背占有
比率Osaを算出する。主背占有比率Osaは、各主被写体
領域Asjの画素数njの合計Nk=n1+n2+・・・+
kと、背景領域Aaの画素数mとから、Osa=Nk/
(Nk+m)×100(%)として算出する。
【0093】なお、上記#78〜#84において、色情
報、ベクトル情報を用いて、一連のエッジをグループ化
して、同様に処理してもよい。
【0094】次に、前述した図19のステップ#50に
おける輝度データ算出について、図21の詳細フローチ
ャートを参照しながら、さらに説明する。
【0095】ステップ#90において、各主被写体領域
Asjの領域内平均輝度BVsj_aveを優先度Pj
用いて加重平均して、主被写体輝度基準データBVSを
算出する。すなわち、BVS=(P1×n1×BVs1_
ave+P2×n2×BVs2_ave+・・・+Pk×n
k×BVsk_ave)/(P1×n1+P2×n2+・・・
+Pk×nk)として、算出する。
【0096】次に、ステップ#92において、上記ステ
ップ#82で求めた背景領域Aaの領域内平均輝度BV
a_aveを背景領域の背景輝度基準データBVAとす
る。
【0097】次に、前述した図19のステップ#52に
おけるシーン判別1について、図22の詳細フローチャ
ートを参照しながら、さらに説明する。
【0098】まず、ステップ#102以降の逆光シーン
判別ルーチンを実行する。すなわち、ステップ#104
において、主背輝度差△BAsa=BVS−BVAを算出
する。次に、ステップ#106において、主背輝度差△
BAsaと主背占有比率Osaとから、次のテーブルを用い
て、逆光度合DBLを算出する。
【0099】
【表7】
【0100】次に、ステップ#108において、逆光フ
ラッシュフラグBLFL_Fを設定する。具体的には、BVA
>BV7.5、かつ、DBL>65ならば、BLFL_F=1、
それ以外では、BLFL_F=0と設定する。ここに、像倍率
情報を加味してもよい。
【0101】次に、ステップ#110以降のスローシン
クロシーン判別ルーチンを実行する。
【0102】まず、ステップ#112において、エッジ
検出情報を再入力する。次に、ステップ#114におい
て、光源情報を検出する。具体的には、エッジ検出情報
のうち、エッジの輝度差が所定値(たとえば、BV8)
以上のものだけを抽出する。大きさ情報Skを用いる場
合には、検出されたエッジで囲まれた領域のうち、Sk
>10画素(暫定)となる個数を屋内光源数:nin、S
k≦10画素(暫定)となる個数を屋外光源数:nout
とする。色情報を用いる場合には、検出されたエッジで
囲まれた領域のうち、Sk>10画素、かつ、R、G、
Bの比率(合計1.0)でGの比率が所定値(たとえ
ば、0.5)以上となる個数を屋内光源数:nin(蛍光
灯検知個数に相当する)、上記以外となる個数を屋外光
源数:nout=とする。
【0103】次に、ステップ#116において、屋内光
源数ninおよび屋外光源数noutから、次のテーブルを
用いて、屋外撮影度合Doutを算出する。
【0104】
【表8】
【0105】次に、ステップ#118において、屋外ス
ローシンクロフラグSLOWOUT_Fおよび屋内スローシンク
ロフラグSLOWIN_Fを設定する。BVA<BV2、かつ、
Dout>65ならば、SLOWOUT_F=1、それ以外は、SLOW
OUT_F=0とする。また、BV2≦BVA<BV2、か
つ、Dout<35ならば、SLOWIN_F=1、それ以外は、S
LOWIN_F=0、とする。
【0106】次に、前述の図19のステップ#54にお
けるフラッシュ発光/非発光の判定について、図23の
詳細フローチャートを参照しながら説明する。
【0107】まず、ステップ#122において、フラッ
シュがオフであるか否かを判定する。
【0108】フラッシュがオフであれば、ステップ#1
24以降の定常光制御ルーチンを実行する。すなわち、
ステップ#126において、BVTを、前述した図18
のステップ#90で求めた主被写体輝度基準データBV
Sとし、ステップ#128において、フラッシュ発光要
求フラグを0にセットし、ステップ#146において、
BVTにSVを加えてEVTとして、リターンする。
【0109】フラッシュがオンであれば、ステップ#1
30において、BVHを手振れ限界輝度に設定し、ステ
ップ#132において、逆光フラッシュ条件が成立する
か否かを判定する。
【0110】逆光フラッシュ条件が成立すれば、すなわ
ち、BLFL_F=1であれば、ステップ#158以降の逆光
フラッシュ制御ルーチンを実行する。すなわち、ステッ
プ#160において、前述した図21のステップ#92
で求めた背景輝度基準データBVAにαを加えてBVT
とし、ステップ#144において、フラッシュ発光要求
フラグを1にセットした後、前述のステップ#146を
実行して、リターンする。
【0111】逆光フラッシュ条件が成立しなければ、ス
テップ#134において、スローシンクロ条件が成立す
るか否かを判定する。
【0112】スローシンクロ条件が成立すれば、すなわ
ち、SLOWOUT_F=1、または、SLOWIN_F=1であれば、
ステップ#154以降のスローシンクロ制御ルーチンを
実行する。すなわち、ステップ#156において、BV
TをBVAとして、前述のステップ#144および#1
46を実行して、リターンする。
【0113】スローシンクロ条件が成立しなければ、ス
テップ#136において、BVSがBVHより小さいか
否かを判定する。
【0114】BVSがBVHより小さいときには、ステ
ップ#150以降の暗中発光制御ルーチンを実行する。
すなわち、ステップ#152において、BVTをBVH
として、前述のステップ#144および#146を実行
した後、リターンする。
【0115】BVSがBVHより小さくはないときに
は、ステップ#138において、フラッシュがオートで
あるか否かを判定する。オートであれば、前述のステッ
プ#124以降の定常光制御ルーチンを実行する。オー
トでなければ、ステップ#140以降の強制発光制御ル
ーチンを実行する。すなわち、ステップ#142におい
て、BVSにγを加えてBVTとし、前述のステップ#
144および#146を実行した後、リターンする。
【0116】次に、前述の図19のステップ#60にお
ける定常光制御時の絞りAVとシャッター速度TVの算
出について、図24の詳細フローチャートを参照しなが
ら説明する。
【0117】ステップ#202において、撮影モード処
理を行い、次に、ステップ#204以降のシーン判別2
ルーチンを実行する。
【0118】すなわち、ステップ#206において、傾
きδを算出する。傾きδは、0以上1以下の値であり、
δが大きいときに、絞りを絞り、シャッター速度を低速
側にする一方、δが小さいときには、絞りを開き、シャ
ッター速度を高速側にする。
【0119】傾きδは、焦点距離f1と主背占有比率O
saとから、次のδ算出テーブルを用いて求める。
【0120】
【表9】
【0121】あるいは、像倍率βと主背占有比率Osaと
から、次のδ算出テーブルを用いて求めてもよい。
【0122】
【表10】 なお、このテーブルに焦点距離情報を加味してもよい。
【0123】次に、ステップ#208において、ベクト
ル検出情報Vnに基づいて、傾きδを補正する。すなわ
ち、Vn>Cvならば、δの値を半分にする。ここでC
vは定数であり、たとえば画面上では、Cv=1mm/cm
である。これによって、ベクトル検出情報Vnが所定値
Cnより高速ならば、動体またはスポーツシーンとみな
して、δを高速側へシフトする。
【0124】次に、ステップ#210において、EVT
がAV0とTVHとの和より大きいか否かを判定する。
ここで、AV0は基準絞りであり、TVHは手振れ限界
シャッター速度である。
【0125】EVTがAV0とTVHとの和より大きけ
れば、ステップ#218において、シャッター速度:A
V=AV0+δ×(EVT−(AV0+TVH))を算
出する。そして、ステップ#220において、EVTか
らAVを引いて、シャッター速度TVとする。最後に、
ステップ#222においてリミット処理を行い、リター
ンする。
【0126】一方、EVTがAV0とTVHとの和より
大きくなければ、ステップ#212において、基準絞り
AV0を絞りAVとし、ステップ#214において、E
VTからAVを引いてシャッター速度TVとし、最後
に、ステップ#216においてリミット処理を行い、リ
ターンする。
【0127】次に、前述の図19のステップ#62にお
けるフラッシュ光制御時の絞りAV、シャッター速度T
Vの算出について、図25の詳細フローチャートを参照
しながら説明する。
【0128】ステップ#302において、撮影モード処
理を行い、ステップ#304において、EVTがAV0
とTVXとの和より大きいか否かを判定する。
【0129】EVTがAV0とTVXとの和より大きけ
れば、ステップ#316において、TVXをシャッター
速度TVとし、ステップ#318において、EVTから
TVを引いて絞りAVとし、ステップ#320において
リミット処理を行いう。
【0130】一方、EVTがAV0とTVXとの和より
大きくなければ、ステップ#306において、基準絞り
AV0を絞りAVとし、ステップ#308において、E
VTからAVを引いた値をシャッター速度TVとし、ス
テップ#310において、リミット処理を行う。
【0131】上記ステップ#310または#320のリ
ミット処理の後、前述したように、ステップ#64にお
いて調光寄与率を算出し、ステップ#66において調光
補正値を算出する。次に、このステップ#64および#
66について、さらに説明する。
【0132】まず、上記ステップ#64における調光寄
与率の算出について、図26の詳細フローチャートを参
照しながら説明する。
【0133】ステップ#402において、各調光セルC
0,C1,・・・,Cnの重み(寄与率)wt=(wt
0,wt1,・・・,wtn)を、全て0に初期設定す
る。
【0134】次に、ステップ#404において、各セル
の調光寄与率を算出する。各調光セルの領域情報(座
標)は、所定値であり、予め分かっている。各調光セル
Cn毎にその領域内での、主被写体領域Askの重心G
k、主被写体領域Askの領域内座標XLK,XRK,
YUK,YDKの個数j、シーン全体の主背占有率Osa
がそれぞれ存在するかどうか、及び、存在する場合には
それぞれの値をチェックする。さらに、領域Askの重
心Gkが存在する場合は、領域Askの大きさ情報S
k、領域Askの優先度Pkをチェックする。そして、
各セルの寄与率wtn”を、次式で求める。 wtn”=R1×(Pk1×Sk1+Pk2×Sk2+
・・・+Pki×Ski)+R2×j ここに、R1、R2は定数であり、たとえば、R1=R
2=1である。
【0135】次に、ステップ#406において、調光寄
与率wtn’を、次式により規格化する。 wt’=8×wt”/max(wt1”,・・・,wt
m”) これによって、最大寄与率(重み)を8として規格化で
き、この寄与率(重み)を、多分割調光の最終的な制御
重みとなる。
【0136】次に、ステップ#408において、被写体
距離D(単位はメートル)と主背占有比率Osaとから、
次のテーブルを用いて平均調光度合Daveを算出する。
【0137】
【表11】
【0138】この平均調光度合Daveは、主背占有率Os
aが低いときには、平均的な寄与率に設定するためもの
もである。
【0139】次に、ステップ#410において、最終調
光寄与率wtnを次式により算出する。 wtn=(Dave×8+(100−Dave)×wtn’)
/100 最終調光寄与率wtnは、0以上8以下の値となる。
【0140】次に、前述の図19および図25のステッ
プ#66の調光補正値算出ルーチンについて、図27の
詳細フローチャートを参照しながら説明する。
【0141】ステップ#502において、被写体距離D
と主背占有比率Osaとから、次のテーブルを用いて調光
補正値ΔEVFLを算出する。
【0142】
【表12】
【0143】次に、ステップ#504において、R、
G、Bの比率から、次のテーブルを用いて色補正分ΔE
Vcを算出する。なお、ΔEVcは、色情報が得られる
場合にのみ算出する。
【0144】
【表13】
【0145】次に、ステップ#506において、設定フ
ィルム感度SVを算出する。次に、ステップ#508に
おいて、制御フィルム感度値SVsを、次式により算出
して、リターンする。 SVc=SV+(-/+)+(+/-)FL+ΔEVFL+ΔEV
c ここで、(-/+)は、露出補正値(ユーザ設定)、(+/
-)FL は、調光補正値(ユーザ設定)である。
【0146】なお、本発明は、上記実施形態に限定され
るものではなく、その他種々の態様で実施可能である。
【図面の簡単な説明】
【図1】 本発明の各実施形態のカメラおよび従来例の
カメラの構成図である。
【図2】 本発明の第1実施形態のカメラの要部構成図
である。
【図3】 本発明の第2実施形態のカメラの要部構成図
である。
【図4】 図2のカメラのブロック構成図である。
【図5】 本発明の第3実施形態のカメラの要部構成図
である。
【図6】 本発明の第4実施形態のカメラの要部構成図
である。
【図7】 図3のカメラのC−MOS画像演算処理セン
サー、測光素子および測距素子の配置関係図である。
【図8】 C−MOS画像演算処理センサーの出力情報
の説明図である。
【図9】 C−MOS画像演算処理センサーの出力情報
から算出する画像処理情報の説明図である。
【図10】 被写体領域情報の算出の説明図である。
【図11】 測光素子を用いる場合の被写体領域情報の
算出の説明図である。
【図12】 測光素子を用いない場合の測光領域選択の
説明図である。
【図13】 測光素子を用いる場合の測光領域選択の説
明図である。
【図14】 距離情報も用いて測光領域を選択する場合
の説明図である。
【図15】 複数の被写体領域が存在する場合の測光領
域選択の説明図である。
【図16】 測光素子を用いない場合の主背占有率の算
出の説明図である。
【図17】 測光素子を用いる場合の主背占有率の算出
の説明図である。
【図18】 本発明のカメラの基本的な動作のフローチ
ャートである。
【図19】 図18のステップ#18の詳細フローチャ
ートである。
【図20】 図19のステップ#46および#48の詳
細フローチャートである。
【図21】 図19のステップ#50の詳細フローチャ
ートである。
【図22】 図19のステップ#52の詳細フローチャ
ートである。
【図23】 図19のステップ#54におけるフラッシ
ュ発光/非発光の判定の詳細フローチャートである。
【図24】 図19のステップ#60の詳細フローチャ
ートである。
【図25】 図19のステップ#62の詳細フローチャ
ートである。
【図26】 図19のステップ#64の詳細フローチャ
ートである。
【図27】 図19および図25のステップ#66の詳
細フローチャートである。
【符号の説明】
10,10a カメラ本体 14 調整端子 16 ボディ表示 22 電池 24 DC/DCコンバータ 30 制御マイコン(シーン判別手段、露出演算手段) 32 補助光発光部 34 調光モジュール 36 測光モジュール、測光センサー(多分割測光手
段) 38 測距モジュール、測距センサー(測距手段) 40,40a C−MOS画像演算処理センサー(撮像
手段) 41 モータードライバ 42 AFエンコーダ 43 モータードライバ 44 AFアクチュエータ、AFモーター 45 フィルム給送モーター 46 絞りマグネット 48 シャッターマグネット 50,50a 交換レンズ 52 レンズマイコン 53 モーター 54 光学系 56 AFアクチュエータ 57 AFエンコーダ 58 PFエンコーダ 59 終端スイッチ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 関 玲二 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 藤野 明彦 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2H002 DB02 DB06 DB14 DB17 DB19 DB20 DB25 DB28 DB29 DB30 DB31 HA04 JA02

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 撮影領域を撮像した画像を利用してシー
    ン判別を行ない、このシーン判別情報に基づいて最適露
    出値を決定することを特徴とする露出演算装置を備えた
    カメラ。
  2. 【請求項2】 撮影領域を撮像して画像処理情報を出力
    する撮像手段と、 該撮像手段から出力された画像処理情報に基づいて撮影
    シーンを判別し、その判別した撮影シーンに関するシー
    ン判別情報を出力するシーン判別手段と、 複数の分割された測光領域を測光し、測光した測光領域
    とその測光値に関する測光情報を出力する多分割測光手
    段と、 シーン判別手段から出力されたシーン判別情報と多分割
    測光手段から出力された測光情報とに基づき、その撮影
    時に最適な露出値を演算する露出演算手段とを備えたこ
    とを特徴とするカメラ。
  3. 【請求項3】 撮影領域を撮像して画像処理情報を出力
    する撮像手段と、 少なくとも1つの測距領域を測距し、測距した測距領域
    とその測距値に関する測距情報を出力する測距手段と、 上記撮像手段から出力された画像処理情報と、上記測距
    手段から出力された測距情報とに基づいて撮影シーンを
    判別し、その判別した撮影シーンに関するシーン判別情
    報を出力するシーン判別手段と、 複数の分割された測光領域を測光し、測光した測光領域
    とその測光値に関する測光情報を出力する多分割測光手
    段と、 上記シーン判別手段から出力されたシーン判別情報と、
    上記多分割測光手段から出力された測光情報とに基づ
    き、その撮影時の最適な露出値を算出する露出演算手段
    とを備えたことを特徴とするカメラ。
  4. 【請求項4】 上記シーン判別情報出力手段は、主被写
    体が画面上に占める主被写体領域と背景が画面上に占め
    る背景領域とを検出し、その検出した主被写体領域およ
    び背景領域にそれぞれ関する主被写体領域情報および背
    景領域情報から、画面上での主被写体領域と背景領域と
    の占有比率を表す主背占有比率を求め、少なくとも該主
    背占有比率を含む情報に基づいてシーン判別情報を決定
    することを特徴とする、請求項2又は3記載のカメラ。
  5. 【請求項5】 上記撮像手段は、撮影領域を撮像した
    画像の輪郭又は色の少なくとも一方を検出し、その検出
    した輪郭又は色に関する輪郭検出情報又は色情報を画像
    処理情報に含めて出力し、 上記シーン判別情報出力手段は、該輪郭検出情報又は色
    検出情報の少なくとも一方に基づいて、シーン判別情報
    を決定することを特徴とする、請求項2又は3記載のカ
    メラ。
  6. 【請求項6】 上記撮像手段は、撮影領域を撮像した画
    像の動く速度と方向を検出し、その検出した速度および
    方向に関するベクトル検出情報を画像処理情報に含めて
    出力し、 上記シーン判別情報出力手段は、該ベクトル検出情報に
    基づいて、シーン判別情報を決定することを特徴とす
    る、請求項2又は3記載のカメラ。
JP10247317A 1998-08-03 1998-09-01 カメラ Pending JP2000075351A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10247317A JP2000075351A (ja) 1998-09-01 1998-09-01 カメラ
US09/363,863 US6167200A (en) 1998-08-03 1999-07-29 Exposure operation mechanism of camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10247317A JP2000075351A (ja) 1998-09-01 1998-09-01 カメラ

Publications (1)

Publication Number Publication Date
JP2000075351A true JP2000075351A (ja) 2000-03-14

Family

ID=17161608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10247317A Pending JP2000075351A (ja) 1998-08-03 1998-09-01 カメラ

Country Status (1)

Country Link
JP (1) JP2000075351A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005354230A (ja) * 2004-06-08 2005-12-22 Canon Inc 画像処理装置及び画像処理方法
JP2006106617A (ja) * 2004-10-08 2006-04-20 Nikon Corp カメラの測光装置
JP2008145583A (ja) * 2006-12-07 2008-06-26 Nikon Corp カメラおよび発光量演算プログラム
US7394486B2 (en) 2002-09-26 2008-07-01 Seiko Epson Corporation Adjusting output image of image data
EP2214404A1 (en) 2009-01-30 2010-08-04 Canon Kabushiki Kaisha Image pickup apparatus and control method therefor
JP2010268253A (ja) * 2009-05-15 2010-11-25 Sigma Corp カメラの測光装置
US7884879B2 (en) 2006-09-13 2011-02-08 Canon Kabushiki Kaisha Image sensing apparatus having exposure control and method therefor

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7394486B2 (en) 2002-09-26 2008-07-01 Seiko Epson Corporation Adjusting output image of image data
JP2005354230A (ja) * 2004-06-08 2005-12-22 Canon Inc 画像処理装置及び画像処理方法
JP2006106617A (ja) * 2004-10-08 2006-04-20 Nikon Corp カメラの測光装置
JP4539276B2 (ja) * 2004-10-08 2010-09-08 株式会社ニコン カメラの測光装置およびカメラ
US7884879B2 (en) 2006-09-13 2011-02-08 Canon Kabushiki Kaisha Image sensing apparatus having exposure control and method therefor
JP2008145583A (ja) * 2006-12-07 2008-06-26 Nikon Corp カメラおよび発光量演算プログラム
EP2214404A1 (en) 2009-01-30 2010-08-04 Canon Kabushiki Kaisha Image pickup apparatus and control method therefor
JP2010200307A (ja) * 2009-01-30 2010-09-09 Canon Inc 撮像装置、その制御方法及びプログラム
US8355053B2 (en) 2009-01-30 2013-01-15 Canon Kabushiki Kaisha Image pickup apparatus and control method therefor
JP2010268253A (ja) * 2009-05-15 2010-11-25 Sigma Corp カメラの測光装置

Similar Documents

Publication Publication Date Title
US6240253B1 (en) Automatic focusing camera
JP2003344891A (ja) 撮影モード自動設定カメラ
KR20140035274A (ko) 촬상장치 및 제어 방법
JP2003066321A (ja) Af制御装置およびaf制御方法
US6167200A (en) Exposure operation mechanism of camera
US6240252B1 (en) Camera
JP2000075351A (ja) カメラ
JP2015031743A (ja) 露出制御装置、その制御方法、および制御プログラム、並びに撮像装置
JPH01285925A (ja) カメラ
US6185374B1 (en) Mechanism for controlling flash light emission, camera with the mechanism, and its control method
US5687407A (en) Exposure calculation device for camera
JP2004004449A (ja) カメラの露出制御システム
JP2001326854A (ja) 撮像装置と該撮像装置の制御方法
JP2000075349A (ja) カメラ
JP2000075350A (ja) カメラ
JP2000075345A (ja) カメラ
JP2012063664A (ja) 測光装置及び電子カメラ
JP2013040997A (ja) 露出演算装置およびカメラ
JPH02100027A (ja) 被写体輝度の測定方法
JP2000056353A (ja) カメラ
JP2015225256A (ja) 撮影装置
JP2019203959A (ja) 撮像装置、及びその制御方法
JP4795306B2 (ja) 測光装置及びカメラ
JP3141027B2 (ja) カメラ
JP2590834B2 (ja) カメラの自動日中シンクロシステム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615