JP2000075345A - カメラ - Google Patents
カメラInfo
- Publication number
- JP2000075345A JP2000075345A JP10247285A JP24728598A JP2000075345A JP 2000075345 A JP2000075345 A JP 2000075345A JP 10247285 A JP10247285 A JP 10247285A JP 24728598 A JP24728598 A JP 24728598A JP 2000075345 A JP2000075345 A JP 2000075345A
- Authority
- JP
- Japan
- Prior art keywords
- information
- dimming
- area
- subject
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Exposure Control For Cameras (AREA)
- Stroboscope Apparatuses (AREA)
Abstract
(57)【要約】
【課題】 短時間で高精度の調光制御が可能なカメラを
提供する。 【解決手段】 撮影領域を撮像して画像処理情報を出力
する撮像手段S1と、画像処理情報に基づいて被写体の
状態を検出し、その検出した被写体の状態に関する被写
体情報を出力する被写体情報出力手段S2と、撮影領域
を分割した複数の調光領域についてフラッシュ発光制御
時の寄与率を各々独立に設定可能である多分割調光手段
S5と、被写体情報に基づいて多分割調光手段S5の各
調光領域の寄与率を算出する調光寄与率算出手段S3
と、各調光領域の寄与率に基づいてフラッシュ発光を制
御する調光制御手段S4とを備える。
提供する。 【解決手段】 撮影領域を撮像して画像処理情報を出力
する撮像手段S1と、画像処理情報に基づいて被写体の
状態を検出し、その検出した被写体の状態に関する被写
体情報を出力する被写体情報出力手段S2と、撮影領域
を分割した複数の調光領域についてフラッシュ発光制御
時の寄与率を各々独立に設定可能である多分割調光手段
S5と、被写体情報に基づいて多分割調光手段S5の各
調光領域の寄与率を算出する調光寄与率算出手段S3
と、各調光領域の寄与率に基づいてフラッシュ発光を制
御する調光制御手段S4とを備える。
Description
【0001】
【発明の属する技術分野】本発明は、カメラに関する。
【0002】
【従来の技術】従来、撮影領域を分割した複数の調光領
域についてそれぞれ寄与率を適宜設定してフラッシュ撮
影できる種々のカメラが提供されている。これらのカメ
ラでは、たとえば図1(C)に示すように、調光制御の
ために、被写体情報出力手段S2は、多分割測光手段S
6が測光した測光値と測距手段S7が測距した測距値と
に基づいて、主被写体の位置、主被写体までの距離、背
景の状況などを検出する。調光寄与率算出手段S3は、
被写体情報出力手段S2が検出した主被写体に関する情
報と、予備発光モニタ手段S8がフラッシュを予備発光
させて測光した測光値等とに基づいて、調光寄与率を算
出する。調光制御手段S4は、調光寄与率算出手段S3
が算出した調光寄与率に基づいて、多分割調光手段S5
を制御し、各調光領域について寄与率を設定する。この
ように、測光、測距、予備発光の結果から所定アルゴリ
ズムによって、調光寄与率を算出して調光制御を行って
いる。
域についてそれぞれ寄与率を適宜設定してフラッシュ撮
影できる種々のカメラが提供されている。これらのカメ
ラでは、たとえば図1(C)に示すように、調光制御の
ために、被写体情報出力手段S2は、多分割測光手段S
6が測光した測光値と測距手段S7が測距した測距値と
に基づいて、主被写体の位置、主被写体までの距離、背
景の状況などを検出する。調光寄与率算出手段S3は、
被写体情報出力手段S2が検出した主被写体に関する情
報と、予備発光モニタ手段S8がフラッシュを予備発光
させて測光した測光値等とに基づいて、調光寄与率を算
出する。調光制御手段S4は、調光寄与率算出手段S3
が算出した調光寄与率に基づいて、多分割調光手段S5
を制御し、各調光領域について寄与率を設定する。この
ように、測光、測距、予備発光の結果から所定アルゴリ
ズムによって、調光寄与率を算出して調光制御を行って
いる。
【0003】しかし、フラッシュ露出性能を向上しよう
とすると、測光、測距ポイントを多くしたり、アルゴリ
ズムを複雑にする必要があり、それに伴って調光アルゴ
リズム演算時間や調光制御時間は、かえって長くなって
しまう。
とすると、測光、測距ポイントを多くしたり、アルゴリ
ズムを複雑にする必要があり、それに伴って調光アルゴ
リズム演算時間や調光制御時間は、かえって長くなって
しまう。
【0004】
【発明が解決しようとする課題】したがって、本発明が
解決しようとする技術的課題は、短時間で高精度の調光
制御が可能なカメラを提供することである。
解決しようとする技術的課題は、短時間で高精度の調光
制御が可能なカメラを提供することである。
【0005】
【課題を解決するための手段および作用・効果】本発明
は、上記技術的課題を解決するために、撮影領域を撮像
した画像を利用して調光領域を決定することを基本的特
徴とするフラッシュ露出制御装置を備えたカメラを提供
する。
は、上記技術的課題を解決するために、撮影領域を撮像
した画像を利用して調光領域を決定することを基本的特
徴とするフラッシュ露出制御装置を備えたカメラを提供
する。
【0006】具体的には、以下のように構成したカメラ
を提供する。
を提供する。
【0007】カメラは、撮影領域を撮像して画像処理情
報を出力する撮像手段と、この撮像手段から出力された
画像処理情報に基づいて、被写体の状態を検出し、その
検出した被写体の状態に関する被写体情報を出力する被
写体情報出力手段と、撮影領域を分割した複数の調光領
域について、フラッシュ発光制御時の寄与率を各々独立
に設定可能である多分割調光手段と、上記被写体情報出
力手段から出力された被写体情報に基づいて、上記多分
割調光手段の各調光領域の寄与率を算出する調光寄与率
算出手段と、この調光寄与率算出手段により算出された
各調光領域の寄与率に基づいて、フラッシュ発光を制御
する調光制御手段とを備える。
報を出力する撮像手段と、この撮像手段から出力された
画像処理情報に基づいて、被写体の状態を検出し、その
検出した被写体の状態に関する被写体情報を出力する被
写体情報出力手段と、撮影領域を分割した複数の調光領
域について、フラッシュ発光制御時の寄与率を各々独立
に設定可能である多分割調光手段と、上記被写体情報出
力手段から出力された被写体情報に基づいて、上記多分
割調光手段の各調光領域の寄与率を算出する調光寄与率
算出手段と、この調光寄与率算出手段により算出された
各調光領域の寄与率に基づいて、フラッシュ発光を制御
する調光制御手段とを備える。
【0008】上記構成の各手段は、図1(A)に示すよ
うに、相互に関連している。すなわち、撮像手段S1
は、撮影領域内を撮像して、画像処理情報(たとえば、
撮像画像の画像情報、輪郭検出情報、ベクトル検出情
報、色情報等)を被写体領域情報出力手段S2に出力す
る。被写体領域情報出力手段S2は、撮像手段S1が出
力した画像処理情報に基づいて、被写体情報を出力す
る。たとえば、輝度情報、輪郭情報、ベクトル情報、輪
郭情報と色情報の組合せ、位置情報(中央付近であるか
否か)、明るい塊であるか、暗い塊であるか、大きな塊
であるか、合焦測距エリア付近の塊であるか、動きのあ
る塊であるか等に基づいて、被写体の状態(撮影の主要
な対象である主被写体が存在する領域、主被写体までの
距離、背景の状況など)に関する被写体情報を出力す
る。調光寄与率算出手段S3は、被写体情報に基づい
て、多分割調光手段S5の各調光領域の寄与率を算出す
る。調光制御手段S4は、調光寄与率算出手段S3によ
り算出された各調光領域の寄与率に基づいて、多分割調
光手段S5の寄与率を設定し、フラッシュ発光制御を行
う。
うに、相互に関連している。すなわち、撮像手段S1
は、撮影領域内を撮像して、画像処理情報(たとえば、
撮像画像の画像情報、輪郭検出情報、ベクトル検出情
報、色情報等)を被写体領域情報出力手段S2に出力す
る。被写体領域情報出力手段S2は、撮像手段S1が出
力した画像処理情報に基づいて、被写体情報を出力す
る。たとえば、輝度情報、輪郭情報、ベクトル情報、輪
郭情報と色情報の組合せ、位置情報(中央付近であるか
否か)、明るい塊であるか、暗い塊であるか、大きな塊
であるか、合焦測距エリア付近の塊であるか、動きのあ
る塊であるか等に基づいて、被写体の状態(撮影の主要
な対象である主被写体が存在する領域、主被写体までの
距離、背景の状況など)に関する被写体情報を出力す
る。調光寄与率算出手段S3は、被写体情報に基づい
て、多分割調光手段S5の各調光領域の寄与率を算出す
る。調光制御手段S4は、調光寄与率算出手段S3によ
り算出された各調光領域の寄与率に基づいて、多分割調
光手段S5の寄与率を設定し、フラッシュ発光制御を行
う。
【0009】上記構成によれば、撮像手段から出力され
た画像処理情報に基づいて、主被写体位置や主被写体と
背景の相対位置関係といった被写体の状態を精度よく検
出することにより、各調光領域の寄与率を正確に得るこ
とによるフラッシュ制御性能の向上、あるいは、予備発
光制御の省略等による調光制御時間の短縮を図ることが
可能となる。
た画像処理情報に基づいて、主被写体位置や主被写体と
背景の相対位置関係といった被写体の状態を精度よく検
出することにより、各調光領域の寄与率を正確に得るこ
とによるフラッシュ制御性能の向上、あるいは、予備発
光制御の省略等による調光制御時間の短縮を図ることが
可能となる。
【0010】したがって、短時間で高精度の調光制御が
可能である。
可能である。
【0011】また、本発明は、別の構成のカメラを提供
する。
する。
【0012】カメラは、撮影領域を撮像して画像処理情
報を出力する撮像手段と、少なくとも1つの測距領域を
測距し、測距した測距領域およびその測距値に関する測
距情報を出力する測距手段と、複数の分割された測光領
域を測光し、測光した測光領域およびその測光値に関す
る測光情報を出力する多分割測光手段と、上記撮像手段
から出力された画像情報と、上記測距手段から出力され
た測距情報または上記多分割測光手段から出力された測
光情報の少なくとも一方とに基づいて、被写体の状態を
検出し、その検出した被写体の状態に関する被写体情報
を出力する被写体情報出力手段と、撮影領域を分割した
複数の調光領域について、フラッシュ発光制御時の寄与
率を各々独立に設定可能である多分割調光手段と、上記
被写体情報出力手段から出力された被写体情報に基づい
て、上記多分割調光手段の各調光領域の寄与率を算出す
る調光寄与率算出手段と、この調光寄与率算出手段によ
り算出された各調光領域の寄与率に基づいて、フラッシ
ュ発光を制御する調光制御手段とを備える。
報を出力する撮像手段と、少なくとも1つの測距領域を
測距し、測距した測距領域およびその測距値に関する測
距情報を出力する測距手段と、複数の分割された測光領
域を測光し、測光した測光領域およびその測光値に関す
る測光情報を出力する多分割測光手段と、上記撮像手段
から出力された画像情報と、上記測距手段から出力され
た測距情報または上記多分割測光手段から出力された測
光情報の少なくとも一方とに基づいて、被写体の状態を
検出し、その検出した被写体の状態に関する被写体情報
を出力する被写体情報出力手段と、撮影領域を分割した
複数の調光領域について、フラッシュ発光制御時の寄与
率を各々独立に設定可能である多分割調光手段と、上記
被写体情報出力手段から出力された被写体情報に基づい
て、上記多分割調光手段の各調光領域の寄与率を算出す
る調光寄与率算出手段と、この調光寄与率算出手段によ
り算出された各調光領域の寄与率に基づいて、フラッシ
ュ発光を制御する調光制御手段とを備える。
【0013】上記構成の各手段は、図1(B)に示すよ
うに、相互に関連している。すなわち、撮像手段S1
は、撮影領域内を撮像して、画像処理情報(たとえば、
撮像画像の画像情報、輪郭検出情報、ベクトル検出情
報、色情報等)を被写体領域情報出力手段S2に出力す
る。被写体領域情報出力手段S2は、撮像手段S1が出
力した画像処理情報と、多分割測光手段S6が出力した
測光情報または測距手段S7が出力した測距情報の少な
くとも一方とに基づいて、被写体情報を出力する。たと
えば、輝度情報、輪郭情報、ベクトル情報、輪郭情報と
色情報の組合せ、位置情報(中央付近であるか否か)、
明るい塊であるか、暗い塊であるか、大きな塊である
か、合焦測距エリア付近の塊であるか、動きのある塊で
あるか等に基づいて、被写体の状態(主被写体が存在す
る領域、主被写体までの距離、背景の状況など)に関す
る被写体情報を出力する。調光寄与率算出手段S3は、
被写体情報に基づいて、多分割調光手段S5の各調光領
域の寄与率を算出する。調光制御手段S4は、調光寄与
率算出手段S3により算出された各調光領域の寄与率に
基づいて、多分割調光手段S5の寄与率を設定し、フラ
ッシュ発光制御を行う。
うに、相互に関連している。すなわち、撮像手段S1
は、撮影領域内を撮像して、画像処理情報(たとえば、
撮像画像の画像情報、輪郭検出情報、ベクトル検出情
報、色情報等)を被写体領域情報出力手段S2に出力す
る。被写体領域情報出力手段S2は、撮像手段S1が出
力した画像処理情報と、多分割測光手段S6が出力した
測光情報または測距手段S7が出力した測距情報の少な
くとも一方とに基づいて、被写体情報を出力する。たと
えば、輝度情報、輪郭情報、ベクトル情報、輪郭情報と
色情報の組合せ、位置情報(中央付近であるか否か)、
明るい塊であるか、暗い塊であるか、大きな塊である
か、合焦測距エリア付近の塊であるか、動きのある塊で
あるか等に基づいて、被写体の状態(主被写体が存在す
る領域、主被写体までの距離、背景の状況など)に関す
る被写体情報を出力する。調光寄与率算出手段S3は、
被写体情報に基づいて、多分割調光手段S5の各調光領
域の寄与率を算出する。調光制御手段S4は、調光寄与
率算出手段S3により算出された各調光領域の寄与率に
基づいて、多分割調光手段S5の寄与率を設定し、フラ
ッシュ発光制御を行う。
【0014】上記構成によれば、撮像手段から出力され
た画像処理情報に基づいて、主被写体位置や主被写体と
背景の相対位置関係といった被写体の状態を精度よく検
出する際に、測距情報、多分割測光情報を加味すること
により、被写体状態の検出精度をさらに向上させ、各調
光領域の寄与率をより正確に算出することができる。こ
れによりフラッシュ制御性能の向上、あるいは、予備発
光制御の省略等による調光制御時間の短縮を図ることが
可能となる。
た画像処理情報に基づいて、主被写体位置や主被写体と
背景の相対位置関係といった被写体の状態を精度よく検
出する際に、測距情報、多分割測光情報を加味すること
により、被写体状態の検出精度をさらに向上させ、各調
光領域の寄与率をより正確に算出することができる。こ
れによりフラッシュ制御性能の向上、あるいは、予備発
光制御の省略等による調光制御時間の短縮を図ることが
可能となる。
【0015】したがって、短時間で高精度の調光制御が
可能である。
可能である。
【0016】好ましくは、上記被写体情報出力手段は、
主被写体が画面上に占める主被写体領域を検出し、その
検出した主被写体領域に関する主被写体領域情報を被写
体情報に含めて出力する。上記調光寄与率算出手段は、
主被写体領域と略一致する調光領域の調光寄与率を高
く、それ以外の調光領域の調光寄与率を低くする。
主被写体が画面上に占める主被写体領域を検出し、その
検出した主被写体領域に関する主被写体領域情報を被写
体情報に含めて出力する。上記調光寄与率算出手段は、
主被写体領域と略一致する調光領域の調光寄与率を高
く、それ以外の調光領域の調光寄与率を低くする。
【0017】上記構成によれば、主被写体領域に合致し
た調光領域の調光寄与率の算出精度のアップによるフラ
ッシュ制御性能の向上、あるいは、予備発光制御の省略
等による調光制御時間の短縮を図ることが可能となる。
た調光領域の調光寄与率の算出精度のアップによるフラ
ッシュ制御性能の向上、あるいは、予備発光制御の省略
等による調光制御時間の短縮を図ることが可能となる。
【0018】好ましくは、上記被写体情報出力手段は、
主被写体が画面上に占める主被写体領域を検出し、その
検出した主被写体領域に関する主被写体領域情報を被写
体情報に含めて出力する。上記調光寄与率算出手段は、
主被写体領域と略一致する調光領域であってかつ合焦す
る測距領域と略一致する調光領域の調光寄与率を高く、
それ以外の調光領域の調光寄与率を低くする。
主被写体が画面上に占める主被写体領域を検出し、その
検出した主被写体領域に関する主被写体領域情報を被写
体情報に含めて出力する。上記調光寄与率算出手段は、
主被写体領域と略一致する調光領域であってかつ合焦す
る測距領域と略一致する調光領域の調光寄与率を高く、
それ以外の調光領域の調光寄与率を低くする。
【0019】上記構成において、合焦する測距領域は、
たとえば、合焦している距離に関する情報を、測距手
段、被写体情報出力手段または調光手段に入力し、測距
情報と比較することによって求めることができる。上記
構成によれば、主被写体領域、及び、合焦領域に合致し
た調光領域の調光寄与率の算出精度のアップによるフラ
ッシュ制御性能の向上、あるいは、予備発光制御の省略
等による調光制御時間の短縮を図ることが可能となる。
たとえば、合焦している距離に関する情報を、測距手
段、被写体情報出力手段または調光手段に入力し、測距
情報と比較することによって求めることができる。上記
構成によれば、主被写体領域、及び、合焦領域に合致し
た調光領域の調光寄与率の算出精度のアップによるフラ
ッシュ制御性能の向上、あるいは、予備発光制御の省略
等による調光制御時間の短縮を図ることが可能となる。
【0020】好ましくは、上記被写体情報出力手段は、
主被写体が画面上に占める主被写体領域と、背景が画面
上を占める背景領域とを検出し、その検出した主被写体
領域および背景領域に関する主被写体領域情報および背
景領域情報を被写体情報に含めて出力する。
主被写体が画面上に占める主被写体領域と、背景が画面
上を占める背景領域とを検出し、その検出した主被写体
領域および背景領域に関する主被写体領域情報および背
景領域情報を被写体情報に含めて出力する。
【0021】上記構成によれば、主被写体領域、背景領
域それぞれに応じた調光領域の調光寄与率を精度よく算
出することによるフラッシュ制御性能の向上、あるい
は、予備発光制御の省略等による調光制御時間の短縮を
図ることが可能となる。
域それぞれに応じた調光領域の調光寄与率を精度よく算
出することによるフラッシュ制御性能の向上、あるい
は、予備発光制御の省略等による調光制御時間の短縮を
図ることが可能となる。
【0022】好ましくは、上記被写体情報出力手段は、
主被写体が画面上に占める主被写体領域と、背景が画面
上を占める背景領域とを検出し、その検出した主被写体
領域および背景領域に関する主被写体領域情報および背
景領域情報を被写体情報に含めて出力する。上記調光寄
与率算出手段は、上記主被写体情報および背景領域情報
と、測距情報と、合焦距離に関する合焦情報とに基づい
て、各調光領域の調光寄与率を算出する。
主被写体が画面上に占める主被写体領域と、背景が画面
上を占める背景領域とを検出し、その検出した主被写体
領域および背景領域に関する主被写体領域情報および背
景領域情報を被写体情報に含めて出力する。上記調光寄
与率算出手段は、上記主被写体情報および背景領域情報
と、測距情報と、合焦距離に関する合焦情報とに基づい
て、各調光領域の調光寄与率を算出する。
【0023】上記構成によれば、主被写体領域、背景領
域それぞれに応じた調光領域の調光寄与率の算出に際し
て、測距情報を加味することで、さらに精度よく調光寄
与率を算出することにより、フラッシュ制御性能の向
上、あるいは、予備発光制御の省略等による調光制御時
間の短縮を図ることが可能となる。
域それぞれに応じた調光領域の調光寄与率の算出に際し
て、測距情報を加味することで、さらに精度よく調光寄
与率を算出することにより、フラッシュ制御性能の向
上、あるいは、予備発光制御の省略等による調光制御時
間の短縮を図ることが可能となる。
【0024】上記被写体情報出力手段は、撮影領域を撮
像した画像の輪郭を検出し、その検出した輪郭に関する
輪郭検出情報を被写体情報に含めて出力する。上記被写
体情報出力手段は、上記輪郭検出情報に基づいて、被写
体の状態を検出する。
像した画像の輪郭を検出し、その検出した輪郭に関する
輪郭検出情報を被写体情報に含めて出力する。上記被写
体情報出力手段は、上記輪郭検出情報に基づいて、被写
体の状態を検出する。
【0025】上記構成によれば、撮像手段から出力され
た、少なくとも輪郭検出情報を含む画像処理情報に基づ
いて、被写体の主被写体及び背景の状態を精度よく検出
することにより、各調光領域に対する調光寄与率算出の
精度アップによるフラッシュ調光性能の向上、さらに、
調光制御時間の短縮を図ることができる。
た、少なくとも輪郭検出情報を含む画像処理情報に基づ
いて、被写体の主被写体及び背景の状態を精度よく検出
することにより、各調光領域に対する調光寄与率算出の
精度アップによるフラッシュ調光性能の向上、さらに、
調光制御時間の短縮を図ることができる。
【0026】好ましくは、上記撮像手段は、撮影領域を
撮像した画像の動く速度と方向を検出し、その検出した
速度および方向に関するベクトル検出情報を画像処理情
報に含めて出力する。上記被写体情報出力手段は、上記
ベクトル検出情報に基づいて、被写体の状態を検出す
る。
撮像した画像の動く速度と方向を検出し、その検出した
速度および方向に関するベクトル検出情報を画像処理情
報に含めて出力する。上記被写体情報出力手段は、上記
ベクトル検出情報に基づいて、被写体の状態を検出す
る。
【0027】上記構成によれば、少なくとも、撮像手段
から出力された画像処理情報をもとに作成した、ベクト
ル検出情報を含む情報に基づいて、被写体の主被写体及
び背景の状態を精度よく検出することにより、各調光領
域に対する調光寄与率算出の精度アップによるフラッシ
ュ調光性能の向上、さらに、調光制御時間の短縮を図る
ことができる。
から出力された画像処理情報をもとに作成した、ベクト
ル検出情報を含む情報に基づいて、被写体の主被写体及
び背景の状態を精度よく検出することにより、各調光領
域に対する調光寄与率算出の精度アップによるフラッシ
ュ調光性能の向上、さらに、調光制御時間の短縮を図る
ことができる。
【0028】好ましくは、上記撮像手段は、撮影領域を
撮像した画像の色を検出し、その検出した色に関する色
情報を被写体情報に含めて出力する。上記被写体領域出
力手段は、上記色情報に基づいて、被写体の状態を検出
する。
撮像した画像の色を検出し、その検出した色に関する色
情報を被写体情報に含めて出力する。上記被写体領域出
力手段は、上記色情報に基づいて、被写体の状態を検出
する。
【0029】上記構成によれば、撮像手段から出力され
た、少なくとも色情報を含む画像処理情報に基づいて、
被写体の主被写体及び背景の状態を精度よく検出するこ
とにより、各調光領域に対する調光寄与率算出の精度ア
ップによるフラッシュ調光性能、さらに、調光制御時間
の短縮を図ることができる。
た、少なくとも色情報を含む画像処理情報に基づいて、
被写体の主被写体及び背景の状態を精度よく検出するこ
とにより、各調光領域に対する調光寄与率算出の精度ア
ップによるフラッシュ調光性能、さらに、調光制御時間
の短縮を図ることができる。
【0030】
【発明の実施の形態】以下、図2〜図27を参照しなが
ら、本発明の各実施形態に係るカメラについて説明す
る。
ら、本発明の各実施形態に係るカメラについて説明す
る。
【0031】まず、本発明の一実施形態に係るカメラの
主要な内部構成について、図2の構成図を参照しながら
説明する。
主要な内部構成について、図2の構成図を参照しながら
説明する。
【0032】カメラ本体10は、制御マイコン30に接
続された、補助光発光部32、調光モジュール34、測
光モジュール36、測距モジュール38、C−MOS画
像演算処理センサー40、AFエンコーダ42、および
AFアクチュエータ44を備える。
続された、補助光発光部32、調光モジュール34、測
光モジュール36、測距モジュール38、C−MOS画
像演算処理センサー40、AFエンコーダ42、および
AFアクチュエータ44を備える。
【0033】制御マイコン30は、CPUやメモリを含
み、カメラの動作の制御を統括する。補助光発光部32
は、補助光を発光する。調光モジュール34は、補助光
発光部32の発光を制御する。測光モジュール36すな
わち測光センサー36は、被写体の輝度を測定する。測
距モジュール38すなわち測距センサー38は、被写体
までの距離を測定する。
み、カメラの動作の制御を統括する。補助光発光部32
は、補助光を発光する。調光モジュール34は、補助光
発光部32の発光を制御する。測光モジュール36すな
わち測光センサー36は、被写体の輝度を測定する。測
距モジュール38すなわち測距センサー38は、被写体
までの距離を測定する。
【0034】C−MOS画像演算処理センサー40は、
ファインダー光学系のファインダー像の結像位置(ペン
タプリズム下の焦点板)を撮像するように配置され、カ
メラの撮影領域の画像を取り込み、その画像を高速に処
理して、画像の形状(輪郭)や画像の動き(方向と移動
量)等の画像処理情報を制御マイコン30に出力する。
C−MOS画像演算処理センサー40は、CCDに比べ
て高速に読み出しができるMOS型の受光セルと、読み
出したデータを高速に処理して特徴抽出を行う画像演算
処理部とが1つの素子として形成されたものである。C
−MOS画像演算処理センサー40は、人の網膜が持つ
情報圧縮機能と並列処理機能を有しており、このC−M
OS画像演算処理センサー40を使用することにより、
画像情報入力装置の高機能化、小型化、高速化、低消費
電力化を実現することができる。制御マイコン30は、
特徴抽出後の少ない情報量のデータを処理すればよいの
で、高速に制御を行うことが可能である。
ファインダー光学系のファインダー像の結像位置(ペン
タプリズム下の焦点板)を撮像するように配置され、カ
メラの撮影領域の画像を取り込み、その画像を高速に処
理して、画像の形状(輪郭)や画像の動き(方向と移動
量)等の画像処理情報を制御マイコン30に出力する。
C−MOS画像演算処理センサー40は、CCDに比べ
て高速に読み出しができるMOS型の受光セルと、読み
出したデータを高速に処理して特徴抽出を行う画像演算
処理部とが1つの素子として形成されたものである。C
−MOS画像演算処理センサー40は、人の網膜が持つ
情報圧縮機能と並列処理機能を有しており、このC−M
OS画像演算処理センサー40を使用することにより、
画像情報入力装置の高機能化、小型化、高速化、低消費
電力化を実現することができる。制御マイコン30は、
特徴抽出後の少ない情報量のデータを処理すればよいの
で、高速に制御を行うことが可能である。
【0035】AFエンコーダ42は、AFアクチュエー
タ44の動作量を検出する。AFアクチュエータ44
は、交換レンズ50のレンズ駆動系を介して、交換レン
ズ50の光学系54のフォーカスレンズを駆動する。
タ44の動作量を検出する。AFアクチュエータ44
は、交換レンズ50のレンズ駆動系を介して、交換レン
ズ50の光学系54のフォーカスレンズを駆動する。
【0036】交換レンズ50は、光学系54の他に、レ
ンズマイコン52と、モーター53とを備える。レンズ
マイコン52は、カメラ本体10の制御マイコン30と
接続され、交信するようになっている。モーター53
は、光学系54のフォーカスレンズを駆動する。
ンズマイコン52と、モーター53とを備える。レンズ
マイコン52は、カメラ本体10の制御マイコン30と
接続され、交信するようになっている。モーター53
は、光学系54のフォーカスレンズを駆動する。
【0037】さらに詳しくは、このカメラは、図4のブ
ロック図に示すように構成さている。
ロック図に示すように構成さている。
【0038】すなわち、カメラ本体10は、制御マイコ
ン30に、DC/DCコンバータ24、測光センサー3
6、測距センサー38、C−MOS画像演算処理センサ
ー40、モータードライバ41,43、絞りマグネット
46、シャッターマグネット48、ボディ表示16、調
整端子14、および各種スイッチS1,S2,SMOD
E,SUP,SDOWNが接続されている。
ン30に、DC/DCコンバータ24、測光センサー3
6、測距センサー38、C−MOS画像演算処理センサ
ー40、モータードライバ41,43、絞りマグネット
46、シャッターマグネット48、ボディ表示16、調
整端子14、および各種スイッチS1,S2,SMOD
E,SUP,SDOWNが接続されている。
【0039】DC/DCコンバータ24は、カメラ本体
10に装填された電池22からの電圧を一定電圧にし
て、制御マイコン30に常時供給する。また、いずれか
のスイッチS1,S2,SMODE,SUP,SDOW
Nが操作されると、制御マイコン30からの制御によっ
て、DC/DCコンバータ24は、各種センサー36,
38,40、モータードライバ41,43、絞りマグネ
ッ46、シャッターマグネット48、ボディ表示16、
および、交換レンズ50のレンズマイコン52に一定電
圧を供給する。
10に装填された電池22からの電圧を一定電圧にし
て、制御マイコン30に常時供給する。また、いずれか
のスイッチS1,S2,SMODE,SUP,SDOW
Nが操作されると、制御マイコン30からの制御によっ
て、DC/DCコンバータ24は、各種センサー36,
38,40、モータードライバ41,43、絞りマグネ
ッ46、シャッターマグネット48、ボディ表示16、
および、交換レンズ50のレンズマイコン52に一定電
圧を供給する。
【0040】モータードライバ41,43は、交換レン
ズ50のフォーカスレンズを移動するためのAFモータ
ー44およびフィルムを給送するためのフィルム給送モ
ーター45をそれぞれ駆動する。絞りマグネット46
は、露光動作を行う絞りを制御する。シャッターマグネ
ット48は、シャッターを制御する。
ズ50のフォーカスレンズを移動するためのAFモータ
ー44およびフィルムを給送するためのフィルム給送モ
ーター45をそれぞれ駆動する。絞りマグネット46
は、露光動作を行う絞りを制御する。シャッターマグネ
ット48は、シャッターを制御する。
【0041】ボディ表示16は、カメラの状態や撮影情
報などを表示する。調整端子14は、センサー36,4
0の調整時に用いる。
報などを表示する。調整端子14は、センサー36,4
0の調整時に用いる。
【0042】S1スイッチは、撮影の準備のために測
光、測距、演算処理、交換レンズ50のAF駆動制御を
行うためのスイッチである。S1スイッチは、不図示の
シャッター釦を途中まで押すと、オンとなる。S2スイ
ッチは、露光動作を行うためのスイッチである。S2ス
イッチは、不図示のシャッター釦を完全に押すと、オン
となる。SUPスイッチおよびSDOWNスイッチは、
シャッター速度および絞りの設定値を変更するためのス
イッチである。SMODEスイッチは、撮影条件の設定
を変更するスイッチである。
光、測距、演算処理、交換レンズ50のAF駆動制御を
行うためのスイッチである。S1スイッチは、不図示の
シャッター釦を途中まで押すと、オンとなる。S2スイ
ッチは、露光動作を行うためのスイッチである。S2ス
イッチは、不図示のシャッター釦を完全に押すと、オン
となる。SUPスイッチおよびSDOWNスイッチは、
シャッター速度および絞りの設定値を変更するためのス
イッチである。SMODEスイッチは、撮影条件の設定
を変更するスイッチである。
【0043】本発明のカメラは、図2の構成に限定され
るものではなく、その他種々の態様で構成することがで
きる。たとえば、図3に示すように、交換レンズ50a
の駆動制御機構、すなわち、光学系54のフォーカスレ
ンズを駆動するAFアクチュエータ56、AFアクチュ
エータ56の駆動量を検出するAFエンコーダ57、フ
ォーカスレンズの位置を検出するPFエンコーダ58、
フォーカスレンズの移動限界を検出する終端スイッチ5
9が交換レンズ50a内に備えられ、交換レンズ50a
のレンズマイコン52とカメラ本体10の制御マイコン
30との交信によって、光学系54のフォーカスレンズ
が駆動されるようにしてもよい。
るものではなく、その他種々の態様で構成することがで
きる。たとえば、図3に示すように、交換レンズ50a
の駆動制御機構、すなわち、光学系54のフォーカスレ
ンズを駆動するAFアクチュエータ56、AFアクチュ
エータ56の駆動量を検出するAFエンコーダ57、フ
ォーカスレンズの位置を検出するPFエンコーダ58、
フォーカスレンズの移動限界を検出する終端スイッチ5
9が交換レンズ50a内に備えられ、交換レンズ50a
のレンズマイコン52とカメラ本体10の制御マイコン
30との交信によって、光学系54のフォーカスレンズ
が駆動されるようにしてもよい。
【0044】また、図2および図3の構成に代え、図5
および図6に示すように、測光モジュール36すなわち
測光センサー36を省略し、C−MOS画像演算処理セ
ンサー40aが測光センサーとしての機能を兼ねるよう
にしてもよい。
および図6に示すように、測光モジュール36すなわち
測光センサー36を省略し、C−MOS画像演算処理セ
ンサー40aが測光センサーとしての機能を兼ねるよう
にしてもよい。
【0045】上記各実施形態のカメラにおいて、C−M
OS画像演算処理センサー40の各画素と、測光センサ
ー36の多分割測光素子と、測距センサー38の多点測
距素子との画面上での配置関係は、図7に示すようにな
っている。すなわち、図7(A)および(C)は、多点
測距素子と多分割調光素子とを組み合わせた例である。
図7(B)は、図5および図6のカメラのように、測光
センサー36の多分割測光素子を省略し、C−MOS画
像演算処理センサー40の出力を測光にも用い、C−M
OS画像演算処理センサー40と多点測距素子とを組み
合わせた場合の例である。
OS画像演算処理センサー40の各画素と、測光センサ
ー36の多分割測光素子と、測距センサー38の多点測
距素子との画面上での配置関係は、図7に示すようにな
っている。すなわち、図7(A)および(C)は、多点
測距素子と多分割調光素子とを組み合わせた例である。
図7(B)は、図5および図6のカメラのように、測光
センサー36の多分割測光素子を省略し、C−MOS画
像演算処理センサー40の出力を測光にも用い、C−M
OS画像演算処理センサー40と多点測距素子とを組み
合わせた場合の例である。
【0046】上記各実施形態のカメラにおいて、C−M
OS画像演算処理センサー40は、撮像した画像を処理
して、図8および図9に示すように、種々の画像処理情
報を出力することができる。
OS画像演算処理センサー40は、撮像した画像を処理
して、図8および図9に示すように、種々の画像処理情
報を出力することができる。
【0047】すなわち、図8に示すように、C−MOS
画像演算処理センサー40は、(A)画像情報、(B)
反転情報、(C)エッジ検出情報(輪郭検出情報)、
(D)色情報を出力することができる。画像情報は、
(A)に示すように、各画素の光電出力をそのまま出力
したものである。反転情報は、(B)に示すように、各
画素の光電出力を反転して出力したものであり、暗黒時
には基準電圧Vrefを出力し、明るい程、出力は0vに
近付く。エッジ検出情報(輪郭検出情報)は、(C)に
示すように、隣合う画素の差分の出力であり、差分が所
定値以上の画素のみをエッジとして検出できる。色情報
は、(D)に示すように、撮像画像を、R、G、Bフィ
ルタを介して分解したR、G、Bの各成分画像の画像情
報である。C−MOS画像演算処理センサー40は、そ
れぞれの成分画像について、さらに、(A)画像情報、
(B)反転情報、(C)エッジ検出情報を出力すること
ができる。
画像演算処理センサー40は、(A)画像情報、(B)
反転情報、(C)エッジ検出情報(輪郭検出情報)、
(D)色情報を出力することができる。画像情報は、
(A)に示すように、各画素の光電出力をそのまま出力
したものである。反転情報は、(B)に示すように、各
画素の光電出力を反転して出力したものであり、暗黒時
には基準電圧Vrefを出力し、明るい程、出力は0vに
近付く。エッジ検出情報(輪郭検出情報)は、(C)に
示すように、隣合う画素の差分の出力であり、差分が所
定値以上の画素のみをエッジとして検出できる。色情報
は、(D)に示すように、撮像画像を、R、G、Bフィ
ルタを介して分解したR、G、Bの各成分画像の画像情
報である。C−MOS画像演算処理センサー40は、そ
れぞれの成分画像について、さらに、(A)画像情報、
(B)反転情報、(C)エッジ検出情報を出力すること
ができる。
【0048】また、図9に示すように、C−MOS画像
演算処理センサー40は、これらの画像情報、反転情
報、エッジ検出情報(輪郭情報)、および色情報に基づ
いて、さらに、重心検出情報、ベクトル検出情報、被写
体領域情報などの種々の画像処理情報を算出し、出力す
ることができる。
演算処理センサー40は、これらの画像情報、反転情
報、エッジ検出情報(輪郭情報)、および色情報に基づ
いて、さらに、重心検出情報、ベクトル検出情報、被写
体領域情報などの種々の画像処理情報を算出し、出力す
ることができる。
【0049】重心検出情報は、(A−1)に示すよう
に、エッジとして検出された全ての画素(合計個数をk
個とする)の座標(X1,Y1)、(X2,Y2)、・
・・、(Xk,Yk)に基づいて、(A−2)に示すよ
うに、重心Gの座標(Gx,Gy)を、(Gx,Gy)
=((X1+X2+・・・+Xk)/k,(Y1+Y2
+・・・+Yk)/k)により算出したものである。複
数のエッジ検出情報がある場合には、一連のエッジ毎に
重心を算出してもよい。
に、エッジとして検出された全ての画素(合計個数をk
個とする)の座標(X1,Y1)、(X2,Y2)、・
・・、(Xk,Yk)に基づいて、(A−2)に示すよ
うに、重心Gの座標(Gx,Gy)を、(Gx,Gy)
=((X1+X2+・・・+Xk)/k,(Y1+Y2
+・・・+Yk)/k)により算出したものである。複
数のエッジ検出情報がある場合には、一連のエッジ毎に
重心を算出してもよい。
【0050】ベクトル検出情報は、(B−1)に示すよ
うに、(n−1)フレームでの重心Gn-1(GXn-1,G
Yn-1)と、nフレームでの重心Gn(GXn,GYn)と
から、(B−2)に示すように、重心の移動ベクトルV
について算出したものである。すなわち、ベクトルの始
点座標:Gn-1(GXn-1,GYn-1)、方向成分:D
(GXn−GXn-1,GYn―GYn-1)、速度成分:VG
={(GXn−GXn-1)2+(GYn―GYn-1)2 }1/2 /(フ
レーム時間)、を算出する。エッジが複数ある場合は、
エッジを領域毎に分割し、分割されたエッジ毎に重心を
求めて、各々ベクトル情報を求め、同じベクトルの方向
と速度を持つエッジを同一被写体のエッジと判定しても
よい。
うに、(n−1)フレームでの重心Gn-1(GXn-1,G
Yn-1)と、nフレームでの重心Gn(GXn,GYn)と
から、(B−2)に示すように、重心の移動ベクトルV
について算出したものである。すなわち、ベクトルの始
点座標:Gn-1(GXn-1,GYn-1)、方向成分:D
(GXn−GXn-1,GYn―GYn-1)、速度成分:VG
={(GXn−GXn-1)2+(GYn―GYn-1)2 }1/2 /(フ
レーム時間)、を算出する。エッジが複数ある場合は、
エッジを領域毎に分割し、分割されたエッジ毎に重心を
求めて、各々ベクトル情報を求め、同じベクトルの方向
と速度を持つエッジを同一被写体のエッジと判定しても
よい。
【0051】被写体領域情報は、(C−1)に示すよう
に、エッジ検出情報および重心検出情報に基づいて、
(C−2)に示すように、上下左右のエッジ座標と、X
Y方向の大きさとを算出したものである。すなわち、Y
座標が重心G(Gx,Gy)と同じGyであり重心Gの
左側にある最近接のエッジの座標を左エッジ座標X
L(HXL,Gy)、Y座標が重心Gと同じGyであり重
心Gの右側にある最近接のエッジの座標を右エッジ座標
XR(HXR,Gy)、X座標が重心Gと同じGxであり
重心Gの上側にある最近接のエッジの座標を上エッジ座
標YU(Gx,VYU)、X座標が重心Gと同じGxであ
り重心Gの下側にある最近接のエッジの座標を下エッジ
座標YD(Gx,VYD)をそれぞれ算出する。また、X
方向の大きさLxは、Lx=|HXR−HXL|、Y方向
の大きさLyは、Ly=|VYD−VYU|により算出す
る。複数のエッジ検出情報、重心検出情報がある場合
は、重心毎に被写体領域情報を算出してもよい。
に、エッジ検出情報および重心検出情報に基づいて、
(C−2)に示すように、上下左右のエッジ座標と、X
Y方向の大きさとを算出したものである。すなわち、Y
座標が重心G(Gx,Gy)と同じGyであり重心Gの
左側にある最近接のエッジの座標を左エッジ座標X
L(HXL,Gy)、Y座標が重心Gと同じGyであり重
心Gの右側にある最近接のエッジの座標を右エッジ座標
XR(HXR,Gy)、X座標が重心Gと同じGxであり
重心Gの上側にある最近接のエッジの座標を上エッジ座
標YU(Gx,VYU)、X座標が重心Gと同じGxであ
り重心Gの下側にある最近接のエッジの座標を下エッジ
座標YD(Gx,VYD)をそれぞれ算出する。また、X
方向の大きさLxは、Lx=|HXR−HXL|、Y方向
の大きさLyは、Ly=|VYD−VYU|により算出す
る。複数のエッジ検出情報、重心検出情報がある場合
は、重心毎に被写体領域情報を算出してもよい。
【0052】次に、被写体領域情報等を用いて測光領域
を選択するアルゴリズムについて説明する。
を選択するアルゴリズムについて説明する。
【0053】まず、主被写体領域Asについて、測光領
域を選択するアルゴリズムについて説明する。
域を選択するアルゴリズムについて説明する。
【0054】たとえば図5または図6のカメラのよう
に、C−MOS画像演算処理センサー40からの画像デ
ータ(測光出力)をそのまま露出演算の測光値として用
いる場合には、図10(A)に示す被写体領域の左エッ
ジ座標XL、右エッジ座標XR、上エッジ座標YU、下エ
ッジ座標YDから、図10(B)に示すようにこれらの
座標で囲まれる矩形領域を主被写体領域Asとして選択
する。そして、C−MOS画像演算処理センサー40の
画素のうち主被写体領域Asに含まれる画素の測光出力
を、そのまま露出演算の測光値として用いる。このと
き、図10(C)に示すように、被写体領域Asの重心
G(Gx,Gy)に近い画素の重みを高くしてもよい。
に、C−MOS画像演算処理センサー40からの画像デ
ータ(測光出力)をそのまま露出演算の測光値として用
いる場合には、図10(A)に示す被写体領域の左エッ
ジ座標XL、右エッジ座標XR、上エッジ座標YU、下エ
ッジ座標YDから、図10(B)に示すようにこれらの
座標で囲まれる矩形領域を主被写体領域Asとして選択
する。そして、C−MOS画像演算処理センサー40の
画素のうち主被写体領域Asに含まれる画素の測光出力
を、そのまま露出演算の測光値として用いる。このと
き、図10(C)に示すように、被写体領域Asの重心
G(Gx,Gy)に近い画素の重みを高くしてもよい。
【0055】一方、たとえば図2または図3のカメラの
ように、、C−MOS画像演算処理センサー40とは別
に設けた測光センサー36の測光素子による測光値を露
出演算の測光値として用いる場合には、図11に示すよ
うに、被写体領域情報から上記と同様にして主被写体領
域Asを求め、主被写体領域As内にその重心が含まれ
る測光素子S2,S3,S7を用いて測光を行い、露出
演算の測光値として用いる。このとき、選択した測光素
子S2,S3,S7の測光出力を単純平均した主被写体
輝度を決めても、あるいは、たとえば図10(C)と同
様に重み付けして、主被写体輝度を決めてもよい。
ように、、C−MOS画像演算処理センサー40とは別
に設けた測光センサー36の測光素子による測光値を露
出演算の測光値として用いる場合には、図11に示すよ
うに、被写体領域情報から上記と同様にして主被写体領
域Asを求め、主被写体領域As内にその重心が含まれ
る測光素子S2,S3,S7を用いて測光を行い、露出
演算の測光値として用いる。このとき、選択した測光素
子S2,S3,S7の測光出力を単純平均した主被写体
輝度を決めても、あるいは、たとえば図10(C)と同
様に重み付けして、主被写体輝度を決めてもよい。
【0056】次に、背景領域Aaについて、測光領域を
選択するアルゴリズムについて説明する。
選択するアルゴリズムについて説明する。
【0057】C−MOS画像演算処理センサー40の測
光出力をそのまま露出演算の測光値として用いる場合に
は、図12(A)に示す被写体領域の各エッジ座標
XL、XR、YU、YDから、図12(B)または(C)に
示すように、これらのエッジ座標XL、XR、YU、YDを
含む矩形領域の外側を、背景測光領域Aaとして選択す
る。このとき、(B)のように、背景領域Aaに含まれ
る全ての画素を同じ重みで扱っても、あるいは、(C)
のように、画素の位置や画素出力に応じて、重みを変え
てもよい。
光出力をそのまま露出演算の測光値として用いる場合に
は、図12(A)に示す被写体領域の各エッジ座標
XL、XR、YU、YDから、図12(B)または(C)に
示すように、これらのエッジ座標XL、XR、YU、YDを
含む矩形領域の外側を、背景測光領域Aaとして選択す
る。このとき、(B)のように、背景領域Aaに含まれ
る全ての画素を同じ重みで扱っても、あるいは、(C)
のように、画素の位置や画素出力に応じて、重みを変え
てもよい。
【0058】一方、C−MOS画像演算処理センサー4
0とは別に設けた測光センサー36の測光素子の測光値
を露出演算に用いる場合には、図13(D)に示すよう
に、被写体領域の各エッジ座標XL、XR、YU、YDを含
む矩形領域で囲まれる領域の外側の領域Aaに重心を持
つ測光素子S0,S1,S4〜S6,S8〜S13を背
景領域Aaの測光素子として選択する。測光領域として
選択した測光素子の測光出力を同じ重みで処理して背景
輝度を決めても、あるいは、図12(C)と同様に、各
測光素子の重みを変えてもよい。
0とは別に設けた測光センサー36の測光素子の測光値
を露出演算に用いる場合には、図13(D)に示すよう
に、被写体領域の各エッジ座標XL、XR、YU、YDを含
む矩形領域で囲まれる領域の外側の領域Aaに重心を持
つ測光素子S0,S1,S4〜S6,S8〜S13を背
景領域Aaの測光素子として選択する。測光領域として
選択した測光素子の測光出力を同じ重みで処理して背景
輝度を決めても、あるいは、図12(C)と同様に、各
測光素子の重みを変えてもよい。
【0059】次に、測距情報をも用いて測光領域を選択
するアルゴリズムについて説明する。
するアルゴリズムについて説明する。
【0060】C−MOS画像演算処理センサー40の測
光出力をそのまま露出演算の測光値として用いる場合、
図14(A)〜(C)に示すように、被写体領域情報と
測距領域すなわち合焦アイランドI1〜I3との相互の
位置関係に基づいて、主被写体領域Asを決定する。す
なわち、測距値が合焦距離に等しい合焦アイランド、も
しくは、測距値が最も小さい最近接アイランドに最も近
い重心を持つ被写体領域を、主被写体領域Asとして選
択する。たとえば(D)に示すように、合焦アイランド
I2を最近接アイランドとした場合、重心G2を持つエ
ッジ領域を主被写体領域Asとする。また、これに輝度
情報を加味して、主被写体領域Asを選択決定してもよ
い。たとえば、重心G2周辺の輝度があまりにも低輝度
または高輝度の場合は、重心G2を持つエッジ領域を主
被写体領域として選択しない。また、(E)に示すよう
に、最近接アイランドI2以外のアイランドI1,I3
を含み、かつ、主被写体領域Asの外側の領域を背景測
光領域Aaとして選択する。あとは、前述の手順と同様
に、主被写体測光領域Asと背景領域Aaにそれぞれ含
まれる画素の測光出力に基づいて露出演算を行う。
光出力をそのまま露出演算の測光値として用いる場合、
図14(A)〜(C)に示すように、被写体領域情報と
測距領域すなわち合焦アイランドI1〜I3との相互の
位置関係に基づいて、主被写体領域Asを決定する。す
なわち、測距値が合焦距離に等しい合焦アイランド、も
しくは、測距値が最も小さい最近接アイランドに最も近
い重心を持つ被写体領域を、主被写体領域Asとして選
択する。たとえば(D)に示すように、合焦アイランド
I2を最近接アイランドとした場合、重心G2を持つエ
ッジ領域を主被写体領域Asとする。また、これに輝度
情報を加味して、主被写体領域Asを選択決定してもよ
い。たとえば、重心G2周辺の輝度があまりにも低輝度
または高輝度の場合は、重心G2を持つエッジ領域を主
被写体領域として選択しない。また、(E)に示すよう
に、最近接アイランドI2以外のアイランドI1,I3
を含み、かつ、主被写体領域Asの外側の領域を背景測
光領域Aaとして選択する。あとは、前述の手順と同様
に、主被写体測光領域Asと背景領域Aaにそれぞれ含
まれる画素の測光出力に基づいて露出演算を行う。
【0061】C−MOS画像演算処理センサー40とは
別に設けた測光センサー36の測光素子を用いて測光す
る場合も、同様である。
別に設けた測光センサー36の測光素子を用いて測光す
る場合も、同様である。
【0062】次に、複数の被写体領域が存在する場合、
それらに優先度を設定して主被写体輝度を算出するアル
ゴリズムについて説明する。
それらに優先度を設定して主被写体輝度を算出するアル
ゴリズムについて説明する。
【0063】C−MOS画像演算処理センサー40の測
光出力をそのまま露出演算の測光値として用いる場合、
たとえば図15に示すように、(A)の被写体領域情報
と(B)の合焦アイランドI1〜I3とが(C)に示す
ような関係にあり、主被写体となる複数の候補領域があ
るときには、(D)に示すように、前述の場合と同様の
方法で、各候補領域について測光領域As1,As2,
As3を設定する。そして、各測光領域As1,As
2,As3の優先度P1,P2,P3を所定設定する。
光出力をそのまま露出演算の測光値として用いる場合、
たとえば図15に示すように、(A)の被写体領域情報
と(B)の合焦アイランドI1〜I3とが(C)に示す
ような関係にあり、主被写体となる複数の候補領域があ
るときには、(D)に示すように、前述の場合と同様の
方法で、各候補領域について測光領域As1,As2,
As3を設定する。そして、各測光領域As1,As
2,As3の優先度P1,P2,P3を所定設定する。
【0064】たとえば、合焦アイランド、もしくは、最
近接アイランドに最も近い重心を持つ領域を優先度1位
の主被写体領域として選択し、最も高い優先度を設定す
る。たとえば、合焦アイランドI2を最近接アイランド
とした場合、重心G2を持つエッジ領域を主被写体とみ
なし、たとえば、測光領域As2の優先度P2を5に設
定する。その他の重心G1,G3を持つ測光領域As
1,As3については、各アイランドI1,I3の測距
値に基き、被写体距離が小さい順に優先度を設定してい
く。たとえば、As2、As3、As1の順に近いとす
ると、測光領域As3の優先度P3は3、測光り領域A
s1の優先度P1は1に設定にする。ここで、優先度P
1〜P3は、数字が大きいほど順位が高い(優先度が高
い)ものとする。優先度は、別の決定方法で決めてもよ
い。たとえば、最近接領域の領域As2に近い順に各領
域の優先度を高くしてもよい。
近接アイランドに最も近い重心を持つ領域を優先度1位
の主被写体領域として選択し、最も高い優先度を設定す
る。たとえば、合焦アイランドI2を最近接アイランド
とした場合、重心G2を持つエッジ領域を主被写体とみ
なし、たとえば、測光領域As2の優先度P2を5に設
定する。その他の重心G1,G3を持つ測光領域As
1,As3については、各アイランドI1,I3の測距
値に基き、被写体距離が小さい順に優先度を設定してい
く。たとえば、As2、As3、As1の順に近いとす
ると、測光領域As3の優先度P3は3、測光り領域A
s1の優先度P1は1に設定にする。ここで、優先度P
1〜P3は、数字が大きいほど順位が高い(優先度が高
い)ものとする。優先度は、別の決定方法で決めてもよ
い。たとえば、最近接領域の領域As2に近い順に各領
域の優先度を高くしてもよい。
【0065】主被写体輝度BVSは、測光領域As1〜
As3に含まれる画素の測光出力と、測光領域の優先度
P1〜P3とから、次式で算出する。
As3に含まれる画素の測光出力と、測光領域の優先度
P1〜P3とから、次式で算出する。
【数1】
【0066】ここで、n1は、領域As1に含まれる画
素の個数、n2は、領域As2に含まれる画素の個数、
n3は、領域As3に含まれる画素の個数、BVAs1k
は、領域As1のk番目の画素の測光出力、BVAs2i
は、領域As1のi番目の画素の測光出力、BVAs3j
は、領域As1のj番目の要素の測光出力である。
素の個数、n2は、領域As2に含まれる画素の個数、
n3は、領域As3に含まれる画素の個数、BVAs1k
は、領域As1のk番目の画素の測光出力、BVAs2i
は、領域As1のi番目の画素の測光出力、BVAs3j
は、領域As1のj番目の要素の測光出力である。
【0067】なお、全ての被写体領域の優先度を等しく
すれば(たとえば、P1=P2=P3=1とすれば)、
各領域の重みを同じにして計算することになる。これに
よって、演算は単純化される。
すれば(たとえば、P1=P2=P3=1とすれば)、
各領域の重みを同じにして計算することになる。これに
よって、演算は単純化される。
【0068】次に、最も高い優先度以外の優先度を、種
々の要因を加味して決定する場合にについて、説明す
る。
々の要因を加味して決定する場合にについて、説明す
る。
【0069】まず、合焦する測距領域を含む被写体領域
についての測光領域を、最優先領域AsMとして決定す
る。このとき、最優先領域AsMの優先度PMを5に設定
する。さらに、最優先領域AsMの合焦距離をDVM、最
優先領域AsMの重心座標をGM(GxM,GyM)、最優
先領域AsMの領域内平均輝度をBVsM_aveとす
る。
についての測光領域を、最優先領域AsMとして決定す
る。このとき、最優先領域AsMの優先度PMを5に設定
する。さらに、最優先領域AsMの合焦距離をDVM、最
優先領域AsMの重心座標をGM(GxM,GyM)、最優
先領域AsMの領域内平均輝度をBVsM_aveとす
る。
【0070】次に、最優先領域AsM以外の測光領域A
skについて、優先領域AsMとの比較演算等により各種
の優先比率ED,EDL,EG、EDB,EB,ESを算出し、
次式を用いて、最優先領域AsM以外の領域Askの優先
度Pkを求める。 Pk=PM×(ED×EDL×EG×EDB×EB×ES)
skについて、優先領域AsMとの比較演算等により各種
の優先比率ED,EDL,EG、EDB,EB,ESを算出し、
次式を用いて、最優先領域AsM以外の領域Askの優先
度Pkを求める。 Pk=PM×(ED×EDL×EG×EDB×EB×ES)
【0071】優先比率EDは、最優先領域AsMから光軸
方向に近いか遠いかを表す距離優先比率であり、領域A
skの測距距離DVskと最優先領域AsMの測距距離D
VMとの比較により求める。すなわち、領域Askと最優
先領域AsMとの測距距離の差の絶対値:ΔDVMK=|
DVsk−DVM|をまず求め、次の表により、距離優先
比率EDを求める。
方向に近いか遠いかを表す距離優先比率であり、領域A
skの測距距離DVskと最優先領域AsMの測距距離D
VMとの比較により求める。すなわち、領域Askと最優
先領域AsMとの測距距離の差の絶対値:ΔDVMK=|
DVsk−DVM|をまず求め、次の表により、距離優先
比率EDを求める。
【0072】
【表1】
【0073】優先比率EDLは、最優先領域AsMからX
Y方向に近いか遠いかを表す重心位置優先比率である。
領域Askの重心座標Gk(Gxk,Gyk)と最優先
領域AsMの重心座標GM(GxM,GyM)と間の距離:
ΔL={(Gxk−GxM)2+(Gyk−GyM)2 }1/2
をまず求め、次の表により、重心位置優先比率EDLを求
める。
Y方向に近いか遠いかを表す重心位置優先比率である。
領域Askの重心座標Gk(Gxk,Gyk)と最優先
領域AsMの重心座標GM(GxM,GyM)と間の距離:
ΔL={(Gxk−GxM)2+(Gyk−GyM)2 }1/2
をまず求め、次の表により、重心位置優先比率EDLを求
める。
【0074】
【表2】
【0075】優先比率EGは、領域AsKの重心位置があ
まりに画面上の端にある場合には優先度を下げるための
絶対重心位置比率である。領域Askの重心座標Gk
(Gxk,Gyk)と、画面上の左端のX座標Xmi
n、画面上の右端のX座標Xmax、画面上の上端のY
座標Ymax、画面上の下端のY座標Yminとの大小
関係により、次の表により、絶対重心位置優先比率EG
を求める。
まりに画面上の端にある場合には優先度を下げるための
絶対重心位置比率である。領域Askの重心座標Gk
(Gxk,Gyk)と、画面上の左端のX座標Xmi
n、画面上の右端のX座標Xmax、画面上の上端のY
座標Ymax、画面上の下端のY座標Yminとの大小
関係により、次の表により、絶対重心位置優先比率EG
を求める。
【0076】
【表3】
【0077】優先比率EDBは、最優先領域AsMとの輝
度差が大きいか小さいかを表す輝度優先比率である。領
域Askの領域内平均輝度BVsk_aveと最優先領域
AsMの領域内平均輝度BVsM_aveの差の絶対値:
ΔBVMK=|BVsk_ave−BVsM_ave|を算
出し、次の表により求める。
度差が大きいか小さいかを表す輝度優先比率である。領
域Askの領域内平均輝度BVsk_aveと最優先領域
AsMの領域内平均輝度BVsM_aveの差の絶対値:
ΔBVMK=|BVsk_ave−BVsM_ave|を算
出し、次の表により求める。
【0078】
【表4】
【0079】優先比率EBは、領域AsKの領域内平均輝
度BVsk_aveが極端に高輝度の場合に優先度を下
げるための絶対輝度優先比率であり、次の表により求め
る。
度BVsk_aveが極端に高輝度の場合に優先度を下
げるための絶対輝度優先比率であり、次の表により求め
る。
【0080】
【表5】
【0081】優先比率ESは、領域Askの大きさが極端
に小さい場合には優先度を下げる大きさ優先比率であ
る。領域Askの大きさ情報、すなわち領域内に含まれ
る画素数(C−MOS画像演算処理センサーの画素数)
Skから、次の表によりを求める。
に小さい場合には優先度を下げる大きさ優先比率であ
る。領域Askの大きさ情報、すなわち領域内に含まれ
る画素数(C−MOS画像演算処理センサーの画素数)
Skから、次の表によりを求める。
【0082】
【表6】
【0083】なお、PK=PMとしてもよい。そうすれ
ば、全ての被写体領域を同じ重みで処理することにな
り、演算の簡略化を図ることができる。
ば、全ての被写体領域を同じ重みで処理することにな
り、演算の簡略化を図ることができる。
【0084】次に、主背占有比率の算出について、説明
する。
する。
【0085】C−MOS画像演算処理センサー40の測
光出力をそのまま露出演算の測光値として用いる場合、
主背占有比率は、図16(A)に示した主被写体領域情
報、すなわち各エッジ座標XL、XR、YU、YDから、
(B)に示すようにエッジ座標XL、XR、YU、YDを含
む矩形の内側を主被写体領域Asとして選択し、(C)
に示すようにエッジ座標XL、XR、YU、YDを含む矩形
の外側を背景領域Aaとして選択する。そして、主被写
体領域Asの画素数Nsと、背景領域Aaの画素数Na
とを求め、主背占有比率Osaを、Osa=Ns/(Ns+
Na)×100(%)により算出する。図16の例で
は、Ns=9×12=108、Na=16×24―9×
12=276であるので、Osa=108/(108+2
76)×100=28.1(%)となる。
光出力をそのまま露出演算の測光値として用いる場合、
主背占有比率は、図16(A)に示した主被写体領域情
報、すなわち各エッジ座標XL、XR、YU、YDから、
(B)に示すようにエッジ座標XL、XR、YU、YDを含
む矩形の内側を主被写体領域Asとして選択し、(C)
に示すようにエッジ座標XL、XR、YU、YDを含む矩形
の外側を背景領域Aaとして選択する。そして、主被写
体領域Asの画素数Nsと、背景領域Aaの画素数Na
とを求め、主背占有比率Osaを、Osa=Ns/(Ns+
Na)×100(%)により算出する。図16の例で
は、Ns=9×12=108、Na=16×24―9×
12=276であるので、Osa=108/(108+2
76)×100=28.1(%)となる。
【0086】C−MOS画像演算処理センサー40とは
別に設けた測光センサー36に測光素子の測光値を露出
演算に用いる場合も、上記と同様である。すなわち、図
17に示すように、被写体領域のエッジ座標XL、XR、
YU、YDを含む矩形の内側を主被写体領域As、外側を
背景領域Aaとして選択する。そして、主被写体領域A
sに重心が含まれる測光素子の個数Nsと、背景領域A
aに重心が含まれる測光素子の個数Naとを求め、主背
占有比率Osaを、Osa=Ns/(Ns+Na)×100
(%)により算出する。図17の例では、Osa=3/
(3+10)×100=23(%)となる。
別に設けた測光センサー36に測光素子の測光値を露出
演算に用いる場合も、上記と同様である。すなわち、図
17に示すように、被写体領域のエッジ座標XL、XR、
YU、YDを含む矩形の内側を主被写体領域As、外側を
背景領域Aaとして選択する。そして、主被写体領域A
sに重心が含まれる測光素子の個数Nsと、背景領域A
aに重心が含まれる測光素子の個数Naとを求め、主背
占有比率Osaを、Osa=Ns/(Ns+Na)×100
(%)により算出する。図17の例では、Osa=3/
(3+10)×100=23(%)となる。
【0087】次に、カメラの動作について、図18〜図
27のフローチャートを参照しながら説明する。
27のフローチャートを参照しながら説明する。
【0088】まず、このカメラの基本的な動作につい
て、図18のフローチャートを参照しながら説明する。
て、図18のフローチャートを参照しながら説明する。
【0089】まず、ステップ#12において、シャッタ
ーボタンが途中通まで押し込まれ、S1スイッチがオン
になるのを待つ。S1スイッチがオンになると、ステッ
プ#14において測距を行い、ステップ#16において
測光を行い、それぞれのデータをメモリに記憶する。次
に、ステップ#18において、詳しくは後述するよう
に、AE演算を行い、露出条件(フラッシュ発光の有
無、絞りAV、シャッター速度TV)などを決定する。
そして、シャッターボタンが完全に押し込まれ、S2ス
イッチがオンになるまで、上記ステップ#12〜#18
を繰り返す。
ーボタンが途中通まで押し込まれ、S1スイッチがオン
になるのを待つ。S1スイッチがオンになると、ステッ
プ#14において測距を行い、ステップ#16において
測光を行い、それぞれのデータをメモリに記憶する。次
に、ステップ#18において、詳しくは後述するよう
に、AE演算を行い、露出条件(フラッシュ発光の有
無、絞りAV、シャッター速度TV)などを決定する。
そして、シャッターボタンが完全に押し込まれ、S2ス
イッチがオンになるまで、上記ステップ#12〜#18
を繰り返す。
【0090】S2スイッチがオンになると、ステップ#
22以降のレリーズルーチンを実行する。すなわち、ス
テップ#24において、ミラーアップ、シャッターチャ
ージ等のレリーズ準備動作を行い、ステップ#26にお
いて、ステップ#18で決定した絞りAVとなるように
絞りを駆動し、ステップ#28において、シャッターを
開き、露光を開始する。このとき、ステップ#30およ
び#32において、必要に応じてフラッシュを発光す
る。そして、ステップ#34において、シャッター速度
をカウントし、ステップ#18で決定したシャッター速
度TVになれば、ステップ#36において、シャッター
を閉じ、露光を終了する。そして、ステップ#38にお
いて、ミラーダウン、フィルムの1コマ給送等の次コマ
準備処理を行う。
22以降のレリーズルーチンを実行する。すなわち、ス
テップ#24において、ミラーアップ、シャッターチャ
ージ等のレリーズ準備動作を行い、ステップ#26にお
いて、ステップ#18で決定した絞りAVとなるように
絞りを駆動し、ステップ#28において、シャッターを
開き、露光を開始する。このとき、ステップ#30およ
び#32において、必要に応じてフラッシュを発光す
る。そして、ステップ#34において、シャッター速度
をカウントし、ステップ#18で決定したシャッター速
度TVになれば、ステップ#36において、シャッター
を閉じ、露光を終了する。そして、ステップ#38にお
いて、ミラーダウン、フィルムの1コマ給送等の次コマ
準備処理を行う。
【0091】次に、上記ステップ#18のAE演算につ
いて、図19の詳細フローチャートを参照しながら、さ
らに説明する。
いて、図19の詳細フローチャートを参照しながら、さ
らに説明する。
【0092】制御マイコン30は、ステップ#42にお
いて、上記ステップ#14で測距したデータをメモリか
ら読み出し、ステップ#44において、上記ステップ#
16で測光したデータをメモリから読み出す。次に、詳
しくは後述するが、ステップ#46において、画像演算
処理センサー40から画像処理情報の入力を受け、その
情報に基づいて、ステップ#48において被写体領域情
報を算出し、ステップ#50において主被写体輝度と背
景輝度を算出する。
いて、上記ステップ#14で測距したデータをメモリか
ら読み出し、ステップ#44において、上記ステップ#
16で測光したデータをメモリから読み出す。次に、詳
しくは後述するが、ステップ#46において、画像演算
処理センサー40から画像処理情報の入力を受け、その
情報に基づいて、ステップ#48において被写体領域情
報を算出し、ステップ#50において主被写体輝度と背
景輝度を算出する。
【0093】次に、ステップ#52において、詳しくは
後述するシーン判別1処理を実行し、ステップ#54に
おいて、フラッシュ発光の要否を決定する。そして、ス
テップ#56において、フラッシュ発光制御の要否を判
定する。
後述するシーン判別1処理を実行し、ステップ#54に
おいて、フラッシュ発光の要否を決定する。そして、ス
テップ#56において、フラッシュ発光制御の要否を判
定する。
【0094】フラッシュ発光制御をしないときには、ス
テップ#58において、後述するシーン判別2処理を実
行し、ステップ#60において、定常光制御用の絞りA
Vとシャッター速度TVとを算出して、AE演算処理を
終了する。
テップ#58において、後述するシーン判別2処理を実
行し、ステップ#60において、定常光制御用の絞りA
Vとシャッター速度TVとを算出して、AE演算処理を
終了する。
【0095】フラッシュ発光制御を行うときには、フラ
ッシュ発光要求フラグを1にセットし、ステップ#62
において、フラッシュ光制御用の絞りAVとシャッター
速度TVとを算出する。そして、詳しくは後述するが、
ステップ#64において調光寄与率を算出し、ステップ
#66において調光補正値を算出して、AE演算処理を
終了する。
ッシュ発光要求フラグを1にセットし、ステップ#62
において、フラッシュ光制御用の絞りAVとシャッター
速度TVとを算出する。そして、詳しくは後述するが、
ステップ#64において調光寄与率を算出し、ステップ
#66において調光補正値を算出して、AE演算処理を
終了する。
【0096】次に、上記ステップ#46および#48に
ついて、図20の詳細フローチャートを参照しながら、
さらに説明する。
ついて、図20の詳細フローチャートを参照しながら、
さらに説明する。
【0097】まず、ステップ#72以降の画像処理情報
入力ルーチンを実行する。すなわち、ステップ#72に
おいて、制御マイコン30は、画像演算処理センサー4
0から、画像処理情報、すなわちエッジ検出情報、画像
情報、色情報の入力を受け、メモリに記憶する。また、
ステップ#74において、画像演算処理センサー40が
フレーム毎の差分をとって算出したベクトルVnの入力
を受ける。
入力ルーチンを実行する。すなわち、ステップ#72に
おいて、制御マイコン30は、画像演算処理センサー4
0から、画像処理情報、すなわちエッジ検出情報、画像
情報、色情報の入力を受け、メモリに記憶する。また、
ステップ#74において、画像演算処理センサー40が
フレーム毎の差分をとって算出したベクトルVnの入力
を受ける。
【0098】次に、制御マイコン30は、ステップ#7
6以降の被写体領域情報算出ルーチンを実行する。すな
わち、ステップ#78において、一連のエッジ毎に、重
心G1,G2,・・・,Gkを求める。次に、ステップ#
80において、一連のエッジ毎に、重心GjとX座標ま
たはY座標が等しいエッジ座標XLj,XRj,YUj,
YDjを求める(j=1,2,・・・,k)。
6以降の被写体領域情報算出ルーチンを実行する。すな
わち、ステップ#78において、一連のエッジ毎に、重
心G1,G2,・・・,Gkを求める。次に、ステップ#
80において、一連のエッジ毎に、重心GjとX座標ま
たはY座標が等しいエッジ座標XLj,XRj,YUj,
YDjを求める(j=1,2,・・・,k)。
【0099】次に、ステップ#82において、被写体領
域情報を算出する。すなわち、一連のエッジで囲まれた
領域を、それぞれ主被写体領域Asj(j=1,2,・
・・,k)とし、それ以外の領域を背景領域Aaとし、
各領域について、領域内平均輝度、大きさ情報、優先度
を求める。
域情報を算出する。すなわち、一連のエッジで囲まれた
領域を、それぞれ主被写体領域Asj(j=1,2,・
・・,k)とし、それ以外の領域を背景領域Aaとし、
各領域について、領域内平均輝度、大きさ情報、優先度
を求める。
【0100】詳しくは、主被写体領域Asjの領域内平
均輝度BVsj_ave(j=1,2,・・・,k)
は、主被写体領域Asj内の画素(合計nj個の画素とす
る)の各測光出力BVAsj1,BVAsj2,・・・B
VAsjnjの平均値である。背景領域Aaの領域内平均
輝度BVa_aveは、主被写体領域Asjのいずれに
も含まれない領域の画素(合計m個の画素とする)の各
測光出力BVAa1,BVAa2,・・・,BVAam
の平均値である。主被写体領域Asjの大きさ情報S
jは、その主被写体領域Asjに含まれる画素数nj(j
=1,2,・・・,k)とする。なお、大きさ情報Sj
は、各主被写体領域AsjのX、Y方向の大きさLxj,
Lyjから、Sj=Lxj×Lyj(j=1,2,・・・,
k)として求めてもよい。各主被写体領域Asjの優先
度Pjは、前述のように,距離情報(最近接情報)、大
きさ情報(画素数)、中央付近のもの、最も明るいもの
(逆逆光)、最も暗いもの(逆光)などから求める。な
お、全ての優先度を等しく置いてもよく、そうすれば、
等価な平均測光状態となり、演算を簡素化できる。
均輝度BVsj_ave(j=1,2,・・・,k)
は、主被写体領域Asj内の画素(合計nj個の画素とす
る)の各測光出力BVAsj1,BVAsj2,・・・B
VAsjnjの平均値である。背景領域Aaの領域内平均
輝度BVa_aveは、主被写体領域Asjのいずれに
も含まれない領域の画素(合計m個の画素とする)の各
測光出力BVAa1,BVAa2,・・・,BVAam
の平均値である。主被写体領域Asjの大きさ情報S
jは、その主被写体領域Asjに含まれる画素数nj(j
=1,2,・・・,k)とする。なお、大きさ情報Sj
は、各主被写体領域AsjのX、Y方向の大きさLxj,
Lyjから、Sj=Lxj×Lyj(j=1,2,・・・,
k)として求めてもよい。各主被写体領域Asjの優先
度Pjは、前述のように,距離情報(最近接情報)、大
きさ情報(画素数)、中央付近のもの、最も明るいもの
(逆逆光)、最も暗いもの(逆光)などから求める。な
お、全ての優先度を等しく置いてもよく、そうすれば、
等価な平均測光状態となり、演算を簡素化できる。
【0101】次に、ステップ#84において、主背占有
比率Osaを算出する。主背占有比率Osaは、各主被写体
領域Asjの画素数njの合計Nk=n1+n2+・・・+
nkと、背景領域Aaの画素数mとから、Osa=Nk/
(Nk+m)×100(%)として算出する。
比率Osaを算出する。主背占有比率Osaは、各主被写体
領域Asjの画素数njの合計Nk=n1+n2+・・・+
nkと、背景領域Aaの画素数mとから、Osa=Nk/
(Nk+m)×100(%)として算出する。
【0102】なお、上記#78〜#84において、色情
報、ベクトル情報を用いて、一連のエッジをグループ化
して、同様に処理してもよい。
報、ベクトル情報を用いて、一連のエッジをグループ化
して、同様に処理してもよい。
【0103】次に、前述した図19のステップ#50に
おける輝度データ算出について、図21の詳細フローチ
ャートを参照しながら、さらに説明する。
おける輝度データ算出について、図21の詳細フローチ
ャートを参照しながら、さらに説明する。
【0104】ステップ#90において、各主被写体領域
Asjの領域内平均輝度BVsj_aveを優先度Pjを
用いて加重平均して、主被写体輝度基準データBVSを
算出する。すなわち、BVS=(P1×n1×BVs1_
ave+P2×n2×BVs2_ave+・・・+Pk×n
k×BVsk_ave)/(P1×n1+P2×n2+・・・
+Pk×nk)として、算出する。
Asjの領域内平均輝度BVsj_aveを優先度Pjを
用いて加重平均して、主被写体輝度基準データBVSを
算出する。すなわち、BVS=(P1×n1×BVs1_
ave+P2×n2×BVs2_ave+・・・+Pk×n
k×BVsk_ave)/(P1×n1+P2×n2+・・・
+Pk×nk)として、算出する。
【0105】次に、ステップ#92において、上記ステ
ップ#82で求めた背景領域Aaの領域内平均輝度BV
a_aveを背景領域の背景輝度基準データBVAとす
る。
ップ#82で求めた背景領域Aaの領域内平均輝度BV
a_aveを背景領域の背景輝度基準データBVAとす
る。
【0106】次に、前述した図19のステップ#52に
おけるシーン判別1について、図22の詳細フローチャ
ートを参照しながら、さらに説明する。
おけるシーン判別1について、図22の詳細フローチャ
ートを参照しながら、さらに説明する。
【0107】まず、ステップ#102以降の逆光シーン
判別ルーチンを実行する。すなわち、ステップ#104
において、主背輝度差△BAsa=BVS−BVAを算出
する。次に、ステップ#106において、主背輝度差△
BAsaと主背占有比率Osaとから、次のテーブルを用い
て、逆光度合DBLを算出する。
判別ルーチンを実行する。すなわち、ステップ#104
において、主背輝度差△BAsa=BVS−BVAを算出
する。次に、ステップ#106において、主背輝度差△
BAsaと主背占有比率Osaとから、次のテーブルを用い
て、逆光度合DBLを算出する。
【0108】
【表7】
【0109】次に、ステップ#108において、逆光フ
ラッシュフラグBLFL_Fを設定する。具体的には、BVA
>BV7.5、かつ、DBL>65ならば、BLFL_F=1、
それ以外では、BLFL_F=0と設定する。ここに、像倍率
情報を加味してもよい。
ラッシュフラグBLFL_Fを設定する。具体的には、BVA
>BV7.5、かつ、DBL>65ならば、BLFL_F=1、
それ以外では、BLFL_F=0と設定する。ここに、像倍率
情報を加味してもよい。
【0110】次に、ステップ#110以降のスローシン
クロシーン判別ルーチンを実行する。
クロシーン判別ルーチンを実行する。
【0111】まず、ステップ#112において、エッジ
検出情報を再入力する。次に、ステップ#114におい
て、光源情報を検出する。具体的には、エッジ検出情報
のうち、エッジの輝度差が所定値(たとえば、BV8)
以上のものだけを抽出する。大きさ情報Skを用いる場
合には、検出されたエッジで囲まれた領域のうち、Sk
>10画素(暫定)となる個数を屋内光源数:nin、S
k≦10画素(暫定)となる個数を屋外光源数:nout
とする。色情報を用いる場合には、検出されたエッジで
囲まれた領域のうち、Sk>10画素、かつ、R、G、
Bの比率(合計1.0)でGの比率が所定値(たとえ
ば、0.5)以上となる個数を屋内光源数:nin(蛍光
灯検知個数に相当する)、上記以外となる個数を屋外光
源数:nout=とする。
検出情報を再入力する。次に、ステップ#114におい
て、光源情報を検出する。具体的には、エッジ検出情報
のうち、エッジの輝度差が所定値(たとえば、BV8)
以上のものだけを抽出する。大きさ情報Skを用いる場
合には、検出されたエッジで囲まれた領域のうち、Sk
>10画素(暫定)となる個数を屋内光源数:nin、S
k≦10画素(暫定)となる個数を屋外光源数:nout
とする。色情報を用いる場合には、検出されたエッジで
囲まれた領域のうち、Sk>10画素、かつ、R、G、
Bの比率(合計1.0)でGの比率が所定値(たとえ
ば、0.5)以上となる個数を屋内光源数:nin(蛍光
灯検知個数に相当する)、上記以外となる個数を屋外光
源数:nout=とする。
【0112】次に、ステップ#116において、屋内光
源数ninおよび屋外光源数noutから、次のテーブルを
用いて、屋外撮影度合Doutを算出する。
源数ninおよび屋外光源数noutから、次のテーブルを
用いて、屋外撮影度合Doutを算出する。
【0113】
【表8】
【0114】次に、ステップ#118において、屋外ス
ローシンクロフラグSLOWOUT_Fおよび屋内スローシンク
ロフラグSLOWIN_Fを設定する。BVA<BV2、かつ、
Dout>65ならば、SLOWOUT_F=1、それ以外は、SLOW
OUT_F=0とする。また、BV2≦BVA<BV2、か
つ、Dout<35ならば、SLOWIN_F=1、それ以外は、S
LOWIN_F=0、とする。
ローシンクロフラグSLOWOUT_Fおよび屋内スローシンク
ロフラグSLOWIN_Fを設定する。BVA<BV2、かつ、
Dout>65ならば、SLOWOUT_F=1、それ以外は、SLOW
OUT_F=0とする。また、BV2≦BVA<BV2、か
つ、Dout<35ならば、SLOWIN_F=1、それ以外は、S
LOWIN_F=0、とする。
【0115】次に、前述の図19のステップ#54にお
けるフラッシュ発光/非発光の判定について、図23の
詳細フローチャートを参照しながら説明する。
けるフラッシュ発光/非発光の判定について、図23の
詳細フローチャートを参照しながら説明する。
【0116】まず、ステップ#122において、フラッ
シュがオフであるか否かを判定する。
シュがオフであるか否かを判定する。
【0117】フラッシュがオフであれば、ステップ#1
24以降の定常光制御ルーチンを実行する。すなわち、
ステップ#126において、BVTを、前述した図18
のステップ#90で求めた主被写体輝度基準データBV
Sとし、ステップ#128において、フラッシュ発光要
求フラグを0にセットし、ステップ#146において、
BVTにSVを加えてEVTとして、リターンする。
24以降の定常光制御ルーチンを実行する。すなわち、
ステップ#126において、BVTを、前述した図18
のステップ#90で求めた主被写体輝度基準データBV
Sとし、ステップ#128において、フラッシュ発光要
求フラグを0にセットし、ステップ#146において、
BVTにSVを加えてEVTとして、リターンする。
【0118】フラッシュがオンであれば、ステップ#1
30において、BVHを手振れ限界輝度に設定し、ステ
ップ#132において、逆光フラッシュ条件が成立する
か否かを判定する。
30において、BVHを手振れ限界輝度に設定し、ステ
ップ#132において、逆光フラッシュ条件が成立する
か否かを判定する。
【0119】逆光フラッシュ条件が成立すれば、すなわ
ち、BLFL_F=1であれば、ステップ#158以降の逆光
フラッシュ制御ルーチンを実行する。すなわち、ステッ
プ#160において、前述した図21のステップ#92
で求めた背景輝度基準データBVAにαを加えてBVT
とし、ステップ#144において、フラッシュ発光要求
フラグを1にセットした後、前述のステップ#146を
実行して、リターンする。
ち、BLFL_F=1であれば、ステップ#158以降の逆光
フラッシュ制御ルーチンを実行する。すなわち、ステッ
プ#160において、前述した図21のステップ#92
で求めた背景輝度基準データBVAにαを加えてBVT
とし、ステップ#144において、フラッシュ発光要求
フラグを1にセットした後、前述のステップ#146を
実行して、リターンする。
【0120】逆光フラッシュ条件が成立しなければ、ス
テップ#134において、スローシンクロ条件が成立す
るか否かを判定する。
テップ#134において、スローシンクロ条件が成立す
るか否かを判定する。
【0121】スローシンクロ条件が成立すれば、すなわ
ち、SLOWOUT_F=1、または、SLOWIN_F=1であれば、
ステップ#154以降のスローシンクロ制御ルーチンを
実行する。すなわち、ステップ#156において、BV
TをBVAとして、前述のステップ#144および#1
46を実行して、リターンする。
ち、SLOWOUT_F=1、または、SLOWIN_F=1であれば、
ステップ#154以降のスローシンクロ制御ルーチンを
実行する。すなわち、ステップ#156において、BV
TをBVAとして、前述のステップ#144および#1
46を実行して、リターンする。
【0122】スローシンクロ条件が成立しなければ、ス
テップ#136において、BVSがBVHより小さいか
否かを判定する。
テップ#136において、BVSがBVHより小さいか
否かを判定する。
【0123】BVSがBVHより小さいときには、ステ
ップ#150以降の暗中発光制御ルーチンを実行する。
すなわち、ステップ#152において、BVTをBVH
として、前述のステップ#144および#146を実行
した後、リターンする。
ップ#150以降の暗中発光制御ルーチンを実行する。
すなわち、ステップ#152において、BVTをBVH
として、前述のステップ#144および#146を実行
した後、リターンする。
【0124】BVSがBVHより小さくはないときに
は、ステップ#138において、フラッシュがオートで
あるか否かを判定する。オートであれば、前述のステッ
プ#124以降の定常光制御ルーチンを実行する。オー
トでなければ、ステップ#140以降の強制発光制御ル
ーチンを実行する。すなわち、ステップ#142におい
て、BVSにγを加えてBVTとし、前述のステップ#
144および#146を実行した後、リターンする。
は、ステップ#138において、フラッシュがオートで
あるか否かを判定する。オートであれば、前述のステッ
プ#124以降の定常光制御ルーチンを実行する。オー
トでなければ、ステップ#140以降の強制発光制御ル
ーチンを実行する。すなわち、ステップ#142におい
て、BVSにγを加えてBVTとし、前述のステップ#
144および#146を実行した後、リターンする。
【0125】次に、前述の図19のステップ#60にお
ける定常光制御時の絞りAVとシャッター速度TVの算
出について、図24の詳細フローチャートを参照しなが
ら説明する。
ける定常光制御時の絞りAVとシャッター速度TVの算
出について、図24の詳細フローチャートを参照しなが
ら説明する。
【0126】ステップ#202において、撮影モード処
理を行い、次に、ステップ#204以降のシーン判別2
ルーチンを実行する。
理を行い、次に、ステップ#204以降のシーン判別2
ルーチンを実行する。
【0127】すなわち、ステップ#206において、傾
きδを算出する。傾きδは、0以上1以下の値であり、
δが大きいときに、絞りを絞り、シャッター速度を低速
側にする一方、δが小さいときには、絞りを開き、シャ
ッター速度を高速側にする。
きδを算出する。傾きδは、0以上1以下の値であり、
δが大きいときに、絞りを絞り、シャッター速度を低速
側にする一方、δが小さいときには、絞りを開き、シャ
ッター速度を高速側にする。
【0128】傾きδは、焦点距離f1と主背占有比率O
saとから、次のδ算出テーブルを用いて求める。
saとから、次のδ算出テーブルを用いて求める。
【0129】
【表9】
【0130】あるいは、像倍率βと主背占有比率Osaと
から、次のδ算出テーブルを用いて求めてもよい。
から、次のδ算出テーブルを用いて求めてもよい。
【0131】
【表10】 なお、このテーブルに焦点距離情報を加味してもよい。
【0132】次に、ステップ#208において、ベクト
ル検出情報Vnに基づいて、傾きδを補正する。すなわ
ち、Vn>Cvならば、δの値を半分にする。ここでC
vは定数であり、たとえば画面上では、Cv=1mm/cm
である。これによって、ベクトル検出情報Vnが所定値
Cnより高速ならば、動体またはスポーツシーンとみな
して、δを高速側へシフトする。
ル検出情報Vnに基づいて、傾きδを補正する。すなわ
ち、Vn>Cvならば、δの値を半分にする。ここでC
vは定数であり、たとえば画面上では、Cv=1mm/cm
である。これによって、ベクトル検出情報Vnが所定値
Cnより高速ならば、動体またはスポーツシーンとみな
して、δを高速側へシフトする。
【0133】次に、ステップ#210において、EVT
がAV0とTVHとの和より大きいか否かを判定する。
ここで、AV0は基準絞りであり、TVHは手振れ限界
シャッター速度である。
がAV0とTVHとの和より大きいか否かを判定する。
ここで、AV0は基準絞りであり、TVHは手振れ限界
シャッター速度である。
【0134】EVTがAV0とTVHとの和より大きけ
れば、ステップ#218において、シャッター速度:A
V=AV0+δ×(EVT−(AV0+TVH))を算
出する。そして、ステップ#220において、EVTか
らAVを引いて、シャッター速度TVとする。最後に、
ステップ#222においてリミット処理を行い、リター
ンする。
れば、ステップ#218において、シャッター速度:A
V=AV0+δ×(EVT−(AV0+TVH))を算
出する。そして、ステップ#220において、EVTか
らAVを引いて、シャッター速度TVとする。最後に、
ステップ#222においてリミット処理を行い、リター
ンする。
【0135】一方、EVTがAV0とTVHとの和より
大きくなければ、ステップ#212において、基準絞り
AV0を絞りAVとし、ステップ#214において、E
VTからAVを引いてシャッター速度TVとし、最後
に、ステップ#216においてリミット処理を行い、リ
ターンする。
大きくなければ、ステップ#212において、基準絞り
AV0を絞りAVとし、ステップ#214において、E
VTからAVを引いてシャッター速度TVとし、最後
に、ステップ#216においてリミット処理を行い、リ
ターンする。
【0136】次に、前述の図19のステップ#62にお
けるフラッシュ光制御時の絞りAV、シャッター速度T
Vの算出について、図25の詳細フローチャートを参照
しながら説明する。
けるフラッシュ光制御時の絞りAV、シャッター速度T
Vの算出について、図25の詳細フローチャートを参照
しながら説明する。
【0137】ステップ#302において、撮影モード処
理を行い、ステップ#304において、EVTがAV0
とTVXとの和より大きいか否かを判定する。
理を行い、ステップ#304において、EVTがAV0
とTVXとの和より大きいか否かを判定する。
【0138】EVTがAV0とTVXとの和より大きけ
れば、ステップ#316において、TVXをシャッター
速度TVとし、ステップ#318において、EVTから
TVを引いて絞りAVとし、ステップ#320において
リミット処理を行いう。
れば、ステップ#316において、TVXをシャッター
速度TVとし、ステップ#318において、EVTから
TVを引いて絞りAVとし、ステップ#320において
リミット処理を行いう。
【0139】一方、EVTがAV0とTVXとの和より
大きくなければ、ステップ#306において、基準絞り
AV0を絞りAVとし、ステップ#308において、E
VTからAVを引いた値をシャッター速度TVとし、ス
テップ#310において、リミット処理を行う。
大きくなければ、ステップ#306において、基準絞り
AV0を絞りAVとし、ステップ#308において、E
VTからAVを引いた値をシャッター速度TVとし、ス
テップ#310において、リミット処理を行う。
【0140】上記ステップ#310または#320のリ
ミット処理の後、前述したように、ステップ#64にお
いて調光寄与率を算出し、ステップ#66において調光
補正値を算出する。次に、このステップ#64および#
66について、さらに説明する。
ミット処理の後、前述したように、ステップ#64にお
いて調光寄与率を算出し、ステップ#66において調光
補正値を算出する。次に、このステップ#64および#
66について、さらに説明する。
【0141】まず、上記ステップ#64における調光寄
与率の算出について、図26の詳細フローチャートを参
照しながら説明する。
与率の算出について、図26の詳細フローチャートを参
照しながら説明する。
【0142】ステップ#402において、各調光セルC
0,C1,・・・,Cnの重み(寄与率)wt=(wt
0,wt1,・・・,wtn)を、全て0に初期設定す
る。
0,C1,・・・,Cnの重み(寄与率)wt=(wt
0,wt1,・・・,wtn)を、全て0に初期設定す
る。
【0143】次に、ステップ#404において、各セル
の調光寄与率を算出する。各調光セルの領域情報(座
標)は、所定値であり、予め分かっている。各調光セル
Cn毎にその領域内での、主被写体領域Askの重心G
k、主被写体領域Askの領域内座標XLK,XRK,
YUK,YDKの個数j、シーン全体の主背占有率Osa
がそれぞれ存在するかどうか、及び、存在する場合には
それぞれの値をチェックする。さらに、領域Askの重
心Gkが存在する場合は、領域Askの大きさ情報S
k、領域Askの優先度Pkをチェックする。そして、
各セルの寄与率wtn”を、次式で求める。 wtn”=R1×(Pk1×Sk1+Pk2×Sk2+
・・・+Pki×Ski)+R2×j ここに、R1、R2は定数であり、たとえば、R1=R
2=1である。
の調光寄与率を算出する。各調光セルの領域情報(座
標)は、所定値であり、予め分かっている。各調光セル
Cn毎にその領域内での、主被写体領域Askの重心G
k、主被写体領域Askの領域内座標XLK,XRK,
YUK,YDKの個数j、シーン全体の主背占有率Osa
がそれぞれ存在するかどうか、及び、存在する場合には
それぞれの値をチェックする。さらに、領域Askの重
心Gkが存在する場合は、領域Askの大きさ情報S
k、領域Askの優先度Pkをチェックする。そして、
各セルの寄与率wtn”を、次式で求める。 wtn”=R1×(Pk1×Sk1+Pk2×Sk2+
・・・+Pki×Ski)+R2×j ここに、R1、R2は定数であり、たとえば、R1=R
2=1である。
【0144】次に、ステップ#406において、調光寄
与率wtn’を、次式により規格化する。 wt’=8×wt”/max(wt1”,・・・,wt
m”) これによって、最大寄与率(重み)を8として規格化で
き、この寄与率(重み)を、多分割調光の最終的な制御
重みとなる。
与率wtn’を、次式により規格化する。 wt’=8×wt”/max(wt1”,・・・,wt
m”) これによって、最大寄与率(重み)を8として規格化で
き、この寄与率(重み)を、多分割調光の最終的な制御
重みとなる。
【0145】次に、ステップ#408において、被写体
距離D(単位はメートル)と主背占有比率Osaとから、
次のテーブルを用いて平均調光度合Daveを算出する。
距離D(単位はメートル)と主背占有比率Osaとから、
次のテーブルを用いて平均調光度合Daveを算出する。
【0146】
【表11】
【0147】この平均調光度合Daveは、主背占有率Os
aが低いときには、平均的な寄与率に設定するためもの
もである。
aが低いときには、平均的な寄与率に設定するためもの
もである。
【0148】次に、ステップ#410において、最終調
光寄与率wtnを次式により算出する。 wtn=(Dave×8+(100−Dave)×wtn’)
/100 最終調光寄与率wtnは、0以上8以下の値となる。
光寄与率wtnを次式により算出する。 wtn=(Dave×8+(100−Dave)×wtn’)
/100 最終調光寄与率wtnは、0以上8以下の値となる。
【0149】次に、前述の図19および図25のステッ
プ#66の調光補正値算出ルーチンについて、図27の
詳細フローチャートを参照しながら説明する。
プ#66の調光補正値算出ルーチンについて、図27の
詳細フローチャートを参照しながら説明する。
【0150】ステップ#502において、被写体距離D
と主背占有比率Osaとから、次のテーブルを用いて調光
補正値ΔEVFLを算出する。
と主背占有比率Osaとから、次のテーブルを用いて調光
補正値ΔEVFLを算出する。
【0151】
【表12】
【0152】次に、ステップ#504において、R、
G、Bの比率から、次のテーブルを用いて色補正分ΔE
Vcを算出する。なお、ΔEVcは、色情報が得られる
場合にのみ算出する。
G、Bの比率から、次のテーブルを用いて色補正分ΔE
Vcを算出する。なお、ΔEVcは、色情報が得られる
場合にのみ算出する。
【0153】
【表13】
【0154】次に、ステップ#506において、設定フ
ィルム感度SVを算出する。次に、ステップ#508に
おいて、制御フィルム感度値SVsを、次式により算出
して、リターンする。 SVc=SV+(-/+)+(+/-)FL+ΔEVFL+ΔEV
c ここで、(-/+)は、露出補正値(ユーザ設定)、(+/
-)FL は、調光補正値(ユーザ設定)である。
ィルム感度SVを算出する。次に、ステップ#508に
おいて、制御フィルム感度値SVsを、次式により算出
して、リターンする。 SVc=SV+(-/+)+(+/-)FL+ΔEVFL+ΔEV
c ここで、(-/+)は、露出補正値(ユーザ設定)、(+/
-)FL は、調光補正値(ユーザ設定)である。
【0155】なお、本発明は、上記実施形態に限定され
るものではなく、その他種々の態様で実施可能である。
るものではなく、その他種々の態様で実施可能である。
【図1】 本発明の各実施形態のカメラおよび従来例の
カメラの構成図である。
カメラの構成図である。
【図2】 本発明の第1実施形態のカメラの要部構成図
である。
である。
【図3】 本発明の第2実施形態のカメラの要部構成図
である。
である。
【図4】 図2のカメラのブロック構成図である。
【図5】 本発明の第3実施形態のカメラの要部構成図
である。
である。
【図6】 本発明の第4実施形態のカメラの要部構成図
である。
である。
【図7】 図3のカメラのC−MOS画像演算処理セン
サー、測光素子および測距素子の配置関係図である。
サー、測光素子および測距素子の配置関係図である。
【図8】 C−MOS画像演算処理センサーの出力情報
の説明図である。
の説明図である。
【図9】 C−MOS画像演算処理センサーの出力情報
から算出する画像処理情報の説明図である。
から算出する画像処理情報の説明図である。
【図10】 被写体領域情報の算出の説明図である。
【図11】 測光素子を用いる場合の被写体領域情報の
算出の説明図である。
算出の説明図である。
【図12】 測光素子を用いない場合の測光領域選択の
説明図である。
説明図である。
【図13】 測光素子を用いる場合の測光領域選択の説
明図である。
明図である。
【図14】 距離情報も用いて測光領域を選択する場合
の説明図である。
の説明図である。
【図15】 複数の被写体領域が存在する場合の測光領
域選択の説明図である。
域選択の説明図である。
【図16】 測光素子を用いない場合の主背占有率の算
出の説明図である。
出の説明図である。
【図17】 測光素子を用いる場合の主背占有率の算出
の説明図である。
の説明図である。
【図18】 本発明のカメラの基本的な動作のフローチ
ャートである。
ャートである。
【図19】 図18のステップ#18の詳細フローチャ
ートである。
ートである。
【図20】 図19のステップ#46および#48の詳
細フローチャートである。
細フローチャートである。
【図21】 図19のステップ#50の詳細フローチャ
ートである。
ートである。
【図22】 図19のステップ#52の詳細フローチャ
ートである。
ートである。
【図23】 図19のステップ#54におけるフラッシ
ュ発光/非発光の判定の詳細フローチャートである。
ュ発光/非発光の判定の詳細フローチャートである。
【図24】 図19のステップ#60の詳細フローチャ
ートである。
ートである。
【図25】 図19のステップ#62の詳細フローチャ
ートである。
ートである。
【図26】 図19のステップ#64の詳細フローチャ
ートである。
ートである。
【図27】 図19および図25のステップ#66の詳
細フローチャートである。
細フローチャートである。
10,10a カメラ本体 14 調整端子 16 ボディ表示 22 電池 24 DC/DCコンバータ 30 制御マイコン(被写体情報出力手段、調光寄与率
算出手段、調光制御手段) 32 補助光発光部 34 調光モジュール、調光センサー(多分割調光手
段) 36 測光モジュール、測光センサー(多分割測光手
段) 38 測距モジュール、測距センサー(測距手段) 40,40a C−MOS画像演算処理センサー(撮像
手段) 41 モータードライバ 42 AFエンコーダ 43 モータードライバ 44 AFアクチュエータ、AFモーター 45 フィルム給送モーター 46 絞りマグネット 48 シャッターマグネット 50,50a 交換レンズ 52 レンズマイコン 53 モーター 54 光学系 56 AFアクチュエータ 57 AFエンコーダ 58 PFエンコーダ 59 終端スイッチ
算出手段、調光制御手段) 32 補助光発光部 34 調光モジュール、調光センサー(多分割調光手
段) 36 測光モジュール、測光センサー(多分割測光手
段) 38 測距モジュール、測距センサー(測距手段) 40,40a C−MOS画像演算処理センサー(撮像
手段) 41 モータードライバ 42 AFエンコーダ 43 モータードライバ 44 AFアクチュエータ、AFモーター 45 フィルム給送モーター 46 絞りマグネット 48 シャッターマグネット 50,50a 交換レンズ 52 レンズマイコン 53 モーター 54 光学系 56 AFアクチュエータ 57 AFエンコーダ 58 PFエンコーダ 59 終端スイッチ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 関 玲二 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 藤野 明彦 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2H002 CD00 CD11 DB00 DB01 DB04 DB06 DB14 DB17 DB19 DB24 DB25 DB28 DB29 DB30 DB31 DB32 FB21 GA00 GA24 GA33 GA54 GA74 HA00 HA05 HA11 JA00 2H053 AA00 AA01 AA05 AD00 AD11 AD21 BA72 CA41
Claims (10)
- 【請求項1】 撮影領域を撮像した画像を利用して、調
光領域を決定することを特徴とする、フラッシュ露出制
御装置を備えたカメラ。 - 【請求項2】 撮影領域を撮像して画像処理情報を出力
する撮像手段と、 該撮像手段から出力された画像処理情報に基づいて、被
写体の状態を検出し、その検出した被写体の状態に関す
る被写体情報を出力する、被写体情報出力手段と、 撮影領域を分割した複数の調光領域について、フラッシ
ュ発光制御時の寄与率を各々独立に設定可能である多分
割調光手段と、 上記被写体情報出力手段から出力された被写体情報に基
づいて、上記多分割調光手段の各調光領域の寄与率を算
出する調光寄与率算出手段と、 該調光寄与率算出手段により算出された各調光領域の寄
与率に基づいて、フラッシュ発光を制御する調光制御手
段とを備えたことを特徴とするカメラ。 - 【請求項3】 撮影領域を撮像して画像処理情報を出力
する撮像手段と、 少なくとも1つの測距領域を測距し、測距した測距領域
およびその測距値に関する測距情報を出力する測距手段
と、 複数の分割された測光領域を測光し、測光した測光領域
およびその測光値に関する測光情報を出力する、多分割
測光手段と、 上記撮像手段から出力された画像情報と、上記測距手段
から出力された測距情報または上記多分割測光手段から
出力された測光情報の少なくとも一方とに基づいて、被
写体の状態を検出し、その検出した被写体の状態に関す
る被写体情報を出力する、被写体情報出力手段と、 撮影領域を分割した複数の調光領域について、フラッシ
ュ発光制御時の寄与率を各々独立に設定可能である多分
割調光手段と、 上記被写体情報出力手段から出力された被写体情報に基
づいて、上記多分割調光手段の各調光領域の寄与率を算
出する調光寄与率算出手段と、 該調光寄与率算出手段により算出された各調光領域の寄
与率に基づいて、フラッシュ発光を制御する調光制御手
段とを備えたことを特徴とするカメラ。 - 【請求項4】 上記被写体情報出力手段は、主被写体が
画面上に占める主被写体領域を検出し、その検出した主
被写体領域に関する主被写体領域情報を被写体情報に含
めて出力し、 上記調光寄与率算出手段は、主被写体領域と略一致する
調光領域の調光寄与率を高く、それ以外の調光領域の調
光寄与率を低くすることを特徴とする、請求項2又は3
記載のカメラ。 - 【請求項5】 上記被写体情報出力手段は、主被写体が
画面上に占める主被写体領域を検出し、その検出した主
被写体領域に関する主被写体領域情報を被写体情報に含
めて出力し、 上記調光寄与率算出手段は、主被写体領域と略一致する
調光領域であってかつ合焦する測距領域と略一致する調
光領域の調光寄与率を高く、それ以外の調光領域の調光
寄与率を低くすることを特徴とする、請求項3記載のカ
メラ。 - 【請求項6】 上記被写体情報出力手段は、主被写体が
画面上に占める主被写体領域と、背景が画面上を占める
背景領域とを検出し、その検出した主被写体領域および
背景領域に関する主被写体領域情報および背景領域情報
を被写体情報に含めて出力し、 上記調光寄与率算出手段は、上記主被写体情報および背
景領域情報に基づいて、各調光領域の調光寄与率を算出
することを特徴とする、請求項2又は3記載のカメラ。 - 【請求項7】 上記被写体情報出力手段は、主被写体が
画面上に占める主被写体領域と、背景が画面上を占める
背景領域とを検出し、その検出した主被写体領域および
背景領域に関する主被写体領域情報および背景領域情報
を被写体情報に含めて出力し、 上記調光寄与率算出手段は、上記主被写体情報および背
景領域情報と、測距情報と、合焦距離に関する合焦情報
とに基づいて、各調光領域の調光寄与率を算出すること
を特徴とする、請求項3記載のカメラ。 - 【請求項8】 上記被写体情報出力手段は、撮影領域を
撮像した画像の輪郭を検出し、その検出した輪郭に関す
る輪郭検出情報を被写体情報に含めて出力し、 上記被写体情報出力手段は、上記輪郭検出情報に基づい
て、被写体の状態を検出することを特徴とする、請求項
2又は3記載のカメラ。 - 【請求項9】 上記撮像手段は、撮影領域を撮像した画
像の動く速度と方向を検出し、その検出した速度および
方向に関するベクトル検出情報を画像処理情報に含めて
出力し、 上記被写体情報出力手段は、上記ベクトル検出情報に基
づいて、被写体の状態を検出することを特徴とする、請
求項2又は3記載のカメラ。 - 【請求項10】 上記撮像手段は、撮影領域を撮像した
画像の色を検出し、その検出した色に関する色情報を被
写体情報に含めて出力し、 上記被写体領域出力手段は、上記色情報に基づいて、被
写体の状態を検出することを特徴とする、請求項2又は
3記載のカメラ。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10247285A JP2000075345A (ja) | 1998-09-01 | 1998-09-01 | カメラ |
US09/385,904 US6185374B1 (en) | 1998-09-01 | 1999-08-30 | Mechanism for controlling flash light emission, camera with the mechanism, and its control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10247285A JP2000075345A (ja) | 1998-09-01 | 1998-09-01 | カメラ |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000075345A true JP2000075345A (ja) | 2000-03-14 |
Family
ID=17161181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10247285A Pending JP2000075345A (ja) | 1998-09-01 | 1998-09-01 | カメラ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000075345A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8421909B2 (en) | 2007-12-26 | 2013-04-16 | Denso Corporation | Exposure control apparatus and exposure control program for vehicle-mounted electronic camera |
-
1998
- 1998-09-01 JP JP10247285A patent/JP2000075345A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8421909B2 (en) | 2007-12-26 | 2013-04-16 | Denso Corporation | Exposure control apparatus and exposure control program for vehicle-mounted electronic camera |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6240253B1 (en) | Automatic focusing camera | |
KR20140035274A (ko) | 촬상장치 및 제어 방법 | |
JP2003066321A (ja) | Af制御装置およびaf制御方法 | |
CN103379281A (zh) | 用于进行图像合成的图像处理设备和图像处理方法 | |
US6167200A (en) | Exposure operation mechanism of camera | |
US6240252B1 (en) | Camera | |
JP2000075351A (ja) | カメラ | |
US6185374B1 (en) | Mechanism for controlling flash light emission, camera with the mechanism, and its control method | |
JPH01285925A (ja) | カメラ | |
JP2001326854A (ja) | 撮像装置と該撮像装置の制御方法 | |
JP2000075349A (ja) | カメラ | |
JP2000075345A (ja) | カメラ | |
JP2000075350A (ja) | カメラ | |
JPH02100027A (ja) | 被写体輝度の測定方法 | |
JP2000056353A (ja) | カメラ | |
JP2012063664A (ja) | 測光装置及び電子カメラ | |
JP2012060439A (ja) | 撮像装置、撮像装置の制御方法およびプログラム | |
JP2015225256A (ja) | 撮影装置 | |
JPH0695200A (ja) | カメラの測光制御装置 | |
JP4795306B2 (ja) | 測光装置及びカメラ | |
JP2003043549A (ja) | カメラの調光制御装置 | |
JP2000089290A (ja) | オートフォーカスカメラ | |
JP2000184381A (ja) | デジタルスチルカメラ | |
JP3543098B2 (ja) | カメラの露出制御装置 | |
JP2001154083A (ja) | 測距装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050615 |