JPH0553043A - 被写体認識装置およびカメラ - Google Patents
被写体認識装置およびカメラInfo
- Publication number
- JPH0553043A JPH0553043A JP3215182A JP21518291A JPH0553043A JP H0553043 A JPH0553043 A JP H0553043A JP 3215182 A JP3215182 A JP 3215182A JP 21518291 A JP21518291 A JP 21518291A JP H0553043 A JPH0553043 A JP H0553043A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- tracking
- unit
- photographer
- brightness
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B2213/00—Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
- G03B2213/02—Viewfinders
- G03B2213/025—Sightline detection
Landscapes
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Exposure Control For Cameras (AREA)
Abstract
(57)【要約】
【目的】 本発明は、カメラの被写界に捉えられた被写
体の位置を検出する被写体認識装置に関し、被写体位置
を正しくしかも安定して得ることを目的とする。 【構成】 撮影者の眼球の動きから、撮影者が注視して
いる位置を被写体の位置として求める被写体認識手段1
11と、被写界における光の強度分布に関する情報に基
づいて、被写体に相当する位置を判別し、この位置を追
尾する追尾手段112と、被写体認識手段111で得ら
れた位置と追尾手段で得られた位置とを比較して、撮影
者が被写体を変更したか否かを判定する判定手段113
と、この判定結果に応じて、被写体認識手段111と追
尾手段112とで得られた位置のいずれかを被写体位置
として選択する選択手段114と、被写体が変更された
旨の判定結果に応じて、被写体認識手段111で得られ
た位置を追尾手段112に送出して追尾処理を制御する
制御手段115とを備える。
体の位置を検出する被写体認識装置に関し、被写体位置
を正しくしかも安定して得ることを目的とする。 【構成】 撮影者の眼球の動きから、撮影者が注視して
いる位置を被写体の位置として求める被写体認識手段1
11と、被写界における光の強度分布に関する情報に基
づいて、被写体に相当する位置を判別し、この位置を追
尾する追尾手段112と、被写体認識手段111で得ら
れた位置と追尾手段で得られた位置とを比較して、撮影
者が被写体を変更したか否かを判定する判定手段113
と、この判定結果に応じて、被写体認識手段111と追
尾手段112とで得られた位置のいずれかを被写体位置
として選択する選択手段114と、被写体が変更された
旨の判定結果に応じて、被写体認識手段111で得られ
た位置を追尾手段112に送出して追尾処理を制御する
制御手段115とを備える。
Description
【0001】
【産業上の利用分野】本発明は、カメラに備えられた撮
影レンズが捉える被写界において、撮影者が注目してい
る被写体が占める位置を検出する被写体認識装置に関す
る。通常のカメラにおいては、カメラに備えられた撮影
レンズの被写界の中央部に被写体があることを前提とし
て、被写界の中央部の情報に基づいて、焦点制御および
露出制御を行っている。
影レンズが捉える被写界において、撮影者が注目してい
る被写体が占める位置を検出する被写体認識装置に関す
る。通常のカメラにおいては、カメラに備えられた撮影
レンズの被写界の中央部に被写体があることを前提とし
て、被写界の中央部の情報に基づいて、焦点制御および
露出制御を行っている。
【0002】一方、被写体を中央からはずした位置に配
置した構図で撮影を行う場合も多く、このような場合に
対応して、中央部からはずれた位置にある被写体部分の
情報に基づいて、焦点制御および露出制御を行いたいと
いう要望がある。これに応じて、撮影者が被写体を注視
していることを利用して、撮影者の眼球の向きから撮影
者の視線の方向を求め、この視線が被写界と交差する視
線位置を被写体位置として、焦点制御および露出制御を
行う技法が提案されている。
置した構図で撮影を行う場合も多く、このような場合に
対応して、中央部からはずれた位置にある被写体部分の
情報に基づいて、焦点制御および露出制御を行いたいと
いう要望がある。これに応じて、撮影者が被写体を注視
していることを利用して、撮影者の眼球の向きから撮影
者の視線の方向を求め、この視線が被写界と交差する視
線位置を被写体位置として、焦点制御および露出制御を
行う技法が提案されている。
【0003】
【従来の技術】撮影者の視線位置を被写体位置として検
出し、焦点制御および露出制御を行う技法としては、特
開昭63−94232号公報『カメラ制御装置』で開示
された技法がある。図19に、上述したカメラ制御装置
の構成を示す。
出し、焦点制御および露出制御を行う技法としては、特
開昭63−94232号公報『カメラ制御装置』で開示
された技法がある。図19に、上述したカメラ制御装置
の構成を示す。
【0004】図19において、撮像回路614は2次元
CCD素子(以下、単にCCDと称する)615を備え
ており、このCCD615上に、撮影レンズ610およ
び絞り612からなる撮像光学系による像が結像する構
成となっている。また、図において、眼球運動検出器6
30は、黒目の位置から眼球の向きを判別して、ゲート
制御回路634に送出する構成となっている(テレビジ
ョン学会誌Vol. No.2,1986, p41以降を参照)。
CCD素子(以下、単にCCDと称する)615を備え
ており、このCCD615上に、撮影レンズ610およ
び絞り612からなる撮像光学系による像が結像する構
成となっている。また、図において、眼球運動検出器6
30は、黒目の位置から眼球の向きを判別して、ゲート
制御回路634に送出する構成となっている(テレビジ
ョン学会誌Vol. No.2,1986, p41以降を参照)。
【0005】ゲート制御回路634は、この判別結果と
クロック回路628からの水平同期信号および垂直同期
信号とに基づいて、ゲート616の開閉を制御するゲー
ト制御信号を生成する構成となっており、上述した判別
結果で示される撮影者の注視部分に相当するCCD61
5の出力に応じて、ゲート616の開放を指示する構成
となっている。これにより、撮像回路614の出力から
撮影者が注視している部分が抽出され、自動焦点(A
F)制御回路620および自動露出(AE)制御回路6
22に送出されて、それぞれレンズ駆動装置624と絞
り駆動装置626の制御処理に供される。
クロック回路628からの水平同期信号および垂直同期
信号とに基づいて、ゲート616の開閉を制御するゲー
ト制御信号を生成する構成となっており、上述した判別
結果で示される撮影者の注視部分に相当するCCD61
5の出力に応じて、ゲート616の開放を指示する構成
となっている。これにより、撮像回路614の出力から
撮影者が注視している部分が抽出され、自動焦点(A
F)制御回路620および自動露出(AE)制御回路6
22に送出されて、それぞれレンズ駆動装置624と絞
り駆動装置626の制御処理に供される。
【0006】このように、ファインダを覗いている撮影
者の視線位置の情報に基づいて焦点制御および露出制御
を行うことを可能とし、被写体が被写界において占める
位置にかかわらず、被写体部分の情報に基づいて、カメ
ラの制御を行うカメラ制御装置が提案されている。
者の視線位置の情報に基づいて焦点制御および露出制御
を行うことを可能とし、被写体が被写界において占める
位置にかかわらず、被写体部分の情報に基づいて、カメ
ラの制御を行うカメラ制御装置が提案されている。
【0007】
【発明が解決しようとする課題】ところで、上述した従
来方式においては、眼球の向きから得た撮影者の視線位
置を被写体位置としている。しかしながら、撮影者は、
常に被写体を注視しているとは限らず、構図のバランス
をみるために被写体以外のものを見たり、画面の外側に
表示された露出制御などに関する情報を見たりしてい
る。このため、視線位置を被写体位置としたのでは、撮
影者が意図した被写体を正しく認識できない可能性があ
る。
来方式においては、眼球の向きから得た撮影者の視線位
置を被写体位置としている。しかしながら、撮影者は、
常に被写体を注視しているとは限らず、構図のバランス
をみるために被写体以外のものを見たり、画面の外側に
表示された露出制御などに関する情報を見たりしてい
る。このため、視線位置を被写体位置としたのでは、撮
影者が意図した被写体を正しく認識できない可能性があ
る。
【0008】また、眼球は常に運動しており、この運動
に伴って視線位置も刻々と変化するため、刻々と変化す
る視線位置に応じて露出値や合焦位置が変化し、露出制
御および焦点制御が不安定となってしまう。特に、眼球
は急激に運動する場合もあり、この場合には、上述した
ような制御の不安定性が顕著となる。本発明は、撮影者
が注目している被写体を正しく認識するとともに、この
被写体の安定した被写体位置を得る被写体認識装置を提
供することを目的とする。また、得られた被写体位置を
用いて被写体の適正な像を撮影するカメラを提供するこ
とを目的とする。
に伴って視線位置も刻々と変化するため、刻々と変化す
る視線位置に応じて露出値や合焦位置が変化し、露出制
御および焦点制御が不安定となってしまう。特に、眼球
は急激に運動する場合もあり、この場合には、上述した
ような制御の不安定性が顕著となる。本発明は、撮影者
が注目している被写体を正しく認識するとともに、この
被写体の安定した被写体位置を得る被写体認識装置を提
供することを目的とする。また、得られた被写体位置を
用いて被写体の適正な像を撮影するカメラを提供するこ
とを目的とする。
【0009】
【課題を解決するための手段】図1は、請求項1および
請求項2の発明の構成を示す図である。請求項1の発明
は、撮影者の眼球の動きから、カメラの被写界内におい
て撮影者が注視している位置を被写体の位置として求め
る被写体認識手段111と、被写界における光の強度分
布に関する情報に基づいて、被写体に相当する位置を判
別し、この位置を追尾する追尾手段112と、被写体認
識手段111で得られた位置と追尾手段で得られた位置
とを比較して、撮影者が被写体を変更したか否かを判定
する判定手段113と、判定手段113による判定結果
に応じて、被写体認識手段111と追尾手段112とに
よってそれぞれ得られた位置のいずれかを被写体位置と
して選択する選択手段114と、被写体が変更された旨
の判定結果に応じて、被写体認識手段111で得られた
位置を新しい被写体に関する情報として追尾手段112
に送出して追尾処理を制御する制御手段115とを備え
たことを特徴とする。
請求項2の発明の構成を示す図である。請求項1の発明
は、撮影者の眼球の動きから、カメラの被写界内におい
て撮影者が注視している位置を被写体の位置として求め
る被写体認識手段111と、被写界における光の強度分
布に関する情報に基づいて、被写体に相当する位置を判
別し、この位置を追尾する追尾手段112と、被写体認
識手段111で得られた位置と追尾手段で得られた位置
とを比較して、撮影者が被写体を変更したか否かを判定
する判定手段113と、判定手段113による判定結果
に応じて、被写体認識手段111と追尾手段112とに
よってそれぞれ得られた位置のいずれかを被写体位置と
して選択する選択手段114と、被写体が変更された旨
の判定結果に応じて、被写体認識手段111で得られた
位置を新しい被写体に関する情報として追尾手段112
に送出して追尾処理を制御する制御手段115とを備え
たことを特徴とする。
【0010】請求項2の発明は、請求項1に記載の被写
体認識装置において、追尾手段が、被写体認識手段で得
られた位置を被写体の初期位置とし、この初期位置にお
ける光情報に基づいて、被写体に相当する位置を判別す
る構成であることを特徴とする。図2は、請求項3の被
写体認識装置の構成を示す図である。
体認識装置において、追尾手段が、被写体認識手段で得
られた位置を被写体の初期位置とし、この初期位置にお
ける光情報に基づいて、被写体に相当する位置を判別す
る構成であることを特徴とする。図2は、請求項3の被
写体認識装置の構成を示す図である。
【0011】請求項3の発明は、請求項1に記載の被写
体認識装置において、被写界における光の強度分布から
被写界の各位置の輝度を判別して、追尾手段による追尾
処理に供する輝度判別手段116を備え、追尾手段11
2が、被写体に近似した輝度を有する位置を判別して、
この位置を追尾する構成であることを特徴とする。図3
は、請求項4の被写体認識装置の構成を示す図である。
体認識装置において、被写界における光の強度分布から
被写界の各位置の輝度を判別して、追尾手段による追尾
処理に供する輝度判別手段116を備え、追尾手段11
2が、被写体に近似した輝度を有する位置を判別して、
この位置を追尾する構成であることを特徴とする。図3
は、請求項4の被写体認識装置の構成を示す図である。
【0012】請求項4の発明は、請求項1に記載の被写
体認識装置において、被写界における光の強度分布から
被写界の各位置の色を判別して、追尾手段による追尾処
理に供する色判別手段117を備え、追尾手段112
が、被写体に近似した色を有する位置を判別して、この
位置を追尾する構成であることを特徴とする。図4は、
請求項5および請求項6のカメラの構成を示す図であ
る。
体認識装置において、被写界における光の強度分布から
被写界の各位置の色を判別して、追尾手段による追尾処
理に供する色判別手段117を備え、追尾手段112
が、被写体に近似した色を有する位置を判別して、この
位置を追尾する構成であることを特徴とする。図4は、
請求項5および請求項6のカメラの構成を示す図であ
る。
【0013】請求項5の発明は、請求項1に記載の被写
体認識装置110と、被写界における光の強度分布に関
する情報と選択手段によって選択された被写体位置とが
入力され、被写体位置における明るさを示す輝度情報を
用いて露出値を求めて、露出制御に供する露出演算手段
121とを備えたことを特徴とする。請求項6の発明
は、請求項1に記載の被写体認識装置110と、被写界
における光の強度分布に関する情報と選択手段によって
選択された被写体位置とが入力され、被写体位置で示さ
れる被写体に対応する光像の合焦状態を判別して、焦点
制御に供する合焦判別手段131とを備えたことを特徴
とする。
体認識装置110と、被写界における光の強度分布に関
する情報と選択手段によって選択された被写体位置とが
入力され、被写体位置における明るさを示す輝度情報を
用いて露出値を求めて、露出制御に供する露出演算手段
121とを備えたことを特徴とする。請求項6の発明
は、請求項1に記載の被写体認識装置110と、被写界
における光の強度分布に関する情報と選択手段によって
選択された被写体位置とが入力され、被写体位置で示さ
れる被写体に対応する光像の合焦状態を判別して、焦点
制御に供する合焦判別手段131とを備えたことを特徴
とする。
【0014】
【作用】請求項1の発明は、被写体認識手段111が、
撮影者の注視している位置を被写体の位置として求める
ので、撮影者が別の被写体を注視した場合は、被写体認
識手段111によって新しい被写体の位置が得られる。
従って、判定手段113の判定結果に応じて、選択手段
114が被写体認識手段111で得られた位置を被写体
位置として選択することにより、撮影者が注目している
被写体を正しく認識することができる。また、このと
き、制御手段115が、この新しい被写体に関する情報
を追尾手段112に送出するので、追尾手段112によ
り、新しい被写体の追尾処理が行われ、撮影者が被写体
を注視しているか否かにかかわらず、常に最新の被写体
の位置が得られる。従って、判定手段113の判定結果
に応じて、選択手段114が追尾手段112で得られた
位置を選択することにより、被写体の位置を安定して得
ることが可能である。
撮影者の注視している位置を被写体の位置として求める
ので、撮影者が別の被写体を注視した場合は、被写体認
識手段111によって新しい被写体の位置が得られる。
従って、判定手段113の判定結果に応じて、選択手段
114が被写体認識手段111で得られた位置を被写体
位置として選択することにより、撮影者が注目している
被写体を正しく認識することができる。また、このと
き、制御手段115が、この新しい被写体に関する情報
を追尾手段112に送出するので、追尾手段112によ
り、新しい被写体の追尾処理が行われ、撮影者が被写体
を注視しているか否かにかかわらず、常に最新の被写体
の位置が得られる。従って、判定手段113の判定結果
に応じて、選択手段114が追尾手段112で得られた
位置を選択することにより、被写体の位置を安定して得
ることが可能である。
【0015】請求項2の発明は、被写体認識手段111
で得られた位置を追尾手段112による追尾処理の初期
位置とするので、追尾手段112により、最初から正し
い被写体の位置を追尾させることができる。請求項3の
発明は、輝度判別手段116により、各位置の輝度が判
別されるので、追尾手段112において、被写体の輝度
に最も近似した輝度を有する位置を求めることにより、
簡単に被写体の位置を追尾することができる。
で得られた位置を追尾手段112による追尾処理の初期
位置とするので、追尾手段112により、最初から正し
い被写体の位置を追尾させることができる。請求項3の
発明は、輝度判別手段116により、各位置の輝度が判
別されるので、追尾手段112において、被写体の輝度
に最も近似した輝度を有する位置を求めることにより、
簡単に被写体の位置を追尾することができる。
【0016】請求項4の発明は、色判別手段117が被
写界の各位置の色を判別し、追尾手段112が、被写体
の色に近似した色を有する位置を求めることにより、被
写体位置をより確実に求めて追尾することができる。請
求項5の発明は、被写体認識装置110から被写体位置
を安定して得ることができるので、この被写体位置の輝
度情報を用いて、露出演算手段121が露出値を求める
ことにより、被写体に適合した露出制御を行うことがで
き、被写体の適性な像を得ることが可能となる。
写界の各位置の色を判別し、追尾手段112が、被写体
の色に近似した色を有する位置を求めることにより、被
写体位置をより確実に求めて追尾することができる。請
求項5の発明は、被写体認識装置110から被写体位置
を安定して得ることができるので、この被写体位置の輝
度情報を用いて、露出演算手段121が露出値を求める
ことにより、被写体に適合した露出制御を行うことがで
き、被写体の適性な像を得ることが可能となる。
【0017】請求項6の発明は、被写体認識装置110
から被写体位置を安定して得ることができるので、合焦
判別手段131により、この被写体位置で示される被写
体の光像の合焦状態を判別することにより、被写体に適
合した焦点制御を行うことができ、被写体の適正な像を
得ることが可能となる。
から被写体位置を安定して得ることができるので、合焦
判別手段131により、この被写体位置で示される被写
体の光像の合焦状態を判別することにより、被写体に適
合した焦点制御を行うことができ、被写体の適正な像を
得ることが可能となる。
【0018】
【実施例】以下、図面に基づいて本発明の実施例につい
て詳細に説明する。図5は、本発明の被写体認識装置を
適用した一眼レフカメラの実施例構成図である。図5に
おいて、露光時以外には、撮影レンズ210を介してカ
メラに入射する光束の一部がメインミラー201ではね
あげられ、ペンタプリズム202の入射面に設けられた
ピント板203上に結像する構成となっており、撮影者
がファインダを覗いたときに、接眼レンズ204を介し
て、このピント板203上の像を観察できる構成となっ
ている。
て詳細に説明する。図5は、本発明の被写体認識装置を
適用した一眼レフカメラの実施例構成図である。図5に
おいて、露光時以外には、撮影レンズ210を介してカ
メラに入射する光束の一部がメインミラー201ではね
あげられ、ペンタプリズム202の入射面に設けられた
ピント板203上に結像する構成となっており、撮影者
がファインダを覗いたときに、接眼レンズ204を介し
て、このピント板203上の像を観察できる構成となっ
ている。
【0019】また、上述した接眼レンズ204の内部に
は、ビームスプリッタ(BS)205が設けられてお
り、被写体認識手段111は、この接眼レンズ204を
介して、撮影者の眼球の動きを観察する構成となってい
る。図6に、被写体認識手段111の詳細構成を示す。
図6において、発光素子221から放射される光は、ハ
ーフミラー222と接眼レンズ204のビームスプリッ
タ205とによって、ファインダを覗いている撮影者の
眼球に入射する構成となっている。また、レンズ223
は、この眼球の網膜で反射された光を2次元CCDイメ
ージセンサ(以下、単にCCDと称する)224上に結
像する構成となっている。このCCD224はn×m個
の素子から形成されており、レンズ223による像の強
度分布を測定する構成となっている。また、検出処理回
路225は、CCD224の出力に基づいて、撮影者の
視線位置を検出する構成となっている。
は、ビームスプリッタ(BS)205が設けられてお
り、被写体認識手段111は、この接眼レンズ204を
介して、撮影者の眼球の動きを観察する構成となってい
る。図6に、被写体認識手段111の詳細構成を示す。
図6において、発光素子221から放射される光は、ハ
ーフミラー222と接眼レンズ204のビームスプリッ
タ205とによって、ファインダを覗いている撮影者の
眼球に入射する構成となっている。また、レンズ223
は、この眼球の網膜で反射された光を2次元CCDイメ
ージセンサ(以下、単にCCDと称する)224上に結
像する構成となっている。このCCD224はn×m個
の素子から形成されており、レンズ223による像の強
度分布を測定する構成となっている。また、検出処理回
路225は、CCD224の出力に基づいて、撮影者の
視線位置を検出する構成となっている。
【0020】ここで、網膜からの反射光は、人間の眼が
注視している方向への強度が最も強くなる。つまり、上
述したCCD224によって得られた強度分布の極大値
に対応する素子の位置により、撮影者の視線方向を判別
することができる。例えば、撮影レンズ210の被写界
をn×m個の要素領域に分割しておき、各要素領域と上
述したCCD224の各素子とが対応するように、上述
したレンズ223の倍率などを決めておけば、極大値に
対応する素子の座標として、視線位置を検出することが
できる。
注視している方向への強度が最も強くなる。つまり、上
述したCCD224によって得られた強度分布の極大値
に対応する素子の位置により、撮影者の視線方向を判別
することができる。例えば、撮影レンズ210の被写界
をn×m個の要素領域に分割しておき、各要素領域と上
述したCCD224の各素子とが対応するように、上述
したレンズ223の倍率などを決めておけば、極大値に
対応する素子の座標として、視線位置を検出することが
できる。
【0021】この場合は、検出処理回路225をCCD
224の出力を順次に比較して極大値をみつける構成と
し、該当する素子の座標を視線位置として出力すればよ
い。ここで、撮影者の眼球は常に運動しているため、上
述したようにして得られる視線位置は、眼球の運動に伴
って常に移動している。しかし、被写体を決めるときな
どは、撮影者が対象とする被写体を注視するため、図7
に示すように、この間は視線位置の移動範囲が比較的小
さな領域に集中する。つまり、視線位置が所定の範囲内
に集中している状態が所定の時間以上続いている場合
は、撮影者が被写体を注視していると考えられるから、
所定の時間Tの間に視線位置が移動した範囲が所定の大
きさよりも小さい場合に、撮影者が被写体を注視してい
るとして、この範囲から被写体の位置を求めればよい。
224の出力を順次に比較して極大値をみつける構成と
し、該当する素子の座標を視線位置として出力すればよ
い。ここで、撮影者の眼球は常に運動しているため、上
述したようにして得られる視線位置は、眼球の運動に伴
って常に移動している。しかし、被写体を決めるときな
どは、撮影者が対象とする被写体を注視するため、図7
に示すように、この間は視線位置の移動範囲が比較的小
さな領域に集中する。つまり、視線位置が所定の範囲内
に集中している状態が所定の時間以上続いている場合
は、撮影者が被写体を注視していると考えられるから、
所定の時間Tの間に視線位置が移動した範囲が所定の大
きさよりも小さい場合に、撮影者が被写体を注視してい
るとして、この範囲から被写体の位置を求めればよい。
【0022】例えば、上述した検出処理回路225で得
られた視線位置の座標を視線追跡部226に入力し、所
定の時間T(例えば1秒間)ごとに、この視線追跡部2
26が各座標成分の最大値Xmax,Ymax および最小値X
min,Ymin を求め、これらの値に基づいて、判定回路2
27が撮影者が被写体を注視しているか否かを判定する
構成とすればよい。この判定回路227は、例えば、各
座標成分の最大値と最小値との差をそれぞれ求め、得ら
れた差の双方が所定の閾値よりも小さいときに、被写体
を注視していると判定し、少なくとも一方が閾値以上で
ある場合は、注視していないと判定すればよい。また、
この判定結果に応じて、位置算出部228が各座標成分
の最大値と最少値との中間値を求めて、被写体の位置を
示す座標(Xa, Ya)として出力する構成となっている。
られた視線位置の座標を視線追跡部226に入力し、所
定の時間T(例えば1秒間)ごとに、この視線追跡部2
26が各座標成分の最大値Xmax,Ymax および最小値X
min,Ymin を求め、これらの値に基づいて、判定回路2
27が撮影者が被写体を注視しているか否かを判定する
構成とすればよい。この判定回路227は、例えば、各
座標成分の最大値と最小値との差をそれぞれ求め、得ら
れた差の双方が所定の閾値よりも小さいときに、被写体
を注視していると判定し、少なくとも一方が閾値以上で
ある場合は、注視していないと判定すればよい。また、
この判定結果に応じて、位置算出部228が各座標成分
の最大値と最少値との中間値を求めて、被写体の位置を
示す座標(Xa, Ya)として出力する構成となっている。
【0023】このようにして、撮影者の眼球の動きに対
応して変化する視線位置から、撮影者が注視している位
置を被写体の位置として求めることができる。また、視
線追跡部226に視線位置の座標を保持しておき、位置
算出部228が、これらの座標の平均値を被写体の位置
として求める構成としてもよい。また、図5において、
レンズ206は、接眼レンズ204の光軸からわずかに
ずれた別の光軸に配置されており、この光軸に交差する
位置に配置された2次元CCDイメージセンサ(以下、
単にCCDと称する)231上にピント板203上の像
を結像する構成となっている。このCCD231は、上
述したCCD224と同様にn×m個の素子から形成さ
れており、各素子は更に3つに分割され、それぞれに赤
色(R)成分,緑色(G)成分,青色(B)成分を選択
的に透過させるフィルタが付けられている。図8に、こ
れらの各色成分のフィルタの分光特性を示す。つまり、
このCCD231の各素子が、上述したピント板203
上の像のそれぞれ対応する微小領域における光量を各色
成分ごとに測定して、各色成分の強度を出力する構成と
なっている。
応して変化する視線位置から、撮影者が注視している位
置を被写体の位置として求めることができる。また、視
線追跡部226に視線位置の座標を保持しておき、位置
算出部228が、これらの座標の平均値を被写体の位置
として求める構成としてもよい。また、図5において、
レンズ206は、接眼レンズ204の光軸からわずかに
ずれた別の光軸に配置されており、この光軸に交差する
位置に配置された2次元CCDイメージセンサ(以下、
単にCCDと称する)231上にピント板203上の像
を結像する構成となっている。このCCD231は、上
述したCCD224と同様にn×m個の素子から形成さ
れており、各素子は更に3つに分割され、それぞれに赤
色(R)成分,緑色(G)成分,青色(B)成分を選択
的に透過させるフィルタが付けられている。図8に、こ
れらの各色成分のフィルタの分光特性を示す。つまり、
このCCD231の各素子が、上述したピント板203
上の像のそれぞれ対応する微小領域における光量を各色
成分ごとに測定して、各色成分の強度を出力する構成と
なっている。
【0024】ここで、ピント板203上の像は、撮影レ
ンズ210の被写界に対応しているから、CCD231
の出力は、撮影レンズ210の被写界の各要素領域にお
ける色を表している。すなわち、上述したレンズ206
とCCD231とによって、色判別手段117の機能を
実現することができ、CCD231の出力r(X, Y),g
(X, Y),b(X, Y)を判別結果として、追尾手段112に
送出すればよい。
ンズ210の被写界に対応しているから、CCD231
の出力は、撮影レンズ210の被写界の各要素領域にお
ける色を表している。すなわち、上述したレンズ206
とCCD231とによって、色判別手段117の機能を
実現することができ、CCD231の出力r(X, Y),g
(X, Y),b(X, Y)を判別結果として、追尾手段112に
送出すればよい。
【0025】次に、上述した分光情報に基づいて、被写
体位置を追尾する方法について説明する。ここで、ある
時刻の被写体位置が、被写界における座標(Xb, Yb) と
して与えられている場合に、ある時刻から時間Δtが経
過したときの被写体位置は、時間Δtが短い場合には上
述した座標(Xb, Yb) に近い位置にあると考えられる。
また、被写体の色を示す分光特性は、ほぼ一定であると
考えられる。
体位置を追尾する方法について説明する。ここで、ある
時刻の被写体位置が、被写界における座標(Xb, Yb) と
して与えられている場合に、ある時刻から時間Δtが経
過したときの被写体位置は、時間Δtが短い場合には上
述した座標(Xb, Yb) に近い位置にあると考えられる。
また、被写体の色を示す分光特性は、ほぼ一定であると
考えられる。
【0026】従って、追尾手段112は、以前に検出さ
れた被写体位置に近く、しかも、分光特性が近似してい
る場所を被写体に相当する特徴を有する位置として判別
し、この位置を追尾すればよい。図9に、追尾手段11
2の詳細構成を示す。また、図10に、追尾処理を表す
流れ図を示す。
れた被写体位置に近く、しかも、分光特性が近似してい
る場所を被写体に相当する特徴を有する位置として判別
し、この位置を追尾すればよい。図9に、追尾手段11
2の詳細構成を示す。また、図10に、追尾処理を表す
流れ図を示す。
【0027】図9において、追尾手段112は、座標保
持部241と、分光情報保持部242と、距離算出部2
43と、差分算出部244と、判別処理部245とから
形成されている。この座標保持部241は、それまでに
得られた被写体位置に対応するCCD231の素子の座
標(Xb, Yb)を保持しており、分光情報保持部242は、
被写体の色を示す分光情報として、この座標で示される
CCD231の素子の出力から得られる値R(Xb, Yb),
G(Xb, Yb),B(Xb, Yb)を保持している。
持部241と、分光情報保持部242と、距離算出部2
43と、差分算出部244と、判別処理部245とから
形成されている。この座標保持部241は、それまでに
得られた被写体位置に対応するCCD231の素子の座
標(Xb, Yb)を保持しており、分光情報保持部242は、
被写体の色を示す分光情報として、この座標で示される
CCD231の素子の出力から得られる値R(Xb, Yb),
G(Xb, Yb),B(Xb, Yb)を保持している。
【0028】この分光情報R(Xb, Yb),G(Xb, Yb),B
(Xb, Yb)は、上述したCCD231の素子からのR,
G,B各成分に対応する出力r(Xb,Yb),g(Xb,Yb),b(X
b,Yb)をその総和を用いて規格化したものであり、 R(Xb, Yb)=r(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) G(Xb, Yb)=g(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) B(Xb, Yb)=b(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) のように表される。従って、上述した分光情報R(Xb,Y
b),G(Xb,Yb),B(Xb, Yb)それぞれ値の範囲は0ないし
1となっている。
(Xb, Yb)は、上述したCCD231の素子からのR,
G,B各成分に対応する出力r(Xb,Yb),g(Xb,Yb),b(X
b,Yb)をその総和を用いて規格化したものであり、 R(Xb, Yb)=r(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) G(Xb, Yb)=g(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) B(Xb, Yb)=b(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) のように表される。従って、上述した分光情報R(Xb,Y
b),G(Xb,Yb),B(Xb, Yb)それぞれ値の範囲は0ないし
1となっている。
【0029】また、これらの座標および分光情報は、そ
れぞれ距離算出部243および差分算出部244に送出
される構成となっている。まず、上述した座標保持部2
41および分光情報保持部242に、被写体の座標およ
び分光情報が保持されているか否かを判定する(ステッ
プ301)。この追尾手段112による追尾処理を開始
する際には、被写体に関する情報は設定されていないの
で、必ずステップ301の否定判定となり、ステップ3
02において、被写界内の特定の位置(例えば被写界の
中央)を示す座標とCCD231の対応する素子の出力
とが、座標保持部241および分光情報保持部242に
初期値として設定される。この場合は、上述した位置に
被写体があるものとして、以下の追尾処理が行われる。
れぞれ距離算出部243および差分算出部244に送出
される構成となっている。まず、上述した座標保持部2
41および分光情報保持部242に、被写体の座標およ
び分光情報が保持されているか否かを判定する(ステッ
プ301)。この追尾手段112による追尾処理を開始
する際には、被写体に関する情報は設定されていないの
で、必ずステップ301の否定判定となり、ステップ3
02において、被写界内の特定の位置(例えば被写界の
中央)を示す座標とCCD231の対応する素子の出力
とが、座標保持部241および分光情報保持部242に
初期値として設定される。この場合は、上述した位置に
被写体があるものとして、以下の追尾処理が行われる。
【0030】また、追尾処理を開始する際には、撮影者
は被写体を注視していると考えられるので、上述した被
写体認識手段111で得られた座標を座標保持部241
に保持し、また、この座標に対応するCCD231の出
力を分光情報保持部242に保持してもよい。この場合
は、撮影者が注視している位置が初期位置とされるの
で、最初から被写体を正確に捉えて追尾することができ
る。
は被写体を注視していると考えられるので、上述した被
写体認識手段111で得られた座標を座標保持部241
に保持し、また、この座標に対応するCCD231の出
力を分光情報保持部242に保持してもよい。この場合
は、撮影者が注視している位置が初期位置とされるの
で、最初から被写体を正確に捉えて追尾することができ
る。
【0031】また、被写体位置をリセットする旨の警告
をファインダ内の被写界に対応する画面の外側に表示
し、撮影者に、被写体を画面の中央部に入れた状態でリ
セットスイッチ(図示せず)を押すように促してもよ
い。この場合は、リセットスイッチの押下に応じて、画
面の中央に対応する座標およびCCD231の対応する
素子の出力を設定すればよい。
をファインダ内の被写界に対応する画面の外側に表示
し、撮影者に、被写体を画面の中央部に入れた状態でリ
セットスイッチ(図示せず)を押すように促してもよ
い。この場合は、リセットスイッチの押下に応じて、画
面の中央に対応する座標およびCCD231の対応する
素子の出力を設定すればよい。
【0032】一方、ステップ301における肯定判定の
場合は、距離算出部243は、上述した被写体の位置と
被写界の各要素領域との間の距離を算出し、また、差分
算出部244は、被写界の各要素領域の色を示す分光情
報と被写体位置の色を示す分光情報との差分を求める
(ステップ303)。ここで、上述したように、CCD
231の各素子は、被写界の要素領域にそれぞれ対応し
ている。従って、距離算出部243は、被写界における
距離の代わりに、上述した座標(Xb, Yb)で示されるCC
D231の素子と他の各素子との距離をその最大距離I
max(={(Xn −X1)2+(Ym −Y1)2})で規格化した距離
dIを求める構成とすればよい。つまり、距離算出部2
43は、最大距離Imax と各素子の座標(X,Y)を用
いて、 dI(X, Y)={(Xb−X)2+(Yb−Y)2}1/2 /Imax で表される距離dI(X, Y)を求めて判別処理部245に
送出すればよい。但し、上述した最大距離Imax は、C
CD231の対角線上で対向する隅の2つの素子の座標
(X1,Y1),(Xn, Ym)を用いて、 Imax ={(Xn−X1)2+(Ym−Y1)2}1/2 で表される。
場合は、距離算出部243は、上述した被写体の位置と
被写界の各要素領域との間の距離を算出し、また、差分
算出部244は、被写界の各要素領域の色を示す分光情
報と被写体位置の色を示す分光情報との差分を求める
(ステップ303)。ここで、上述したように、CCD
231の各素子は、被写界の要素領域にそれぞれ対応し
ている。従って、距離算出部243は、被写界における
距離の代わりに、上述した座標(Xb, Yb)で示されるCC
D231の素子と他の各素子との距離をその最大距離I
max(={(Xn −X1)2+(Ym −Y1)2})で規格化した距離
dIを求める構成とすればよい。つまり、距離算出部2
43は、最大距離Imax と各素子の座標(X,Y)を用
いて、 dI(X, Y)={(Xb−X)2+(Yb−Y)2}1/2 /Imax で表される距離dI(X, Y)を求めて判別処理部245に
送出すればよい。但し、上述した最大距離Imax は、C
CD231の対角線上で対向する隅の2つの素子の座標
(X1,Y1),(Xn, Ym)を用いて、 Imax ={(Xn−X1)2+(Ym−Y1)2}1/2 で表される。
【0033】また、差分算出部244は、CCD231
の各素子の出力から、各要素領域の色を示す分光情報R
(X, Y),G(X, Y),B(X, Y)を求め、この分光情報から
被写体の分光情報をそれぞれ差し引いて、 dR(X, Y)=R(Xa, Ya)−R(X, Y) dG(X, Y)=G(Xa, Ya)−G(X, Y) dB(X, Y)=B(Xa, Ya)−B(X, Y) で表される差分dR(X, Y),dG(X, Y),dB(X, Y)を
求める構成となっており、得られた差分dR(X, Y),d
G(X, Y),dB(X, Y)を判別処理部245に送出すれば
よい。
の各素子の出力から、各要素領域の色を示す分光情報R
(X, Y),G(X, Y),B(X, Y)を求め、この分光情報から
被写体の分光情報をそれぞれ差し引いて、 dR(X, Y)=R(Xa, Ya)−R(X, Y) dG(X, Y)=G(Xa, Ya)−G(X, Y) dB(X, Y)=B(Xa, Ya)−B(X, Y) で表される差分dR(X, Y),dG(X, Y),dB(X, Y)を
求める構成となっており、得られた差分dR(X, Y),d
G(X, Y),dB(X, Y)を判別処理部245に送出すれば
よい。
【0034】この判別処理部245は、上述したステッ
プ303において得られた距離dIと分光情報の差分d
R,dG,dBとをパラメータとして、後述するファジ
ー演算処理を行って、被写体に相当する位置を判別し、
該当する位置を新しい被写体の位置とする構成となって
いる。以下に説明するファジー演算処理は、 if dR(X,Y)=small and dG(X,Y)=small and dB(X,Y)=sma
ll and dI(X,Y)=nearthen S(X,Y)=big で表されるファジールールを用いて、座標(X,Y) で示さ
れる被写界の各要素領域の位置が被写体に相当する位置
である旨の命題に対する適合度S(X,Y) を求める処理で
ある。上述したファジールールにおいて、各式は該当す
るパラメータについての命題を示しており、全体とし
て、分光情報の各色成分の差分dR(X, Y),dG(X,
Y),dB(X, Y)それぞれが小さい(small) 旨の命題と距
離dI(X, Y)が近い(near)旨の命題とが全て“真”であ
るときに、上述した適合度S(X,Y) が大きい(big) 旨の
命題が“真”であることを示している。
プ303において得られた距離dIと分光情報の差分d
R,dG,dBとをパラメータとして、後述するファジ
ー演算処理を行って、被写体に相当する位置を判別し、
該当する位置を新しい被写体の位置とする構成となって
いる。以下に説明するファジー演算処理は、 if dR(X,Y)=small and dG(X,Y)=small and dB(X,Y)=sma
ll and dI(X,Y)=nearthen S(X,Y)=big で表されるファジールールを用いて、座標(X,Y) で示さ
れる被写界の各要素領域の位置が被写体に相当する位置
である旨の命題に対する適合度S(X,Y) を求める処理で
ある。上述したファジールールにおいて、各式は該当す
るパラメータについての命題を示しており、全体とし
て、分光情報の各色成分の差分dR(X, Y),dG(X,
Y),dB(X, Y)それぞれが小さい(small) 旨の命題と距
離dI(X, Y)が近い(near)旨の命題とが全て“真”であ
るときに、上述した適合度S(X,Y) が大きい(big) 旨の
命題が“真”であることを示している。
【0035】まず、図11(a),(b),(c),(d) に示す各パ
ラメータについてのメンバーシップ関数から、距離dI
が近い(near)旨の命題および分光情報の差分dR,d
G,dBそれぞれが小さい(small)旨の命題についての
適合度をそれぞれ算出する(ステップ304)。ステッ
プ304において、判別処理部245は、各命題に対応
するメンバーシップ関数のヘッジと対応するパラメータ
の値との交点の値を求め、この値を各命題の適合度とす
ればよい。
ラメータについてのメンバーシップ関数から、距離dI
が近い(near)旨の命題および分光情報の差分dR,d
G,dBそれぞれが小さい(small)旨の命題についての
適合度をそれぞれ算出する(ステップ304)。ステッ
プ304において、判別処理部245は、各命題に対応
するメンバーシップ関数のヘッジと対応するパラメータ
の値との交点の値を求め、この値を各命題の適合度とす
ればよい。
【0036】次に、各パラメータに対応する適合度にm
ax−min合成法を用いて、上述した4つの命題につ
いての適合度を合成し、座標(X, Y)で示される被写界の
各要素領域の位置が被写体に相当する位置である旨の命
題に対する適合度S(X, Y)を求める(ステップ30
5)。ここで、max−min合成法においては、ファ
ジールール全体の適合度として、各パラメータの適合度
の最少値をとることになっている。従って、ステップ3
05においては、各パラメータの適合度から最少値を選
択し、図11(e) に示した適合度Sに対するメンバーシ
ップ関数の該当するヘッジとの交点を求め、この交点の
値を上述した命題の最終的な適合度S(X, Y)とすればよ
い。
ax−min合成法を用いて、上述した4つの命題につ
いての適合度を合成し、座標(X, Y)で示される被写界の
各要素領域の位置が被写体に相当する位置である旨の命
題に対する適合度S(X, Y)を求める(ステップ30
5)。ここで、max−min合成法においては、ファ
ジールール全体の適合度として、各パラメータの適合度
の最少値をとることになっている。従って、ステップ3
05においては、各パラメータの適合度から最少値を選
択し、図11(e) に示した適合度Sに対するメンバーシ
ップ関数の該当するヘッジとの交点を求め、この交点の
値を上述した命題の最終的な適合度S(X, Y)とすればよ
い。
【0037】このようにして得られたCCD231の各
素子に対応する適合度S(X, Y)は、被写界の要素領域そ
れぞれの位置が被写体に相当する位置である度合いを示
しているから、適合度S(X, Y)の最大値を検出し(ステ
ップ306)、該当するCCD231の素子の座標を被
写体の位置を示す座標(Xb, Yb)とすればよい。上述した
ようにして、被写界の各要素領域から被写体に近似した
色であって、かつ、以前に求められた被写体の位置に近
い要素領域である度合いを評価して、被写体に相当する
位置を判別することができる。これにより、被写体が日
陰から日向に移動した場合のように、被写体の輝度が大
きく変化した場合においても、被写体の色を示す分光情
報の変化が比較的少ないことを利用して、確実に被写体
に相当する位置を判別することができる。
素子に対応する適合度S(X, Y)は、被写界の要素領域そ
れぞれの位置が被写体に相当する位置である度合いを示
しているから、適合度S(X, Y)の最大値を検出し(ステ
ップ306)、該当するCCD231の素子の座標を被
写体の位置を示す座標(Xb, Yb)とすればよい。上述した
ようにして、被写界の各要素領域から被写体に近似した
色であって、かつ、以前に求められた被写体の位置に近
い要素領域である度合いを評価して、被写体に相当する
位置を判別することができる。これにより、被写体が日
陰から日向に移動した場合のように、被写体の輝度が大
きく変化した場合においても、被写体の色を示す分光情
報の変化が比較的少ないことを利用して、確実に被写体
に相当する位置を判別することができる。
【0038】また、判別処理部245は、上述したよう
にして得られた座標(Xb, Yb)およびCCD231の該当
する素子の出力を座標保持部241および分光情報保持
部242にそれぞれ送出して(ステップ307)、被写
体の位置を示す座標(Xb, Yb)と被写体の色を示す分光情
報R(Xb,Yb),G(Xb, Yb),B(Xb, Yb)とを更新する構
成となっている。
にして得られた座標(Xb, Yb)およびCCD231の該当
する素子の出力を座標保持部241および分光情報保持
部242にそれぞれ送出して(ステップ307)、被写
体の位置を示す座標(Xb, Yb)と被写体の色を示す分光情
報R(Xb,Yb),G(Xb, Yb),B(Xb, Yb)とを更新する構
成となっている。
【0039】従って、上述したステップ301〜ステッ
プ307を繰り返すことにより、被写界内での被写体の
移動に追従して、被写体の位置を確実に追尾することが
できる。なお、判別処理部245が、被写界の各要素領
域について、ステップ303で得られる各パラメータの
総和をそれぞれ求め、この総和の最少値を与える被写界
の要素領域を被写体位置とする構成としてもよい。
プ307を繰り返すことにより、被写界内での被写体の
移動に追従して、被写体の位置を確実に追尾することが
できる。なお、判別処理部245が、被写界の各要素領
域について、ステップ303で得られる各パラメータの
総和をそれぞれ求め、この総和の最少値を与える被写界
の要素領域を被写体位置とする構成としてもよい。
【0040】この場合は、上述したような複雑な演算処
理を行う必要がないので、判別処理部245の構成を簡
易とすることができ、また、追尾処理を高速化すること
ができる。但し、1つのパラメータのみが以前の被写体
位置に対応するパラメータと大幅に異なっている場合で
も、他のパラメータの値が近似していれば被写体の位置
とされる可能性があり、上述したファジー演算処理を用
いた場合に比べて誤差が大きい。
理を行う必要がないので、判別処理部245の構成を簡
易とすることができ、また、追尾処理を高速化すること
ができる。但し、1つのパラメータのみが以前の被写体
位置に対応するパラメータと大幅に異なっている場合で
も、他のパラメータの値が近似していれば被写体の位置
とされる可能性があり、上述したファジー演算処理を用
いた場合に比べて誤差が大きい。
【0041】また、図5において、被写体認識手段11
1で得られた座標(Xa, Ya)と追尾手段112で得られた
座標(Xb, Yb)とは、認識処理部250にそれぞれ入力さ
れており、この認識処理部250が最終的な被写体位置
を示す座標(Xo, Yo)を決定して、後述する露出制御処理
および焦点制御処理に供する構成となっている。図12
に、認識処理部250の詳細構成図を示す。また、図1
3に、被写体位置の決定処理の流れ図を示す。
1で得られた座標(Xa, Ya)と追尾手段112で得られた
座標(Xb, Yb)とは、認識処理部250にそれぞれ入力さ
れており、この認識処理部250が最終的な被写体位置
を示す座標(Xo, Yo)を決定して、後述する露出制御処理
および焦点制御処理に供する構成となっている。図12
に、認識処理部250の詳細構成図を示す。また、図1
3に、被写体位置の決定処理の流れ図を示す。
【0042】図12において、距離算出回路251と比
較回路252とは、判定手段113を形成しており、距
離算出回路251が、被写体認識手段111と追尾手段
112とで得られた2つの座標(Xa, Ya),(Xb, Yb)で示
される2点間の距離Dを求め、比較回路252が、この
距離Dと所定の閾値とを比較する構成となっている。こ
の比較回路252には、上述した被写体認識手段111
の判定回路227の判定結果が入力されており、撮影者
が被写体を注視している旨の判定結果の入力に応じて比
較動作を行う構成となっている。
較回路252とは、判定手段113を形成しており、距
離算出回路251が、被写体認識手段111と追尾手段
112とで得られた2つの座標(Xa, Ya),(Xb, Yb)で示
される2点間の距離Dを求め、比較回路252が、この
距離Dと所定の閾値とを比較する構成となっている。こ
の比較回路252には、上述した被写体認識手段111
の判定回路227の判定結果が入力されており、撮影者
が被写体を注視している旨の判定結果の入力に応じて比
較動作を行う構成となっている。
【0043】すなわち、上述した被写体認識手段111
の判定回路227によって、撮影者が注視している位置
があるとされたときに、ステップ401の肯定判定とな
り、比較回路252により、距離算出回路251で得ら
れた距離Dと閾値とが比較される(ステップ402)。
また、図12において、セレクタ253は、選択手段1
14に相当するものであり、上述した比較回路252に
よる比較結果および被写体認識手段111の判定回路2
27による判定結果に応じて、上述した2つの座標(Xa,
Ya),(Xb, Yb)の一方を被写体位置(Xo, Yo)として選択
する構成となっている。
の判定回路227によって、撮影者が注視している位置
があるとされたときに、ステップ401の肯定判定とな
り、比較回路252により、距離算出回路251で得ら
れた距離Dと閾値とが比較される(ステップ402)。
また、図12において、セレクタ253は、選択手段1
14に相当するものであり、上述した比較回路252に
よる比較結果および被写体認識手段111の判定回路2
27による判定結果に応じて、上述した2つの座標(Xa,
Ya),(Xb, Yb)の一方を被写体位置(Xo, Yo)として選択
する構成となっている。
【0044】ここで、標準的な被写体(例えば人物な
ど)が被写界において占める大きさに対応する値を閾値
として比較回路252に設定すれば、ステップ402の
比較結果から、被写体認識手段111と追尾手段112
とでそれぞれ得られた被写体の位置が同一の被写体に対
応するものであるか否かを判定することができる。つま
り、比較回路252により、上述した距離Dが閾値を超
えたとされた場合(ステップ402の肯定判定)に撮影
者が注目している被写体が変わったと判定し、この判定
結果に応じて、セレクタ253が、被写体認識手段11
1で得られた座標(Xa, Ya)を選択して(ステップ40
3)、被写体位置(Xo, Yo)として出力すればよい。
ど)が被写界において占める大きさに対応する値を閾値
として比較回路252に設定すれば、ステップ402の
比較結果から、被写体認識手段111と追尾手段112
とでそれぞれ得られた被写体の位置が同一の被写体に対
応するものであるか否かを判定することができる。つま
り、比較回路252により、上述した距離Dが閾値を超
えたとされた場合(ステップ402の肯定判定)に撮影
者が注目している被写体が変わったと判定し、この判定
結果に応じて、セレクタ253が、被写体認識手段11
1で得られた座標(Xa, Ya)を選択して(ステップ40
3)、被写体位置(Xo, Yo)として出力すればよい。
【0045】また、図12において、読出回路254と
転送回路255とは、制御手段115を形成しており、
被写体が変更された旨の判定結果に応じて、読出回路2
54が、CCD231から座標(Xa, Ya)で示される素子
の出力を読み出す構成となっている。また、転送回路2
55は、上述した座標(Xa, Ya)および読出回路254で
得られた素子の出力を新しい被写体の位置を示す座標(X
b, Yb)および新しい被写体の色を示す分光情報R(Xb, Y
b),G(Xb, Yb),B(Xb, Yb)として追尾手段112に送
出し(ステップ404)、座標保持部241および分光
情報保持部242にそれぞれ格納する構成となってい
る。
転送回路255とは、制御手段115を形成しており、
被写体が変更された旨の判定結果に応じて、読出回路2
54が、CCD231から座標(Xa, Ya)で示される素子
の出力を読み出す構成となっている。また、転送回路2
55は、上述した座標(Xa, Ya)および読出回路254で
得られた素子の出力を新しい被写体の位置を示す座標(X
b, Yb)および新しい被写体の色を示す分光情報R(Xb, Y
b),G(Xb, Yb),B(Xb, Yb)として追尾手段112に送
出し(ステップ404)、座標保持部241および分光
情報保持部242にそれぞれ格納する構成となってい
る。
【0046】従って、以降は、追尾手段112により、
上述した新しい被写体位置および分光情報に基づいて、
被写体の位置の追尾処理が行われる。これにより、撮影
者が被写体を変更したことを漏れなく検出し、被写体が
変わったときに、速やかに新しい被写体位置を求め、こ
の新しい被写体の位置を追尾することが可能となる。
上述した新しい被写体位置および分光情報に基づいて、
被写体の位置の追尾処理が行われる。これにより、撮影
者が被写体を変更したことを漏れなく検出し、被写体が
変わったときに、速やかに新しい被写体位置を求め、こ
の新しい被写体の位置を追尾することが可能となる。
【0047】また、上述したステップ302において、
撮影者が注視している位置にかかわらず画面の中央を被
写体の初期位置とした場合においても、上述したステッ
プ404の処理により、正しく認識された被写体の位置
を示す座標が設定され、以後は、この被写体の位置の追
尾処理が行われる。一方、ステップ401あるいは40
2の否定判定の場合は、撮影者に被写体を変更する意図
はないと考えられる。従って、セレクタ253は、撮影
者が被写体を注視していない旨の判定結果の入力あるい
は被写体が変わっていない旨の判定結果の入力に応じ
て、追尾手段112で得られた座標(Xb, Yb)を選択し
(ステップ405)、被写体位置(Xo, Yo)として出力す
ればよい。
撮影者が注視している位置にかかわらず画面の中央を被
写体の初期位置とした場合においても、上述したステッ
プ404の処理により、正しく認識された被写体の位置
を示す座標が設定され、以後は、この被写体の位置の追
尾処理が行われる。一方、ステップ401あるいは40
2の否定判定の場合は、撮影者に被写体を変更する意図
はないと考えられる。従って、セレクタ253は、撮影
者が被写体を注視していない旨の判定結果の入力あるい
は被写体が変わっていない旨の判定結果の入力に応じ
て、追尾手段112で得られた座標(Xb, Yb)を選択し
(ステップ405)、被写体位置(Xo, Yo)として出力す
ればよい。
【0048】被写体が変わっていないとされた場合に、
追尾手段112によって得られた座標(Xb, Yb)を被写体
位置とすることにより、撮影者の眼球のランダムな運動
によって被写体位置が必要以上に変動することを防い
で、安定した被写体位置を求めることが可能となる。こ
のようにして、撮影者が意図する被写体の位置を正しく
認識するとともに、この被写体の安定した位置を得るこ
とが可能となるので、得られた被写体位置を露出制御処
理および焦点制御処理に供することにより、被写体の良
好な像を撮影することができる。
追尾手段112によって得られた座標(Xb, Yb)を被写体
位置とすることにより、撮影者の眼球のランダムな運動
によって被写体位置が必要以上に変動することを防い
で、安定した被写体位置を求めることが可能となる。こ
のようにして、撮影者が意図する被写体の位置を正しく
認識するとともに、この被写体の安定した位置を得るこ
とが可能となるので、得られた被写体位置を露出制御処
理および焦点制御処理に供することにより、被写体の良
好な像を撮影することができる。
【0049】図5において、メインミラー201を透過
した光は、ハーフミラー207によって折り曲げられ、
合焦判別手段131に入射する構成となっている。この
合焦判別手段131は、図14に示すように、2つのセ
パレータレンズ263a,263bによって、被写界に
対応する像を2つの2次元CCDイメージセンサ(以
下、単にCCDと称する)264a,264b上にそれ
ぞれ結像し、これらのCCD264a,264bの任意
の部分について、相関演算回路265が出力の相関を求
める構成となっている。上述した2つのCCD264
a,264bとしては、上述したCCD224と同様
に、n×m個の素子からなるものを用いればよい。
した光は、ハーフミラー207によって折り曲げられ、
合焦判別手段131に入射する構成となっている。この
合焦判別手段131は、図14に示すように、2つのセ
パレータレンズ263a,263bによって、被写界に
対応する像を2つの2次元CCDイメージセンサ(以
下、単にCCDと称する)264a,264b上にそれ
ぞれ結像し、これらのCCD264a,264bの任意
の部分について、相関演算回路265が出力の相関を求
める構成となっている。上述した2つのCCD264
a,264bとしては、上述したCCD224と同様
に、n×m個の素子からなるものを用いればよい。
【0050】また、相関演算回路265は、上述した認
識処理部250で得られた被写体位置の入力に応じて、
この被写体位置を含む所定の範囲について、CCD26
4a,264bの出力の相関を求め、この相関演算結果
を被写体の合焦状態の判別結果として出力すればよい。
例えば、相関演算回路265は、被写体位置(Xo, Yo)を
含むp×q個の素子からなる領域に対応するCCD26
4a,264bの出力の相関を求め、得られた相関を合
焦状態の判別結果として、図5に示すレンズ駆動機構2
62に送出すればよい。また、レンズ駆動機構262
は、この判別結果に応じて、撮影レンズ210を合焦位
置まで駆動する構成となっている。
識処理部250で得られた被写体位置の入力に応じて、
この被写体位置を含む所定の範囲について、CCD26
4a,264bの出力の相関を求め、この相関演算結果
を被写体の合焦状態の判別結果として出力すればよい。
例えば、相関演算回路265は、被写体位置(Xo, Yo)を
含むp×q個の素子からなる領域に対応するCCD26
4a,264bの出力の相関を求め、得られた相関を合
焦状態の判別結果として、図5に示すレンズ駆動機構2
62に送出すればよい。また、レンズ駆動機構262
は、この判別結果に応じて、撮影レンズ210を合焦位
置まで駆動する構成となっている。
【0051】これにより、撮影者が意図した被写体の移
動に対応して、撮影レンズ210の焦点を正しく合わせ
ることができる。また、上述した認識処理部250によ
り、被写体の移動に正しく追従し、しかも安定した被写
体位置が得られるので、撮影レンズ210の焦点位置が
目まぐるしく変化することはなく、被写体の移動に追従
した焦点制御を可能とするとともに焦点制御の安定化を
図ることができる。
動に対応して、撮影レンズ210の焦点を正しく合わせ
ることができる。また、上述した認識処理部250によ
り、被写体の移動に正しく追従し、しかも安定した被写
体位置が得られるので、撮影レンズ210の焦点位置が
目まぐるしく変化することはなく、被写体の移動に追従
した焦点制御を可能とするとともに焦点制御の安定化を
図ることができる。
【0052】また、露出演算手段121は、輝度算出部
271と重み算出部272と露出値演算部273とから
構成されている。この輝度算出部271は、CCD23
1の各素子の出力R(X, Y),G(X, Y),B(X,Y)にそれ
ぞれ所定の定数K1 , K2 , K3 を乗じて、 BV=K1×B(X, Y)+K2×G(X, Y)+K2×R(X, Y) 各素子に対応する被写界の要素領域の輝度値BVを求める
構成となっている。
271と重み算出部272と露出値演算部273とから
構成されている。この輝度算出部271は、CCD23
1の各素子の出力R(X, Y),G(X, Y),B(X,Y)にそれ
ぞれ所定の定数K1 , K2 , K3 を乗じて、 BV=K1×B(X, Y)+K2×G(X, Y)+K2×R(X, Y) 各素子に対応する被写界の要素領域の輝度値BVを求める
構成となっている。
【0053】また、重み算出部272は、後述する処理
を行って、被写界の各要素領域に対応する重みを求める
構成となっており、露出演算部273は、この重みを用
いて上述した各要素領域の輝度値を加重平均し、得られ
た結果を露出値として、メカ制御部274に送出する構
成となっている。図15に、重み算出部272の詳細構
成を示す。
を行って、被写界の各要素領域に対応する重みを求める
構成となっており、露出演算部273は、この重みを用
いて上述した各要素領域の輝度値を加重平均し、得られ
た結果を露出値として、メカ制御部274に送出する構
成となっている。図15に、重み算出部272の詳細構
成を示す。
【0054】図15において、重み算出部272は、距
離算出部275と差分算出部276と適合度算出部27
7とから形成されている。この距離算出部275は、被
写体位置(Xo, Yo)が入力されており、CCD231の各
素子と被写体位置(Xo, Yo)との距離dIを求め、適合度
算出部275に送出する構成となっている。また、差分
算出部276には、CCD231の出力および上述した
輝度算出部271の出力が入力されており、被写界の要
素領域の分光情報および輝度値から被写体の分光情報お
よび輝度値を差し引いて、 dR(X, Y)=R(Xo, Yo)−R(X, Y) dG(X, Y)=G(Xo, Yo)−G(X, Y) dB(X, Y)=B(Xo, Yo)−B(X, Y) dBV(X, Y)=BV(Xa, Ya)−BV(X, Y) で表される差分dR,dG,dB,dBVを求める構成と
なっている。
離算出部275と差分算出部276と適合度算出部27
7とから形成されている。この距離算出部275は、被
写体位置(Xo, Yo)が入力されており、CCD231の各
素子と被写体位置(Xo, Yo)との距離dIを求め、適合度
算出部275に送出する構成となっている。また、差分
算出部276には、CCD231の出力および上述した
輝度算出部271の出力が入力されており、被写界の要
素領域の分光情報および輝度値から被写体の分光情報お
よび輝度値を差し引いて、 dR(X, Y)=R(Xo, Yo)−R(X, Y) dG(X, Y)=G(Xo, Yo)−G(X, Y) dB(X, Y)=B(Xo, Yo)−B(X, Y) dBV(X, Y)=BV(Xa, Ya)−BV(X, Y) で表される差分dR,dG,dB,dBVを求める構成と
なっている。
【0055】また、適合度算出部277は、距離dIと
差分dR,dG,dB,dBVとをパラメータとして、 if dR(X,Y)=small and dG(X,Y)=small and dB(X,Y)=sma
ll and dI(X,Y)=nearand dBV(X,Y)=small then S(X,Y)=big で表されるファジールールを適用して、座標(X, Y)で示
される被写界の各要素領域が、被写界において被写体が
占める領域内にある度合いを示す適合度S(X, Y)を求
め、この適合度S(X, Y)の値を重みとして出力する構成
となっている。上述したパラメータdBVに対応するメン
バーシップ関数としては、図11(a) 〜(d)に示した各
パラメータdI,dR,dG,dBと同様のメンバーシ
ップ関数を用い、上述したファジールールの該当する命
題の適合度を求めればよい。
差分dR,dG,dB,dBVとをパラメータとして、 if dR(X,Y)=small and dG(X,Y)=small and dB(X,Y)=sma
ll and dI(X,Y)=nearand dBV(X,Y)=small then S(X,Y)=big で表されるファジールールを適用して、座標(X, Y)で示
される被写界の各要素領域が、被写界において被写体が
占める領域内にある度合いを示す適合度S(X, Y)を求
め、この適合度S(X, Y)の値を重みとして出力する構成
となっている。上述したパラメータdBVに対応するメン
バーシップ関数としては、図11(a) 〜(d)に示した各
パラメータdI,dR,dG,dBと同様のメンバーシ
ップ関数を用い、上述したファジールールの該当する命
題の適合度を求めればよい。
【0056】この場合は、露出演算部273によって得
られる露出値BVa は、
られる露出値BVa は、
【0057】
【数1】
【0058】で表され、各要素領域の輝度情報の露出値
BVa への寄与は、適合度S(X, Y)の値の大小に応じて決
定される。つまり、ほぼ確実に被写体が占める領域に含
まれていると考えられる要素領域の輝度情報は、確実に
露出値に反映され、逆に被写体が占める領域に含まれて
いるかどうか疑わしい要素領域の輝度情報の露出値への
寄与は小さくなっている。これにより、被写体の輝度情
報を正確に評価することが可能となるので、被写体の輝
度変化に対応して、被写体に適合した露出値を求めるこ
とができる。
BVa への寄与は、適合度S(X, Y)の値の大小に応じて決
定される。つまり、ほぼ確実に被写体が占める領域に含
まれていると考えられる要素領域の輝度情報は、確実に
露出値に反映され、逆に被写体が占める領域に含まれて
いるかどうか疑わしい要素領域の輝度情報の露出値への
寄与は小さくなっている。これにより、被写体の輝度情
報を正確に評価することが可能となるので、被写体の輝
度変化に対応して、被写体に適合した露出値を求めるこ
とができる。
【0059】このようにして、撮影者が意図した被写体
の輝度情報に基づいて、露出値を求めることができ、こ
の露出値に応じた露出制御が可能となる。なお、露出演
算手段121が、被写体位置(Xo, Yo)を含む所定の領域
の輝度に応じた露出値を求める構成としてもよい。例え
ば、CCD231から被写体位置(Xo, Yo)に対応する素
子とその周囲のr×s個の素子の出力を読み出して、こ
れらの出力から得られる輝度値の平均値を被写体の輝度
値として、露出値を求めればよい。
の輝度情報に基づいて、露出値を求めることができ、こ
の露出値に応じた露出制御が可能となる。なお、露出演
算手段121が、被写体位置(Xo, Yo)を含む所定の領域
の輝度に応じた露出値を求める構成としてもよい。例え
ば、CCD231から被写体位置(Xo, Yo)に対応する素
子とその周囲のr×s個の素子の出力を読み出して、こ
れらの出力から得られる輝度値の平均値を被写体の輝度
値として、露出値を求めればよい。
【0060】この場合は、上述したような複雑なファジ
ー演算を行う必要がないので、露出演算処理を高速化す
ることが可能である。一方、被写体に含まれていない要
素領域の輝度情報が露出値に反映されてしまう可能性も
ある。また、上述した適合度S(X, Y)の値が所定の閾値
以上である要素領域を抽出し、該当する要素領域の輝度
情報のみから露出値を求める構成としてもよい。
ー演算を行う必要がないので、露出演算処理を高速化す
ることが可能である。一方、被写体に含まれていない要
素領域の輝度情報が露出値に反映されてしまう可能性も
ある。また、上述した適合度S(X, Y)の値が所定の閾値
以上である要素領域を抽出し、該当する要素領域の輝度
情報のみから露出値を求める構成としてもよい。
【0061】例えば、図16(a) に示すような被写体
(猫)が捉えられ、被写体位置として被写体となった猫
の額の部分を示す座標 (Xo, Yo) が得られた場合は、上
述した重み算出部272において、図16(b)にハッチ
ングの種類を変えて示すような適合度S(X, Y)の値の分
布が得られる。但し、図16(b) においてハッチングが
施されていない部分は、適合度S(X, Y)の値が0.3以
下であることを示す。
(猫)が捉えられ、被写体位置として被写体となった猫
の額の部分を示す座標 (Xo, Yo) が得られた場合は、上
述した重み算出部272において、図16(b)にハッチ
ングの種類を変えて示すような適合度S(X, Y)の値の分
布が得られる。但し、図16(b) においてハッチングが
施されていない部分は、適合度S(X, Y)の値が0.3以
下であることを示す。
【0062】例えば、上述した閾値を0.3として、図
16(a) において、実線で囲んで示す部分に対応するC
CD231の各素子の出力を抽出すれば、被写体部分に
対応する測光結果をほぼもれなく抽出することが可能と
なり、被写体の部分の輝度情報をもれなく反映した露出
値を得ることができる。このようにして得られた露出値
に基づいて、図5に示すメカ制御部274は、従来のカ
メラと同様にして、撮影レンズ210に設けられた絞り
211および図示しないシャッタの動作を制御する構成
となっている。このメカ制御部274は、上述した露出
値に応じて、絞り211の開口の制御を行い、また、露
光時にシャッタの動作を制御して露光時間を制御する構
成とすればよい。
16(a) において、実線で囲んで示す部分に対応するC
CD231の各素子の出力を抽出すれば、被写体部分に
対応する測光結果をほぼもれなく抽出することが可能と
なり、被写体の部分の輝度情報をもれなく反映した露出
値を得ることができる。このようにして得られた露出値
に基づいて、図5に示すメカ制御部274は、従来のカ
メラと同様にして、撮影レンズ210に設けられた絞り
211および図示しないシャッタの動作を制御する構成
となっている。このメカ制御部274は、上述した露出
値に応じて、絞り211の開口の制御を行い、また、露
光時にシャッタの動作を制御して露光時間を制御する構
成とすればよい。
【0063】ここで、認識処理部250により、安定し
た被写体位置(Xo,Yo)が得られるので、上述した露出演
算部273によって安定した露出値BVa が得られる。従
って、メカ制御部274によって、絞り211の開口の
大きさが目まぐるしく変えられることはなく、被写体の
輝度変化に追従した露出処理を可能とするとともに、露
出制御の安定化を図ることができる。
た被写体位置(Xo,Yo)が得られるので、上述した露出演
算部273によって安定した露出値BVa が得られる。従
って、メカ制御部274によって、絞り211の開口の
大きさが目まぐるしく変えられることはなく、被写体の
輝度変化に追従した露出処理を可能とするとともに、露
出制御の安定化を図ることができる。
【0064】例えば、撮影者によってレリーズボタン
(図示せず)が半押しされたときに、上述した被写体認
識処理を行い、得られた被写体位置(Xo, Yo)に応じて、
上述した焦点制御および露出値演算処理を行う構成とす
れば、撮影レンズ210は、常に被写体に焦点が合った
状態となっており、また、被写体に適合する露出値が求
められ、絞り211の開口が制御されている。従って、
レリーズボタンの全押しに応じて、上述したメカ制御部
273が、シャッタの開閉動作を制御することにより、
被写体の良好な像をフィルムなどの撮像媒体上に得るこ
とができる。
(図示せず)が半押しされたときに、上述した被写体認
識処理を行い、得られた被写体位置(Xo, Yo)に応じて、
上述した焦点制御および露出値演算処理を行う構成とす
れば、撮影レンズ210は、常に被写体に焦点が合った
状態となっており、また、被写体に適合する露出値が求
められ、絞り211の開口が制御されている。従って、
レリーズボタンの全押しに応じて、上述したメカ制御部
273が、シャッタの開閉動作を制御することにより、
被写体の良好な像をフィルムなどの撮像媒体上に得るこ
とができる。
【0065】なお、追尾手段112が、被写体に近似し
た輝度を有する位置を追尾する構成としてもよい。図1
7に、請求項3の被写体認識装置の実施例の要部構成を
示す。図17において、2次元CCDイメージセンサ
(CCD)233と輝度算出部234とは、輝度判別手
段116に相当するものであり、レンズ206により、
ピント板203上の像がCCD233の受光面上に結像
する構成となっている。このCCD233は、上述した
CCD231からR,G,B成分を選択的に透過させる
フィルタを除去した構成であり、n×m個の素子から形
成され、被写界の各要素領域における光の強度を測定す
る構成となっている。また、輝度算出部234は、この
CCD233の出力に基づいて、被写界の各要素領域の
輝度値を求める構成となっており、この輝度算出部23
4で得られた各要素領域の輝度値BV(X, Y)が追尾手段1
12に送出される。
た輝度を有する位置を追尾する構成としてもよい。図1
7に、請求項3の被写体認識装置の実施例の要部構成を
示す。図17において、2次元CCDイメージセンサ
(CCD)233と輝度算出部234とは、輝度判別手
段116に相当するものであり、レンズ206により、
ピント板203上の像がCCD233の受光面上に結像
する構成となっている。このCCD233は、上述した
CCD231からR,G,B成分を選択的に透過させる
フィルタを除去した構成であり、n×m個の素子から形
成され、被写界の各要素領域における光の強度を測定す
る構成となっている。また、輝度算出部234は、この
CCD233の出力に基づいて、被写界の各要素領域の
輝度値を求める構成となっており、この輝度算出部23
4で得られた各要素領域の輝度値BV(X, Y)が追尾手段1
12に送出される。
【0066】これに応じて、追尾手段112は、差分算
出部244により、被写界の各要素領域の輝度値と被写
体の輝度値との差分dBVを求め、判別処理部245が、
距離dIとこの差分dBVとに基づいて、被写体の輝度値
に近似した輝度値を有し、被写体位置に近い要素領域を
判別すればよい。従って、この場合は、判別処理部24
5におけるファジー演算処理にかかるパラメータが少な
くなるので、被写体の追尾処理に要する時間を短縮する
ことができ、また、色判別手段117に比べて、測光素
子であるCCD233の構成が単純となるので、被写体
認識装置の小型化および低価格化を図ることができる。
出部244により、被写界の各要素領域の輝度値と被写
体の輝度値との差分dBVを求め、判別処理部245が、
距離dIとこの差分dBVとに基づいて、被写体の輝度値
に近似した輝度値を有し、被写体位置に近い要素領域を
判別すればよい。従って、この場合は、判別処理部24
5におけるファジー演算処理にかかるパラメータが少な
くなるので、被写体の追尾処理に要する時間を短縮する
ことができ、また、色判別手段117に比べて、測光素
子であるCCD233の構成が単純となるので、被写体
認識装置の小型化および低価格化を図ることができる。
【0067】なお、上述した色判別手段117で得られ
る分光情報から輝度値を算出し、追尾手段112におい
て、分光情報の差分とともに輝度値の差分をもパラメー
タに加えて上述したファジールールを適用し、被写体に
近似した色を有し、かつ、近似した輝度を有する位置を
判別する構成としてもよい。また、合焦判別手段131
に設けられた2つのCCD264a,264bによって
捉えられた被写界における光の強度分布に基づいて、被
写体の位置を判別する構成としてもよい。
る分光情報から輝度値を算出し、追尾手段112におい
て、分光情報の差分とともに輝度値の差分をもパラメー
タに加えて上述したファジールールを適用し、被写体に
近似した色を有し、かつ、近似した輝度を有する位置を
判別する構成としてもよい。また、合焦判別手段131
に設けられた2つのCCD264a,264bによって
捉えられた被写界における光の強度分布に基づいて、被
写体の位置を判別する構成としてもよい。
【0068】この場合は、図18に示すように、分光情
報保持部242に代えて、上述したCCD264a,2
64bの出力の相関から被写界の各要素領域に捉えられ
た物体と撮影レンズ210との距離L(X, Y)を判別する
距離判別部246を備えて追尾手段112を構成し、差
分算出部244が、被写体までの距離L(Xb, Yb)と各要
素領域に対応する距離L(X, Y)との差分dL(X, Y)を求
め、判別処理部245が、距離算出部243で得られた
dI(X, Y)とこの差分dL(X, Y)とに基づいて、被写体
までの距離L(Xb, Yb)に近似した距離にある物体を捉え
ており、被写体の位置(Xb, Yb)に近い座標で示される要
素領域の位置を判別すればよい。
報保持部242に代えて、上述したCCD264a,2
64bの出力の相関から被写界の各要素領域に捉えられ
た物体と撮影レンズ210との距離L(X, Y)を判別する
距離判別部246を備えて追尾手段112を構成し、差
分算出部244が、被写体までの距離L(Xb, Yb)と各要
素領域に対応する距離L(X, Y)との差分dL(X, Y)を求
め、判別処理部245が、距離算出部243で得られた
dI(X, Y)とこの差分dL(X, Y)とに基づいて、被写体
までの距離L(Xb, Yb)に近似した距離にある物体を捉え
ており、被写体の位置(Xb, Yb)に近い座標で示される要
素領域の位置を判別すればよい。
【0069】なお、上述した実施例においては、本発明
を一眼レフカメラに適用した場合について説明したが、
一眼レフカメラに限らず、コンパクトカメラやムービー
カメラなどに適用してもよく、要は、被写界における光
の強度分布に関する情報に基づいて、追尾手段が上述し
た追尾処理を行って、被写体位置を求めて追尾する構成
であれば適用できる。
を一眼レフカメラに適用した場合について説明したが、
一眼レフカメラに限らず、コンパクトカメラやムービー
カメラなどに適用してもよく、要は、被写界における光
の強度分布に関する情報に基づいて、追尾手段が上述し
た追尾処理を行って、被写体位置を求めて追尾する構成
であれば適用できる。
【0070】また、ファインダ系に備えられた測光手段
から被写界における光の強度分布に関する情報を得る構
成に限らず、例えば、ムービーカメラや電子スチルカメ
ラにおいては、撮像媒体であるCCDイメージセンサを
測光手段として用いる構成としてもよい。
から被写界における光の強度分布に関する情報を得る構
成に限らず、例えば、ムービーカメラや電子スチルカメ
ラにおいては、撮像媒体であるCCDイメージセンサを
測光手段として用いる構成としてもよい。
【0071】
【発明の効果】以上説明したように本発明の被写体認識
装置は、被写体認識手段が撮影者が注視している位置を
被写体の位置として判別し、また、判定手段と選択手段
とが、被写体認識手段と追尾手段とでそれぞれ得られた
被写体の位置が一致するか否かに応じて、2つの位置の
一方を選択することにより、撮影者が意図した被写体の
位置を正しく認識するとともに、安定した被写体位置を
得て、露出制御処理および焦点制御処理に供することが
できる。
装置は、被写体認識手段が撮影者が注視している位置を
被写体の位置として判別し、また、判定手段と選択手段
とが、被写体認識手段と追尾手段とでそれぞれ得られた
被写体の位置が一致するか否かに応じて、2つの位置の
一方を選択することにより、撮影者が意図した被写体の
位置を正しく認識するとともに、安定した被写体位置を
得て、露出制御処理および焦点制御処理に供することが
できる。
【0072】特に、被写体認識手段で得られた位置を被
写体の初期位置として、追尾処理を行うことにより、最
初から正しい被写体を追尾することができる。また、追
尾手段において、被写体に近似した色を有する位置を判
別することにより、被写体を確実に追尾することがで
き、一方、被写体に近似した輝度を有する位置を判別す
ることにより、追尾処理を簡単とし、被写体認識装置の
小型化および低価格化を図ることができる。
写体の初期位置として、追尾処理を行うことにより、最
初から正しい被写体を追尾することができる。また、追
尾手段において、被写体に近似した色を有する位置を判
別することにより、被写体を確実に追尾することがで
き、一方、被写体に近似した輝度を有する位置を判別す
ることにより、追尾処理を簡単とし、被写体認識装置の
小型化および低価格化を図ることができる。
【0073】また、上述した被写体認識装置により、安
定した被写体位置が得られるので、この被写体位置にお
ける輝度情報に基づいて露出値を求めて露出制御を行う
ことにより、被写体の輝度変化に追従した露出制御を可
能とするとともに、露出制御の安定化を図ることができ
る。同様に、上述した被写体位置で示される被写体に対
応する光像の合焦状態の判別結果を焦点制御に供するこ
とにより、被写体の移動に追従した焦点制御を可能とす
るとともに、焦点制御の安定化を図ることができる。
定した被写体位置が得られるので、この被写体位置にお
ける輝度情報に基づいて露出値を求めて露出制御を行う
ことにより、被写体の輝度変化に追従した露出制御を可
能とするとともに、露出制御の安定化を図ることができ
る。同様に、上述した被写体位置で示される被写体に対
応する光像の合焦状態の判別結果を焦点制御に供するこ
とにより、被写体の移動に追従した焦点制御を可能とす
るとともに、焦点制御の安定化を図ることができる。
【図1】請求項1および請求項2の被写体認識装置の構
成を示す図である。
成を示す図である。
【図2】請求項3の被写体認識装置の構成を示す図であ
る。
る。
【図3】請求項4の被写体認識装置の構成を示す図であ
る。
る。
【図4】請求項5および請求項6のカメラの構成を示す
図である。
図である。
【図5】請求項1の発明を適用した一眼レフカメラの実
施例構成図である。
施例構成図である。
【図6】被写体認識手段の詳細構成を示す図である。
【図7】視線位置の移動を示す図である。
【図8】フィルタの分光特性を示す図である。
【図9】追尾手段の詳細構成を示す図である。
【図10】追尾処理を表す流れ図である。
【図11】メンバーシップ関数を示す図である。
【図12】認識処理部の詳細構成を示す図である。
【図13】被写体位置の決定処理を表す流れ図である。
【図14】合焦判別手段の詳細構成を示す図である。
【図15】重み算出部の詳細構成図である。
【図16】被写体部分の抽出処理の説明図である。
【図17】請求項3の被写体認識装置の実施例の要部構
成を示す図である。
成を示す図である。
【図18】請求項1の被写体認識装置の別実施例の要部
構成を示す図である。
構成を示す図である。
【図19】従来の視線検出手段を有するカメラの構成を
示す図である。
示す図である。
111 被写体認識手段 112 追尾手段 113 判定手段 114 選択手段 115 制御手段 116 輝度判別手段 117 色判別手段 121 露出演算手段 131 合焦判別手段 201 メインミラー 202 ペンタプリズム 203 ピント板 204 接眼レンズ 205 ビームスプリッタ 206,223 レンズ 207,222 ハーフミラー 210,610 撮影レンズ 211,612 絞り 221 発光素子 224,231,233,264,615 2次元CC
Dイメージセンサ(CCD) 225 検出処理回路 226 視線追跡部 227 判定回路 228 位置算出部 234,271 輝度算出部 241 座標保持部 242 分光情報保持部 243,275 距離算出部 244,276 差分算出部 245 判別処理部 246 距離判別部 250 認識処理部 251 距離算出回路 252 比較回路 253 セレクタ 254 読出回路 255 転送回路 262 レンズ駆動機構 263 セパレータレンズ 265 相関演算回路 272 重み算出部 273 露出値演算部 274 メカ制御部 277 適合度算出部 614 撮像回路 620 自動焦点(AF)制御回路 622 自動露出(AE)制御回路 624 レンズ駆動装置 626 絞り駆動装置 628 クロック回路 630 眼球運動検出器 634 ゲート制御回路
Dイメージセンサ(CCD) 225 検出処理回路 226 視線追跡部 227 判定回路 228 位置算出部 234,271 輝度算出部 241 座標保持部 242 分光情報保持部 243,275 距離算出部 244,276 差分算出部 245 判別処理部 246 距離判別部 250 認識処理部 251 距離算出回路 252 比較回路 253 セレクタ 254 読出回路 255 転送回路 262 レンズ駆動機構 263 セパレータレンズ 265 相関演算回路 272 重み算出部 273 露出値演算部 274 メカ制御部 277 適合度算出部 614 撮像回路 620 自動焦点(AF)制御回路 622 自動露出(AE)制御回路 624 レンズ駆動装置 626 絞り駆動装置 628 クロック回路 630 眼球運動検出器 634 ゲート制御回路
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 H04N 5/232 C 9187−5C
Claims (6)
- 【請求項1】 撮影者の眼球の動きから、カメラの被写
界内において撮影者が注視している位置を被写体の位置
として求める被写体認識手段と、 前記被写界における光の強度分布に関する情報に基づい
て、前記被写体に相当する位置を判別し、この位置を追
尾する追尾手段と、 前記被写体認識手段で得られた位置と前記追尾手段で得
られた位置とを比較して、撮影者が被写体を変更したか
否かを判定する判定手段と、 前記判定手段による判定結果に応じて、前記被写体認識
手段と前記追尾手段とによってそれぞれ得られた位置の
いずれかを被写体位置として選択する選択手段と、 被写体が変更された旨の判定結果に応じて、前記被写体
認識手段で得られた位置を新しい被写体に関する情報と
して前記追尾手段に送出して追尾処理を制御する制御手
段とを備えたことを特徴とする被写体認識装置。 - 【請求項2】 請求項1に記載の被写体認識装置におい
て、 前記追尾手段が、前記被写体認識手段で得られた位置を
被写体の初期位置とし、この初期位置における光情報に
基づいて、前記被写体に相当する位置を判別する構成で
あることを特徴とする被写体認識装置。 - 【請求項3】 請求項1に記載の被写体認識装置におい
て、 被写界における光の強度分布から前記被写界の各位置の
輝度を判別して、前記追尾手段による追尾処理に供する
輝度判別手段を備え、 前記追尾手段が、被写体に近似した輝度を有する位置を
判別して、この位置を追尾する構成であることを特徴と
する被写体認識装置。 - 【請求項4】 請求項1に記載の被写体認識装置におい
て、 被写界における光の強度分布から前記被写界の各位置の
色を判別して、前記追尾手段による追尾処理に供する色
判別手段を備え、 前記追尾手段が、被写体に近似した色を有する位置を判
別して、この位置を追尾する構成であることを特徴とす
る被写体認識装置。 - 【請求項5】 請求項1に記載の被写体認識装置と、 被写界における光の強度分布に関する情報と前記選択手
段によって選択された被写体位置とが入力され、前記被
写体位置における明るさを示す輝度情報を用いて露出値
を求めて、露出制御に供する露出演算手段とを備えたこ
とを特徴とするカメラ。 - 【請求項6】 請求項1に記載の被写体認識装置と、 被写界における光の強度分布に関する情報と前記選択手
段によって選択された被写体位置とが入力され、前記被
写体位置で示される被写体に対応する光像の合焦状態を
判別して、焦点制御に供する合焦判別手段とを備えたこ
とを特徴とするカメラ。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21518291A JP3163668B2 (ja) | 1991-08-27 | 1991-08-27 | 被写体認識装置およびカメラ |
US07/933,819 US5392091A (en) | 1991-08-27 | 1992-08-24 | Exposure calculating apparatus |
US08/341,978 US5461452A (en) | 1991-08-27 | 1994-11-16 | Exposure calculating apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP21518291A JP3163668B2 (ja) | 1991-08-27 | 1991-08-27 | 被写体認識装置およびカメラ |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0553043A true JPH0553043A (ja) | 1993-03-05 |
JP3163668B2 JP3163668B2 (ja) | 2001-05-08 |
Family
ID=16668030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP21518291A Expired - Lifetime JP3163668B2 (ja) | 1991-08-27 | 1991-08-27 | 被写体認識装置およびカメラ |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3163668B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007311901A (ja) * | 2006-05-16 | 2007-11-29 | Casio Comput Co Ltd | 撮像装置、撮像方法及びプログラム |
JP2008298943A (ja) * | 2007-05-30 | 2008-12-11 | Nikon Corp | 焦点調節装置および撮像装置 |
WO2018016209A1 (ja) * | 2016-07-20 | 2018-01-25 | 富士フイルム株式会社 | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム |
JP2018205648A (ja) * | 2017-06-09 | 2018-12-27 | キヤノン株式会社 | 撮像装置 |
WO2021044732A1 (ja) * | 2019-09-06 | 2021-03-11 | ソニー株式会社 | 情報処理装置、情報処理方法及び記憶媒体 |
US11816864B2 (en) | 2020-09-18 | 2023-11-14 | Canon Kabushiki Kaisha | Tracking device and tracking method for tracking an object displayed on a display |
-
1991
- 1991-08-27 JP JP21518291A patent/JP3163668B2/ja not_active Expired - Lifetime
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007311901A (ja) * | 2006-05-16 | 2007-11-29 | Casio Comput Co Ltd | 撮像装置、撮像方法及びプログラム |
JP2008298943A (ja) * | 2007-05-30 | 2008-12-11 | Nikon Corp | 焦点調節装置および撮像装置 |
WO2018016209A1 (ja) * | 2016-07-20 | 2018-01-25 | 富士フイルム株式会社 | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム |
JPWO2018016209A1 (ja) * | 2016-07-20 | 2019-05-16 | 富士フイルム株式会社 | 注目位置認識装置、撮像装置、表示装置、注目位置認識方法及びプログラム |
US10664991B2 (en) | 2016-07-20 | 2020-05-26 | Fujifilm Corporation | Attention position recognizing apparatus, image pickup apparatus, display apparatus, attention position recognizing method and program |
JP2018205648A (ja) * | 2017-06-09 | 2018-12-27 | キヤノン株式会社 | 撮像装置 |
WO2021044732A1 (ja) * | 2019-09-06 | 2021-03-11 | ソニー株式会社 | 情報処理装置、情報処理方法及び記憶媒体 |
US11816864B2 (en) | 2020-09-18 | 2023-11-14 | Canon Kabushiki Kaisha | Tracking device and tracking method for tracking an object displayed on a display |
Also Published As
Publication number | Publication date |
---|---|
JP3163668B2 (ja) | 2001-05-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5082631B2 (ja) | 撮影装置 | |
JP4290100B2 (ja) | 撮像装置及びその制御方法 | |
JP5167750B2 (ja) | 追尾装置、撮像装置、および追尾方法 | |
JP5247076B2 (ja) | 画像追尾装置、焦点調節装置および撮像装置 | |
JP4998308B2 (ja) | 焦点調節装置および撮像装置 | |
US20050212950A1 (en) | Focal length detecting method, focusing device, image capturing method and image capturing apparatus | |
US20050099522A1 (en) | Variable length encoding method and variable length decoding method | |
US5392091A (en) | Exposure calculating apparatus | |
JP4893334B2 (ja) | 画像追尾装置および撮像装置 | |
JP7450371B2 (ja) | 被写体追尾装置及びその制御方法、プログラム、並びに記憶媒体 | |
JP5056136B2 (ja) | 画像追尾装置 | |
JP3163668B2 (ja) | 被写体認識装置およびカメラ | |
KR0177186B1 (ko) | 화면크기를 절환가능한 촬상장치 | |
JP2002214659A (ja) | ぶれ補正機能付きカメラ | |
JPH05211625A (ja) | 撮像装置 | |
JP3180458B2 (ja) | 視線検出手段を有するカメラ | |
JP2003189136A (ja) | カメラ | |
JP3571744B2 (ja) | 視線検出手段を備えたカメラ | |
US6473127B1 (en) | Image pickup apparatus | |
JP7379083B2 (ja) | 制御装置、撮像装置、制御方法、および、プログラム | |
JP3563895B2 (ja) | 撮像装置 | |
JPH03107933A (ja) | 光学機器 | |
JPH03107934A (ja) | 光学機器 | |
JPH11281886A (ja) | 光学装置及び自動焦点カメラ | |
JP2023047605A (ja) | 制御装置、撮像装置、制御方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100302 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120302 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120302 Year of fee payment: 11 |