JPH04151129A - Light measuring instrument of camera with tracking device - Google Patents

Light measuring instrument of camera with tracking device

Info

Publication number
JPH04151129A
JPH04151129A JP2104636A JP10463690A JPH04151129A JP H04151129 A JPH04151129 A JP H04151129A JP 2104636 A JP2104636 A JP 2104636A JP 10463690 A JP10463690 A JP 10463690A JP H04151129 A JPH04151129 A JP H04151129A
Authority
JP
Japan
Prior art keywords
subject
value
photoelectric conversion
output
register
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2104636A
Other languages
Japanese (ja)
Inventor
Tetsuo Miyasaka
哲雄 宮坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP2104636A priority Critical patent/JPH04151129A/en
Priority to US07/547,059 priority patent/US5196929A/en
Publication of JPH04151129A publication Critical patent/JPH04151129A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

PURPOSE:To accurately track an object and to measure its light with simple, small-scale constitution by specifying a tracking visual field corresponding to a movement quantity and finding the object brightness from an integrated output sum. CONSTITUTION:This device is equipped with an XY address type image pickup element 1, an opto-electric transducer element 2, a horizontal scanning register 3, a vertical scanning register 4, a brightness signal output 5, an A/D converter 6, a CPU 7, an operation member 8, a display device 9, an exposure controller 10, a focus controller 11, and an external controller 12. Then the output sums of opto-electric transducer elements corresponding to a light measurement area among opto-electric transducer elements 2 which are arranged in two dimensions are found as to horizontal (or vertical) opto-electric transducer element arrays 2a and 2b and the respective output sums are used as vertical (or horizontal) brightness distribution data (projection brightness signal) on the object for tracking, and also integrated and used as the brightness of the object. Consequently, the object is accurately tracked and the brightness of the object is measured with the simple, small-sized constitution.

Description

【発明の詳細な説明】[Detailed description of the invention]

[産業上の利用分野] 本発明は、移動する被写体の輝度を測定するとともに、
かかる被写体を自動的に追尾する、追尾装置を有するカ
メラの測光装置に関する。 [従来の技術] 従来、カメラ等の撮影機器の露出制御のための被写体の
輝度の測定(測光)を行なう測光装置として、撮影者が
意図した被写体領域の測光を行なうことができるように
構成された測光装置か知られている。また、このような
測光装置としては、例えば、特公昭61−37566号
公報等において技術開示されているような、いわゆるス
ポット測光を用いた装置か知られている。スポット測光
とは、カメラ等の撮影機器の画面の中央の比較的狭い領
域について測光を行なう被写体の輝度を測定するもので
ある。しかし、このスポット測光を用いたfj11j装
置を例えばスチールカメラに搭載した場合には、あらか
じめ被写体か画面中央になるようにカメラのフレーミン
グを決めてこの被写体の測光と露出制御とを行ない、そ
の後撮影のためにフレーミングを変更してから撮影を行
なうこととなるので、測光後撮影前に被写体が画面中央
から移動して被写体の輝度か変化した場合には正確な露
出ができなかった。 これに対して、撮影前にあらかじめ測光値を記憶してお
くのではなく、被写体を自動追尾することによりスポッ
ト測光を行なう領域を常に被写体に追従させるようにし
、撮影の直前に測光と露出制御とを行なう技術か、例え
ば特開昭64−1921号公報等により開示されている
。この技術は、最初に、被写体が画面中央になるように
カメラのフレーミングを決めてその時の被写体の輝度分
布を測定し、被写体か移動した場合には、このときの輝
度分布の変化により被写体の移動長や移動方向を判断し
て測光領域を自動的に移動させ、測光領域の中心部を被
写体に追従させるものである。 [発明か解決しようとする課題] しかし、特開昭64−1921号公報によって開ボされ
た技術は、被写体を自動追尾するための輝度分布の変化
によりを被写体の移動を判断するための電気回路と測光
を行なうための電気回路を別々に設けなければならない
ため電気回路の規模か大きくなっていまい、また、測光
領域を機械的に移動させるため機構的にも規模か大きく
なってしまうという課題を自−していた。 また、ビデオカメラにおいて用いられる自動追尾装置と
して、映像信号処理のために本来必要であるビデオ信号
を用いて被写体を追尾する自動追尾装置か、例えば特開
昭60−253887号公報等によって技術開示されて
いるが、スチルカメラのようにビデオ信号を生成しない
機器ではこの技術を適用して移動する被写体を自動追尾
することは困難てり、また、ビデオ信号を得るための回
路を設けた場合には回路規模か大きくなってしまうとい
う課題かあった。 さらに、自動追尾を行なわずに、Mj先領領域複数の領
域に分割し、被写体の条件等を自動的に判断して露出量
を決める方法として、「多点評価測光」と称される技術
も知られているが、この技術は、撮影者か意図した被写
体を測光しているわけではなく、また、処理も複雑であ
った。 本発明は、以上説明したような従来技術の課題に鑑みて
試されたものであり、簡単かつ小規模な構成で、被写体
の正確な追尾および測光を行なうことが可能な追尾装置
を有するカメラの測光装置を提供することを目的とする
。 [課題を解決するための手段] 本発明の追尾装置を有するカメラの測光装置は、2次元
的に配列された複数の光電変換素子と第1の方向と直交
して複数設けられた第1光電変換素了タリのいづれかを
この第1の方向に沿って選択状態にする第1走査し/ス
タと上記第1の方向に沿って複数設けられた第2光電変
換素子列のいっれかを上記第1の方向と直交する第2の
方向に沿って選択状態にする第2.[査し、・スタとか
らなる撮像素子と、」−記憶1走査レノスタに沿って複
数の」−一第]光電変換素子列を同時に選択状態にしな
がら上記第2走査レノスタによって複数の上記第2光電
変換素子列の内の1つを選択状態にすることにより上記
第1の方向に沿って各光電変換素子の出力相を求め、上
記第2走査レジスタによる選択状態を上記第2の方向に
沿って順次喰えることにより、上記出力和からなる投影
輝度信号を得るための制御手段と、今回の上記投影輝度
信号と前回の上記投影輝度信号とを相関演算することに
より被写体の移動量を演算する演算手段と、上記移動量
に応じて追尾視野を設定する設定手段と、上記出力和を
上記第2の方向に沿って積算し、この積算された出力和
に基づいて被写体輝度を求める手段とを具備している。 [作用コ 本発明では、2次元的に配列された光電変換素子のうち
測光領域に対応する光電変換素子の出力和を水平方向(
または垂直方向)の各光電変換素子列について求め、各
出力和を垂直方向(または水平方向)に対する被写体の
輝度分布データ(投影輝度信号)として追尾に使用する
とともに、各出力和をさらに積算した値を被写体の輝度
として使用するので、簡単かつ小規模な構成で、被写体
の正確な追尾および被写体の輝度の測定を行うことが可
能となる。 [実施例] 第1図は、本発明の追尾装置を有するカメラの測光装置
の撮像素子を概念的に示す図である。第1図に示したよ
うに、本発明の追尾装置を有するカメラの測光装置の搬
像素子1は、2次元的に配列された複数の光電変換素子
2と、第1の方向と直交して複数設けられた第1光電変
換素子列2aのいづれかをこの第1の方向に沿って選択
状態にする第1走査レジスタ3と、第1の方向に沿って
複数設けられた第2光電変換素子列2bのいづれかを第
2の方向に沿って選択状態にする第2走査レジスタ4と
からなる。本発明の追尾装置を有するカメラの測光装置
は、かかる撮像素子1を用いて構成される。 以下、本発明の一実施例として、本発明の追尾装置を有
するカメラの測光装置を一眼レフレックスカメラに搭載
した場合について、図面を参照して説明する。また、本
実施例では、測光領域に対応する各光電変換素子の出力
和を、追尾に使用する輝度分布データおよび露出制御に
使用する測光値としてたけてなく、合焦点検出にも使用
するようにした場合について説明する。 第2図は、本実施例に係わる追尾装置を有するカメラの
測光装置を概略的に示すブロック図である。図において
、1はXY子アドレス撮像素子である。このXY子アド
レス撮像素子1は、被写体からの光を電圧信号に変換し
て出力する光電変換素子2と、この出力を取り込むべき
光電変換素子2を指定する水゛Iξ走査レジスタ3およ
び垂直走査し、゛メタ4とにより構成されている。出力
を取り込むべき光電変換素子2の指定は、水手走査レジ
スタ3の水平走査線H1〜H3および垂直走査レジスタ
4の垂直走査線v1〜v3により行なう。 また、5は水平走査レジスタ3および垂直走査レジスタ
4によって指定された各光電変換素子2の出力和を出力
する輝度信号出力、6は輝度信号出力5をデンタル信号
に変換するためのA/Dコンバータ、7は装置全体を制
御するためのマイクロコンピュータ(以下、CPUと称
す)、8は使用者が装置を操作するための操作部材、9
は測光領域を表示するための表示装置、10は輝度信号
出力5を用いて演算された測光値に基づいてカメラの露
出を制御するための露出制御装置、11は輝度信号出力
5を用いて演算された合焦点データに基づいてカメラの
焦点状態を制御するための焦点制御装置、12は輝度信
号出力5を用いて演算された被写体の位置情報により制
御される外部制御装置、13はCPU7から表示装置9
および外部制御装置12に対して位置情報を与える位置
情報出力、14はCPU7から水平走査レジスタ3に送
られる水平走査用信号線、15はCPU7から垂直走査
レジスタ3に送られる垂直走査用信号線を示す。 なお、第2図では、簡単のために、光電変換素子2か水
平方向および垂直方向にそれぞれ3個づつ配列された場
合を示したが、本実施例では、光電変換素子2は水平方
向および垂直方向にそれぞれ128個づつ配列されてい
るものとする。 第3図は、光電変換素子2の構成を示す電気回路図であ
る。図において、Hjは水平走査レジスタ3のj番目の
水平走査線、Viは垂直走査レジスタ4の1番目の垂直
走査線、Qijはゲートが垂直走査線Viに接続され且
つドレインが水平走査線Hjに接続されたトランジスタ
、PDijはアノードがトランジスタQijのソースに
接続され且つカソードが接地されたフォトダイオードで
ある。このような構成によれば、垂直走査レジスタ4が
垂直走査線Viを「ノ)イ」にするとトランジスタQi
jがオンし、フォトダイオードPDijで発生する光電
流か水平走査線Hjに出力される。なお、本実施例では
、水平操作レジスタ3および垂直操作レジスタ4は、そ
れぞれ複数の走査線を同時に選択状態(「)1イ」状態
)にすることができるものとする。例えば、垂直走査線
v1およびv2を同時に選択状態にし、且つ、水平走査
線H1を選択状態にすると、輝度信号出力5は、PDI
の光電流とPD2、の光電流とが加算された値となる。 第4図(a)は、この場合に駆動される2個の光電変換
素子を示す等価回路である。図において、■。UTは、
輝度信号出力5を出力するための出力端子を示す。同様
に、水平走査線H1およびH2を同時に選択状態にし、
且つ、垂直走査線V、を選択状態にすると、第4図(b
)に等価回路で示したように、出力端子V 0LITか
ら出力される輝度信号出力5は、P D 、、の光電流
とPD、□の光電流とか加算された値となる。このよう
な構成により、測光領域に対応する光電変換素子2の出
力和を水平方向或いは垂直方向の各光電変換素子列につ
いて求め、被写体の輝度分布データを得ることかできる
。 第5図は、垂直走査レジスタ4の内部構成の一例を示す
電気回路図である。このように、垂直走査レジスタ4は
、同期型シフトレジスタによって構成することができる
。図において、P IV% CPV%CH,vは、それ
ぞれ垂直走査用信号線15からの(ルス信号を人力する
ための入力端子であり、PIVは同期型シフトレジスタ
によってシフトされて垂直走査線■1〜■3となる走査
信号を入力する入力端子、Cpvは入力端子PIVから
人力された走査信号をシフトさせるタイミングを与える
シフトノくルス信号を人力する入力端子、CLVは各J
Kフリップフロップをリセットするためのりセソトノく
ルス信号を人力する入力端子である。このような構成に
より、入力端子PIVから入力された「)\イ」または
「ロー」の信号状態を、入力端子CPVから入力された
シフトパルス信号にしたがって、図中左側のJKフリッ
プフロ・ンプから右側のJKフリップフロップへと順次
シフトさせることかできる。 第6図は、垂直走査レジスタ4の動作を説明するだめの
タイミングチャートである。第6図に示したように、入
力端子CLvにリセ・ソトノ々ルス信号を入力して各J
Kフリップフロップをリセ・ソトし、続いて入力端子P
lvから人力される信号を「l\イ」にした後に入力端
子Cpvにシフトノくルス信号を入力すると、最初のJ
Kフリップフロ・ツブのQ出力、すなわち垂直走査線■
1は「ノ1イ」 (選択状態)となる。次に、入力端子
Plvから人力される信号を「ハイ」にしたまま、さら
に入力端子Cpvにシフトパルス信号を人力すると、最
初のJKフリ・ツブフロップおよび2番目のJKフリッ
プフロ・ンプのQ出力が「ハイ」となる。続いて、入力
端子P、Vから入力される信号を「ロー」にした後、入
力端子CPVにシフトパルス信号を入力すると、最初の
JKフリップフロップのQ出力は「l\イ」となり、2
番目のJKフリップフロップおよび3番目のJKフリッ
プフロップのQ出力が「ノ1イ」となる。このように、
CPU7から入力端子PIV、CPVs CLVに入力
される各垂直走査パルス15を制御することにより、任
意の垂直走査線を同時に選択状態にすることが可能であ
る。また、水平走査レジスタ3の構成を、この垂直走査
レジスタ4の構成と同様とすることにより、任意の水平
走査線を同時に選択状態にすることも可能となる。 第7図は、複数の垂直走査線を同時に選択状態にしたま
ま水平走査線を一本ずつ順次走査する場合の水車走査レ
ジスタ3および垂直走査レジスタ4の動作を示すタイミ
ングチャードである。図において・P!11・Cpo・
CLI+は・それぞれ水平走査用信号線14からのパル
ス信号を入力するだめの入力端子であり、PIHは同期
型シフトレジスタによってシフトされて水平走査線H1
〜H3を与える走査信号を入力する入力端子、CPHは
入力端子P!□から入力された走査信号をシフトさせる
タイミングを与えるシフトパルス信号を入力する入力端
子、CLHは各JKフリップフロップをリセットするた
めのリセットパルス信号を入力する入力端子である。ま
た、図中、波線の左側は、上記第6図の場合と同様にし
て複数の垂直走査線を同時に選択状態にするときの各信
号のタイミングを示したものである。さらに、波線の右
側は、入力端子PIHから入力される信号を「ハイ」に
して入力端子CPHにシフトパルス信号を1個だけ印加
した後入力端子PINから人力される信号を「ロー」に
し、以後順次入力端子CF’Hにシフトパルス信号を印
加することにより、水平走査線を一本ずつ選択状態にす
るタイミングを示したものである。水平走査レジスタ3
および垂直走査レジスタ4をこのように動作させること
により、垂直方向の光電変換素子列について、各光電変
換素子列ごとの出力和を、順次、輝度信号出力5の出力
端子VOU工から出力させることができる。また、上記
した垂直走査線V、−V3と水平走査線H,−H3の走
査関係を逆にすることによって(すなわち、P、VとP
I)1%CPVとCPH5CLVとCLHをそれぞれ逆
にすることによって)、複数の水平走査線を同時に選択
状態にしたまま垂直走査線を一本ずつ順次走査すること
ができ、したがって、水平方向の光電変換素子列につい
て、各光電変換素子列ごとの出力和を、順次、輝度信号
出力5の出力端子V。V、から出力させることもできる
。また、第6図また第7図では同時に選択状態にされる
走査線か隣り合う走査線となるようにP、Vにパルスを
印加していたが、第8図に示したように、入力端子PI
Vに断続的に「ハイ」信号を入力することにより、任意
のピッチで走査線を選択状態にすることも可能である。 次に、第2図に示した本実施例の追尾装置を有するカメ
ラの測光装置を用いて被写体の移動方向および移動量を
検出する方法について説明する。 まず、被写体の測光領域を決定する。第9図(a)は、
かかる測光領域となる画像の一例を示す概略図である。 次に、この画像の各画素(各光電変換素子2ンの出力を
、上記第7図を用いて説明したようにして垂直方向に加
算して出力和を求め、いわゆる投影波形を得る。このと
き、例えば第9図(a)に示したように垂直方向に樹木
のごとき暗い被写体かある場合は、その部分の各画素の
出力の出力和X S U Mは他の部分の出力和XSU
Mよりも小さくなるので、投影波形は第9図(b)にX
SIで示したようになる。なお、第9図(b)において
、縦軸は第9図(a)に示した測光領域の水平方向の座
標軸(X軸)上の座標を示し、横軸は各X座標における
垂直方向の出力和X S U Mを示している。同様に
、各画素の出力の水平方向の出力和Y S U Mを求
めると、例えば第9図(a)に示したように水平方向に
空のごとき明るい被写体かある場合は、その部分の出力
和は他の部分の出力和よりも大きくなるので、投影波形
は第9図(C)にYS〕て示したようになる。なお、第
9図(C)において、縦軸は第9図(a)に示した測光
領域の垂直方向の座標軸(y軸)上の座標を示し、横軸
は各X座標における水平方向の出力和Y S U Mを
示している。これらの投影波形は、CPU7の内部に設
けられたRAM等の記憶手段に一時的に記憶される。こ
こで、カメラを右上の方向に動かしたとすると、被写体
の測光領域の画像は、例えば、第10図(a)に示した
ようになる。また、このとき、上記第9図(b)および
第9図(c)と同様にして垂直方向の投影波形XS2お
よび水平方向の投影波形Y82を求めると、第10図(
b)および第10図(C)に示したようになる。第11
図は、移動前の垂直方向の投影波形であるXSIと移動
後の垂直方向の投影波形であるXS2とを重ねて表した
グラフである。 CPIJ7は、投影波形XSIと投影波形XS2との相
関l寅算を行なうことにより被写体の水平方向の移動量
を求める。実際には、投影波形XSIに対して投影波形
XS2を少しずつシフトしながら両者の絶対的差分値を
求め、この絶対的差分値か最少値をとるときのシフト量
を被写体の水平方向の移動量とする。第12図は、投影
波形XS2のシフトHX S F Tと絶対的差分値で
あるABS(XS 1−XS 2)の関係を示すグラフ
である。 また、第13図は、移動前の水平方向の投影波形である
YSIと移動後の水平方向の投影波形YS2とを重ねて
表したグラフである。上記と同様にして、CPU7は投
影波形YSIと投影波形YS2との相関演算を行ない 
被写体の垂直方向の移動量を求める。第14図は、投影
波形Y82のシフト量YSFTと絶対的差分値演算AB
S (YS]−YS2)の関係を示すグラフである。こ
のような処理を順次繰り返し、移動量(XSFT、YS
FT)を積算していくことによって、被写体の追尾を行
うことか可能となる。 本実施例の追尾装置を有するカメラの測光装置は、2種
類の測光領域を被写体のコントラストの大小に応じて自
動的に選択できるように構成されている。第15図は、
このうちの第1の測光領域を説明するだめの概念図であ
る。第1の測光領域か選択された場合、128X128
個の画素全体を/l1ll先領域とし、且つ、図に示し
たように、水平方向と垂直方向の双方に対して4画素毎
に画素を選択状態にする。なお、このときの画素数は3
2X32個となる。第16図(a)は、第1のtPj光
領域か選択されたときの被写体像と測光領域の一例を不
しだものであり、図中点線で示された枠内かMj先領領
域示している。また、第16図(b)は、このときの垂
直方向の投影波形を示すグラフである。すなわち、第1
6図(b)に示された投影波形は、上述のように4画素
毎に選択状態にされた各画素についての垂直方向の出力
和XSUMを順次求めることによって得られたものであ
る。以後、この第1の選択方法をW、l、Lモートと呼
ふこととする。また、第17図は第2の測光領域を説明
するための概念図である。第2の測光領域が選択された
場合、図に示したように、画面中央部の32X32個の
画素を測定領域とし、且つ、この測定領域内のすべての
画素を選択状態とする。第18図(a)は、第2の測光
領域が選択されたときの被写体像と測光領域の一例を示
したものであり、図中点線で示された枠内か測光領域を
示している。また、第18図(b)は、このときの垂直
方向の投影波形をホすグラフである。 すなイつも、第18図(b)に示された投影波形は、上
述のようにMlll光領域内の全ての画素についての垂
直方向の出力和X S U Mを順次求めることにょっ
てiすられたものである。以後、この選択方法をN、H
l−モートと呼ふこととする。また、このN、ユLモー
トでは、被写体の移動に伴って測光領域も移動するので
、二の測光領域を「追尾視野」と呼ぶことにする。 こC7′)よ−3に、本実施例では、またWs2Lモー
トにおける選択された画素の総数とN SEIモートに
おける選択された画素の総数か同しになるようにし5た
ので、いづれの選択モードを採った場合でも投影波形を
求めt:後のCPU7の処理を共通にでき、したかって
制御を簡単化し、且つ、電気回路を小規模化することか
可能である。 次に、第2図に示したような追尾装置を有するカメラの
測光装置を搭載した一眼レフレックスカメラの構造につ
いて説明する。第19図は、かかる−眼レフレックスカ
メラの光学系と第2図に示した追尾装置を6゛するカメ
ラの測光装置の主な構成部との位置関係を示す概略的断
面図である。図において、−点破線は被写体像の光軸中
心を表わす。また、1 fl aは露出制御装置10の
絞り制御装置、10bは露出制御装置10のシャッタ制
御装置、20は撮影レンズ、21は絞り制御装置10 
aによって駆動される絞り、22は撮影レンズ20を通
過した被写体からの光を反射させるメインミラー 23
はコレデノサレンズ、24はミラー 25はりレーレン
×゛、26は被写体からの光を観察用と撮像用とに分離
するノ\−フミラ27は被写体からの光と表示装置9が
らの光を重ねrlわせるだめのハーフミラ−28aは被
写体像を結像させるファインダー結像面、28bはメイ
ンミラー22を移動させて被写体がらの光がそのまま直
進した場合に被写体像を結像させるフィルム面、29は
接眼レンズである。 第20図は第19図に示した一眼レフレックスカメラの
外観図であり、カメラ本体33の上部にレリーズ釦30
が設けられている。レリーズ釦30は操作部材8の一構
成部である。第21図は走査部材8の構成を概略的に示
す断面図である。 第21図に示したように、操作部材8は、レリーズ釦3
0と、このレリーズ釦3oが押されたときに−段目でオ
ンするDSW31と、二段目でオンするR5W32とに
より構成されている。 また、表示装置9は、被写体の輝度を測定する際のモー
ドとしてN5ELモードを採ったときに、被写体像と重
ねて表示する追尾視野を設定するための装置である。表
示装置9の構成および表示方法は、かかる目的を達成し
得るものであればどのようなものであってもよい。 第22図(a)は、表示装置9の構成の一例を示す概略
的斜視図であり、LED等の発光体34を平板上に配列
し、被写体位置を光らせるタイプのものを示している。 第22図(b)は、この例におけるファインダー視界の
一例を示す概略図である。図中、黒点で示した部分が上
記発光体34による発光表示である。 第23図(a)は、表示装置9の構成の他の例を示す概
略的斜視図であり、LED等の発光体34を水平方向お
よび垂直方向にそれぞれ一列に配列し、この発光体34
を光らせることにより被写体の位置の座標として表示づ
るするタイプのものを示している。第23図(b)は、
この例におけるファインダー視界の一例を示す概略図で
ある。 第22図(b)と同様、黒点で示した部分か発光体34
による発光表示である。 第24図(a)は、表示装置9の構成の第3の例を示す
概略的斜視図であり、液晶表示装置35の裏側から発光
手段36により照明光を照射し、追尾視野を枠状に表示
するタイプのものを示している。第24図(b)は、こ
の例におけるファインダー視界の一例を示す概略図であ
る。図において、点線で示した部分か液晶表示35によ
る枠表示である。 また、第25図および第26図は、ハーフミラ−27を
用いずに被写体像と追尾視野を重ねて表示する例を示す
概略的断面図である。第25図は、ファインダー結像面
28aに接して液晶表示装置35を設け、この液晶表示
装置35により追尾視野を枠状に表示する例を示してい
る。また、第26図は、ファインダー結像面2Ba上に
メタ−等の機械的表示装置を入れ、十字線状の表示をす
る例を示している。図において、37は機械的表示装置
の指示器、38は機械的表示装置の指示器37の位置を
制御する制御装置である。 以下、本実施例では、表示装置9として、第24図(a
)および第24図(b)に示したような液晶表示装置に
よる枠表示を採用した場合を例に採って説明する。 ここで、上述のように、本実施例の追尾装置を有するカ
メラの測光装置は、追尾視野か被写体の移動に伴って移
動するように構成されている。第27図(a)および第
27図(b)は、追尾視野が被写体の移動に伴って移動
する様子を示す概略図である。第27図(a)は最初の
状態でのファインダー視界を示しており、点線で示した
枠内がnj光領域(すなわち追尾視野)である。次に、
被写体である人間か画面中央から左方向に移動すると、
上述のようにして測光領域も移動し、これに併せて表示
装置9によって枠状に表示される追尾視野も移動するの
で、ファインダー視界は、第27図(b)に示したよう
になる。なお、被写体の輝度を測定する際のモードとし
てWSF、0.モードを採ったときは、ファインダー視
界の全面か測光領域となるので、表示装置9による表示
は行わない。 次に、本実施例に係わる追尾装置を有するカメラの測光
装置の動作シーケンスについて説明する。 第28図は、XYアドレス型撮像素子]の画素(光電変
換素子2)の配列と被写体位置に関する座標との関係を
表したものである。上述したように、XY子アドレス撮
像素子1の画素は、水平128X垂直128のマトリク
ス状に配列されている。以下、本実施例では、被写体位
置を、この中心位置を基準として、水平方向(X軸方向
)はこの中心に対して右側を正(+)、左側を負(=)
というように符号を付け、垂直方向(Y軸方向)は中心
位置に対して下側を正(+)、上側を負(−)というよ
うに符号を付けることにする。また、出力和XSUMお
よびYSUMを得る際に選択される画素数は、X軸方向
、y軸方向共に32個とする。また、第29図は、本実
施例に係わる追尾装置を有するカメラの測光装置の動作
を制御するCPU7の内部に設けられたデータ記憶用の
RAM (ランダム・アクセス・メモリ)の内容を表し
たものである。 第30図は、CPU7の処理を概略的に示すフローチャ
ート(ゼネラルフローチャート)である。 以下、このゼネラルフローについて説明する。 まず、操作部材8の一段目のスイッチであるDSW31
かオンされているか否かを判断する(ステップ5T1)
。DSW31かオンされていないときは、DSW3]の
オン/オフを示すフラグであるFDSWフラグと画素の
位置を座標によって+TataするためのRA M領域
であるXPおよびYPをクリアしくステップ5T2)、
表示装置9の表示を取り止めるためのザブルーチンであ
るDISPLAY  OFFサブルーチンを実行しくス
テップ5T3)、さらに、焦点調整制御を禁止しくステ
ップ5T4) 、その後ステップSTIへ戻る。したか
−)で、D S W 31を操作していないときは、こ
のステップSTI〜ステップST4を繰り返し実行して
いる。これによって、カメラを構えているだけの状態で
はスーパーインポーズ表示(表示装置9による追尾視野
の表示)か無いので、煩わしさが無い。 DSW31がオンされると、まず、被写体の輝度を測定
する際にどの画素を選択するかを決定するサブルーチン
であるXYSサブルーチンを実行すしくステップ5T5
)、続いて、FDSWフラグの値を読み取ることによっ
てDSW31か初めてオンされたのか或いはオンされ続
けているのかを判断する(ステップ5T6)。DSW3
1か初めてオンされたと判断したときは、FDSWフラ
グにrlJを人力しくステップ5T7)、次に、ADB
Fサブルーチンを実行することにより、ステップST5
に於いて演算された結果に基づいてXY子アドレス撮像
素子1の水平操作レジスタ3と垂直操イルシスタ4にそ
れぞれ水平走査用信号線14或いは垂直走査用信号線]
5から信号を出力し、出力和X S U MおよびY 
S U Mを順次読出して第29図に示したR A M
に記憶する(ステップ5T8)。また、ADBFサブル
ーチンでは、併せて、後述のようにしてXSUMの波形
から被写体の輝度と焦点状管を演算し、それぞれRA 
M内の領域であるB S U MおよびF S U M
 Eに格納する。なお、二のステップST8で選択され
るモトは第17図を用いて説明したNSヨ、モードであ
る。続いて、F S U M jに格納された焦点状態
の演算結果か所定値F Mより大きいか小さいかを判断
する(ステップ5T9)。焦点状態の演算結果か所定値
F ?v1より大きいときは、WS、、モードを選択し
ていることを示すフラグであるFWフラグを「0」にし
くすなわち、N35.モートを選択し) さらに、この
とき選択される画素の画素ピッチを記憶するRAM領域
であるPITを「1」(最小値)にする(ステップST
]O)。一方、ステップST9において焦点状態の演算
結果が所定値FMより小さいときは、FWフラグを「1
」にしてW、hLモードに設定するとともにPITを「
4」にしくステップ5T18)、次に、測光領域(追尾
視野)を表わす座標データを記憶するR A M領域で
あるXSおよびYSをそれぞれ「1」にしくステップ5
T1Q)、続いて、ADBFサブルーチンを実行して、
W、l:Lモートにより出力和XSU〜1およびYSU
〜1を読み込んで、各データをRA Mに記法する(ス
テップ5T2(1)。このように、本人施例では、ます
、ステップST9でDSW31かオンになったときに画
面中心部にコントラストの高い被写体か位置しているか
否かを判断し、次に、コントラストの高い被写体か位置
している場合はステップS T 10によりN SEL
モートを選択し、位置していない場合はステップ5T1
8〜S T 2 UlによりW8,1壬−ドを選択する
ようにしたので、被写体に応じて最適な選択モトを自動
的に設定することかできる。 ステップST6においてDSW31かオンされ続けてい
ると判断された場合は、まず、上記同様ADBFサブル
ーチンを実行して出力和XSUMおよびYSUMをRA
Mの領域XSUMEおよびY S U M Eに記憶し
くステップ5T21) 、次に、このX S U Mと
前回読み込んたXSUMとを用いて相関演算を行うこと
によりX軸方向(水平方向:の被写体移動量を算出する
サブルーチンであるX5FTサブルーチン(ステップ5
T22)およびこのYSUMと前回読み込んたYSUM
とを用いて相関演算を行うことによりy軸方向(垂直方
向)の被写体移動量を算出するサブルーチンであるYS
FTサブルーチン(ステップ5T23)を実行する。次
に、選択されたモードかWSELモー゛ドであるかN 
SELモードであるかを判別する(ステップ5T24)
。ここで、N SELモードが選択されていた場合は、
画素の位置を座標によって記憶するRAM領域であるX
PおよびYPに格納されている値に、被写体移動量を記
憶するRAM領域であるX5FTおよびYS FTに格
納されている値をそれぞれ加算し、これらの結果をさら
にXPおよびYPに格納する(ステップ5T25)cま
た、W51ZLモードが選択されていた場合は、ステッ
プ5T22またはステップ5T2Bで算出された移動量
か真の移動量の]/4となるので、XPおよびYPに格
納されている値に、X5FTおよびYS FTに格納さ
れている値を4倍した値それぞれ加算し、これらの結果
をさらにXPおよびYPに格納する(ステップ5T26
)。その後、ステップST21で求められた焦点状態値
FStJM、と前回の焦点状態値FSUNiOとを用い
て、既知の方法により焦点調整制御を行なう(ステップ
5T27)。 本実施例ては、W5ELモードであるかN SELモト
であるかにかかわらす選択する画素数か同し数(X S
 UM32個、YSUM32個)となるようにしたので
、相関演算を行なうプログラムを共通に使うことがてき
、したがってCPU7のプログラム容量を削減すること
かできる。 次に、次回のデータ読み込みのために、XSUMEに格
納された出力和X S U M 。 YSUMEに格納された出力和YSUMおよびFSUM
gに格納された焦点状態値を、前回の出力和XSUM、
YSUMおよび焦点状態値とを記憶するR A M領域
であるX S UM□ 、Y S UM。 およびFSUMoにそれぞれ転送する(ステップSTI
 1)。また、ステップSTI 1を行なわす、データ
を取り込む毎にX S U M EとX S U M 
oとを交互に、YSUMEとYSUMoとを交互に、さ
らに、FSUMEとFSLlioとを交互にブタ記憶領
域として用い、且つ、移動量の符号を正負反転するよう
にしておいてもよい。 続いて、ステップST8、ステップ5T20或いはステ
ップST21のいずれかで求められた出力和X S U
 Mに基づいて露出演算をおこなうサブルーチンである
APEXサブルーチンを実行する(ステップ5T12)
。さらに、出力和XSUMおよびYSUMに基づいて、
表示装置9により、ファインダー内に被写体の位置を表
示する(ステップ5T13)。また、走査部材8の二段
目のスイッチであるR3W32かオンであるか否かを判
別しくステップ5T14)  R5W32がオンであっ
た場合はステップ5T12で求められた露出量に応じて
露出制御を行なうサブルーチンであるEXPサブルーチ
ンを実行しくステップ5T15)  露出完了を示すフ
ラグであるFRELフラグを「1」にする(ステップ5
T16)  一方、R3Wがオフであった場合は・FR
ELフラグを「0」にする(ステップ5T17)。 以上の動作を終了すると、ステップSTIに戻り、以上
の動作を古び繰り返す。 第31図は、第30図に示したXYsサブルチンのアル
ゴリズムを示すフローチャートである。 このXYSサブルーチンは、XYアドレス型撮像素子]
から出力和XSUMを読みたす場合の選択画素を決定す
るためのサブルーチンである。また、XSおよびYSは
、Mj先領領域示す座標値を記憶するためのRA M領
域であり、第32図に示すようにW5ELモートの場合
は常に画面の左上の位置である。またN SELモード
の場合、初期の位置は所定値XSO,YSOで表わされ
るが、被写体の移動に伴い変化し、これにより前述した
追尾視野が被写体に追従する。 第31図において、ステップ5T36は、WS8Lモー
トの場合(すなわち、FWフラグが「1」の場合)にお
ける処理である。この場合は、XSおよびYSに、それ
ぞれ「1」を格納する。 ステップ5T3BはN5ELモードてあり且つDSW3
1か最初にオンになったとき(すなわち、FWフラグ、
FRELフラグおよびFDSWフラグか「O」のとき)
の処理である。この場合は、XSおよびYSに、それぞ
れXS○、YSoを格納する。ステップ5T34は、N
5ELモー・ドであり「1つDSW31かオンとなり続
けているとき(すなわち、F WフラグかおよびFRE
Lフラグか「0」であり■つFDSWフラグか「]」の
とき)の処理である。この場合は、XSおよびYSに格
納されている値に、被写体移動量を記憶するR A M
領域であるX5FTおよびYS FTに格納されている
値を加算する。ステップ5T35はN5E1.モートて
露出を終了した直後(すなわち、FWフラグか「0」で
あり1」つFRELフラグか「1」のとき)の処理であ
る。この場合は、露出前後の被写体の移動方向は同しで
あると仮定して、露出直前の移動量を露出時間ETをを
掛は合わせた値をXSおよびYSに格納されている値に
加算することにより、露出時の読みたし位置を設定して
いる。第33図は露出前後の被写体位置と移動量の関係
を示す。−眼レフレックスカメラのようにファインダー
内で被写体像を撮像しようとした場合、露出中はファイ
ンダーへの光路か遮断され、その間に被写体が移動して
いる可能性かある。しかし、上記した方法を用いて露出
終了時の被写体の位置を計算によって求めることによっ
て、追尾視野か被写体を見失うことを防止することか可
能となる。 第34図は、第30図に示したADBFサブルーチンの
アルゴリズムを示したフローチャートである。このAD
BFサブルーチンは、光電変換素子素子2からの垂直方
向の出力和X S U Mおよび水平方向の出力和YS
UMを読み込むためのフロチャートであるが、簡単のた
めに、複数の垂直走査線を同時に選択状態にしたまま水
平走査線を順次走査して垂直方向に加算することにより
垂直方向の出力和XSUMを読み込むための処理のみを
示り、)<iTg方向の出力和YSUMを読み込むため
の処理は省略しである。なお、水丁方向の出力口] Y
S t; Llを読ろ込むだめの処理は、垂直方向の出
7JilXSL”N1を読み込むための処理とほぼ同様
である。 第′34図において、ステップ5T40からステ!−,
f S752までは、複数の垂直走査線を同時に選択状
態1=シておくだめの処理である。まず、輝度値と焦点
状態値を10」クリアしくステップ5T40)  垂直
走査レジスタ4の入力端子CL%にリセットパルス(を
号を入力させることにより、この垂直走査し、′スタ4
をリセットする(ステップ5T41)  ステップ5T
42からステップ5T49まては、垂直走査レジスタ4
に複数の垂直走査線を選択させるための処理である。す
なわち、ここでは、垂直走査線を選択状態にするため、
入力端子Pl、にパルスを入力すると同時に入力端子C
psからシフトパルス信号を32個入力することにより
、32本の垂直走査線を選択状態にする。ます、カウン
タnに32を代入しくステップ5T42)、画素ピッチ
を記憶するRAM領域であるPITの値をカウンタP。 に代入する(ステツTf S T 43)。次に、垂直
走査レジスタ40入力端子P、Vに入力される信号値を
「ハイ」にし、入力端子CPLからシフトパルス信号を
入力した後に、入力端子P、Vに入力される信号値を「
ロー」にする(ステップ5T45)。その後、カウンタ
Pl、lの値を「1」たけ減しくステップ5T45)カ
ウンタPmの値が「0」であるか否かを判断する(ステ
ップS T46)。カウンタPmの値か1し1」てな1
すれば、さらに、1個のシフトパルス信号を入力端子C
2,,から入力(ステップ5T47)した後にステップ
5T45に戻り、ステップ5T46においてカウンタP
mの値がrOJになるまでこの処理を繰り返す。ステッ
プ5T46てカウンタPmの値か「0」であった場合は
、カウンタnの値をrlJだけ減じ(ステップ5T48
)、カウンタnの値が「0」であるか否かを判断する(
ステップS T49)。カウンタ□の値が「0」でなけ
れば、nの値がrOJになるまでステップS T’4 
Bからステップ5T49まての処理を繰り返す。ここで
ステップ5T45、ステップ5T46、ステップ5T4
7でPITの値に応じてシフトパルス信号のみを印加し
ているので、選択される垂直走査線の間隔かPITと同
じ値になる。即ち、W、2Lモードの時には4本に一本
の間隔で垂直走査線が選択され、N5ELモードの時に
は隣接している垂直走査線が選択される。 ステップ5T50からステップ5T52は、どの部分の
垂直走査線を選択状態にしておくかを制御するためのも
のであり、Ns、Lモードのためのものである。すなわ
ち、ここでは、オンされている垂直走査線のうちの最初
の走査線のX座標値を上記XYSサブルーチンで求めた
測光領域のX座標値(YSに格納されている値)に一致
させる。ます、カウンタnの値に「1」を加算しくステ
ップ5T50) 、次に、カウンタnの値とYSに格納
されている値とを比較しくステップ5T51)、カウン
タnの値かYSに格納されている値よりも小さければ垂
直走査レジスタ4の入力端子C,Vにシフトパルス信号
を印加する(ステップ5T52)。この処理をカウンタ
nの値がYSに格納されている値と一致するまで繰り返
すことにより、測光領域のX座標値をYSフラグに格納
されている値に一致させることができる。本実施例では
、N、□モードであるかWSELモードであるかにかか
わらす同時に選択される垂直走査線の数は同しく32本
)なので、モードによって異なるレンジを使用する必要
かなく、A/Dコンバータ6を両方のモードで共通に使
用することかできる。 また、後述するように、垂直走査線方向の出力和XSU
Mに基づいて被写体の輝度の演算がおこなわれるか、こ
のときの演算プログラムも共通に使用することかできる
。なお、ここではWSELモードにおいて選択される垂
直走査線のピッチを4本とし、また総数を32本とした
が、例えば、ピッチを8本総数を16本というように、
異なる値に設定してもよいことはもちろんである。また
、被写体の輝度の演算結果によってピッチを変更するこ
ととしてもよい。二の場合には、被写体の輝度が明るい
ときにオーバーフローが発生することを防止することか
できる。 ステップ5T53からステップ5T66までは、水平走
査線を1本づつ選択状態とすることにより出力和X S
 IJ Mを順次読み込むための処理である。 ます、カウンタmとカウンタnにそれぞれ「1」を代入
しくステップ5T53)、続いて、水平走査レジスタ3
の入力端子P16.に入力される信号値を「ハイ」にし
、入力端子CPHからシフトパルス信号を入力した後に
、入力端子PIHに入力される信号値を「ロー」にする
(ステップ5T54)。 次に、最初の出力和XSUMを読み込むために、ステッ
プ5T55からステップ5T57により、上記XYSサ
ブルーチンで求めた測光領域のX座標値(XSに格納さ
れている値)に一致するまで、入力端子CPHヘシフト
パルス信号を印加する。すなわち、カウンタmの値と上
記XYSサブルーチンで求めたmj光領域のX座標値(
XSに格納されている値)とを比較しくステップ5T5
5) 、カウンタmの値かXSに格納されている値より
も小さければ入力端子CPHヘシフトパルス信号を1個
印加しくステップ5T56) 、mの値に「1」を加算
するという処理を、カウンタmの値がXsに格納されて
いる値と一致するまで繰り返すのである。続いて、A/
Dコンバータ6によりこのときの出力和X S U M
をデジタル変換しくステップ5T58)  デンタル変
換後の出力和DTをXSUM、(n)に格納するととも
に、輝度値B S U Mに格納された値にDTを加算
する(ステップ5T59)。ここで、輝度値BSUMは
、水平走査線を順次走査することによって得られた各出
力和XSUMを積算していくためのRAM領域であり、
最終的には32X32画素の出力の総和が格納される。 したがって、w5E1.モードの場合は画面全体の輝度
値を表わし、N SELモードの場合は画面内の一定の
領域の輝度値を表わす。 次に、カウンタnの値か「1」より大きいが否がを判断
しくステップ5T60)  カウンタnの値か「1」よ
り大きい場合(すなわち、ステップ5T58〜ステツプ
5T67からなるループを]回11に通過するとき)は
、今回読み取った出力和XSUME (n)と前回読み
取った出力和XSUME (n−1)の差分の絶対値を
焦点状態値F S U M 、に加算する(ステップ5
T61)。 二〇FSUMEは、後述するように、コントラスト値か
大きいはと大きい値をとることになる。したかって、こ
のFSUM、の値によって、被写体のコントラストの状
態を判断することかできる。 なお、カウンタnの値か「1」であるときはステップ5
T61の処理は行なわなず、ステップ5T62以降を実
行する。 第35図は、上述のステップ5T61の処理を説明する
だめの図である。ステップST6 ]は、出力和X S
 U Mの各値(すなわち、X5Uhi。 (])〜X S U M E  (32) )か形成す
る波形から被写体のコントラスト状態を判断し、焦点状
態を表すデータFSUM、を得るための処理である。 図中FLIて示したように被写体か非合焦状態であると
きは、X S U Mか形成する投影波形はなたらかな
谷型となり、波形の微分値ΔXSUMも小さくなる。こ
こで、波形の微分値ΔXSUMは、ステップST61で
示したように、隣り合うデータであるXSUME (n
)とXSUME  (n  1)との差分をとることに
よって得ることかできる。 また、FLIては、ΔXSUMを積算することによって
得られる値であるFSUMEも小さい値となる。ここで
、図中FWDで示されている方向にレンズを繰り出し、
FL2で示したような合焦状態となったときは、XSU
Mか形成する波形は鋭い谷型となり、波形の微分値ΔX
 S U Mは大きくなる。したかって、F S U 
M Eも大きい値となる。 さらにレンズを繰り出すと、再びFL3て示したような
非合焦状態となり、FSUMEは小さい値となる。この
ような方法は、一般に「山登り方式」と呼ばれている。 ステップ5T61では、このような方法によって合焦点
を得るために、FSUki、の演算を行なう。 ステップ5T62からステップ5T67まては、画素ピ
ッチを記憶するためのRAM領域であるPITO値に応
じて走査パルスをシフトさせることにより、次の水平走
査線を選択させるための処理である。まず、PITO値
をカウンタPmに代入する(ステップ5T62)。次に
、水平走査レンスタ30入力端了CPHにンフトノぐル
ス信号を印加しくステ、lブS 1’ 63 )  カ
ウンタPmの値を「]」たけ減しくステップ5T64)
 、カウンタPmの値か70 =であるか盃かを判断す
る(ステップST6’))  カウンタPmの値か「0
」てなければ、ステップ5T63に戻り、ステ・ンプ5
T65においてカウンタP0の値か「0」になるまでこ
の処理を繰り返す。ステ・ノブ5T65でカウンタP0
の値か「0」であった場合は、カウンタnの値に「1」
を加算しくステ・ノブ5T66)  カウンタnの値か
「32」であるか否かを判断する(ステ・ノブ5T67
)。カウンタnの値か「32」でなければ、nの値が「
32」になるまでステップ5T58からステ・ツブ5T
66まての処理を縁り返す。ここで、ステップ5T63
ではPITの値に応じてシフトパルス信号のみを印加し
ているので、選択される水平走査線の間隔かPITと同
し値になる。即ち、W spLモートの時には4本に一
本の間隔で水平走査線か選択され、N 5EI−モード
の時には隣接している水平走査線か順次選択される。 以上説明したステップ5T58〜ステツプ5T67の処
理により、垂直方向の出力和X5UII、(1)〜XS
UM、(32)  焦点状態値FSUL1)−および輝
度値BSU〜1か得られる。また、これらの出力和X 
S UMp、  (]、 )〜XSU〜1p  (32
)は、第9図(b)或いは第1 [11図Cb)に示し
たような投影波形X5IXS2を形成する。 続いて、以上説明した垂直方向の出力和X S U M
の読み込みとほぼ同様にして、水平方向の出力和Y S
 IJ Mの読み込みを行ない、水平方向の出力和Y 
S U P−I E  (1) −Y S U M E
  (32)を得る。これらの出力和YSUME  (
1)〜YSLJli、(32)は、第9図(C)或いは
第10図(C)に示したような投影波形YS 1゜YS
2を形成する。たたし、ステップ5T59に示した被写
体の輝度値BSUMの演算およびステップ5T61に示
した焦点状態値F SUMEの演算は、一方向について
のみ行なえば十分であるので、水平方向の出力和Y S
 U Mの読み込みの際には行なう必要はない。 第36図は、第30図に示したX5FTサブルーチンの
アルゴリズムを示すフローチャートである。このX5F
Tサブルーチンは、上述のADBFサブルーチンの実行
により、今回読み込んた出力和X S UM (X S
 UME  (1)〜XSUME (32))と前回読
み込んだXSUM(X S UME  (1)〜XSU
ME (32))との相関演算を行うことにより被写体
のX軸方向(水平方向)の移動量を算出するサブルーチ
ンである。すなわち、本サブルーチンでは、第12図を
用いて説明したように、前回読み込んだ出力和XSUM
E  (1)〜X S U M E  (32)が形成
する投影波形に対して前回読み込んだ出力和XSUME
(1)〜XSUME (32)が形成する投影波形を少
しずつシフトしながら両者の絶対的差分値の合計値を求
め、この絶対的差分値の合計値か最少値をとるときのシ
フト量を被写体の水平方向の移動量とする。 まず、SETにシフト量の初期値である−8を代入し、
演算用レジスタ5BSOに初期値であるF F F F
 oを代入する(ステップ5T70)。なお、レジスタ
5BSoは、絶対的差分値の合計値の最小値を格納する
だめのレジスタである。次に、カウンタnに「1」を代
入し、レジスタSBSに「0」を代入する(ステップS
T71)。レジスタSBSは、今回のシフト量における
絶対的差分値の合計値を格納するためのレジスタである
。続いて、前回の垂直方向の出力和XSUMのうちのn
番目の出力和であるXSUMo(n)と今回の出力和X
SUMのうちのn+SFT番目の出力和であるX S 
U M E  (n + S F T )の差分の絶対
値をレジスタSBSに加算する(ステップ5T72)。 その後、カウンタnの値に「1」を加算しくステップ5
T73)、二〇カウンタnの値とSFTの値の和を数値
「32」と比較する(ステップ5T74)。カウンタn
の値とSFTの値の和か数値「32」よりも小さいか或
いは同値であればステップST72に戻りる。一方、「
32」よりも大きければ、レジスタSBSの値とレジス
タ5BSOの値とを比較しくステップ5T75)  レ
ジスタSBSの値がレジスタ5BSoの値よりも小さけ
れば、レジスタSBSの値をレジスタ5BSoに格納す
るともにこのときのSFTの値(シフト量)をX5FT
Nに格納する(ステップ5T76)  次に、レジスタ
SFTの値に「1」を加算しくステップ5T77) 、
加算後のSFTの値か「8」を越えていなければステッ
プST71に戻り、「8」を越えてるまで、ステップ5
T71以降の処理を繰り返す。 ここで、以上のようにして得られたX5FTNの値をそ
のまま被写体のX軸方向の移動量として追尾視野を移動
させるものとすると、以下のような不都合を生しる。第
37図はこの不都合を説明するための図であり、黒点は
被写体を、点線は追尾視野を、それぞれ表している。ま
た、FLI〜FL5は、それぞれ、加算値データを取り
込む度ごとのフレーム状態を示している。ここで、被写
体か図中右方向に1画素分移動した後停止したものとす
ると(移動mr+IJ)、すなわちFLIに示した状態
からFL2に示した状態に変化したものとすると、上述
した相関演算(ステップS T 7 〔1〜ステツプS
 〕’ 78 )によって被写体の移動量カベ1算され
、;1算された移動量に応じて追尾視野も「+1またけ
移動されてFL3に示した状態となる。しかし、次に、
FL2に示した状態とFL3に示した状態との相関演算
を行うと、上述の相関演算では被写体か左方向に1画素
分移動したように判断してしまい(移動=r−1」)、
追尾視野は、FL4に示したように、左方向に1−1」
たけ移動してしまう。さらに、FL3に示した状態とF
L4に示した状態との相関演算を行うと、上述の相関演
算では被写体が右方向に1画素分移動したように判断し
てしまい(移動量r+IJ)、追尾視野は、FL5に示
したように、左方向に1画素分移動してしまう。このよ
うに、上述した相関演算(ステップ5T70〜ステツプ
5T78)によって得られたX S F T 、、の値
をそのまま被写体のX軸方向の移動量として追尾視野を
移動させるものとすると、被写体が停止しているにも拘
らず、追尾視野は左右に振動してしまうのである。 この不都合を解消するためには、1回前の相関演算で求
めた被写体の移動量X5FToと今回の相関演算で求め
た被写体の移動1XsFTNとを加算した値X5FTを
用いて追尾視野の設定を行えばよい。第38図は、X5
FTを用いて追尾視野の設定を行った場合を説明するだ
めの図である。 なお、X5FToには、初期値として「0」を入れてお
くものとする。被写体か図中有力向に1画素分移動した
後停止トしたものとすると、すなわちFLlに示した状
態からFL2に示した状態に変化したものとすると、前
回の移動FA X S F T oは「0」であり、今
回の移動量X5FT、、は「+1」であるので、X5I
−Tは「+1」となる。したかって、追尾視野は、「+
1」たけ移動されてFL3に示した状態となる。次に、
FL2に示した状態とFL3に示した状態との相関演算
を行うと、前回の移動量X5FToは「+1」であり、
今回の移動ff1XsFTNは「〜1」であるので、X
5FTは「0」となる。したがって、追尾視野は、FL
4に示したように移動しない。さらに、FL3に示した
状態とFL4に示した状態との相関演算を行うと、前回
の移動iX S F ToはrOJてあり、今回の移動
量X S F T Nも「0」であるので、XS FT
は「0」となる。したかって、追尾視野は、FL5に示
したように移動しない。 このようにして、追尾視野の振動を防止することかでき
るのである。第36図に示したステップ5T79とステ
ップ5T80は、このような処理を行うためのものであ
る。 以上1、X軸方向の移動量の演算するサブルーチンであ
るX5FTサブルーチンについて説明したが、X軸方向
の移動量の演算するサブルーチンであるYS FTサブ
ルーチンも、これと同様である。 第39図は、第3〔1図にボしたFOCLISサブルー
チンの一フルゴリスムを示すフローチャー1・である。 二〇FOCUSサブルーチンは、第35図を用いて説明
した焦点状態値FSULi「の値を使用して焦
[Industrial Application Field] The present invention measures the brightness of a moving subject, and
The present invention relates to a photometry device for a camera having a tracking device that automatically tracks such a subject. [Prior Art] Conventionally, a photometry device that measures the brightness of a subject (photometering) for exposure control of a photographic device such as a camera has been configured to be able to perform photometry of the subject area intended by the photographer. A photometric device is known. Furthermore, as such a photometric device, there is known a device using so-called spot photometry, as disclosed in, for example, Japanese Patent Publication No. 37566/1983. Spot photometry is a method of measuring the brightness of a subject in a relatively narrow area at the center of the screen of a photographic device such as a camera. However, when the FJ11J device that uses this spot metering is installed in a still camera, for example, the camera is framed in advance so that the subject is in the center of the screen, the metering and exposure control for this subject is carried out, and then the shooting is done. Therefore, if the subject moves from the center of the screen and the brightness of the subject changes after photometry and before photography, accurate exposure cannot be achieved. In contrast, instead of memorizing the metering value in advance before shooting, the area for spot metering always follows the subject by automatically tracking the subject, and metering and exposure control are performed immediately before shooting. Techniques for performing this are disclosed, for example, in Japanese Unexamined Patent Application Publication No. 1988-1921. This technology first frames the camera so that the subject is in the center of the screen and measures the brightness distribution of the subject at that time.If the subject moves, the change in the brightness distribution at that time is used to capture the subject's movement. The photometric area is automatically moved by determining the length and direction of movement, and the center of the photometric area follows the subject. [Problem to be solved by the invention] However, the technology disclosed in Japanese Patent Application Laid-Open No. 1921-1983 is an electric circuit for determining the movement of a subject based on changes in the luminance distribution for automatically tracking the subject. Since electrical circuits for photometry and photometry must be provided separately, the scale of the electrical circuits becomes large, and the mechanical scale also becomes large because the photometry area is moved mechanically. I was doing it myself. In addition, as an automatic tracking device used in a video camera, an automatic tracking device that tracks a subject using a video signal that is originally necessary for video signal processing has been disclosed, for example, in Japanese Patent Laid-Open No. 60-253887. However, it is difficult to apply this technology to automatically track a moving subject with devices that do not generate video signals, such as still cameras, and it is difficult to automatically track a moving subject when a circuit is provided to obtain a video signal. There was an issue with the circuit scale becoming too large. Furthermore, there is a technology called "multi-point evaluation metering" that divides the Mj target area into multiple areas and automatically determines the conditions of the subject and determines the exposure amount without performing automatic tracking. Although known, this technology does not measure the light of the subject intended by the photographer, and the processing is also complicated. The present invention was attempted in view of the problems of the prior art as explained above, and is a camera having a tracking device that can accurately track a subject and perform photometry with a simple and small-scale configuration. The purpose is to provide a photometric device. [Means for Solving the Problems] A photometric device for a camera having a tracking device according to the present invention includes a plurality of photoelectric conversion elements arranged two-dimensionally and a plurality of first photoelectric conversion elements arranged orthogonally to a first direction. A first scanning/star which brings one of the conversion element arrays into a selected state along the first direction and one of the plurality of second photoelectric conversion element arrays provided along the first direction. a second direction selected along a second direction perpendicular to the first direction; [a plurality of photoelectric conversion element rows along the first scan renostar] are simultaneously brought into a selected state, and the plurality of second photoelectric conversion elements are The output phase of each photoelectric conversion element is determined along the first direction by setting one of the photoelectric conversion element rows to a selected state, and the selected state by the second scanning register is changed along the second direction. a control means for obtaining a projected luminance signal consisting of the output sum by sequentially devouring the output sum; and a calculation for calculating the amount of movement of the subject by performing a correlation calculation between the current projected luminance signal and the previous projected luminance signal. means, setting means for setting a tracking field of view according to the amount of movement, and means for integrating the output sum along the second direction and determining subject brightness based on the integrated output sum. are doing. [Operation] In the present invention, the sum of the outputs of the photoelectric conversion elements corresponding to the photometric area among the two-dimensionally arranged photoelectric conversion elements is calculated in the horizontal direction (
or vertical direction) for each photoelectric conversion element row, and use the sum of each output as the luminance distribution data (projected luminance signal) of the subject in the vertical (or horizontal) direction for tracking, as well as the value obtained by further integrating each output sum. is used as the brightness of the subject, it is possible to accurately track the subject and measure the brightness of the subject with a simple and small-scale configuration. [Example] FIG. 1 is a diagram conceptually showing an image sensor of a photometric device of a camera having a tracking device of the present invention. As shown in FIG. 1, an image carrying element 1 of a photometric device of a camera having a tracking device of the present invention has a plurality of photoelectric conversion elements 2 arranged two-dimensionally, and a plurality of photoelectric conversion elements 2 arranged orthogonally to a first direction. A first scan register 3 that selects one of the plurality of first photoelectric conversion element rows 2a along the first direction, and a second photoelectric conversion element row that is provided in plurality along the first direction. 2b in a selected state along the second direction. A photometric device for a camera having a tracking device according to the present invention is constructed using such an image sensor 1. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS As an embodiment of the present invention, a case where a camera photometer having a tracking device of the present invention is mounted on a single-lens reflex camera will be described below with reference to the drawings. In addition, in this embodiment, the sum of outputs of each photoelectric conversion element corresponding to a photometry area is not used as brightness distribution data used for tracking and photometry value used for exposure control, but is also used for in-focus point detection. Let's explain the case. FIG. 2 is a block diagram schematically showing a photometry device for a camera having a tracking device according to this embodiment. In the figure, 1 is an XY child address image sensor. This XY child address image sensor 1 includes a photoelectric conversion element 2 that converts light from a subject into a voltage signal and outputs it, a water Iξ scanning register 3 that specifies the photoelectric conversion element 2 that should receive this output, and a vertical scanning register. , ゛Meta 4. The photoelectric conversion element 2 to which the output is to be taken in is designated by the horizontal scanning lines H1 to H3 of the horizontal scanning register 3 and the vertical scanning lines v1 to v3 of the vertical scanning register 4. Further, 5 is a luminance signal output that outputs the output sum of each photoelectric conversion element 2 specified by the horizontal scanning register 3 and vertical scanning register 4, and 6 is an A/D converter for converting the luminance signal output 5 into a dental signal. , 7 is a microcomputer (hereinafter referred to as CPU) for controlling the entire device, 8 is an operating member for the user to operate the device, 9
10 is a display device for displaying a photometric area; 10 is an exposure control device for controlling camera exposure based on the photometric value calculated using the brightness signal output 5; and 11 is a calculation device using the brightness signal output 5. 12 is an external control device that is controlled by subject position information calculated using the brightness signal output 5; 13 is a display from the CPU 7; Device 9
and a position information output that provides position information to the external control device 12; 14 is a horizontal scanning signal line sent from the CPU 7 to the horizontal scanning register 3; 15 is a vertical scanning signal line sent from the CPU 7 to the vertical scanning register 3; show. For simplicity, FIG. 2 shows a case where three photoelectric conversion elements 2 are arranged in each of the horizontal and vertical directions, but in this embodiment, the photoelectric conversion elements 2 are arranged in the horizontal and vertical directions. It is assumed that 128 pieces are arranged in each direction. FIG. 3 is an electrical circuit diagram showing the configuration of the photoelectric conversion element 2. As shown in FIG. In the figure, Hj is the j-th horizontal scanning line of the horizontal scanning register 3, Vi is the first vertical scanning line of the vertical scanning register 4, and Qij has the gate connected to the vertical scanning line Vi and the drain connected to the horizontal scanning line Hj. The connected transistor PDij is a photodiode whose anode is connected to the source of the transistor Qij and whose cathode is grounded. According to such a configuration, when the vertical scanning register 4 sets the vertical scanning line Vi to "no", the transistor Qi
j is turned on, and the photocurrent generated in the photodiode PDij is output to the horizontal scanning line Hj. In this embodiment, it is assumed that the horizontal operation register 3 and the vertical operation register 4 are each capable of simultaneously bringing a plurality of scanning lines into a selected state (")1" state). For example, when vertical scanning lines v1 and v2 are simultaneously selected and horizontal scanning line H1 is selected, the luminance signal output 5 becomes PDI
The value is the sum of the photocurrent of PD2 and the photocurrent of PD2. FIG. 4(a) is an equivalent circuit showing two photoelectric conversion elements driven in this case. In the figure, ■. UT is
An output terminal for outputting the luminance signal output 5 is shown. Similarly, horizontal scanning lines H1 and H2 are simultaneously selected,
Moreover, when the vertical scanning line V is brought into a selected state, FIG. 4(b)
), the luminance signal output 5 output from the output terminal V 0LIT is the sum of the photocurrent of P D , , and the photocurrent of PD, □. With such a configuration, it is possible to obtain the sum of outputs of the photoelectric conversion elements 2 corresponding to the photometry area for each row of photoelectric conversion elements in the horizontal or vertical direction, and to obtain brightness distribution data of the subject. FIG. 5 is an electrical circuit diagram showing an example of the internal configuration of the vertical scanning register 4. As shown in FIG. In this way, the vertical scanning register 4 can be configured by a synchronous shift register. In the figure, PIV%CPV%CH,v are input terminals for manually inputting the pulse signal from the vertical scanning signal line 15, and PIV is shifted by a synchronous shift register to the vertical scanning line ■1. ~■3 input terminal for inputting the scanning signal, Cpv is the input terminal for manually inputting the shift nox signal that gives the timing to shift the manually inputted scanning signal from the input terminal PIV, and CLV is for each J
This is an input terminal for manually inputting a signal to reset the K flip-flop. With this configuration, the signal state of ")\a" or "low" input from the input terminal PIV is shifted from the JK flip-flop amplifier on the left side in the figure to the right side according to the shift pulse signal input from the input terminal CPV. It is also possible to shift sequentially to the JK flip-flop. FIG. 6 is a timing chart for explaining the operation of the vertical scanning register 4. As shown in FIG. 6, a reset signal is input to input terminal CLv, and each
Reset and sort the K flip-flop, then input terminal P
When the shift signal is input to the input terminal Cpv after changing the signal manually input from lv to "l\a", the first J
The Q output of the K flip-flop tube, that is, the vertical scanning line■
1 becomes "NO1" (selected state). Next, by manually inputting a shift pulse signal to the input terminal Cpv while keeping the signal input from the input terminal Plv at "high", the Q output of the first JK flip-flop and the second JK flip-flop becomes ""Hi". Next, after setting the signals input from input terminals P and V to "low", and inputting a shift pulse signal to input terminal CPV, the Q output of the first JK flip-flop becomes "l\a", and 2
The Q outputs of the th JK flip-flop and the third JK flip-flop become "NO1". in this way,
By controlling each vertical scanning pulse 15 input from the CPU 7 to the input terminals PIV and CPVs CLV, it is possible to simultaneously bring any vertical scanning lines into a selected state. Further, by making the configuration of the horizontal scanning register 3 similar to that of the vertical scanning register 4, it is possible to simultaneously bring any horizontal scanning lines into a selected state. FIG. 7 is a timing chart showing the operations of the water turbine scan register 3 and the vertical scan register 4 when horizontal scan lines are sequentially scanned one by one while a plurality of vertical scan lines are simultaneously selected. In the figure, P! 11・Cpo・
CLI+ is an input terminal for inputting a pulse signal from the horizontal scanning signal line 14, and PIH is shifted by a synchronous shift register and sent to the horizontal scanning line H1.
The input terminal for inputting the scanning signal that gives ~H3, CPH is the input terminal P! CLH is an input terminal for inputting a shift pulse signal that provides timing for shifting the scanning signal inputted from □, and CLH is an input terminal for inputting a reset pulse signal for resetting each JK flip-flop. Further, in the figure, the left side of the dotted line indicates the timing of each signal when a plurality of vertical scanning lines are simultaneously brought into a selected state, as in the case of FIG. 6 above. Furthermore, on the right side of the wavy line, the signal input from the input terminal PIH is set to "high", only one shift pulse signal is applied to the input terminal CPH, and then the signal input from the input terminal PIN is set to "low". This shows the timing at which horizontal scanning lines are brought into a selected state one by one by sequentially applying shift pulse signals to input terminals CF'H. Horizontal scan register 3
By operating the vertical scanning register 4 in this manner, the output sum of each photoelectric conversion element column in the vertical direction can be sequentially output from the output terminal VOU of the luminance signal output 5. can. Furthermore, by reversing the scanning relationship between the vertical scanning lines V, -V3 and the horizontal scanning lines H, -H3 (i.e., P, V and P
I) 1%CPV and CPH5By reversing CLV and CLH, respectively), it is possible to sequentially scan the vertical scan lines one by one while keeping multiple horizontal scan lines selected at the same time. Regarding the conversion element array, the output sum of each photoelectric conversion element array is sequentially outputted to the output terminal V of the luminance signal output 5. It can also be output from V. In addition, in FIGS. 6 and 7, pulses were applied to P and V so that the scanning lines that were selected at the same time were adjacent scanning lines, but as shown in FIG. P.I.
By intermittently inputting a "high" signal to V, it is also possible to select a scanning line at an arbitrary pitch. Next, a method of detecting the direction and amount of movement of a subject using the photometry device of a camera having the tracking device of this embodiment shown in FIG. 2 will be described. First, the photometric area of the subject is determined. Figure 9(a) shows
FIG. 2 is a schematic diagram showing an example of an image that becomes such a photometric area. Next, the outputs of each pixel (each photoelectric conversion element 2) of this image are added in the vertical direction as explained using FIG. 7 above to obtain the output sum, and a so-called projected waveform is obtained. For example, if there is a dark object such as a tree in the vertical direction as shown in FIG. 9(a), the sum of the outputs of each pixel in that part
Since it is smaller than M, the projected waveform is shown in Figure 9(b) as
It becomes as shown in SI. In Fig. 9(b), the vertical axis indicates the coordinates on the horizontal coordinate axis (X-axis) of the photometry area shown in Fig. 9(a), and the horizontal axis indicates the vertical output at each X-coordinate. The sum X S U M is shown. Similarly, when calculating the horizontal output sum Y S U M of the output of each pixel, if there is a bright subject such as the sky in the horizontal direction as shown in Figure 9(a), the output of that part will be Since the sum is larger than the output sum of other parts, the projected waveform becomes as shown in FIG. 9(C). In Fig. 9(C), the vertical axis indicates the coordinate on the vertical coordinate axis (y-axis) of the photometric area shown in Fig. 9(a), and the horizontal axis indicates the horizontal output at each X coordinate. The sum Y S U M is shown. These projected waveforms are temporarily stored in storage means such as a RAM provided inside the CPU 7. Here, if the camera is moved in the upper right direction, the image of the photometric area of the subject will become, for example, as shown in FIG. 10(a). In addition, at this time, if the vertical projected waveform XS2 and the horizontal projected waveform Y82 are obtained in the same manner as in FIGS. 9(b) and 9(c) above, FIG.
b) and as shown in FIG. 10(C). 11th
The figure is a graph in which XSI, which is a vertically projected waveform before movement, and XS2, which is a vertically projected waveform after movement, are superimposed. The CPIJ7 calculates the amount of movement of the subject in the horizontal direction by calculating the correlation between the projection waveform XSI and the projection waveform XS2. In reality, the absolute difference between the projection waveform XS2 and the projection waveform XSI is calculated by shifting the projection waveform shall be. FIG. 12 is a graph showing the relationship between the shift HX S F T of the projection waveform XS2 and the absolute difference value ABS (XS 1 - XS 2). Further, FIG. 13 is a graph in which the horizontal projected waveform YSI before movement and the horizontal projected waveform YS2 after movement are superimposed. In the same way as above, the CPU 7 performs a correlation calculation between the projection waveform YSI and the projection waveform YS2.
Find the amount of vertical movement of the subject. FIG. 14 shows the shift amount YSFT of the projection waveform Y82 and the absolute difference value calculation AB.
It is a graph which shows the relationship of S (YS) - YS2). By repeating this process sequentially, the amount of movement (XSFT, YS
FT), it becomes possible to track the subject. The photometry device of the camera having the tracking device of this embodiment is configured to be able to automatically select two types of photometry regions depending on the contrast of the subject. Figure 15 shows
FIG. 2 is a conceptual diagram for explaining the first photometric area. If the first photometry area is selected, 128X128
The entire number of pixels is set as the /l1ll destination area, and as shown in the figure, every fourth pixel is set in a selected state in both the horizontal and vertical directions. Note that the number of pixels at this time is 3
2x32 pieces. FIG. 16(a) shows an example of the subject image and photometry area when the first tPj light area is selected, and the Mj front area is shown within the frame indicated by the dotted line in the figure. ing. Further, FIG. 16(b) is a graph showing the vertically projected waveform at this time. That is, the first
The projected waveform shown in FIG. 6(b) is obtained by sequentially determining the vertical output sum XSUM for each pixel selected every four pixels as described above. Hereinafter, this first selection method will be referred to as W, l, L mote. Moreover, FIG. 17 is a conceptual diagram for explaining the second photometric area. When the second photometry area is selected, as shown in the figure, 32×32 pixels at the center of the screen are set as the measurement area, and all pixels within this measurement area are set in the selected state. FIG. 18(a) shows an example of the subject image and the photometric area when the second photometric area is selected, and the photometric area is shown within the frame indicated by the dotted line in the figure. Further, FIG. 18(b) is a graph showing the projected waveform in the vertical direction at this time. In other words, the projected waveform shown in FIG. 18(b) is obtained by sequentially determining the vertical output sum X S U M for all pixels in the Mll light region as described above. It is a smooth thing. From now on, use this selection method as N, H.
It will be called l-mote. Furthermore, in this N/YL mode, the photometry area also moves as the subject moves, so the second photometry area will be referred to as a "tracking field of view."C7') In this embodiment, the total number of selected pixels in the Ws2L mode is made equal to the total number of selected pixels in the NSEI mode, so either selection mode Even in the case where the projection waveform is determined and the subsequent processing by the CPU 7 can be shared, it is possible to simplify the control and downsize the electric circuit. Next, the structure of a single-lens reflex camera equipped with a camera photometer having a tracking device as shown in FIG. 2 will be described. FIG. 19 is a schematic cross-sectional view showing the positional relationship between the optical system of such an eye reflex camera and the main components of the photometry device of the camera that includes the tracking device shown in FIG. In the figure, the - dotted line represents the center of the optical axis of the subject image. Further, 1 fl a is an aperture control device of the exposure control device 10, 10b is a shutter control device of the exposure control device 10, 20 is a photographing lens, and 21 is an aperture control device 10.
22 is a main mirror that reflects the light from the subject that has passed through the photographic lens 20; 23 is a main mirror that reflects the light from the subject that has passed through the photographic lens 20;
24 is a mirror, 25 is a mirror, 26 is for separating the light from the subject into observation and imaging, and 27 is for superimposing the light from the subject and the light from the display device 9. The half mirror 28a is a finder image forming surface that forms a subject image, 28b is a film surface that forms a subject image when the main mirror 22 is moved and the light from the subject goes straight, and 29 is an eyepiece lens. be. FIG. 20 is an external view of the single-lens reflex camera shown in FIG.
is provided. The release button 30 is a component of the operating member 8. FIG. 21 is a sectional view schematically showing the structure of the scanning member 8. As shown in FIG. As shown in FIG. 21, the operating member 8 includes the release button 3
0, a DSW 31 that turns on at the -th step when the release button 3o is pressed, and an R5W32 that turns on at the second step. Further, the display device 9 is a device for setting a tracking field of view to be displayed superimposed on the subject image when the N5EL mode is adopted as the mode for measuring the brightness of the subject. The configuration and display method of the display device 9 may be of any type as long as it can achieve this purpose. FIG. 22(a) is a schematic perspective view showing an example of the configuration of the display device 9, and shows a type in which light emitters 34 such as LEDs are arranged on a flat plate to illuminate the subject position. FIG. 22(b) is a schematic diagram showing an example of the finder field of view in this example. In the figure, the portion indicated by a black dot is the light emission display by the light emitter 34. FIG. 23(a) is a schematic perspective view showing another example of the configuration of the display device 9, in which light-emitting bodies 34 such as LEDs are arranged in a row in the horizontal direction and in the vertical direction, and the light-emitting bodies 34
This shows a type that displays the coordinates of the subject's position by lighting it up. FIG. 23(b) shows
It is a schematic diagram showing an example of a finder field of view in this example. Similar to FIG. 22(b), the part indicated by the black dot is the light emitting body 34.
This is a light-emitting display. FIG. 24(a) is a schematic perspective view showing a third example of the configuration of the display device 9, in which illumination light is emitted from the back side of the liquid crystal display device 35 by the light emitting means 36, and the tracking field of view is shaped like a frame. Indicates the type of display. FIG. 24(b) is a schematic diagram showing an example of the finder field of view in this example. In the figure, the part indicated by the dotted line is a frame displayed by the liquid crystal display 35. Further, FIGS. 25 and 26 are schematic cross-sectional views showing an example in which a subject image and a tracking field of view are displayed in an overlapping manner without using the half mirror 27. FIG. 25 shows an example in which a liquid crystal display device 35 is provided in contact with the finder image forming surface 28a, and the tracking field of view is displayed in a frame shape by the liquid crystal display device 35. Further, FIG. 26 shows an example in which a mechanical display device such as a meta is placed on the viewfinder imaging surface 2Ba to display a cross-hair shape. In the figure, 37 is an indicator of the mechanical display device, and 38 is a control device that controls the position of the indicator 37 of the mechanical display device. Hereinafter, in this embodiment, the display device 9 is shown in FIG.
) and a case where a frame display using a liquid crystal display device as shown in FIG. 24(b) is adopted will be explained as an example. Here, as described above, the photometry device of the camera having the tracking device of this embodiment is configured so that the tracking field of view moves with the movement of the subject. FIGS. 27(a) and 27(b) are schematic diagrams showing how the tracking field of view moves as the subject moves. FIG. 27(a) shows the finder field of view in the initial state, and the area within the frame indicated by the dotted line is the nj light area (that is, the tracking field of view). next,
When the human subject moves to the left from the center of the screen,
As the photometric area moves as described above, the tracking field of view displayed in a frame shape by the display device 9 also moves, so that the finder field of view becomes as shown in FIG. 27(b). Note that the modes for measuring the brightness of the subject are WSF, 0. When the mode is selected, the entire field of view of the finder or the photometric area is displayed, so no display is performed on the display device 9. Next, the operation sequence of the photometry device of the camera having the tracking device according to this embodiment will be explained. FIG. 28 shows the relationship between the arrangement of pixels (photoelectric conversion element 2) of the XY address type image sensor and the coordinates regarding the subject position. As described above, the pixels of the XY child address image sensor 1 are arranged in a matrix of 128 horizontally and 128 vertically. Hereinafter, in this example, the subject position is expressed as positive (+) on the right side and negative (=) on the left side in the horizontal direction (X-axis direction) with this center position as a reference.
In the vertical direction (Y-axis direction), the lower side with respect to the center position is designated as positive (+), and the upper side is designated as negative (-). Furthermore, the number of pixels selected when obtaining the output sums XSUM and YSUM is 32 in both the X-axis direction and the y-axis direction. Furthermore, FIG. 29 shows the contents of a data storage RAM (Random Access Memory) provided inside the CPU 7 that controls the operation of the photometric device of the camera having the tracking device according to this embodiment. It is. FIG. 30 is a flowchart (general flowchart) schematically showing the processing of the CPU 7. This general flow will be explained below. First, the DSW 31 is the first switch of the operating member 8.
is turned on (step 5T1)
. When the DSW 31 is not turned on, clear the FDSW flag, which is a flag indicating whether the DSW 3 is on or off, and the RAM areas XP and YP, which are used to increment the pixel position by coordinates (step 5T2).
A DISPLAY OFF subroutine, which is a subroutine for canceling display on the display device 9, is executed (step 5T3), and focus adjustment control is disabled (step 5T4), after which the process returns to step STI. When the DSW 31 is not being operated, steps STI to ST4 are repeatedly executed. As a result, there is no superimposed display (display of the tracking field of view by the display device 9) when the camera is only held, so there is no inconvenience. When the DSW 31 is turned on, first, an XYS subroutine is executed, which is a subroutine for determining which pixel to select when measuring the brightness of an object.
) Then, by reading the value of the FDSW flag, it is determined whether the DSW 31 is turned on for the first time or continues to be turned on (step 5T6). DSW3
1 or when it is determined that it has been turned on for the first time, manually input rlJ to the FDSW flag in step 5T7), and then
By executing the F subroutine, step ST5
Based on the results calculated in the XY child address image pickup device 1, the horizontal scanning signal line 14 or the vertical scanning signal line is sent to the horizontal operation register 3 and vertical operation register 4, respectively]
Output the signal from 5, output sum X S U M and Y
RAM shown in FIG. 29 by sequentially reading SUM
(Step 5T8). In addition, in the ADBF subroutine, the brightness of the subject and the focal tube are calculated from the XSUM waveform as described later, and the RA
B S U M and F S U M which are areas within M
Store in E. Note that the mode selected in the second step ST8 is the NS mode described using FIG. 17. Subsequently, it is determined whether the calculation result of the focus state stored in F S U M j is larger or smaller than a predetermined value F M (step 5T9). Is it the calculation result of the focus state or the predetermined value F? When it is larger than v1, the FW flag, which is a flag indicating that the WS mode is selected, is set to "0", that is, N35. Furthermore, PIT, which is a RAM area that stores the pixel pitch of the pixel selected at this time, is set to "1" (minimum value) (step ST
]O). On the other hand, when the calculation result of the focus state is smaller than the predetermined value FM in step ST9, the FW flag is set to "1".
” and set it to W, hL mode, and set the PIT to “
Step 5T18), then set each of XS and YS, which are RAM areas that store coordinate data representing the photometry area (tracking field of view), to ``1'' (Step 5).
T1Q), then execute the ADBF subroutine,
W, l: Output sum XSU~1 and YSU by L motor
~1, and write each data in RAM (Step 5T2 (1). In this way, in my example, when the DSW 31 is turned on in Step ST9, a high contrast image is displayed in the center of the screen. It is determined whether the subject is located, and then, if the subject is located with high contrast, N SEL is determined in step ST10.
Select mote, if not located, step 5T1
Since W8, 1-mode is selected by 8 to S T 2 Ul, the optimum selection mode can be automatically set according to the subject. If it is determined in step ST6 that the DSW 31 continues to be turned on, first execute the ADBF subroutine as described above to read the output sums XSUM and YSUM from RA.
M area XSUME and YSUME are stored in step 5T21). Next, by performing a correlation calculation using this XSUME and the previously read XSUM, the subject movement in the X axis direction (horizontal direction) X5FT subroutine (step 5
T22) and this YSUM and the YSUM loaded last time
YS, which is a subroutine that calculates the amount of subject movement in the y-axis direction (vertical direction) by performing a correlation calculation using
The FT subroutine (step 5T23) is executed. Next, select the selected mode or WSEL mode.
Determine whether it is SEL mode (step 5T24)
. Here, if N SEL mode is selected,
X is a RAM area that stores pixel positions using coordinates.
The values stored in X5FT and YSFT, which are RAM areas for storing the amount of subject movement, are added to the values stored in P and YP, respectively, and these results are further stored in XP and YP (step 5T25). ) c Also, if the W51ZL mode is selected, the amount of movement calculated in step 5T22 or step 5T2B is equal to /4 of the true amount of movement, so the values stored in XP and YP are and the value stored in YS FT multiplied by 4, respectively, and these results are further stored in XP and YP (step 5T26
). Thereafter, focus adjustment control is performed by a known method using the focus state value FStJM obtained in step ST21 and the previous focus state value FSUNiO (step 5T27). In this embodiment, the number of pixels to be selected or the same number (X
32 UMs and 32 YSUMs), a program for performing correlation calculations can be used in common, and the program capacity of the CPU 7 can therefore be reduced. Next, the output sum X SUM is stored in XSUME for the next data reading. Output sum YSUM and FSUM stored in YSUME
The focus state value stored in g is the previous output sum XSUM,
X SUM□ and Y SUM are RAM areas that store YSUM and focus state values. and FSUMo respectively (step STI
1). Also, step STI 1 is performed, and each time data is fetched, X S U M E and X S U M
o may be used alternately, YSUME and YSUMo may be used alternately, and FSUME and FSLlio may be used alternatively as pig storage areas, and the sign of the movement amount may be reversed. Subsequently, the output sum X S U obtained in either step ST8, step 5T20, or step ST21
The APEX subroutine, which is a subroutine that performs exposure calculation based on M, is executed (step 5T12).
. Furthermore, based on the output sums XSUM and YSUM,
The display device 9 displays the position of the subject in the finder (step 5T13). Also, it is determined whether R3W32, which is the second stage switch of the scanning member 8, is on or not (step 5T14). If R5W32 is on, exposure control is performed according to the exposure amount determined in step 5T12. The EXP subroutine, which is a subroutine, is executed (Step 5T15). The FREL flag, which is a flag indicating completion of exposure, is set to "1" (Step 5).
T16) On the other hand, if R3W is off, FR
The EL flag is set to "0" (step 5T17). When the above operations are completed, the process returns to step STI and the above operations are repeated. FIG. 31 is a flowchart showing the algorithm of the XYs subroutine shown in FIG. This XYS subroutine is for XY address type image sensor]
This is a subroutine for determining the selected pixel when reading the output sum XSUM from . Further, XS and YS are RAM areas for storing coordinate values indicating the Mj destination area, and as shown in FIG. 32, in the case of the W5EL mote, these are always at the upper left position of the screen. Further, in the case of the N SEL mode, the initial position is represented by predetermined values XSO and YSO, but changes as the subject moves, so that the above-mentioned tracking field of view follows the subject. In FIG. 31, step 5T36 is a process in the case of a WS8L mote (that is, when the FW flag is "1"). In this case, "1" is stored in each of XS and YS. Step 5T3B is in N5EL mode and DSW3
1 or when first turned on (i.e., FW flag,
When the FREL flag and FDSW flag are “O”)
This is the process. In this case, XS○ and YSo are stored in XS and YS, respectively. Step 5T34 is N
5EL mode and one DSW31 remains on (i.e., the FW flag and the FRE
This is the process when the L flag is "0" and the FDSW flag is "]". In this case, RAM stores the amount of movement of the subject in the values stored in XS and YS.
Add the values stored in the areas X5FT and YSFT. Step 5T35 is N5E1. This process is performed immediately after the exposure is completed (that is, when the FW flag is "0" and the FREL flag is "1"). In this case, assuming that the direction of movement of the subject before and after exposure is the same, the amount of movement immediately before exposure is multiplied by exposure time ET and the combined value is added to the values stored in XS and YS. By this, the reading position at the time of exposure is set. FIG. 33 shows the relationship between the subject position and the amount of movement before and after exposure. - When attempting to capture an image of a subject within the viewfinder, such as with an eye reflex camera, the optical path to the viewfinder is blocked during exposure, and the subject may be moving during that time. However, by calculating the position of the subject at the end of exposure using the method described above, it is possible to prevent the tracking field of view from losing sight of the subject. FIG. 34 is a flowchart showing the algorithm of the ADBF subroutine shown in FIG. This AD
The BF subroutine calculates the vertical output sum X S U M and the horizontal output sum YS from the photoelectric conversion element 2.
This is a flowchart for reading UM, but for simplicity, the vertical output sum XSUM is obtained by sequentially scanning the horizontal scanning lines and adding them in the vertical direction while keeping multiple vertical scanning lines selected at the same time. Only the process for reading is shown, and the process for reading the output sum YSUM in the )<iTg direction is omitted. In addition, the output port in the water direction direction] Y
The process for reading S t; Ll is almost the same as the process for reading the vertical output 7Jil
f Up to S752, the process is to keep a plurality of vertical scanning lines in the selected state 1=at the same time. First, clear the brightness value and the focus state value by 10'' (Step 5T40).
(Step 5T41) Step 5T
42 to step 5T49, vertical scan register 4
This is a process for causing the user to select multiple vertical scanning lines. That is, here, in order to select the vertical scanning line,
At the same time as inputting a pulse to input terminal Pl, input terminal C
By inputting 32 shift pulse signals from ps, 32 vertical scanning lines are brought into a selected state. First, 32 is assigned to the counter n (step 5T42), and the value of PIT, which is a RAM area that stores the pixel pitch, is assigned to the counter P. (Stetsu Tf ST 43). Next, after setting the signal values input to the vertical scanning register 40 input terminals P and V to "high" and inputting a shift pulse signal from the input terminal CPL, the signal values input to the input terminals P and V are set to "high".
Low” (step 5T45). Thereafter, the value of the counter Pl,l is decreased by "1" (step ST45), and it is determined whether the value of the counter Pm is "0" (step ST46). The value of counter Pm is 1 and 1.''
Then, one shift pulse signal is further input to the input terminal C.
2,, (step 5T47), returns to step 5T45, and in step 5T46 the counter P
This process is repeated until the value of m becomes rOJ. If the value of counter Pm in step 5T46 is "0", the value of counter n is decreased by rlJ (step 5T48
), determine whether the value of counter n is "0" (
Step ST49). If the value of the counter □ is not "0", step ST'4 is performed until the value of n becomes rOJ.
The processes from B to step 5T49 are repeated. Here step 5T45, step 5T46, step 5T4
Since only the shift pulse signal is applied according to the value of PIT in step 7, the interval between the selected vertical scanning lines becomes the same value as PIT. That is, in the W and 2L modes, vertical scanning lines are selected at one in four intervals, and in the N5EL mode, adjacent vertical scanning lines are selected. Steps 5T50 to 5T52 are for controlling which part of the vertical scanning line is to be kept in the selected state, and are for the Ns and L modes. That is, here, the X-coordinate value of the first scanning line among the vertical scanning lines that are turned on is made to match the X-coordinate value (value stored in YS) of the photometry area obtained in the above-mentioned XYS subroutine. First, add "1" to the value of counter n (Step 5T50). Next, compare the value of counter n with the value stored in YS. Step 5T51). If the value is smaller than the current value, a shift pulse signal is applied to the input terminals C and V of the vertical scanning register 4 (step 5T52). By repeating this process until the value of the counter n matches the value stored in the YS, the X coordinate value of the photometric area can be made to match the value stored in the YS flag. In this embodiment, the number of vertical scanning lines selected at the same time is the same (32) regardless of whether it is N, □ mode or WSEL mode, so there is no need to use different ranges depending on the mode, and A/ The D converter 6 can be used in both modes. In addition, as described later, the output sum XSU in the vertical scanning line direction
The luminance of the subject is calculated based on M, or the calculation program used at this time can also be used in common. Note that here, the pitch of the vertical scanning lines selected in the WSEL mode is 4, and the total number is 32, but for example, the pitch is 8 and the total number is 16.
Of course, it may be set to a different value. Alternatively, the pitch may be changed based on the calculation result of the brightness of the subject. In the second case, it is possible to prevent overflow from occurring when the subject is bright. From step 5T53 to step 5T66, the output sum X S is selected by selecting each horizontal scanning line one by one.
This is a process for sequentially reading IJM. Next, assign "1" to counter m and counter n, respectively (step 5T53), then horizontal scan register 3.
input terminal P16. After inputting a shift pulse signal from the input terminal CPH, the signal value input to the input terminal PIH is set to "low" (step 5T54). Next, in order to read the first output sum Apply a pulse signal. That is, the value of the counter m and the X coordinate value of the mj light area obtained by the above XYS subroutine (
Step 5T5
5) If the value of counter m is smaller than the value stored in XS, apply one shift pulse signal to input terminal CPH.Step 5T56) Add "1" to the value of m to counter m. This is repeated until the value of matches the value stored in Xs. Next, A/
The output sum at this time by the D converter 6
(Step 5T58) The output sum DT after the dental conversion is stored in XSUM, (n), and DT is added to the value stored in the brightness value B SUM (Step 5T59). Here, the brightness value BSUM is a RAM area for integrating each output sum XSUM obtained by sequentially scanning horizontal scanning lines,
Ultimately, the sum of outputs of 32×32 pixels is stored. Therefore, w5E1. In the case of mode, it represents the brightness value of the entire screen, and in the case of NSEL mode, it represents the brightness value of a certain area within the screen. Next, it is determined whether the value of the counter n is greater than "1" or not (step 5T60)) If the value of the counter n is greater than "1" (that is, the loop consisting of steps 5T58 to 5T67 is passed to step 11) (step 5), the absolute value of the difference between the output sum XSUME (n) read this time and the output sum XSUME (n-1) read last time is added to the focus state value F SUM (step 5).
T61). As will be described later, 20FSUME takes a very large value if the contrast value is large. Therefore, the contrast state of the object can be determined based on the value of FSUM. Note that if the value of counter n is "1", step 5
The process at T61 is not performed, and steps 5 and T62 and subsequent steps are executed. FIG. 35 is a diagram for explaining the process of step 5T61 described above. Step ST6 ] is the output sum X S
This is a process for determining the contrast state of the object from the waveform formed by each value of UM (i.e., X5Uhi. (]) to . As indicated by FLI in the figure, when the subject is out of focus, the projected waveform formed by X S U M has a gentle valley shape, and the differential value ΔXSUM of the waveform also becomes small. Here, the waveform differential value ΔXSUM is the adjacent data XSUME (n
) and XSUME (n 1). Furthermore, in FLI, FSUME, which is a value obtained by integrating ΔXSUM, also becomes a small value. Now, extend the lens in the direction indicated by FWD in the figure,
When in focus as shown in FL2, use XSU.
The waveform formed by M has a sharp valley shape, and the differential value ΔX of the waveform
SUM becomes larger. If you want to, FSU
ME also has a large value. When the lens is extended further, the lens becomes out of focus again as shown by FL3, and FSUME becomes a small value. Such a method is generally called the "mountain climbing method." In step 5T61, FSUki is calculated in order to obtain a focused point by such a method. Steps 5T62 to 5T67 are processes for selecting the next horizontal scanning line by shifting the scanning pulse according to the PITO value, which is a RAM area for storing the pixel pitch. First, the PITO value is assigned to the counter Pm (step 5T62). Next, apply a forward clock signal to the input terminal CPH of the horizontal scanning sensor 30 (Step 5T64) and decrease the value of the counter Pm by "]".
, it is determined whether the value of counter Pm is 70 = or a cup (step ST6')).
”, return to step 5T63 and step 5
This process is repeated until the value of the counter P0 reaches "0" at T65. Counter P0 with Ste Knob 5T65
If the value of counter n is "0", "1" is added to the value of counter n.
(Ste knob 5T66) Determine whether the value of counter n is "32" (Ste knob 5T67)
). If the value of counter n is not "32", the value of n is "
From step 5T58 to step 5T until it reaches 32''
66 Repeat the process. Here, step 5T63
Since only the shift pulse signal is applied according to the value of PIT, the interval between the selected horizontal scanning lines becomes the same value as PIT. That is, in the W spL mode, horizontal scanning lines are selected at intervals of one in four, and in the N5EI mode, adjacent horizontal scanning lines are sequentially selected. By the processing of steps 5T58 to 5T67 explained above, the vertical output sum X5UII, (1) to XS
UM, (32) A focus state value FSUL1)- and a brightness value BSU~1 are obtained. Also, the sum of these outputs
SUMp, (], )~XSU~1p (32
) forms a projection waveform X5IXS2 as shown in FIG. 9(b) or the first one (FIG. 11Cb). Next, the vertical output sum X S U M explained above
In almost the same way as reading, the horizontal output sum Y S
Read IJM and calculate the horizontal output sum Y
S U P-I E (1) -Y S U M E
We obtain (32). The sum of these outputs YSUME (
1) to YSLJli, (32) are projected waveforms YS 1°YS as shown in FIG. 9(C) or FIG. 10(C).
form 2. However, since it is sufficient to perform the calculation of the brightness value BSUM of the subject shown in step 5T59 and the calculation of the focus state value FSUME shown in step 5T61 only in one direction, the horizontal output sum YS
There is no need to do this when reading UM. FIG. 36 is a flowchart showing the algorithm of the X5FT subroutine shown in FIG. This X5F
The T subroutine executes the ADBF subroutine described above to calculate the output sum X S UM (X S
UME (1) to XSUME (32)) and the previously read XSUM (X S UME (1) to XSU
This is a subroutine that calculates the amount of movement of the subject in the X-axis direction (horizontal direction) by performing a correlation calculation with ME (32)). That is, in this subroutine, as explained using FIG.
The output sum XSUME read last time for the projection waveform formed by E (1) to X S U M E (32)
(1) ~ XSUME (32) Shifting the projected waveform formed by Let the amount of horizontal movement be First, assign the initial value of the shift amount -8 to SET,
The initial value F F F F in the calculation register 5BSO
Substitute o (step 5T70). Note that the register 5BSo is a register for storing the minimum value of the total value of absolute difference values. Next, "1" is assigned to the counter n, and "0" is assigned to the register SBS (step S
T71). The register SBS is a register for storing the total value of absolute difference values in the current shift amount. Next, n of the previous vertical output sum XSUM
XSUMo(n) which is the th output sum and the current output sum X
X S which is the n+SFT output sum of SUM
The absolute value of the difference between U M E (n + S F T ) is added to the register SBS (step 5T72). After that, add "1" to the value of counter n in step 5.
T73), the sum of the value of the 20 counter n and the value of SFT is compared with the numerical value "32" (step 5T74). counter n
If the sum of the value of and the value of SFT is smaller than or equal to the numerical value "32", the process returns to step ST72. on the other hand,"
32'', compare the value of register SBS with the value of register 5BSO (Step 5T75)) If the value of register SBS is smaller than the value of register 5BSo, store the value of register SBS in register 5BSo, and at this time The SFT value (shift amount) of
N (step 5T76), then add "1" to the value of register SFT (step 5T77),
If the value of SFT after addition does not exceed "8", return to step ST71, and repeat step 5 until the value exceeds "8".
Repeat the process from T71 onwards. Here, if the value of X5FTN obtained as described above is used as the amount of movement of the subject in the X-axis direction to move the tracking field of view, the following inconvenience will occur. FIG. 37 is a diagram for explaining this inconvenience, where the black dots represent the subject and the dotted lines represent the tracking field of view. Further, FLI to FL5 each indicate a frame state each time the addition value data is taken in. Here, if the subject moves one pixel to the right in the figure and then stops (movement mr + IJ), that is, if it changes from the state shown in FLI to the state shown in FL2, then the above-mentioned correlation calculation ( Step S T 7 [1~Step S
]'78), the amount of movement of the subject is calculated by 1, and the tracking field of view is also moved by +1 according to the calculated amount of movement, resulting in the state shown in FL3.However, next,
When performing a correlation calculation between the state shown in FL2 and the state shown in FL3, the above correlation calculation concludes that the subject has moved one pixel to the left (movement = r-1").
The tracking field of view is 1-1 to the left, as shown in FL4.
I end up moving a lot. Furthermore, the state shown in FL3 and F
When performing a correlation calculation with the state shown in L4, the correlation calculation described above determines that the subject has moved by one pixel to the right (movement amount r + IJ), and the tracking field of view is changed as shown in FL5. , it moves one pixel to the left. In this way, if the value of X S F T , , obtained by the above-mentioned correlation calculation (steps 5T70 to 5T78) is used as the amount of movement of the subject in the X-axis direction to move the tracking field of view, if the subject stops Despite this, the tracking field of view oscillates from side to side. In order to resolve this inconvenience, set the tracking field of view using the value X5FT, which is the sum of the object movement amount X5FTo obtained in the previous correlation calculation and the object movement 1XsFTN obtained in the current correlation calculation. That's fine. Figure 38 shows X5
FIG. 6 is a diagram illustrating a case where a tracking field of view is set using FT. Note that X5FTo is set to "0" as an initial value. Assuming that the subject moves one pixel in the effective direction in the figure and then stops, that is, the state shown in FLl changes to the state shown in FL2, the previous movement FAXS F To is "0", and the current movement amount X5FT,, is "+1", so X5I
-T becomes "+1". Therefore, the tracking field of view is ``+
It is moved by 1" and becomes the state shown in FL3. next,
When performing a correlation calculation between the state shown in FL2 and the state shown in FL3, the previous movement amount X5FTo is "+1",
The current movement ff1XsFTN is “~1”, so
5FT becomes "0". Therefore, the tracking field of view is FL
It does not move as shown in 4. Furthermore, when performing a correlation calculation between the state shown in FL3 and the state shown in FL4, the previous movement iX S F To is rOJ, and the current movement amount X S F T N is also "0", so XS FT
becomes "0". Therefore, the tracking field of view does not move as shown at FL5. In this way, it is possible to prevent vibrations in the tracking field of view. Step 5T79 and step 5T80 shown in FIG. 36 are for performing such processing. The X5FT subroutine, which is a subroutine for calculating the amount of movement in the X-axis direction, has been described above in 1. The YS FT subroutine, which is a subroutine for calculating the amount of movement in the X-axis direction, is also similar to this. FIG. 39 is a flowchart 1 showing one fulgorithm of the FOCLIS subroutine shown in FIG. 20 The FOCUS subroutine uses the value of the focus state value FSULi" explained using FIG.

【、!、
j A整制御を行なうためのサブルーチンである。まず
、レンズの繰り出しh向か第35図に;jミしたF W
 D /、向であるかRE V h向であるかを判別し
、(ステップ5T81)  次に、FSUM、−と前回
横用した焦点状態値FSUM0との大小関係を調へ(ス
テップ5T82またはスーrツブ5T84)  レンズ
の繰り出し方向かFWD方向てあり且つFSU〜11.
:〉FSU〜10の場合およびレンズの繰り出し方向か
REV方向であり且つF S U M E≦FSUMo
の場合は、レンズの縁り出し方向をFWDに設定する。 また、レンズの繰り出し方向かFWD方向であり且つF
SUME≦FSUMoの場合およびレンズの繰り出し方
向かREV方向てあり且つF S UMH> F S 
UMoの場合は、レンズの繰り出しh向をREVに設定
する。その後、合焦点の得られる方向に対してレンズの
繰り出しを行なう(ステップ5T86)。 なお、第35図および第39図を用いて説明した本実施
例の焦点調整制御方法は、単一の撮像素子を使用し、コ
ントラストに応じて焦点調節を行なうものであったか、
他の方法を用いてもよいことはもちろんである。第40
図は、焦点調整制御方法の他の例を示す概略的断面図で
ある。図において、1aおよび1bは撮像素子、20は
撮影レンズ、23はコンデンサレンズ、6]および62
はセペレータレンズである。このような構成によれば、
セパレータレンズ61.62で射出瞳を左右に分割し、
2つの撮像素子て被写体を撮像し、その象のずれ量から
被写体の距離を検出することかできる。第41図は、第
40図に示した焦点調整制御方法を使用した場合の被写
体の移動量の検出方法を説明するための図である。図に
おいて、FLIは初期状態を示しており、非合焦状態に
ある。FL2は被写体が接近してきたことにより合焦状
態になたときを示している。また、FL3は合焦状態の
まま被写体がX方向に「−1」たけ移動した状態を示し
ている。まず、FLIに示した状態にあるときの2つの
撮像素子から得られるX S U M Eについて相関
演算を行ない、2つの像のずれ量DEFを求める。ここ
では、FLIにおけるずれ量DEFを「−1」とする。 次に、FL2に示した状態にある場合について同様の相
関演算を行ない、ずれ量DEFを求める。FL2は合焦
点状態なので、ずれHDEFは「0」となる。すなわち
、被写体が移動していないにもかかわらず、すれff1
DEFは異なった値をとる。このため、FLIに示した
状態において撮像素子1aから得られた出力和X S 
U M EとFL2に示した状態において同じく撮像素
子1aから得られた出力和XSUMEとの相関演算を行
なうことにより被写体のX軸方向に対する移動量XsF
TMを求めると、実際には被写体は移動していないにも
かかわらず、XSFTM=−1となり、XSFTMは誤
った値となる。 この不都合を解決するためには、今回演算されたDEF
と前回演算されたDEFの差分ΔDEFを計算し、この
ΔDEFを上記X5FT、に加算した値X5FTNを真
の移動量X5FTとすればよい。移動量としてX5FT
Nを採用した場合には、FL2に示した状態における移
動量を「0」とすることができる。すなわち、第41図
に示したように、今回演算されたDEFと前回演算され
たDEFの差分ΔDEFは「+1」となり、XSFTM
はr−1Jとナルノで、xSFTNすなわち真の移動m
 X S F Tは「0」となる。また、FL3に示し
た状態においては、ΔDEFは「Ojとなり、XSFT
Mは「−1」となるので、真の移動量X5FTは「−1
」となる。 また、本実施例では、算出した被写体の移動量を追尾視
野の設定に用いる場合について説明したか、かかる移動
量情報をカメラの外部制御装置12に出力するように構
成してもよい。 第42図〜第45図は、カメラの外部に上記移動量情報
を出力する場合の一例を説明するための図であり、出ツ
ノした移動量情報によって電動雲台を駆動させて、カメ
ラを常に被写体に向けるようにしたものである。第42
図は、電動雲台を駆動させるための電気回路構成を示す
図である。図において、40は電動雲台、41はエンコ
ーダ、42はモータトライバ 43は電動雲台40に水
平方向の回転を与えるための第1のモータ、44は電動
雲台40に水平方向の回転を与えるための第2のモータ
、xpo、、xpo2.ypo。 ypo2は移動量情報を電動雲台に伝えるための信号線
、GNDはグランド線である。第43図は、電動雲台4
0の機構を示す概略的斜視図である。 図において、45は、カメラの固定台を示す。また、第
44図は、信号線xpo、、xpo2YPO,,ypo
2によって送られる信号のデコード状態を示す図である
。第44図に示したように、被写体がX軸上の中心に位
置している場合、すなわちXPか「0」の場合には信号
線XPo1およびXPO2からは「0」が出力され、被
写体がX軸上の右側に位置している場合、すなわちXP
が「+」の場合には信号線xpo、からは「1」か、X
PO2からはrOJが出力サレ、被写体かX軸上の左側
に位置している場合、すなわちXPか「−」の場合には
信号線xpo、およびXPO2からは「1」か出力され
る。一方、被写体かy軸上の中心に位置している場合、
すなわちYPか「0」の場合には信号線YPO,および
ypo2からは「0」か出力され、被写体がy軸上の右
側に位置している場合、すなわちYPが「+」の場合に
は信号線YPO,がらは「]」が、YPO2からは「0
」か出力され、被写体がy軸上の左側に位置している場
合、すなわちYPが「−」の場合には信号線YPO,お
よびypo2からは「1」か出力される。エンコーダ4
1は、これらの信号を受けてエンコードし、モータドラ
イバ42に出力する。モータトライバ42は、エンコー
ダ41からの信号にしたがってモータ43゜44を駆動
させる。このモータ43,44の駆動によって固定台4
5の位置が変更設定され、カメラを常に被写体に向ける
ようにすることができる。 第45図は、カメラの外部に上記移動量情報を出力する
場合の他の例を説明するための図であり出力した移動量
情報によってストロボ等の照明光の向きを変えるように
構成して照明光を常に被写体に向けるようにした場合の
電気回路構成を示す図である。図において、4つはスト
ロボ、50はエンコーダ、51はトライバ 52はスト
ロボ4つにX軸方向の回転を与えるためのアクチュエタ
、53はストロボ49にy軸方向の回転を与えるための
アクチュエータ、54はストロボ内の照明装置を示す。 エンコーダ50は、信号線13を介してカメラから送ら
れる信号を受けてエンコード後、エンコード後の信号を
モータトライバ51に出力する。モータドライバ51は
、ニンニク50からの信号にしたかってアクチュエータ
52.53を駆動させる。このアクチュエータ52.5
3の駆動によって照明装置54の位置か変更設定され、
ストロボからの照明光を常に被写体に向けるようにする
ことかできる。 また、第46図は、キセノン管の後部にある反射傘を圧
電素子等のアクチュエータでX軸方向およびy軸方向に
駆動させることにより、照明光を常に被写体に向けるよ
うにした場合の機構を示す概略的斜視図である。図にお
いて、52.53はアクチュエータ、55はキセノン管
、56は反射傘を示す。このアクチュエータ52.53
の駆動によって反射傘56の位置か変更設定され、キセ
ノン管55からの照明光を常に被写体に向けるようにす
ることかできる。 第47図は、発行ダイオード(LED)などの補助光を
反射するミラーをアクチュエータでX軸方向およびy軸
方向に駆動させることにより、照明光を常に被写体に向
けるようにした場合の機構を示す概略的斜視図である。 図において、52゜53はアクチュエータ、57は補助
光の光源とし’U(7)LED、58は補助光を反射さ
せるためのミラーである。このアクチュエータ52.5
3の駆動によってミラー58の位置か変更設定され、L
ED57からの照明光を常に被写体に向けるようにする
ことかできる。 このように、照明光を被写体に追従させ、常に被写体に
向けるようにすることて、自然光のみては被写体か暗く
、撮影に十分な光量か得えられない場合でも被写体像を
iすることかできるので、被与体の位置を検出すること
か可能となる。 また、上記実施例では、初期状態で画面の中央にある部
分を被写体としていたか、カメラの撮影者か画面の中央
以外にある部分を自由に被写体として設定することかで
きるように構成してもよい。 第48図は、かかる構成の一例を示す図である。 図において、46a〜46dは、被写体となる部分を画
面上で設定するための初期位置設定スイッチである。ま
た、第49図は、初期位置設定スイッチ46a〜46d
を操作したときのCPU7の処理を表オ)すフローチャ
ートである。初期位置設定スイッチ46aが押されたと
きは(ステップ5T87)  追尾視野のX軸方向の初
期位置であるXSoにrlJを加算する(ステップ5T
88)。また、初期位置設定スイッチ46bが押された
ときは(ステップ5T89) 、追尾視野のX軸方向の
初期位置であるXSoから「1」を減算する(ステップ
5T90)  同様に、初期位置設定スイッチ46cか
押されたときは(ステップST91 )追尾視野のy軸
方向の初期位置であるYSoに「】」を加算しくステッ
プ5T92)、初期位置設定スイッチ46dか押された
ときは(ステップ5T93)、追尾視野のy軸り向の初
期位置であるYSoから「1」を減算する(ステップ5
T94)。このようにして初期位置設定スイッチ46a
〜46dによって画面上の追尾視野を移動させることに
より、自由に被写体を設定することができる。 さらに、上記実施例では、XYアドレス型撮像素素子を
カメラの本体に組み込んな場合について説明したか、−
眼レフレックスカメラのようにファインダ一部分かカメ
ラ本体と分離できるように構成されている場合には、X
Y子アドレス撮像素子1、CPLI7、表示装置9等を
組み込んだファインダーユニットをカメラ本体から着脱
することができるように構成してもよい。第50図は、
かかる構成の一眼レフレックスカメラの一例を示す概略
的斜視図である。図において、33はカメラの本体、6
0はXY子アドレス撮像素子1や表示装置9等を組み込
んだファインダーユニットである。また、この場合、こ
のファインダーユニ・ソト60の内部のCPU7で上述
した焦点調整制御や露出演算を行わせることとなるので
、カメラの本体33とファインダーユニット60との接
続部には焦点制御用および露出制御用の出力端子59を
設けておく。また、CPU7をカメラの本体33内に配
置し、カメラの本体33内で焦点調整制御や露出演算を
行わせることとしてもよいことはもちろんである。 [発明の効果] 以上詳細に説明したように、本発明の追尾装置を有する
カメラの測光装置によれば、2次元的に配列された光電
変換素子のうち測光領域に対応する光電変換素子の出力
和を水平方向(または垂直方向)の各光電変換素子列に
ついて求め、各出力和を垂直方向(または水平方向)に
対する被写体の投影波形として追尾に使用するとともに
、各出力和をさらに積算した値を被写体の輝度として使
用するので、簡単かつ小規模な構成で、被写体の正確な
追尾および被写体の輝度の測定を行うことが可能となる
[,! ,
j This is a subroutine for performing A adjustment control. First, let's move the lens forward to the side shown in Figure 35.
It is determined whether it is in the D/, direction or in the RE V h direction (step 5T81). Next, the magnitude relationship between FSUM, - and the previously used focus state value FSUM0 is determined (step 5T82 or Tube 5T84) Lens extension direction or FWD direction and FSU~11.
:> In the case of FSU~10, the lens extension direction is the REV direction, and F S U M E ≦ FSUMo
In this case, set the lens edge direction to FWD. Also, the direction in which the lens extends or the FWD direction, and the
If SUME≦FSUMo and the lens extension direction or REV direction, and F S UMH > F S
In the case of UMo, the lens extension h direction is set to REV. Thereafter, the lens is extended in the direction in which a focused point is obtained (step 5T86). It should be noted that the focus adjustment control method of this embodiment explained using FIGS. 35 and 39 uses a single image sensor and adjusts the focus according to the contrast.
Of course, other methods may also be used. 40th
The figure is a schematic cross-sectional view showing another example of the focus adjustment control method. In the figure, 1a and 1b are image pickup elements, 20 is a photographing lens, 23 is a condenser lens, 6] and 62
is a separator lens. According to such a configuration,
Separator lenses 61 and 62 divide the exit pupil into left and right,
It is possible to image a subject using two image sensors and detect the distance to the subject based on the amount of deviation between the images. FIG. 41 is a diagram for explaining a method for detecting the amount of movement of a subject when the focus adjustment control method shown in FIG. 40 is used. In the figure, FLI shows an initial state and is in an out-of-focus state. FL2 indicates a state of focus due to the subject approaching. Further, FL3 indicates a state in which the subject has moved by "-1" in the X direction while remaining in focus. First, a correlation calculation is performed on the X S U M E obtained from the two image sensors in the state shown in FLI, and the amount of deviation DEF between the two images is determined. Here, the deviation amount DEF in FLI is set to "-1". Next, a similar correlation calculation is performed for the state shown in FL2 to obtain the deviation amount DEF. Since FL2 is in the focused state, the deviation HDEF is "0". In other words, even though the subject is not moving, the distance ff1
DEF takes on different values. Therefore, the output sum X S obtained from the image sensor 1a in the state shown in FLI
By performing a correlation calculation between U M E and the output sum XSUME similarly obtained from the image sensor 1a in the state shown in FL2, the amount of movement of the subject in the X-axis direction XsF
When TM is determined, XSFTM=-1, even though the subject is not actually moving, and XSFTM is an incorrect value. In order to solve this inconvenience, the DEF calculated this time
The difference ΔDEF between the previously calculated DEF and the value X5FTN added to the above X5FT may be set as the true movement amount X5FT. X5FT as the amount of movement
If N is adopted, the amount of movement in the state shown in FL2 can be set to "0". That is, as shown in FIG. 41, the difference ΔDEF between the DEF calculated this time and the DEF calculated last time is "+1", and the XSFTM
is r−1J and Narno, xSFTN, i.e., the true movement m
X S F T becomes "0". In addition, in the state shown in FL3, ΔDEF becomes “Oj” and XSFT
Since M is "-1", the true movement amount X5FT is "-1".
”. Furthermore, in this embodiment, the case where the calculated movement amount of the subject is used to set the tracking field of view has been described, but the movement amount information may be configured to be output to the external control device 12 of the camera. FIG. 42 to FIG. 45 are diagrams for explaining an example of the case where the above-mentioned movement amount information is output to the outside of the camera, and the electric pan head is driven by the movement amount information that is output, so that the camera is always It is designed to face the subject. 42nd
The figure is a diagram showing an electric circuit configuration for driving an electric pan head. In the figure, 40 is an electric pan head, 41 is an encoder, 42 is a motor driver, 43 is a first motor for giving horizontal rotation to the electric pan head 40, and 44 is for giving horizontal rotation to the electric pan head 40. a second motor, xpo, , xpo2. ypo. ypo2 is a signal line for transmitting movement amount information to the electric pan head, and GND is a ground line. Figure 43 shows the electric pan head 4.
FIG. In the figure, 45 indicates a camera fixing base. Moreover, FIG. 44 shows signal lines xpo, , xpo2YPO, , ypo
2 is a diagram illustrating a decoding state of a signal sent by. As shown in Fig. 44, when the subject is located at the center on the X axis, that is, when XP is "0", "0" is output from the signal lines XPo1 and If it is located on the right side on the axis, i.e. XP
If is "+", the signal line xpo is "1" or
When the object is located on the left side of the X axis, that is, when XP is "-", "1" is output from the signal line xpo and XPO2. On the other hand, if the subject is located at the center on the y-axis,
In other words, when YP is "0", "0" is output from the signal lines YPO and ypo2, and when the subject is located on the right side on the y-axis, that is, when YP is "+", the signal is output. The line YPO, empty is "]", but from YPO2 is "0"
" is output, and when the subject is located on the left side on the y-axis, that is, when YP is "-", "1" is output from the signal lines YPO and ypo2. encoder 4
1 receives these signals, encodes them, and outputs them to the motor driver 42 . The motor driver 42 drives the motors 43 and 44 in accordance with the signal from the encoder 41. The fixed base 4 is driven by the motors 43 and 44.
The position of 5 can be changed so that the camera always faces the subject. FIG. 45 is a diagram for explaining another example of outputting the above-mentioned movement amount information to the outside of the camera. FIG. 3 is a diagram illustrating an electric circuit configuration in which light is always directed toward a subject. In the figure, 4 are strobes, 50 is an encoder, 51 is a driver, 52 is an actuator for giving rotation in the X-axis direction to the four strobes, 53 is an actuator for giving rotation in the y-axis direction to strobe 49, and 54 is an actuator for giving rotation in the y-axis direction to the strobe 49. The lighting device inside the strobe is shown. The encoder 50 receives a signal sent from the camera via the signal line 13, encodes it, and outputs the encoded signal to the motor driver 51. The motor driver 51 uses the signal from the garlic 50 to drive the actuators 52 and 53. This actuator 52.5
3, the position of the lighting device 54 is changed and set;
You can always direct the illumination light from the strobe toward the subject. Fig. 46 shows a mechanism in which illumination light is always directed toward the subject by driving the reflector at the rear of the xenon tube in the X-axis and y-axis directions using actuators such as piezoelectric elements. FIG. 2 is a schematic perspective view. In the figure, 52 and 53 are actuators, 55 is a xenon tube, and 56 is a reflector. This actuator 52.53
The position of the reflector 56 can be changed and set by driving, so that the illumination light from the xenon tube 55 can always be directed toward the subject. Figure 47 is a schematic diagram showing a mechanism in which illumination light is always directed toward the subject by driving a mirror that reflects auxiliary light such as an emission diode (LED) in the X-axis and y-axis directions using an actuator. FIG. In the figure, reference numerals 52 and 53 are actuators, 57 is a light source of auxiliary light (7) LED, and 58 is a mirror for reflecting the auxiliary light. This actuator 52.5
3, the position of the mirror 58 is changed and set, and L
It is possible to always direct the illumination light from the ED 57 towards the subject. In this way, by making the illumination light follow the subject and always directing it towards the subject, it is possible to capture the image of the subject even when the subject is dark using natural light and there is not enough light to photograph it. Therefore, it becomes possible to detect the position of the object. In addition, in the above embodiment, the subject may be set to the center of the screen in the initial state, or the camera may be configured so that the photographer can freely set the subject to be a part other than the center of the screen. good. FIG. 48 is a diagram showing an example of such a configuration. In the figure, 46a to 46d are initial position setting switches for setting the part to be photographed on the screen. Further, FIG. 49 shows initial position setting switches 46a to 46d.
7 is a flowchart showing the processing of the CPU 7 when the CPU 7 operates. When the initial position setting switch 46a is pressed (step 5T87), rlJ is added to XSo, which is the initial position of the tracking field of view in the X-axis direction (step 5T).
88). Furthermore, when the initial position setting switch 46b is pressed (step 5T89), "1" is subtracted from XSo, which is the initial position of the tracking field of view in the X-axis direction (step 5T90). When pressed (step ST91), "]" is added to YSo, which is the initial position in the y-axis direction of the tracking field of view (step 5T92), and when the initial position setting switch 46d is pressed (step 5T93), the tracking field of view is "1" is subtracted from YSo, which is the initial position in the y-axis direction (Step 5
T94). In this way, the initial position setting switch 46a
By moving the tracking field of view on the screen by ~46d, the subject can be freely set. Furthermore, in the above embodiments, the case where the XY address type image sensor element is not incorporated into the camera body is explained.
If a part of the viewfinder is separated from the camera body, such as an eye reflex camera,
The finder unit incorporating the Y-address image sensor 1, CPLI 7, display device 9, etc. may be configured to be detachable from the camera body. Figure 50 shows
FIG. 1 is a schematic perspective view showing an example of a single-lens reflex camera having such a configuration. In the figure, 33 is the main body of the camera, 6
0 is a finder unit incorporating an XY child address image sensor 1, a display device 9, etc. In this case, the CPU 7 inside the finder uni-soto 60 will perform the above-mentioned focus adjustment control and exposure calculation, so the connection between the camera body 33 and the finder unit 60 is provided with a focus control and An output terminal 59 for exposure control is provided. It goes without saying that the CPU 7 may be disposed within the camera body 33 to perform focus adjustment control and exposure calculation within the camera body 33. [Effects of the Invention] As explained in detail above, according to the photometry device for a camera having a tracking device of the present invention, the output of the photoelectric conversion element corresponding to the photometry area among the two-dimensionally arranged photoelectric conversion elements The sum is obtained for each row of photoelectric conversion elements in the horizontal direction (or vertical direction), and each output sum is used for tracking as the projected waveform of the subject in the vertical direction (or horizontal direction), and the value obtained by further integrating each output sum is Since it is used as the brightness of the subject, it is possible to accurately track the subject and measure the brightness of the subject with a simple and small-scale configuration.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の追尾装置を有するカメラのnj光装置
の撮像素子を概念的に示す図、第2図は本発明の1実施
例に係わる追尾装置を有するカメラの測光装置を概略的
に示すブロック図、第3図は光電変換素子の構成を示す
電気回路図、第4図(a)および第4図(b)は駆動さ
れる2個の光電変換素子の等価回路を示す電気回路図、
第5図は垂直走査レジスタの内部構成の一例を示す電気
回路図、第6図は垂直走査レジスタの動作を説明するだ
めのタイミングチャート、第7図は複数の垂直走査線を
同時に選択状態にしたまま水平走査線を一本ずつ順次走
査する場合の垂直走査レジスタおよび水平走査レジスタ
の動作を示すタイミングチャート、第8図は任意のピッ
チで走査線を選択状態にする場合の垂直走査レジスタの
動作を示すタイミングチャート、第9図(a)、第9図
(b)、第10図(a)、第10図(b)および第11
図〜第14図は第2図に示した本実施例の追尾装置を杓
°するカメラの測光装置を用いて被写体の移動方向およ
び移動量を検出する方法について説明するための図、第
15図、第16図(a)および第16図(b)はW5E
Lモードについて説明するための概念図、第17図、第
18図(a)および第18図(b)はN5ELモードに
ついて説明するための概念図、第19図は第2図に示し
た追尾装置を有するカメラの測光装置を搭載した一眼レ
フレックスカメラの構造示す概略的断面図、第20図は
第19図に示した一眼しフレ・ソクスカメラの外観図、
第21図は走査部材の構成を概略的に示す断面図、第2
2図(a)および第22図(b)は表示装置の構成の一
例を説明するための図、第23図(a)および第23図
(b)は表示装置の構成の他の例を説明するための図、
第24図(a)および第24図(b)は表示装置の構成
の第3の例を説明するための図、第25図および第26
図はハーフミラ−を用いずに被写体像と追尾視野を重ね
て表示する例を示す概略的断面図、第27図(a)およ
び第27図(b)は追尾視野が被写体の移動に伴って移
動する様子を示す概略図、第28図はXY子アドレス撮
像素子の画素の配列と被写体位置に関する座標との関係
を表す概念図、第29図は第2図に示した追尾装置を有
するカメラの1illll先装置の動作を制御するCP
Uの内部に設けられたデータ記憶用のRAMの内容を表
す一覧表、第30図はCPUの処理を示すゼネラルフロ
ーチャート、第31図は第30図に示したXYSサブル
ーチンのアルゴリズムを示すフローチャート、第′32
図および第33図は第31図に示したXYSサブルーチ
ンについて説明するための概念図、第34図は第30図
に示したADBFサブルーチンのアルゴリズムを示した
フローチャート、第35図は第34図に示したADBF
サブルーチンについて説明するための概念図、第36図
は第30図に示したX5FTサブルーチンのアルゴリズ
ムを示すフローチャート、第37図および第38図は第
36図に示したX5FTサブルチンについて説明するた
めの概念図、第39図は第30図に示したFOCUSサ
ブルーチンのアルゴリズムを示すフローチャート、第4
0図は焦点調整制御方法の他の例を示す概略的断面図、
第41図は第40図に示しまた焦点調整制御方法を使用
した場合の被写体の移動量の検出方法を説明するための
図、第42図〜第45図はカメラの外部に上記移動量情
報を出力する場合の一例を説明するための図、第46図
はカメラの外部に上記移動量情報を出力する場合の他の
例を説明するための概略的8−1視図、第47図はカメ
ラの外部に上記移動量情報を出力する場合の第3の例を
説明するための概略的斜視図、第48図および第49図
は追尾視野の設定方法についての第2の例を説明するた
めの図、第50図はファインダーユニットをカメラ本体
から着脱することかできるように構成した例を示す概略
的斜視図である。 ]・XYアドレス型撮像累子、2・・・光電変換素子、
3 水平走査レノスタ、4 垂直走査レジスタ、5・・
・輝度信号出力、6・・A/Dコンバータ、7・・CP
U、8・・・操作部材、9・・・表示装置、1゜・・・
露出制御装置、10a・・・絞り制御装置、10b・・
ンヤッタ制御装置、11・・・焦点制御装置、12・・
・外部制御装置、13・・位置情報出力、14・・・水
平走査用信号線、15・・・垂直走査用信号線、20・
・・撮影レンズ、21・・・絞り、22・・・メインミ
ラー 23・・・コンデンサレンズ、24・・・ミラー
25・・・リレーレンズ、26.27・・・ハーフミラ
−2Ba・・・ファインター結像面、28b・・・フィ
ルム而、2つ・・−接眼レンズ、30・・・レリーズ釦
、31  DSW31.32・・R8W、3B・・カメ
ラ本体、34・・・発光体、35・・・液晶表示装置、
36・・・発光手段、37・・指示器、38・・・制御
装置、40・・・電動雲台、41・・・エンコーダ、4
2・・・モータトライバ 43・・第1のモータ、44
・・第2のモータ、45・・カメラの固定台、46a〜
46d初期位置設定スイッチ、39・・ストロボ、50
 エンコーダ、5]・・トライバ 52.53・アクチ
ュエータ、54・・ストロボ内の照明装置、55・ キセノ ン管、 反射傘、 57 ・・・ L ED。 之フ ・・出力端子、 フ ァ イン ダ ユ ニット
FIG. 1 is a diagram conceptually showing an image sensor of an NJ optical device of a camera having a tracking device of the present invention, and FIG. 2 is a diagram schematically showing a photometry device of a camera having a tracking device according to an embodiment of the present invention. 3 is an electric circuit diagram showing the configuration of a photoelectric conversion element, and FIGS. 4(a) and 4(b) are electric circuit diagrams showing an equivalent circuit of two driven photoelectric conversion elements. ,
Figure 5 is an electrical circuit diagram showing an example of the internal configuration of the vertical scanning register, Figure 6 is a timing chart to explain the operation of the vertical scanning register, and Figure 7 shows multiple vertical scanning lines being selected at the same time. A timing chart showing the operation of the vertical scanning register and the horizontal scanning register when horizontal scanning lines are sequentially scanned one by one. Figure 8 shows the operation of the vertical scanning register when scanning lines are selected at an arbitrary pitch. The timing charts shown in FIGS. 9(a), 9(b), 10(a), 10(b) and 11
Figures 14 to 14 are diagrams for explaining a method for detecting the direction and amount of movement of a subject using a photometer of a camera that uses the tracking device of this embodiment shown in Figure 2, and Figure 15. , FIG. 16(a) and FIG. 16(b) are W5E
A conceptual diagram for explaining the L mode, FIGS. 17, 18(a), and 18(b) are conceptual diagrams for explaining the N5EL mode, and FIG. 19 is the tracking device shown in FIG. 2. 20 is a schematic cross-sectional view showing the structure of a single-lens reflex camera equipped with a camera photometry device, and FIG. 20 is an external view of the single-lens reflex camera shown in FIG.
FIG. 21 is a sectional view schematically showing the structure of the scanning member;
2(a) and 22(b) are diagrams for explaining an example of the configuration of the display device, and FIG. 23(a) and FIG. 23(b) are diagrams for explaining another example of the configuration of the display device. diagram for,
24(a) and 24(b) are diagrams for explaining a third example of the configuration of the display device, and FIG. 25 and 26
The figure is a schematic cross-sectional view showing an example in which the subject image and the tracking field of view are displayed overlappingly without using a half mirror. Figures 27 (a) and 27 (b) show that the tracking field of view moves as the subject moves. FIG. 28 is a conceptual diagram showing the relationship between the pixel arrangement of the XY child address image sensor and the coordinates regarding the subject position, and FIG. CP that controls the operation of the destination device
30 is a general flowchart showing the processing of the CPU; FIG. 31 is a flowchart showing the algorithm of the XYS subroutine shown in FIG. 30; '32
33 is a conceptual diagram for explaining the XYS subroutine shown in FIG. 31, FIG. 34 is a flowchart showing the algorithm of the ADBF subroutine shown in FIG. 30, and FIG. ADBF
36 is a flow chart showing the algorithm of the X5FT subroutine shown in FIG. 30. FIGS. 37 and 38 are conceptual diagrams explaining the X5FT subroutine shown in FIG. 36. , FIG. 39 is a flowchart showing the algorithm of the FOCUS subroutine shown in FIG.
Figure 0 is a schematic cross-sectional view showing another example of the focus adjustment control method;
Fig. 41 is a diagram for explaining a method for detecting the amount of movement of a subject when using the focus adjustment control method shown in Fig. 40, and Figs. 46 is a schematic 8-1 view for explaining another example of outputting the movement amount information to the outside of the camera, and FIG. 47 is a diagram for explaining an example of outputting the movement amount information to the outside of the camera FIGS. 48 and 49 are schematic perspective views for explaining a third example of outputting the above-mentioned movement amount information to the outside, and FIGS. 50 are schematic perspective views showing an example in which the finder unit is configured to be detachable from the camera body. ]・XY address type imaging element, 2... photoelectric conversion element,
3 horizontal scanning reno star, 4 vertical scanning register, 5...
・Brightness signal output, 6...A/D converter, 7...CP
U, 8... Operating member, 9... Display device, 1°...
Exposure control device, 10a...Aperture control device, 10b...
Nyatta control device, 11... Focus control device, 12...
- External control device, 13... Position information output, 14... Signal line for horizontal scanning, 15... Signal line for vertical scanning, 20...
...Photographing lens, 21...Aperture, 22...Main mirror 23...Condenser lens, 24...Mirror 25...Relay lens, 26.27...Half mirror-2Ba...Fineter Imaging surface, 28b...Film, two...-Eyepiece, 30...Release button, 31 DSW31.32...R8W, 3B...Camera body, 34...Light emitter, 35...・Liquid crystal display device,
36... Light emitting means, 37... Indicator, 38... Control device, 40... Electric pan head, 41... Encoder, 4
2...Motor driver 43...First motor, 44
...Second motor, 45...Camera fixing base, 46a~
46d Initial position setting switch, 39... Strobe, 50
Encoder, 5]... Driver 52. 53. Actuator, 54... Illumination device in strobe, 55. Xenon tube, reflector, 57... L ED. No. Output terminal, finder unit

Claims (1)

【特許請求の範囲】 2次元的に配列された複数の光電変換素子と、第1の方
向と直交して複数設けられた第1光電変換素子列のいづ
れかをこの第1の方向に沿って選択状態にする第1走査
レジスタと、上記第1の方向に沿って複数設けられた第
2光電変換素子列のいづれかを上記第1の方向と直交す
る第2の方向に沿って選択状態にする第2走査レジスタ
とからなる撮像素子と、 上記第1走査レジスタに沿って複数の上記第1光電変換
素子列を同時に選択状態にしながら上記第2走査レジス
タによって複数の上記第2光電変換素子列の内の1つを
選択状態にすることにより上記第1の方向に沿って各光
電変換素子の出力和を求め、上記第2走査レジスタによ
る選択状態を上記第2の方向に沿って順次変えることに
より、上記出力和からなる投影輝度信号を得るための制
御手段と、 今回の上記投影輝度信号と前回の上記投影輝度信号とを
相関演算することにより被写体の移動量を演算する演算
手段と、 上記移動量に応じて追尾視野を設定する設定手段と、 上記出力和を上記第2の方向に沿って積算し、この積算
された出力和に基づいて被写体輝度を求める手段と、 を具備したことを特徴とする追尾装置を有するカメラの
測光装置
[Claims] Selecting along the first direction one of a plurality of two-dimensionally arranged photoelectric conversion elements and a plurality of first photoelectric conversion element rows provided perpendicular to the first direction. a first scanning register to be brought into a selected state, and a first scan register to be brought into a selected state along a second direction orthogonal to the first direction, and one of the plurality of second photoelectric conversion element arrays provided along the first direction. an image sensor consisting of two scanning registers; and a plurality of first photoelectric conversion element columns along the first scanning register are simultaneously selected, and one of the plurality of second photoelectric conversion element columns is selected by the second scanning register. The output sum of each photoelectric conversion element is determined along the first direction by setting one of the photoelectric conversion elements to a selected state, and by sequentially changing the selected state by the second scanning register along the second direction, a control means for obtaining a projection brightness signal consisting of the output sum; a calculation means for calculating the amount of movement of the subject by performing a correlation calculation between the current projection brightness signal and the previous projection brightness signal; and the amount of movement. a setting means for setting a tracking field of view according to the second direction; and a means for integrating the output sum along the second direction and determining the subject brightness based on the integrated output sum. Camera photometry device with tracking device
JP2104636A 1989-07-05 1990-04-20 Light measuring instrument of camera with tracking device Pending JPH04151129A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2104636A JPH04151129A (en) 1990-04-20 1990-04-20 Light measuring instrument of camera with tracking device
US07/547,059 US5196929A (en) 1989-07-05 1990-06-29 Display system of camera having tracking apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2104636A JPH04151129A (en) 1990-04-20 1990-04-20 Light measuring instrument of camera with tracking device

Publications (1)

Publication Number Publication Date
JPH04151129A true JPH04151129A (en) 1992-05-25

Family

ID=14385937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2104636A Pending JPH04151129A (en) 1989-07-05 1990-04-20 Light measuring instrument of camera with tracking device

Country Status (1)

Country Link
JP (1) JPH04151129A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003055201A1 (en) * 2001-12-21 2003-07-03 Hamamatsu Photonics K.K. Imaging device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003055201A1 (en) * 2001-12-21 2003-07-03 Hamamatsu Photonics K.K. Imaging device
US7245317B2 (en) 2001-12-21 2007-07-17 Hamamatsu Photonics K.K. Imaging device having a luminous profile detecting element

Similar Documents

Publication Publication Date Title
US5196929A (en) Display system of camera having tracking apparatus
US6308015B1 (en) Camera having automatic focusing device
JP3230098B2 (en) Focus detection device
JP3070624B2 (en) Automatic focus detection device
JP2008541161A (en) Digital camera with triangulation autofocus system and associated method
JPH02272526A (en) Multi-spot range finding autofocus camera
US5987151A (en) Apparatus for detecting visual axis
US6308014B1 (en) Ranging apparatus installed in camera
US11375101B2 (en) Image capturing apparatus, control method thereof, and storage medium
JPH08271784A (en) Optical instrument with function of detecting line of sight
JP4011738B2 (en) Optical device
JPS63194237A (en) Camera
JPS638616A (en) Range finding method
JPH04151129A (en) Light measuring instrument of camera with tracking device
JP2000258683A (en) Focus detector and range-finding device
JPH07281080A (en) Camera
US5610681A (en) Optical eye-control apparatus
JPH01307711A (en) Camera with automatic zooming function
JPH0338976A (en) Display device for image pickup
JPH04151131A (en) Focus detection device for camera with tracking device
JPH046485A (en) Automatic tracking apparatus
JPH047983A (en) Automatic tracking device
JP3184542B2 (en) camera
JP3495824B2 (en) Optical equipment having a line-of-sight detection device
JPS6347710A (en) Focus detector