JP3456231B2 - Subject tracking device - Google Patents

Subject tracking device

Info

Publication number
JP3456231B2
JP3456231B2 JP23973593A JP23973593A JP3456231B2 JP 3456231 B2 JP3456231 B2 JP 3456231B2 JP 23973593 A JP23973593 A JP 23973593A JP 23973593 A JP23973593 A JP 23973593A JP 3456231 B2 JP3456231 B2 JP 3456231B2
Authority
JP
Japan
Prior art keywords
photometric
tracking
tracking frame
subject
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP23973593A
Other languages
Japanese (ja)
Other versions
JPH0792248A (en
Inventor
宏之 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP23973593A priority Critical patent/JP3456231B2/en
Publication of JPH0792248A publication Critical patent/JPH0792248A/en
Application granted granted Critical
Publication of JP3456231B2 publication Critical patent/JP3456231B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、被写界内において移動
する被写体の位置を追尾する被写体追尾装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object tracking device for tracking the position of a moving object in a field.

【0002】[0002]

【従来の技術】従来のこの種の被写体追尾装置として
は、たとえば特開昭61−12177号公報に開示され
た装置があった。この公報に開示された装置では、被写
体追尾演算を行うために被写界内に設定される追尾視野
の大きさの初期値を撮影者が手動により設定し、手動設
定された追尾視野内に含まれる被写体の位置を、追尾視
野を移動させつつ追尾している。
2. Description of the Related Art As a conventional subject tracking device of this type, there is a device disclosed in Japanese Patent Laid-Open No. 61-2177, for example. In the device disclosed in this publication, the photographer manually sets the initial value of the size of the tracking visual field set in the field for performing the subject tracking calculation, and the value is included in the manually set tracking visual field. The position of the subject is tracked while moving the tracking field of view.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上述し
た従来の被写体追尾装置にあっては、撮影者が追尾しよ
うとする被写体の大きさに応じて手動で追尾視野の大き
さを設定しなければならなかったので、撮影者が撮影に
専念できず、追尾視野を設定しているうちにシャッター
チャンスを逃してしまうおそれがあった。
However, in the above-mentioned conventional subject tracking apparatus, the size of the tracking visual field must be manually set according to the size of the subject to be tracked by the photographer. Since there was no such thing, the photographer could not concentrate on the shooting, and there was a risk of missing the photo opportunity while setting the tracking field of view.

【0004】本発明の目的は、被写体追尾に使用される
追尾枠の初期設定を撮影者の手を煩わせることなく行う
ことの可能な被写体追尾装置を提供することにある。
An object of the present invention is to provide a subject tracking device which can perform initial setting of a tracking frame used for subject tracking without bothering a photographer.

【0005】[0005]

【課題を解決するための手段】本発明は、被写界を複数
の測光領域に分割して測光し、測光情報に基づいて被写
界内を複数のグループに分類し、これらの複数のグルー
プの内、撮影レンズの光軸近傍に存在するグループの輪
郭を被写体追尾用の追尾枠の初期値として設定する。そ
して、追尾枠内に属する測光領域の測光情報と各グルー
プに属する測光領域の測光情報との差、および追尾枠内
に属する測光領域と各グループに属する測光領域との間
で重複する測光領域の数に基づいて追尾枠を移動し、主
要被写体を被写界内において追尾するものである。
SUMMARY OF THE INVENTION According to the present invention, a field is divided into a plurality of photometric regions for photometry, the field is classified into a plurality of groups based on photometric information, and the plurality of groups are grouped. Among these, the contours of the groups existing in the vicinity of the optical axis of the photographing lens are set as the initial values of the tracking frame for subject tracking. Then, the difference between the photometric information of the photometric area belonging to the tracking frame and the photometric information of the photometric area belonging to each group, and the measurement of the photometric area overlapping between the photometric area belonging to the tracking frame and the photometric area belonging to each group. The tracking frame is moved based on the number, and the main subject is tracked in the field.

【0006】なお、本発明において、追尾枠を被写界内
に表示するようにしてもよい。また、被写界内に存在す
る被写体の色彩に関する情報を測光情報として出力し、
類似の色成分を有する測光領域を区分して主要被写体と
その大きさを検出し、主要被写体が存在する区分に属す
る測光領域の輪郭を追尾枠として設定するようにしても
よい。
In the present invention, the tracking frame may be displayed in the scene. In addition, it outputs information about the color of the subject that exists in the scene as photometric information,
The photometric areas having similar color components may be sectioned to detect the main subject and its size, and the contour of the photometric area belonging to the section where the main subject exists may be set as the tracking frame.

【0007】[0007]

【作用】撮影レンズの光軸近傍に存在するグループの輪
郭を被写体追尾用の追尾枠の初期値として設定し、追尾
枠内に属する測光領域の測光情報と各グループに属する
測光領域の測光情報との差、および追尾枠内に属する測
光領域と各グループに属する測光領域との間で重複する
測光領域の数に基づいて追尾枠を移動し、主要被写体を
被写界内において追尾する。
The contour of a group existing near the optical axis of the taking lens is set as an initial value of a tracking frame for tracking an object, and the photometric information of the photometric areas belonging to the tracking frame and the photometric information of the photometric areas belonging to each group are set. , And the number of photometric areas overlapping between the photometric areas belonging to the tracking frame and the photometric areas belonging to each group, the tracking frame is moved to track the main subject in the object scene.

【0008】なお、本発明の構成を説明する上記課題を
解決するための手段と作用の項では、本発明を分かり易
くするために実施例の図を用いたが、これにより本発明
が実施例に限定されるものではない。
Incidentally, in the section of means and action for solving the above-mentioned problems for explaining the constitution of the present invention, the drawings of the embodiments are used to make the present invention easy to understand. It is not limited to.

【0009】[0009]

【実施例】【Example】

−第1実施例− 図1は、本発明による被写体追尾装置が適用されたカメ
ラの第1実施例を示す図であって、要部の構成を示すブ
ロック図である。図1において、11は測光部であり、
測光部11は図3に示すような測光素子9(図2参照)
を備えている。測光素子9は、縦20個、横12個の2
40個の分割素子9aを備え、各分割素子9aは、被写
界を同様に240分割した各分割測光領域にそれぞれ対
応している。以下、各分割測光領域の位置を表す番地と
して、図3の一番左下の分割測光領域を(1,1)、一
番右上の分割測光領域を(20,12)として表す。各
分割素子9aは、図4に示すようにさらに3つの細分割
素子9R、9B、9Gに分割されており、それぞれの細
分割素子9R、9B、9Gには不図示のRGBフィルタ
ーがそれぞれ装着されている。これにより、各分割素子
9aは各分割測光領域をR、G、Bの3色でそれぞれ別
個に測光可能とされている。
First Embodiment FIG. 1 is a diagram showing a first embodiment of a camera to which the subject tracking device according to the present invention is applied, and is a block diagram showing a configuration of a main part. In FIG. 1, 11 is a photometric unit,
The photometric unit 11 is a photometric device 9 as shown in FIG. 3 (see FIG. 2).
Is equipped with. The photometric element 9 has 20 pieces vertically and 12 pieces horizontally.
Forty divided elements 9a are provided, and each divided element 9a corresponds to each divided photometric area obtained by similarly dividing the object field into 240 areas. Hereinafter, as an address indicating the position of each divided photometric area, the divided photometric area at the bottom left of FIG. 3 is expressed as (1, 1) and the divided photometric area at the top right is expressed as (20, 12). As shown in FIG. 4, each dividing element 9a is further divided into three sub-dividing elements 9R, 9B, 9G, and RGB filters (not shown) are attached to each sub-dividing element 9R, 9B, 9G. ing. As a result, each of the splitting elements 9a is capable of individually photometrically measuring each of the split photometric areas in three colors of R, G, and B.

【0010】12はグループ作成部であり、測光部11
から出力される各分割測光領域毎の情報に基づいて被写
界内に存在する被写体のグループ化を行う。グループ化
演算の詳細は後述する。13は追尾枠設定部であり、グ
ループ作成部12の出力に基づいて、被写体追尾のため
の追尾枠を設定する。追尾枠設定の詳細についても後述
する。
Reference numeral 12 denotes a group creating section, which is a photometry section 11
The subjects existing in the object scene are grouped based on the information for each divided photometric area output from. Details of the grouping calculation will be described later. A tracking frame setting unit 13 sets a tracking frame for subject tracking based on the output of the group creation unit 12. Details of the tracking frame setting will also be described later.

【0011】14は被写体追尾部であり、測光部11か
ら出力される情報および追尾枠設定部13の出力に基づ
いて被写界内において被写体追尾を行う。被写体追尾動
作の詳細も後述する。15は露出演算部であり、測光部
11から出力される情報および被写体追尾部14の出力
に基づいて適正露出値を演算する。16は露出制御部で
あり、露出演算部15により演算された適正露出値に基
づいて不図示の絞りおよびシャッタを制御し、フィルム
の露光を行う。
Reference numeral 14 denotes a subject tracking unit, which performs subject tracking within the field based on the information output from the photometry unit 11 and the output from the tracking frame setting unit 13. Details of the subject tracking operation will also be described later. An exposure calculation unit 15 calculates an appropriate exposure value based on the information output from the photometry unit 11 and the output of the subject tracking unit 14. An exposure control unit 16 controls an aperture and a shutter (not shown) based on the proper exposure value calculated by the exposure calculation unit 15 to expose the film.

【0012】17は表示部であり、追尾枠設定部13の
出力に基づいて、被写界内に追尾枠を表示する。より詳
細には、この表示部17はオンスクリーン液晶10(図
2参照)を備えており、このオンスクリーン液晶10が
電圧によって光透過率を変化させることによって被写界
内に追尾枠を表示する。オンスクリーン液晶10の表示
パターンの詳細を図5に示す。オンスクリーン液晶10
は、各分割測光領域に対応したセグメントh[i,j]
(i=1〜20,j=1〜13)およびv[m,n]
(m=1〜21,n=1〜12)を備え、各セグメント
は独立に表示可能とされている。例えば、図6に示すよ
うに、(10,6)、(11,6)、(10,7)、
(11,7)の4領域を追尾枠として表示する場合に
は、h[10,6]、h[11,6]、h[10,
8]、h[11,8]、v[10,6],v[10,
7]、v[12,6]、v[12,7]の8セグメント
を表示させればよい。
A display unit 17 displays a tracking frame in the field based on the output of the tracking frame setting unit 13. More specifically, the display unit 17 includes an on-screen liquid crystal 10 (see FIG. 2), and the on-screen liquid crystal 10 changes the light transmittance with a voltage to display a tracking frame in the field. . The details of the display pattern of the on-screen liquid crystal 10 are shown in FIG. On-screen liquid crystal 10
Is a segment h [i, j] corresponding to each divided photometric area.
(I = 1 to 20, j = 1 to 13) and v [m, n]
(M = 1 to 21, n = 1 to 12), and each segment can be displayed independently. For example, as shown in FIG. 6, (10,6), (11,6), (10,7),
When four areas of (11, 7) are displayed as a tracking frame, h [10,6], h [11,6], h [10,
8], h [11,8], v [10,6], v [10,
7], v [12,6], and v [12,7] 8 segments may be displayed.

【0013】図2は、本実施例によるカメラの光学系を
示すブロック図である。撮影レンズ1を通過した光束
は、クイックリターンミラー2、拡散スクリーン3、オ
ンスクリーン液晶10、コンデンサレンズ4、ペンタプ
リズム5および接眼レンズ6を通過して撮影者の目に到
達する。一方、拡散スクリーン3によって拡散された光
束の一部は、コンデンサレンズ4、ペンタプリズム5、
測光用プリズム7および測光用レンズ8を介して上述の
測光素子9へ到達する。上述のオンスクリーン液晶10
は、焦点面である拡散スクリーン3のすぐ上に配置され
ており、上述の手法により追尾枠を被写界画面内に表示
することができる。したがって、撮影者は撮影レンズ1
からの被写界像と追尾枠とを重ねて同時に見ることがで
きる。
FIG. 2 is a block diagram showing the optical system of the camera according to this embodiment. The light flux that has passed through the taking lens 1 passes through the quick return mirror 2, the diffusion screen 3, the on-screen liquid crystal 10, the condenser lens 4, the pentaprism 5 and the eyepiece lens 6 and reaches the eye of the photographer. On the other hand, a part of the light flux diffused by the diffusing screen 3 includes a condenser lens 4, a penta prism 5,
The light reaches the above-described photometric element 9 via the photometric prism 7 and the photometric lens 8. On-screen liquid crystal 10 described above
Is arranged immediately above the diffusion screen 3 which is the focal plane, and the tracking frame can be displayed in the field screen by the above-mentioned method. Therefore, the photographer uses the photographing lens 1
You can see the object scene image from and the tracking frame at the same time.

【0014】次に、図7のフローチャートを参照して、
本実施例のカメラの動作について説明する。図7に示す
フローチャートは、図1に示す各部を不図示の1つのマ
イクロコンピュータで構成したときのアルゴリズムを示
したものである。
Next, referring to the flowchart of FIG.
The operation of the camera of this embodiment will be described. The flowchart shown in FIG. 7 shows an algorithm when each unit shown in FIG. 1 is configured by one microcomputer (not shown).

【0015】(1)グループ化演算 図7に示すフローチャートは、不図示のレリーズボタン
の半押し動作によって開始する。まず、ステップS10
1では、測光部11を用いて被写界の測光を行い、24
0個の分割測光領域についてR、G、Bのそれぞれの測
光値を得る。これら各分割測光領域から得られた測光値
は、マイクロコンピュータの不図示のメモリ内に記憶さ
れる。
(1) Grouping calculation The flowchart shown in FIG. 7 is started by half-pressing a release button (not shown). First, step S10
In 1, the photometry of the object field is performed using the photometry unit 11, and 24
R, G, and B photometric values are obtained for each of the 0 divided photometric regions. The photometric value obtained from each of the divided photometric areas is stored in a memory (not shown) of the microcomputer.

【0016】次に、ステップS102では、グループ作
成部12を用いて、メモリ内に記憶された被写界全体の
測光値に基づいて、被写体のグループ化演算を行う。グ
ループ化演算の詳細は、例えば特開平4−310930
号公報などに詳細に開示されているので、ここではその
説明を簡単にするが、要は、240個の分割測光領域の
それぞれについて色相(どのような色であるか)を色度
図等に基づいて求め、互いに隣接する分割測光領域どう
しで相互に類似する分割測光領域を1つのグループにな
し、このような演算を全ての分割測光領域に対して行う
ことにより被写界全体をいくつかのグループに分類す
る。図11(a)は被写界の一例であり、図11(b)
は図11(a)に示す被写界についてグループ化演算を
行った例を示す図である。飛行機が測光されている分割
測光領域に対応する分割素子9a、雲が測光されている
分割測光領域に対応する分割素子9a、および背景であ
る空が測光されている分割測光領域に対応する分割素子
9aはそれぞれ異なるグループに分類されていることが
理解できる。
Next, in step S102, the group forming section 12 is used to perform grouping calculation of the objects based on the photometric values of the entire object field stored in the memory. Details of the grouping calculation are described in, for example, Japanese Patent Laid-Open No. 4-310930.
Since it is disclosed in detail in Japanese Patent Publication No. JP-A-2003-242, etc., its explanation will be simplified here, but the point is that the hue (what kind of color) for each of the 240 divided photometric areas is shown in a chromaticity diagram or the like. Based on the above, the divided photometric areas that are adjacent to each other are formed into one group and the divided photometric areas that are similar to each other are grouped into one group. Classify into groups. FIG. 11A shows an example of the object scene, and FIG.
FIG. 12 is a diagram showing an example in which a grouping calculation is performed on the object scene shown in FIG. Dividing element 9a corresponding to the divided photometric area in which the airplane is metered, dividing element 9a corresponding to the divided photometric area in which the clouds are metered, and dividing element corresponding to the divided photometric area in which the background sky is metered It can be understood that 9a is classified into different groups.

【0017】ステップS103では、追尾枠設定部13
を用いて追尾枠の初期設定を行う。本実施例では、ステ
ップS102のグループ化演算によって得られた各グル
ープのうち、測光領域の中央部分、つまり撮影レンズ1
の光軸近傍の分割測光領域(10,6)が属するグルー
プの輪郭が追尾枠の初期値として設定される。一例とし
て、図8(a)に示すようなグループ分けがされた場
合、光軸近傍の分割測光領域(10,6)が属するグル
ープG1が選択され、このグループG1の輪郭が追尾枠
の初期値として設定される。追尾枠が設定されると、こ
の追尾枠内に属する分割測光領域から得られる測光値を
マイクロコンピュータの不図示のメモリ内に記憶する。
In step S103, the tracking frame setting unit 13
Initialize the tracking frame using. In this embodiment, of the groups obtained by the grouping calculation in step S102, the central portion of the photometric area, that is, the taking lens 1
The contour of the group to which the divided photometric areas (10, 6) near the optical axis of is belonging to is set as the initial value of the tracking frame. As an example, when the grouping is performed as shown in FIG. 8A, the group G1 to which the divided photometric area (10, 6) near the optical axis belongs is selected, and the contour of the group G1 is the initial value of the tracking frame. Is set as. When the tracking frame is set, the photometric values obtained from the divided photometric areas belonging to this tracking frame are stored in a memory (not shown) of the microcomputer.

【0018】ステップS104では、追尾枠設定部13
および表示部17を用いて、ステップS103で設定さ
れた追尾枠を表示する。追尾枠の表示は、既に説明した
ように、オンスクリーン液晶10の該当するセグメン
ト、すなわち追尾枠に相当する部分のセグメントを点灯
表示させることにより行う。続くステップS105で
は、不図示のレリーズボタンが半押し動作されているか
どうかが判定され、判定が否定されると、追尾枠内に存
在する被写体が撮影者の意図にそぐわないものであると
判断し、ステップS101に戻って上述の動作を繰り返
す。一方、判定が肯定されると、追尾枠内に存在する被
写体が追尾すべき被写体であると判断し、プログラムは
ステップS106へ移行する。
In step S104, the tracking frame setting unit 13
The display unit 17 is used to display the tracking frame set in step S103. As described above, the display of the tracking frame is performed by lighting the corresponding segment of the on-screen liquid crystal 10, that is, the segment corresponding to the tracking frame. In a succeeding step S105, it is determined whether or not a release button (not shown) is half-pushed, and if the determination is negative, it is determined that the subject existing in the tracking frame does not meet the photographer's intention, Returning to step S101, the above operation is repeated. On the other hand, if the determination is affirmative, it is determined that the subject existing in the tracking frame is the subject to be tracked, and the program proceeds to step S106.

【0019】ステップS106では、ステップS101
と同様に測光部11を用いて被写界の測光を行い、24
0個の分割測光領域についてR、G、Bのそれぞれの測
光値を得る。続くステップS107では、被写体追尾部
14を用いて被写体の追尾動作を行う。追尾動作は以下
のようにして行われる。
In step S106, step S101
The photometry of the object field is performed using the photometry unit 11 in the same manner as
R, G, and B photometric values are obtained for each of the 0 divided photometric regions. In a succeeding step S107, the subject tracking unit 14 is used to perform a subject tracking operation. The tracking operation is performed as follows.

【0020】まず、不図示のマイクロコンピュータのメ
モリ内に記憶されている測光値のうち、追尾枠内に属す
る分割測光領域からの測光値から、追尾枠内のR、G、
Bの測光値の平均値BVr、BVg、BVbを算出す
る。次に、直前のステップS106で得られた測光値に
基づいて、ステップS102と同様の手法により測光値
のグループ化を行う。その結果、N個のグループに分類
されたものと仮定すると、これらN個のグループのそれ
ぞれについても、各グループに属する分割測光領域から
の測光値から、グループ内のR、G、Bの測光値の平均
値BVr[n]、BVg[n]、BVg[n](以下、
1≦n≦N、nは自然数とする)を算出する。そして、
これら平均値BVr、BVg、BVbおよびBVr
[n]、BVg[n]、BVg[n]を用いて、次式
(1)に示すようなΔBVc[n]を算出する。
First, of the photometric values stored in the memory of the microcomputer (not shown), from the photometric values from the divided photometric areas belonging to the tracking frame, R, G, and
The average values BVr, BVg, BVb of the photometric values of B are calculated. Next, based on the photometric values obtained in the immediately preceding step S106, the photometric values are grouped by the same method as in step S102. As a result, assuming that they are classified into N groups, for each of these N groups as well, from the photometric values from the divided photometric areas belonging to each group, the R, G, and B photometric values within the group are determined. Average values BVr [n], BVg [n], BVg [n] (hereinafter,
1 ≦ n ≦ N, where n is a natural number). And
These average values BVr, BVg, BVb and BVr
Using [n], BVg [n], and BVg [n], ΔBVc [n] as shown in the following equation (1) is calculated.

【数1】 ΔBVc[n]= Abs(BVr-BVr[n])+Abs(BVg-BVg[n])+Abs(BVb-BVb[n]) ...(1) ここで、記号Abs(数式)は、括弧内の数式の絶対値
を表す関数とする。ついで、このΔBVc[n]を用い
て、次式(2)に示すようなG[n]を算出する。
## EQU00001 ## .DELTA.BVc [n] = Abs (BVr-BVr [n]) + Abs (BVg-BVg [n]) + Abs (BVb-BVb [n]) ... (1) where the symbol Abs ( (Mathematical formula) is a function representing the absolute value of the mathematical formula in parentheses. Then, using this ΔBVc [n], G [n] as shown in the following equation (2) is calculated.

【数2】 G[n]=RN[n]−k・(ΔBVc[n]) ...(2) ここで、RN[n]は、追尾枠内に属する分割測光領域
と、グループnに属する分割測光領域との間において重
複している分割測光領域数を表わす変数である。また、
kは、上述のΔBVc[n]がRNに対してG[n]に
寄与する度合を調節するための正の定数であり、予め最
適な値に設定されている。
## EQU2 ## G [n] = RN [n] -k.multidot. (. DELTA.BVc [n]) (2) where RN [n] is a divided photometric area belonging to the tracking frame and a group n. This is a variable indicating the number of divided photometric areas overlapping with the divided photometric areas to which it belongs. Also,
k is a positive constant for adjusting the degree of the above-mentioned ΔBVc [n] contributing to G [n] with respect to RN, and is set to an optimum value in advance.

【0021】そして、この変数G[n]を、上述の過程
で得られたN個のグループの全てについてそれぞれ求
め、N個の変数G[n]のうち最大値を与えるグループ
の輪郭を新たな追尾枠として設定する。
Then, the variable G [n] is obtained for each of the N groups obtained in the above process, and the contour of the group giving the maximum value among the N variables G [n] is newly updated. Set as a tracking frame.

【0022】たとえば、上述したように、追尾枠の初期
値が図8(a)に示すG1であったとし、ついで図8
(b)に示すように被写体Tが移動したものとする。図
8(b)の点線で示した枠は、追尾枠の初期値G1であ
る。そして、ステップS106におけるグループ化演算
によって新たにグループG2、G3が作成されたものと
する。そして、これらグループG2、G3に対してそれ
ぞれ式(1)、(2)を用いてG[n]を算出し、G
[n]の値の大きいほうのグループの輪郭を新たな追尾
枠として設定する。図8(b)に示す例では、グループ
G2に属する分割測光領域は、追尾枠の初期値G1内に
属する分割測光領域に含まれている(つまり重複する)
のでRN[n]の値が大きく、一方、グループG3に属
する分割測光領域は、追尾枠の初期値G1内に属する分
割測光領域とほとんど重複していないのでRN[n]の
値は小さい。グループG2とG3のΔBVc[n]が等
しければ新たに設定される追尾枠はグループG2の輪郭
となり、グループG2に含まれる全ての分割測光領域の
位置情報と測光値とが新たな追尾枠情報としてマイクロ
コンピュータのメモリに書き換えられる。このようにし
て、被写体の移動に追従して追尾枠が設定されて追尾枠
情報(追尾枠に属する分割測光領域の位置情報と測光
値)が次々と書き換えられることにより、被写体の追尾
動作が行われる。
For example, as described above, assume that the initial value of the tracking frame is G1 shown in FIG.
It is assumed that the subject T has moved as shown in (b). The frame shown by the dotted line in FIG. 8B is the initial value G1 of the tracking frame. Then, it is assumed that the groups G2 and G3 are newly created by the grouping calculation in step S106. Then, G [n] is calculated using the equations (1) and (2) for these groups G2 and G3, respectively.
The contour of the group with the larger value of [n] is set as a new tracking frame. In the example shown in FIG. 8B, the divided photometric areas belonging to the group G2 are included (that is, overlapped) in the divided photometric areas belonging to the initial value G1 of the tracking frame.
Therefore, the value of RN [n] is large, while the divided photometric areas belonging to the group G3 almost do not overlap with the divided photometric areas belonging to the initial value G1 of the tracking frame, so the value of RN [n] is small. If ΔBVc [n] of the groups G2 and G3 are equal, the newly set tracking frame becomes the contour of the group G2, and the position information and photometric values of all the divided photometric areas included in the group G2 serve as new tracking frame information. It is rewritten in the memory of the microcomputer. In this way, the tracking frame is set according to the movement of the subject, and the tracking frame information (position information and photometric value of the divided photometric areas belonging to the tracking frame) is rewritten one after another, so that the tracking operation of the subject is performed. Be seen.

【0023】次に、ステップS108では、露出制御部
15を用いて周知のアルゴリズムに基づく適正露出値の
演算動作を行う。ステップS109では、不図示のレリ
ーズボタンが全押し動作されているかどうかが判定さ
れ、判定が肯定されるとプログラムはステップS110
に進み、判定が否定されるとステップS106に戻って
上述の動作を繰り返す。ステップS110では、露出制
御手段16を用いて適正露出値に基づいた露出制御が行
われ、フィルムの露光が行われる。
Next, in step S108, the exposure control unit 15 is used to perform an operation of calculating an appropriate exposure value based on a well-known algorithm. In step S109, it is determined whether or not a release button (not shown) is fully pressed, and if the determination is positive, the program proceeds to step S110.
If the determination is negative, the process returns to step S106 to repeat the above operation. In step S110, the exposure control means 16 is used to perform exposure control based on the appropriate exposure value, and the film is exposed.

【0024】なお、被写体追尾の結果は、ステップS1
05の露出演算アルゴリズムに反映される。一例とし
て、被写体追尾の結果から主要被写体の位置を求め、こ
の主要被写体の位置からその部分の輝度値を算出し、こ
の輝度値に重点をおいて適正露出値を算出するようなア
ルゴリズムが挙げられる。また、本実施例のカメラが、
被写界内の複数の焦点検出領域について焦点検出が可能
な焦点検出装置を備えている場合は、追尾している被写
体の位置に最も近い焦点検出領域の情報に基づいて焦点
検出動作を行うような焦点検出アルゴリズムも可能であ
る。
The result of subject tracking is obtained in step S1.
It is reflected in the exposure calculation algorithm of 05. As an example, there is an algorithm that obtains the position of the main subject from the result of subject tracking, calculates the luminance value of the portion from the position of the main subject, and calculates the proper exposure value with emphasis on this luminance value. . In addition, the camera of the present embodiment,
If a focus detection device capable of detecting focus for a plurality of focus detection areas in the field is provided, the focus detection operation should be performed based on the information of the focus detection area closest to the position of the object being tracked. Various focus detection algorithms are also possible.

【0025】したがって、本実施例によれば、測光情報
に基づいて被写界をグループ化し、グループ化されたグ
ループに基づいて被写体追尾用の追尾枠の初期値を設定
しているので、従来のように撮影者側が手動で追尾枠を
設定する必要がなく、撮影者の手を煩わすことなく適切
な追尾枠の初期設定を行うことができる。また、測光部
11からの測光情報に基づいて被写体追尾を行っている
ので、別途被写体追尾用の撮像素子等を必要とせずに経
済的である。
Therefore, according to the present embodiment, the object fields are grouped based on the photometric information, and the initial value of the tracking frame for object tracking is set based on the grouped groups. As described above, it is not necessary for the photographer to manually set the tracking frame, and the initial setting of the appropriate tracking frame can be performed without bothering the photographer. In addition, since the object tracking is performed based on the photometric information from the photometric unit 11, it is economical without requiring an additional image sensor for tracking the object.

【0026】−第2実施例− 第2実施例では、被写体追尾用の追尾枠の大きさを固定
して、高速かつ高精度な追尾動作の実現を図っている。
なお、本実施例のカメラの構成は上述の第1実施例の構
成と略同一であり、また、その動作もステップS107
を除いて略同一であるので、異なる部分のみを説明して
それ以外の説明を省略する。
-Second Embodiment- In the second embodiment, the size of the tracking frame for tracking an object is fixed to realize a high-speed and highly accurate tracking operation.
The configuration of the camera of this embodiment is substantially the same as that of the above-described first embodiment, and its operation is also step S107.
Since they are substantially the same except for the above, only different parts will be described and other description will be omitted.

【0027】図9は、被写体追尾動作中のある時点にお
ける追尾枠Gおよび分割測光領域の関係を示す図であ
る。図9に示す例では、追尾枠Gは太線で示された縦4
個×横4個、合計16個の分割測光領域の輪郭をなすよ
うに設定されている。このとき、追尾枠G内に属する1
6個の分割測光領域に対して図示のように1〜16まで
の番号をつけて区別する。ついで、この追尾枠Gを図示
のX方向の左右、Y方向の左右、および左右斜め上また
は下に分割測光領域1つ分だけずらした8通りの追尾枠
を考え、現在の追尾枠とあわせて9通りの追尾枠を考え
る。そして、既に追尾演算に使用した追尾枠内から得ら
れる測光出力BV[i,x](i=R、G、B、x=1
〜16)と、今回の追尾演算に使用する各追尾枠毎の測
光出力BV[i,x’](i=R、G、B、x’=1〜
16)とを、次式(3)によってそれぞれ比較する。
FIG. 9 is a diagram showing the relationship between the tracking frame G and the divided photometric areas at a certain point during the subject tracking operation. In the example shown in FIG. 9, the tracking frame G has four vertical lines indicated by thick lines.
It is set so as to form the contours of 16 divided photometric areas, that is, 16 in total × 4 in total. At this time, 1 belonging to the tracking frame G
As shown in the figure, the six divided photometric areas are numbered from 1 to 16 for distinction. Next, consider 8 kinds of tracking frames in which the tracking frame G is shifted to the left and right in the X direction, the left and right in the Y direction, and diagonally above and below the left and right by one divided photometric area, and combined with the current tracking frame. Consider 9 different tracking frames. Then, the photometric output BV [i, x] (i = R, G, B, x = 1) obtained from the tracking frame already used for the tracking calculation.
~ 16) and the photometric output BV [i, x '] (i = R, G, B, x' = 1 for each tracking frame used in the tracking calculation this time).
16) and 16) are respectively compared by the following equation (3).

【数3】 D=ΣAbs(BV[i,x]−BV[i,x']) ...(3) ただし、記号Σ(シグマ)は、i=R、G、B、x=1
〜16、x’=1〜16までのデータの総和を表わす。
また、測光出力BV[i,x]には、フローチャートの
ループが1回目の場合にはステップS103で記憶した
測光出力を用い、2回目以降の場合には前回の被写体追
尾演算に用いた測光出力を用いる。一方、測光出力BV
[i,x’]には、直前のステップS106で求めた最
新の測光出力を用いる。このようにして、9通りの追尾
枠についてそれぞれDが求められたら、Dが最小値とな
る追尾枠を検出し、これを新たな追尾枠として設定して
追尾枠情報をメモリ内に記憶する。
## EQU00003 ## D = .SIGMA.Abs (BV [i, x] -BV [i, x ']) (3) where the symbol .SIGMA. (Sigma) is i = R, G, B, x = 1.
˜16, x ′ = 1 to 16 represents the total sum of data.
As the photometric output BV [i, x], the photometric output stored in step S103 is used when the loop of the flowchart is the first time, and the photometric output used in the previous subject tracking calculation when the loop is the second time or later. To use. On the other hand, photometric output BV
The latest photometric output obtained in step S106 immediately before is used for [i, x ']. In this way, when D is obtained for each of the nine tracking frames, the tracking frame with the smallest D is detected, this is set as a new tracking frame, and tracking frame information is stored in the memory.

【0028】一例として、ステップS103の段階で初
期設定された追尾枠Gと被写体Tとの関係が図10
(a)に示すようものであったとする。このときの追尾
枠Gの大きさは、明確には図示されていないものの縦4
個×横4個の分割測光領域からなるものとする。但し、
追尾枠の大きさはステップS103によって決定される
ので、必ずしも16個の分割測光領域を含むものである
必要はない。ついで、プログラムがステップS107に
進んだ段階で、被写体Tが図10(b)に示すような位
置に移動したものとする。前回の追尾枠情報として点線
で示す枠およびこの枠内に属する分割測光領域の測光出
力はメモリに記憶されているので、この点線枠に対して
上下左右および斜め左右上下方向にそれぞれずらした8
通りの追尾枠および点線で示された前回の追尾枠に対し
て式(3)に示す演算を行う。図10(b)では被写体
Tが斜め右上方に移動しているので、追尾枠を斜め右上
方にずらしたとき(位置を太線で示す)にDの最小値が
得られる。したがって、この場合には追尾枠Gが図10
(a)から図10(b)に示す位置へ移動し、被写体の
追尾動作が行われる。
As an example, the relationship between the tracking frame G and the subject T initially set in the step S103 is shown in FIG.
It is assumed that it is as shown in (a). The size of the tracking frame G at this time is 4
It is assumed that the area is composed of 4 × 4 divided photometric areas. However,
Since the size of the tracking frame is determined in step S103, it does not necessarily have to include 16 divided photometric areas. Next, it is assumed that the subject T has moved to the position shown in FIG. 10B when the program proceeds to step S107. Since the frame indicated by a dotted line as the previous tracking frame information and the photometric outputs of the divided photometric areas belonging to this frame are stored in the memory, they are shifted in the vertical, horizontal, and diagonal left, right, up, and down directions with respect to the dotted frame.
The calculation shown in Expression (3) is performed on the street tracking frame and the previous tracking frame indicated by the dotted line. In FIG. 10B, since the subject T is moving diagonally upper right, the minimum value of D is obtained when the tracking frame is shifted diagonally upper right (the position is indicated by a thick line). Therefore, in this case, the tracking frame G is shown in FIG.
From (a) to the position shown in FIG. 10 (b), the tracking operation of the subject is performed.

【0029】したがって、本実施例によっても、上述の
第1実施例と同様の作用効果を得ることができる。特
に、本実施例では追尾中に被写体の大きさが変化しても
追尾枠の大きさは変化しないが、被写体の大きさが変化
しない場合は被写体追尾に使用する分割測光領域の数を
常に一定にできて追尾動作を確実なものとでき、高精度
に被写体の追尾を行うことができる。加えて、第1実施
例のようにグループ化演算をステップS107で行う必
要がなく、この分だけ追尾動作を高速にすることができ
る。
Therefore, according to this embodiment as well, it is possible to obtain the same effects as those of the above-mentioned first embodiment. In particular, in this embodiment, the size of the tracking frame does not change even if the size of the subject changes during tracking, but if the size of the subject does not change, the number of divided metering areas used for subject tracking is always constant. Therefore, the tracking operation can be ensured, and the object can be tracked with high accuracy. In addition, it is not necessary to perform the grouping calculation in step S107 as in the first embodiment, and the tracking operation can be made faster by this amount.

【0030】以上説明した実施例と特許請求の範囲との
対応において、測光部11は測光手段を、グループ作成
部12はグループ化手段を、追尾枠設定部13は追尾枠
設定手段を、被写体追尾部14は被写体追尾手段を、表
示部17は追尾枠表示手段をそれぞれ構成する。なお、
本発明の被写体追尾装置は、その細部が上述の各実施例
に限定されず、種々の変形が可能である。一例として、
上述の各実施例はいわゆる銀塩フィルムを用いたスチル
カメラに適用した例であるが、メモリ、フロッピー等の
記録媒体を用いたスチルカメラ、さらにはビデオカメラ
にも適用可能である。
In the correspondence between the embodiment described above and the scope of the claims, the photometry section 11 is the photometry means, the group creation section 12 is the grouping means, the tracking frame setting section 13 is the tracking frame setting means, and the subject tracking is performed. The unit 14 constitutes subject tracking means, and the display unit 17 constitutes tracking frame display means. In addition,
The subject tracking device of the present invention is not limited in details to the above-described embodiments, but can be variously modified. As an example,
Each of the above-described embodiments is an example applied to a still camera using a so-called silver salt film, but is also applicable to a still camera using a recording medium such as a memory and a floppy, and further to a video camera.

【0031】[0031]

【発明の効果】以上詳細に説明したように、本発明によ
れば、被写界の複数の測光領域の測光情報に基づいて被
写界内を複数のグループに分類し、これらの複数のグル
ープの内、撮影レンズの光軸近傍に存在するグループの
輪郭を被写体追尾用の追尾枠の初期値として設定し、追
尾枠内に属する測光領域の測光情報と各グループに属す
る測光領域の測光情報との差、および追尾枠内に属する
測光領域と各グループに属する測光領域との間で重複す
る測光領域の数に基づいて追尾枠を移動し、主要被写体
を被写界内において追尾するようにしたので、従来のよ
うに撮影者側が手動で追尾枠を設定する必要がなく、撮
影者の手を煩わすことなく適切な追尾枠の初期設定を行
うことができる。
As described in detail above, according to the present invention, the inside of the field is classified into a plurality of groups based on the photometric information of the plurality of photometric areas of the field, and the plurality of groups are classified. Set the contour of the group existing near the optical axis of the shooting lens as the initial value of the tracking frame for tracking the subject, and set the photometric information of the photometric areas that belong to the tracking frame and the photometric information of the photometric areas that belong to each group. The tracking frame is moved based on the difference between the two, and the number of overlapping photometry areas between the photometry areas belonging to the tracking frame and the photometry areas belonging to each group, so that the main subject is tracked within the scene. Therefore, unlike the conventional case, it is not necessary for the photographer to manually set the tracking frame, and proper initial setting of the tracking frame can be performed without bothering the photographer.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例である被写体追尾装置が適
用されたカメラを示す図であって、その要部を示すブロ
ック図である。
FIG. 1 is a diagram showing a camera to which a subject tracking device according to a first embodiment of the present invention is applied, and is a block diagram showing a main part thereof.

【図2】第1実施例のカメラの光学系を示す図である。FIG. 2 is a diagram showing an optical system of the camera of the first embodiment.

【図3】第1実施例の測光素子を示す図である。FIG. 3 is a diagram showing a photometric element of the first embodiment.

【図4】第1実施例の分割素子を示す図である。FIG. 4 is a diagram showing a dividing element according to a first embodiment.

【図5】第1実施例のオンスクリーン液晶のセグメント
を示す図である。
FIG. 5 is a diagram showing a segment of the on-screen liquid crystal according to the first embodiment.

【図6】オンスクリーン液晶により追尾枠を表示した状
態を示す図である。
FIG. 6 is a diagram showing a state in which a tracking frame is displayed by an on-screen liquid crystal.

【図7】第1実施例の動作を説明するためのフローチャ
ートである。
FIG. 7 is a flowchart for explaining the operation of the first embodiment.

【図8】第1実施例の追尾枠設定および被写体追尾の手
順を説明する図である。
FIG. 8 is a diagram illustrating a procedure for setting a tracking frame and tracking an object according to the first embodiment.

【図9】本発明の第2実施例である被写体追尾装置が適
用されたカメラの手順を説明する図である。
FIG. 9 is a diagram illustrating a procedure of a camera to which the subject tracking device according to the second embodiment of the present invention is applied.

【図10】第2実施例の追尾枠設定および被写体追尾の
手順を説明する図である。
FIG. 10 is a diagram illustrating a procedure for setting a tracking frame and tracking an object according to the second embodiment.

【図11】グループ作成部によるグループ化演算の結果
を示す図である。
FIG. 11 is a diagram showing a result of grouping calculation by a group creating unit.

【符号の説明】[Explanation of symbols]

9 測光素子 10 オンスクリーン液晶 11 測光部 12 グループ作成部 13 追尾枠設定部 14 被写体追尾部 15 露出演算部 16 露出制御部 17 表示部 9 Photometric element 10 on-screen liquid crystal 11 Light meter 12 Group creation department 13 Tracking frame setting section 14 Subject tracking unit 15 Exposure calculator 16 Exposure control section 17 Display

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01S 3/76 - 3/789 G03B 17/18 - 17/20 G03B 17/36 G01J 1/00 - 1/60 G01J 11/00 Front page continuation (58) Fields surveyed (Int.Cl. 7 , DB name) G01S 3/76-3/789 G03B 17/18-17/20 G03B 17/36 G01J 1/00-1/60 G01J 11 / 00

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 被写界をマトリクス状の複数の測光領域
に分割して測光し、前記被写界の輝度に関する複数の測
光情報を出力する測光手段と、 前記測光情報に基づいて前記被写界内を複数のグループ
に分類するグループ化手段と、前記複数のグループの内、撮影レンズの光軸近傍に存在
するグループの輪郭を 被写体追尾用の追尾枠の初期値
して設定する追尾枠設定手段と、前記追尾枠内に属する前記測光領域の測光情報と前記各
グループに属する前記測光領域の測光情報との差、およ
び前記追尾枠内に属する前記測光領域と前記各グループ
に属する前記測光領域との間で重複する前記測光領域の
数に基づいて前記追尾枠を移動し 、前記主要被写体を前
記被写界内において追尾する被写体追尾手段とを備えた
ことを特徴とする被写体追尾装置。
1. A photometric unit that divides a field into a plurality of matrix-shaped photometric regions to perform photometry, and outputs a plurality of photometric information regarding the brightness of the field, and the field based on the photometric information. Multiple groups within the circle
Grouping means to classify into, and among the plurality of groups, present near the optical axis of the photographing lens
The initial value of the tracking frame for subject tracking the outline of the group of the
Wherein the tracking frame setting means for setting, and the photometric information of the photometric areas belonging to the tracking frame in each
The difference from the photometric information of the photometric area belonging to the group, and
And the photometric area and each group belonging to the tracking frame
Of the photometric area overlapping with the photometric area belonging to
An object tracking device, comprising: an object tracking unit that moves the tracking frame based on a number to track the main object in the object scene.
【請求項2】 請求項1に記載の被写体追尾装置におい
て、 前記追尾枠設定手段により設定された前記追尾枠を前記
被写界内に表示する追尾枠表示手段を備えたことを特徴
とする被写体追尾装置。
2. The subject tracking device according to claim 1, further comprising a tracking frame display unit that displays the tracking frame set by the tracking frame setting unit in the object scene. Tracking device.
【請求項3】 請求項1に記載の被写体追尾装置におい
て、 前記測光手段は、前記被写界内に存在する被写体の色彩
に関する情報を測光情報として出力し、 前記被写体検出手段は、類似の色成分を有する前記測光
領域を区分して前記主要被写体とその大きさを検出し、 前記追尾枠設定手段は、前記主要被写体が存在する前記
区分に属する前記測光領域の輪郭を前記追尾枠として設
定することを特徴とする被写体追尾装置。
3. The subject tracking device according to claim 1, wherein the photometric unit outputs information regarding a color of a subject existing in the object scene as photometric information, and the subject detecting unit has a similar color. The photometric area having a component is divided to detect the main subject and its size, and the tracking frame setting means sets the contour of the photometric area belonging to the division in which the main subject exists as the tracking frame. A subject tracking device characterized in that
JP23973593A 1993-09-27 1993-09-27 Subject tracking device Expired - Lifetime JP3456231B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23973593A JP3456231B2 (en) 1993-09-27 1993-09-27 Subject tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23973593A JP3456231B2 (en) 1993-09-27 1993-09-27 Subject tracking device

Publications (2)

Publication Number Publication Date
JPH0792248A JPH0792248A (en) 1995-04-07
JP3456231B2 true JP3456231B2 (en) 2003-10-14

Family

ID=17049156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23973593A Expired - Lifetime JP3456231B2 (en) 1993-09-27 1993-09-27 Subject tracking device

Country Status (1)

Country Link
JP (1) JP3456231B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016038969A1 (en) 2014-09-08 2016-03-17 富士フイルム株式会社 Camera initial position setting method, camera, and camera system

Also Published As

Publication number Publication date
JPH0792248A (en) 1995-04-07

Similar Documents

Publication Publication Date Title
JPS61279829A (en) Photometric device for camera
JP2605282B2 (en) Automatic focusing device
JPH06230453A (en) Camera provided with object tracking function
JP2535988B2 (en) Three-dimensional multi-pattern photometer
JP2007251993A (en) Camera with composition advice function
JP2001116985A (en) Camera with subject recognizing function and subject recognizing method
JP3653739B2 (en) Camera with subject tracking function
US5745810A (en) Image taking apparatus
JP3321932B2 (en) Camera photometer
JP3456231B2 (en) Subject tracking device
JPH01109331A (en) Camera
JPH0486628A (en) Automatic exposure control device for camera
JP4165216B2 (en) Camera with composition advice function
JP2881772B2 (en) Focus detection device
JPS6155620A (en) Automatic focusing device
JPH055925A (en) Exposure arithmetic unit for camera with gaze detector
JP3203670B2 (en) Camera photometer
JP3116358B2 (en) Focus detection photometer
JP2898711B2 (en) Exposure control device
JP3060362B2 (en) Display device
JPH05215958A (en) Main object detecting device for camera
JP2803168B2 (en) Camera exposure calculation device
JPH0688984A (en) Automatic light control device for camera
JP3106613B2 (en) Camera exposure calculation device
JP3837771B2 (en) Camera photometric device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090801

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140801

Year of fee payment: 11

EXPY Cancellation because of completion of term