JP3163668B2 - Subject recognition device and camera - Google Patents

Subject recognition device and camera

Info

Publication number
JP3163668B2
JP3163668B2 JP21518291A JP21518291A JP3163668B2 JP 3163668 B2 JP3163668 B2 JP 3163668B2 JP 21518291 A JP21518291 A JP 21518291A JP 21518291 A JP21518291 A JP 21518291A JP 3163668 B2 JP3163668 B2 JP 3163668B2
Authority
JP
Japan
Prior art keywords
subject
unit
tracking
photographer
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP21518291A
Other languages
Japanese (ja)
Other versions
JPH0553043A (en
Inventor
宏之 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP21518291A priority Critical patent/JP3163668B2/en
Priority to US07/933,819 priority patent/US5392091A/en
Publication of JPH0553043A publication Critical patent/JPH0553043A/en
Priority to US08/341,978 priority patent/US5461452A/en
Application granted granted Critical
Publication of JP3163668B2 publication Critical patent/JP3163668B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、カメラに備えられた撮
影レンズが捉える被写界において、撮影者が注目してい
る被写体が占める位置を検出する被写体認識装置に関す
る。通常のカメラにおいては、カメラに備えられた撮影
レンズの被写界の中央部に被写体があることを前提とし
て、被写界の中央部の情報に基づいて、焦点制御および
露出制御を行っている。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognizing device for detecting a position occupied by an object of interest to a photographer in an object scene captured by a photographing lens provided in a camera. In a normal camera, focus control and exposure control are performed based on information on the central portion of the field of view, on the assumption that the subject is located at the central portion of the field of view of the taking lens provided in the camera. .

【0002】一方、被写体を中央からはずした位置に配
置した構図で撮影を行う場合も多く、このような場合に
対応して、中央部からはずれた位置にある被写体部分の
情報に基づいて、焦点制御および露出制御を行いたいと
いう要望がある。これに応じて、撮影者が被写体を注視
していることを利用して、撮影者の眼球の向きから撮影
者の視線の方向を求め、この視線が被写界と交差する視
線位置を被写体位置として、焦点制御および露出制御を
行う技法が提案されている。
On the other hand, photographing is often performed in a composition in which a subject is located at a position off center, and in such a case, focusing is performed based on information on a subject located at a position off center. There is a demand for performing control and exposure control. In response, the direction of the line of sight of the photographer is determined from the direction of the eyeball of the photographer using the fact that the photographer is gazing at the object. As a technique, focus control and exposure control have been proposed.

【0003】[0003]

【従来の技術】撮影者の視線位置を被写体位置として検
出し、焦点制御および露出制御を行う技法としては、特
開昭63−94232号公報『カメラ制御装置』で開示
された技法がある。図19に、上述したカメラ制御装置
の構成を示す。
2. Description of the Related Art As a technique for detecting a line of sight of a photographer as a subject position and performing focus control and exposure control, there is a technique disclosed in JP-A-63-94232. FIG. 19 shows the configuration of the camera control device described above.

【0004】図19において、撮像回路614は2次元
CCD素子(以下、単にCCDと称する)615を備え
ており、このCCD615上に、撮影レンズ610およ
び絞り612からなる撮像光学系による像が結像する構
成となっている。また、図において、眼球運動検出器6
30は、黒目の位置から眼球の向きを判別して、ゲート
制御回路634に送出する構成となっている(テレビジ
ョン学会誌Vol. No.2,1986, p41以降を参照)。
In FIG. 19, an image pickup circuit 614 includes a two-dimensional CCD (hereinafter simply referred to as a CCD) 615, on which an image formed by an image pickup optical system including a photographing lens 610 and an aperture 612 is formed. Configuration. In the figure, the eye movement detector 6
Reference numeral 30 denotes a configuration in which the direction of the eyeball is determined from the position of the iris and transmitted to the gate control circuit 634 (see the Journal of the Institute of Television Engineers of Japan, Vol. No. 2, 1986, p. 41 et seq.).

【0005】ゲート制御回路634は、この判別結果と
クロック回路628からの水平同期信号および垂直同期
信号とに基づいて、ゲート616の開閉を制御するゲー
ト制御信号を生成する構成となっており、上述した判別
結果で示される撮影者の注視部分に相当するCCD61
5の出力に応じて、ゲート616の開放を指示する構成
となっている。これにより、撮像回路614の出力から
撮影者が注視している部分が抽出され、自動焦点(A
F)制御回路620および自動露出(AE)制御回路6
22に送出されて、それぞれレンズ駆動装置624と絞
り駆動装置626の制御処理に供される。
The gate control circuit 634 generates a gate control signal for controlling the opening and closing of the gate 616 based on the result of the determination and the horizontal synchronization signal and the vertical synchronization signal from the clock circuit 628. CCD 61 corresponding to the gaze portion of the photographer indicated by the determined determination result
5, the gate 616 is instructed to open. As a result, a portion that the photographer is gazing at is extracted from the output of the imaging circuit 614, and the auto focus (A
F) Control circuit 620 and automatic exposure (AE) control circuit 6
The control signal is sent to the lens drive unit 22 and is used for controlling the lens drive unit 624 and the aperture drive unit 626, respectively.

【0006】このように、ファインダを覗いている撮影
者の視線位置の情報に基づいて焦点制御および露出制御
を行うことを可能とし、被写体が被写界において占める
位置にかかわらず、被写体部分の情報に基づいて、カメ
ラの制御を行うカメラ制御装置が提案されている。
As described above, it is possible to perform focus control and exposure control based on information on the line of sight of the photographer looking through the viewfinder, and to obtain information on the object portion regardless of the position of the object in the field. A camera control device that controls a camera based on a camera has been proposed.

【0007】[0007]

【発明が解決しようとする課題】ところで、上述した従
来方式においては、眼球の向きから得た撮影者の視線位
置を被写体位置としている。しかしながら、撮影者は、
常に被写体を注視しているとは限らず、構図のバランス
をみるために被写体以外のものを見たり、画面の外側に
表示された露出制御などに関する情報を見たりしてい
る。このため、視線位置を被写体位置としたのでは、撮
影者が意図した被写体を正しく認識できない可能性があ
る。
By the way, in the above-mentioned conventional system, the position of the line of sight of the photographer obtained from the direction of the eyeball is set as the subject position. However, the photographer
The user does not always look closely at the subject, but looks at something other than the subject to see the balance of the composition, or looks at information related to exposure control and the like displayed outside the screen. Therefore, if the line of sight is set as the subject position, there is a possibility that the subject intended by the photographer may not be correctly recognized.

【0008】また、眼球は常に運動しており、この運動
に伴って視線位置も刻々と変化するため、刻々と変化す
る視線位置に応じて露出値や合焦位置が変化し、露出制
御および焦点制御が不安定となってしまう。特に、眼球
は急激に運動する場合もあり、この場合には、上述した
ような制御の不安定性が顕著となる。本発明は、撮影者
が注目している被写体を正しく認識するとともに、この
被写体の安定した被写体位置を得る被写体認識装置を提
供することを目的とする。また、得られた被写体位置を
用いて被写体の適正な像を撮影するカメラを提供するこ
とを目的とする。
[0008] Further, since the eyeball is constantly moving, and the line-of-sight position changes every moment with this movement, the exposure value and the focus position change according to the line-of-sight position that changes every moment, and the exposure control and the focus are changed. Control becomes unstable. In particular, the eyeball sometimes moves abruptly, and in this case, the control instability as described above becomes remarkable. SUMMARY OF THE INVENTION It is an object of the present invention to provide a subject recognizing apparatus that correctly recognizes a subject of interest to a photographer and obtains a stable subject position of the subject. It is another object of the present invention to provide a camera that captures an appropriate image of a subject using the obtained subject position.

【0009】[0009]

【課題を解決するための手段】図1は、請求項1および
請求項2の発明の構成を示す図である。請求項1の発明
は、撮影者の眼球の動きから、カメラの被写界内におい
て撮影者が注視している位置を被写体の位置として求め
る被写体認識手段111と、被写界における光の強度分
布に関する情報に基づいて、被写体に相当する位置を判
別し、この位置を追尾する追尾手段112と、被写体認
識手段111で得られた位置と追尾手段で得られた位置
とを比較して、撮影者が被写体を変更したか否かを判定
する判定手段113と、判定手段113による判定結果
に応じて、被写体認識手段111と追尾手段112とに
よってそれぞれ得られた位置のいずれかを被写体位置と
して選択する選択手段114と、被写体が変更された旨
の判定結果に応じて、被写体認識手段111で得られた
位置を新しい被写体に関する情報として追尾手段112
に送出して追尾処理を制御する制御手段115とを備え
たことを特徴とする。
FIG. 1 is a diagram showing the configuration of the first and second aspects of the present invention. According to the first aspect of the present invention, a subject recognizing unit 111 determines, as a position of a subject, a position at which a photographer is gazing within a field of a camera, based on the movement of an eyeball of the photographer, and an intensity distribution of light in the field. The position corresponding to the subject is determined based on the information about the subject, the tracking means 112 for tracking this position is compared with the position obtained by the subject recognizing means 111 and the position obtained by the tracking means, A determination unit 113 that determines whether the subject has changed the subject, and one of the positions obtained by the subject recognition unit 111 and the tracking unit 112 is selected as the subject position according to the determination result by the determination unit 113. The position obtained by the object recognizing means 111 is selected as information about a new object by the selecting means 114 and the tracking means 112 in accordance with the determination result that the object has been changed.
And a control means 115 for controlling the tracking process by transmitting to the control unit.

【0010】請求項2の発明は、請求項1に記載の被写
体認識装置において、追尾手段が、被写体認識手段で得
られた位置を被写体の初期位置とし、この初期位置にお
ける光情報に基づいて、被写体に相当する位置を判別す
る構成であることを特徴とする。図2は、請求項3の被
写体認識装置の構成を示す図である。
According to a second aspect of the present invention, in the object recognition apparatus according to the first aspect, the tracking means sets the position obtained by the object recognition means as an initial position of the object, and based on the light information at the initial position. It is characterized in that the position corresponding to the subject is determined. FIG. 2 is a diagram showing a configuration of the subject recognition device according to claim 3.

【0011】請求項3の発明は、請求項1に記載の被写
体認識装置において、被写界における光の強度分布から
被写界の各位置の輝度を判別して、追尾手段による追尾
処理に供する輝度判別手段116を備え、追尾手段11
2が、被写体に近似した輝度を有する位置を判別して、
この位置を追尾する構成であることを特徴とする。図3
は、請求項4の被写体認識装置の構成を示す図である。
According to a third aspect of the present invention, in the subject recognition apparatus according to the first aspect, the luminance at each position in the object scene is determined from the intensity distribution of light in the object scene, and is provided for tracking processing by tracking means. The tracking means 11
2 determines a position having a luminance close to the object,
It is characterized in that it is configured to track this position. FIG.
FIG. 7 is a diagram showing a configuration of a subject recognition device according to claim 4.

【0012】請求項4の発明は、請求項1に記載の被写
体認識装置において、被写界における光の強度分布から
被写界の各位置の色を判別して、追尾手段による追尾処
理に供する色判別手段117を備え、追尾手段112
が、被写体に近似した色を有する位置を判別して、この
位置を追尾する構成であることを特徴とする。図4は、
請求項5および請求項6のカメラの構成を示す図であ
る。
According to a fourth aspect of the present invention, in the subject recognition apparatus according to the first aspect, a color at each position in the object scene is determined from a light intensity distribution in the object scene, and is provided to tracking processing by tracking means. A color discriminating unit 117 is provided.
Is characterized in that a position having a color similar to a subject is determined and this position is tracked. FIG.
It is a figure which shows the structure of the camera of Claim 5 and Claim 6.

【0013】請求項5の発明は、請求項1に記載の被写
体認識装置110と、被写界における光の強度分布に関
する情報と選択手段によって選択された被写体位置とが
入力され、被写体位置における明るさを示す輝度情報を
用いて露出値を求めて、露出制御に供する露出演算手段
121とを備えたことを特徴とする。請求項6の発明
は、請求項1に記載の被写体認識装置110と、被写界
における光の強度分布に関する情報と選択手段によって
選択された被写体位置とが入力され、被写体位置で示さ
れる被写体に対応する光像の合焦状態を判別して、焦点
制御に供する合焦判別手段131とを備えたことを特徴
とする。
According to a fifth aspect of the present invention, the object recognizing device 110 according to the first aspect, information on the light intensity distribution in the object scene and the object position selected by the selection means are input, and the brightness at the object position is input. And an exposure calculating means 121 for obtaining an exposure value using the luminance information indicating the exposure value and for performing exposure control. According to a sixth aspect of the present invention, the subject recognition device 110 according to the first aspect, information on the light intensity distribution in the object scene, and the subject position selected by the selection unit are input, and the subject indicated by the subject position is input. A focus determining unit 131 that determines a focus state of a corresponding light image and provides the focus control.

【0014】[0014]

【作用】請求項1の発明は、被写体認識手段111が、
撮影者の注視している位置を被写体の位置として求める
ので、撮影者が別の被写体を注視した場合は、被写体認
識手段111によって新しい被写体の位置が得られる。
従って、判定手段113の判定結果に応じて、選択手段
114が被写体認識手段111で得られた位置を被写体
位置として選択することにより、撮影者が注目している
被写体を正しく認識することができる。また、このと
き、制御手段115が、この新しい被写体に関する情報
を追尾手段112に送出するので、追尾手段112によ
り、新しい被写体の追尾処理が行われ、撮影者が被写体
を注視しているか否かにかかわらず、常に最新の被写体
の位置が得られる。従って、判定手段113の判定結果
に応じて、選択手段114が追尾手段112で得られた
位置を選択することにより、被写体の位置を安定して得
ることが可能である。
According to the first aspect of the present invention, the object recognizing means 111
Since the position where the photographer gazes is obtained as the position of the subject, when the photographer gazes at another subject, the new subject position is obtained by the subject recognizing unit 111.
Therefore, the selecting unit 114 selects the position obtained by the subject recognizing unit 111 as the subject position according to the determination result of the determining unit 113, so that the subject that the photographer is paying attention to can be correctly recognized. At this time, since the control unit 115 sends the information on the new subject to the tracking unit 112, the tracking unit 112 performs a tracking process on the new subject, and determines whether the photographer is gazing at the subject. Regardless, the latest subject position is always obtained. Therefore, the selection unit 114 selects the position obtained by the tracking unit 112 according to the determination result of the determination unit 113, so that the position of the subject can be stably obtained.

【0015】請求項2の発明は、被写体認識手段111
で得られた位置を追尾手段112による追尾処理の初期
位置とするので、追尾手段112により、最初から正し
い被写体の位置を追尾させることができる。請求項3の
発明は、輝度判別手段116により、各位置の輝度が判
別されるので、追尾手段112において、被写体の輝度
に最も近似した輝度を有する位置を求めることにより、
簡単に被写体の位置を追尾することができる。
According to the second aspect of the present invention, the object recognition means
Is used as the initial position of the tracking processing by the tracking means 112, the tracking means 112 can track the correct position of the subject from the beginning. According to the third aspect of the present invention, since the luminance at each position is determined by the luminance determining means 116, the tracking means 112 obtains the position having the luminance closest to the luminance of the subject.
The position of the subject can be easily tracked.

【0016】請求項4の発明は、色判別手段117が被
写界の各位置の色を判別し、追尾手段112が、被写体
の色に近似した色を有する位置を求めることにより、被
写体位置をより確実に求めて追尾することができる。請
求項5の発明は、被写体認識装置110から被写体位置
を安定して得ることができるので、この被写体位置の輝
度情報を用いて、露出演算手段121が露出値を求める
ことにより、被写体に適合した露出制御を行うことがで
き、被写体の適性な像を得ることが可能となる。
According to a fourth aspect of the present invention, the color discriminating means 117 discriminates the color of each position in the object scene, and the tracking means 112 obtains a position having a color similar to the color of the object, thereby determining the object position. It is possible to more reliably seek and track. According to the fifth aspect of the present invention, the subject position can be stably obtained from the subject recognition device 110. Therefore, the exposure calculation unit 121 obtains an exposure value using the luminance information of the subject position, thereby adapting to the subject. Exposure can be controlled, and an appropriate image of the subject can be obtained.

【0017】請求項6の発明は、被写体認識装置110
から被写体位置を安定して得ることができるので、合焦
判別手段131により、この被写体位置で示される被写
体の光像の合焦状態を判別することにより、被写体に適
合した焦点制御を行うことができ、被写体の適正な像を
得ることが可能となる。
According to a sixth aspect of the present invention, an object recognizing device 110 is provided.
Since the object position can be obtained stably from the above, it is possible to perform focus control suitable for the object by judging the in-focus state of the light image of the object indicated by the object position by the focus judging means 131. And an appropriate image of the subject can be obtained.

【0018】[0018]

【実施例】以下、図面に基づいて本発明の実施例につい
て詳細に説明する。図5は、本発明の被写体認識装置を
適用した一眼レフカメラの実施例構成図である。図5に
おいて、露光時以外には、撮影レンズ210を介してカ
メラに入射する光束の一部がメインミラー201ではね
あげられ、ペンタプリズム202の入射面に設けられた
ピント板203上に結像する構成となっており、撮影者
がファインダを覗いたときに、接眼レンズ204を介し
て、このピント板203上の像を観察できる構成となっ
ている。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 5 is a configuration diagram of an embodiment of a single-lens reflex camera to which the subject recognition device of the present invention is applied. In FIG. 5, a part of the light beam incident on the camera via the photographing lens 210 is jumped up by the main mirror 201 and forms an image on a focus plate 203 provided on the incident surface of the pentaprism 202 except at the time of exposure. When the photographer looks into the viewfinder, the image on the focus plate 203 can be observed via the eyepiece 204.

【0019】また、上述した接眼レンズ204の内部に
は、ビームスプリッタ(BS)205が設けられてお
り、被写体認識手段111は、この接眼レンズ204を
介して、撮影者の眼球の動きを観察する構成となってい
る。図6に、被写体認識手段111の詳細構成を示す。
図6において、発光素子221から放射される光は、ハ
ーフミラー222と接眼レンズ204のビームスプリッ
タ205とによって、ファインダを覗いている撮影者の
眼球に入射する構成となっている。また、レンズ223
は、この眼球の網膜で反射された光を2次元CCDイメ
ージセンサ(以下、単にCCDと称する)224上に結
像する構成となっている。このCCD224はn×m個
の素子から形成されており、レンズ223による像の強
度分布を測定する構成となっている。また、検出処理回
路225は、CCD224の出力に基づいて、撮影者の
視線位置を検出する構成となっている。
A beam splitter (BS) 205 is provided inside the above-mentioned eyepiece 204, and the subject recognizing means 111 observes the movement of the photographer's eyeball through this eyepiece 204. It has a configuration. FIG. 6 shows a detailed configuration of the subject recognition means 111.
In FIG. 6, the light emitted from the light emitting element 221 is incident on the eyeball of the photographer looking through the finder by the half mirror 222 and the beam splitter 205 of the eyepiece 204. Also, the lens 223
Is configured to form an image of light reflected by the retina of the eyeball on a two-dimensional CCD image sensor (hereinafter simply referred to as CCD) 224. The CCD 224 is formed of nxm elements, and is configured to measure the intensity distribution of an image by the lens 223. The detection processing circuit 225 is configured to detect the position of the photographer's line of sight based on the output of the CCD 224.

【0020】ここで、網膜からの反射光は、人間の眼が
注視している方向への強度が最も強くなる。つまり、上
述したCCD224によって得られた強度分布の極大値
に対応する素子の位置により、撮影者の視線方向を判別
することができる。例えば、撮影レンズ210の被写界
をn×m個の要素領域に分割しておき、各要素領域と上
述したCCD224の各素子とが対応するように、上述
したレンズ223の倍率などを決めておけば、極大値に
対応する素子の座標として、視線位置を検出することが
できる。
Here, the reflected light from the retina has the highest intensity in the direction in which the human eye is gazing. That is, it is possible to determine the gaze direction of the photographer based on the position of the element corresponding to the maximum value of the intensity distribution obtained by the above-described CCD 224. For example, the field of the photographing lens 210 is divided into n × m element regions, and the magnification of the lens 223 and the like are determined so that each element region corresponds to each element of the CCD 224 described above. If so, the line-of-sight position can be detected as the coordinates of the element corresponding to the local maximum value.

【0021】この場合は、検出処理回路225をCCD
224の出力を順次に比較して極大値をみつける構成と
し、該当する素子の座標を視線位置として出力すればよ
い。ここで、撮影者の眼球は常に運動しているため、上
述したようにして得られる視線位置は、眼球の運動に伴
って常に移動している。しかし、被写体を決めるときな
どは、撮影者が対象とする被写体を注視するため、図7
に示すように、この間は視線位置の移動範囲が比較的小
さな領域に集中する。つまり、視線位置が所定の範囲内
に集中している状態が所定の時間以上続いている場合
は、撮影者が被写体を注視していると考えられるから、
所定の時間Tの間に視線位置が移動した範囲が所定の大
きさよりも小さい場合に、撮影者が被写体を注視してい
るとして、この範囲から被写体の位置を求めればよい。
In this case, the detection processing circuit 225 is a CCD
224 are sequentially compared to find the maximum value, and the coordinates of the corresponding element may be output as the line-of-sight position. Here, since the eyeball of the photographer is always moving, the gaze position obtained as described above is always moving with the movement of the eyeball. However, when deciding a subject or the like, the photographer gazes at the subject to be photographed.
As shown in Fig. 7, during this time, the range of movement of the line-of-sight position is concentrated in a relatively small area. In other words, if the state where the gaze position is concentrated within the predetermined range continues for a predetermined time or more, it is considered that the photographer is gazing at the subject,
If the range in which the line-of-sight position has moved during the predetermined time T is smaller than a predetermined size, it is determined that the photographer is gazing at the subject, and the position of the subject may be obtained from this range.

【0022】例えば、上述した検出処理回路225で得
られた視線位置の座標を視線追跡部226に入力し、所
定の時間T(例えば1秒間)ごとに、この視線追跡部2
26が各座標成分の最大値Xmax,Ymax および最小値X
min,Ymin を求め、これらの値に基づいて、判定回路2
27が撮影者が被写体を注視しているか否かを判定する
構成とすればよい。この判定回路227は、例えば、各
座標成分の最大値と最小値との差をそれぞれ求め、得ら
れた差の双方が所定の閾値よりも小さいときに、被写体
を注視していると判定し、少なくとも一方が閾値以上で
ある場合は、注視していないと判定すればよい。また、
この判定結果に応じて、位置算出部228が各座標成分
の最大値と最少値との中間値を求めて、被写体の位置を
示す座標(Xa, Ya)として出力する構成となっている。
For example, the coordinates of the line-of-sight position obtained by the detection processing circuit 225 are input to the line-of-sight tracking unit 226, and the line-of-sight tracking unit 2
26 is the maximum value Xmax, Ymax and minimum value X of each coordinate component
min, Ymin, and based on these values, a decision circuit 2
27 may be configured to determine whether the photographer is gazing at the subject. The determination circuit 227 determines, for example, a difference between the maximum value and the minimum value of each coordinate component, and determines that the subject is gazing when both of the obtained differences are smaller than a predetermined threshold. If at least one of them is equal to or more than the threshold, it may be determined that the user is not watching. Also,
In accordance with this determination result, the position calculation unit 228 calculates an intermediate value between the maximum value and the minimum value of each coordinate component and outputs it as coordinates (Xa, Ya) indicating the position of the subject.

【0023】このようにして、撮影者の眼球の動きに対
応して変化する視線位置から、撮影者が注視している位
置を被写体の位置として求めることができる。また、視
線追跡部226に視線位置の座標を保持しておき、位置
算出部228が、これらの座標の平均値を被写体の位置
として求める構成としてもよい。また、図5において、
レンズ206は、接眼レンズ204の光軸からわずかに
ずれた別の光軸に配置されており、この光軸に交差する
位置に配置された2次元CCDイメージセンサ(以下、
単にCCDと称する)231上にピント板203上の像
を結像する構成となっている。このCCD231は、上
述したCCD224と同様にn×m個の素子から形成さ
れており、各素子は更に3つに分割され、それぞれに赤
色(R)成分,緑色(G)成分,青色(B)成分を選択
的に透過させるフィルタが付けられている。図8に、こ
れらの各色成分のフィルタの分光特性を示す。つまり、
このCCD231の各素子が、上述したピント板203
上の像のそれぞれ対応する微小領域における光量を各色
成分ごとに測定して、各色成分の強度を出力する構成と
なっている。
In this way, the position where the photographer gazes can be determined as the position of the subject from the line-of-sight position that changes in accordance with the movement of the photographer's eyeball. Alternatively, the gaze tracking unit 226 may hold the coordinates of the gaze position, and the position calculation unit 228 may calculate an average value of these coordinates as the position of the subject. Also, in FIG.
The lens 206 is disposed on another optical axis slightly deviated from the optical axis of the eyepiece 204, and a two-dimensional CCD image sensor (hereinafter, referred to as a “CCD”) disposed at a position crossing the optical axis.
An image on the focus plate 203 is formed on a CCD 231. This CCD 231 is formed of n × m elements similarly to the above-described CCD 224, and each element is further divided into three, and each of them is red (R) component, green (G) component, and blue (B). A filter for selectively transmitting the components is provided. FIG. 8 shows the spectral characteristics of the filters for these color components. That is,
Each element of the CCD 231 is connected to the focus plate 203 described above.
The configuration is such that the amount of light in the minute area corresponding to each of the upper images is measured for each color component, and the intensity of each color component is output.

【0024】ここで、ピント板203上の像は、撮影レ
ンズ210の被写界に対応しているから、CCD231
の出力は、撮影レンズ210の被写界の各要素領域にお
ける色を表している。すなわち、上述したレンズ206
とCCD231とによって、色判別手段117の機能を
実現することができ、CCD231の出力r(X, Y),g
(X, Y),b(X, Y)を判別結果として、追尾手段112に
送出すればよい。
Here, since the image on the focus plate 203 corresponds to the field of the photographing lens 210, the CCD 231
Represents the color in each element region of the object field of the photographing lens 210. That is, the above-described lens 206
And the CCD 231, the function of the color determining means 117 can be realized, and the outputs r (X, Y), g of the CCD 231 can be realized.
What is necessary is just to send (X, Y) and b (X, Y) to the tracking means 112 as a determination result.

【0025】次に、上述した分光情報に基づいて、被写
体位置を追尾する方法について説明する。ここで、ある
時刻の被写体位置が、被写界における座標(Xb, Yb) と
して与えられている場合に、ある時刻から時間Δtが経
過したときの被写体位置は、時間Δtが短い場合には上
述した座標(Xb, Yb) に近い位置にあると考えられる。
また、被写体の色を示す分光特性は、ほぼ一定であると
考えられる。
Next, a method for tracking the position of a subject based on the above-described spectral information will be described. Here, when the subject position at a certain time is given as the coordinates (Xb, Yb) in the object scene, the subject position when the time Δt has elapsed from the certain time is described above when the time Δt is short. It is considered that the position is near the coordinates (Xb, Yb).
Further, it is considered that the spectral characteristic indicating the color of the subject is substantially constant.

【0026】従って、追尾手段112は、以前に検出さ
れた被写体位置に近く、しかも、分光特性が近似してい
る場所を被写体に相当する特徴を有する位置として判別
し、この位置を追尾すればよい。図9に、追尾手段11
2の詳細構成を示す。また、図10に、追尾処理を表す
流れ図を示す。
Therefore, the tracking means 112 may determine a location close to the previously detected subject position and having a similar spectral characteristic as a position having characteristics corresponding to the subject, and track this position. . FIG. 9 shows the tracking means 11.
2 shows a detailed configuration. FIG. 10 is a flowchart showing the tracking processing.

【0027】図9において、追尾手段112は、座標保
持部241と、分光情報保持部242と、距離算出部2
43と、差分算出部244と、判別処理部245とから
形成されている。この座標保持部241は、それまでに
得られた被写体位置に対応するCCD231の素子の座
標(Xb, Yb)を保持しており、分光情報保持部242は、
被写体の色を示す分光情報として、この座標で示される
CCD231の素子の出力から得られる値R(Xb, Yb),
G(Xb, Yb),B(Xb, Yb)を保持している。
In FIG. 9, a tracking unit 112 includes a coordinate storage unit 241, a spectral information storage unit 242, and a distance calculation unit 2.
43, a difference calculation section 244, and a discrimination processing section 245. The coordinate holding unit 241 holds the coordinates (Xb, Yb) of the element of the CCD 231 corresponding to the subject position obtained so far, and the spectral information holding unit 242
As spectral information indicating the color of the subject, values R (Xb, Yb) obtained from the outputs of the elements of the CCD 231 indicated by the coordinates,
G (Xb, Yb) and B (Xb, Yb) are held.

【0028】この分光情報R(Xb, Yb),G(Xb, Yb),B
(Xb, Yb)は、上述したCCD231の素子からのR,
G,B各成分に対応する出力r(Xb,Yb),g(Xb,Yb),b(X
b,Yb)をその総和を用いて規格化したものであり、 R(Xb, Yb)=r(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) G(Xb, Yb)=g(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) B(Xb, Yb)=b(Xb,Yb) /(r(Xb,Yb) +g(Xb, Yb)+b(Xb, Yb)) のように表される。従って、上述した分光情報R(Xb,Y
b),G(Xb,Yb),B(Xb, Yb)それぞれ値の範囲は0ないし
1となっている。
The spectral information R (Xb, Yb), G (Xb, Yb), B
(Xb, Yb) represents R,
Outputs r (Xb, Yb), g (Xb, Yb), b (X
b (Yb) is normalized by using the sum of them, and R (Xb, Yb) = r (Xb, Yb) / (r (Xb, Yb) + g (Xb, Yb) + b (Xb, Yb) G (Xb, Yb) = g (Xb, Yb) / (r (Xb, Yb) + g (Xb, Yb) + b (Xb, Yb)) B (Xb, Yb) = b (Xb, Yb) / ( r (Xb, Yb) + g (Xb, Yb) + b (Xb, Yb)). Therefore, the above-mentioned spectral information R (Xb, Y
b), G (Xb, Yb) and B (Xb, Yb) each have a value range of 0 to 1.

【0029】また、これらの座標および分光情報は、そ
れぞれ距離算出部243および差分算出部244に送出
される構成となっている。まず、上述した座標保持部2
41および分光情報保持部242に、被写体の座標およ
び分光情報が保持されているか否かを判定する(ステッ
プ301)。この追尾手段112による追尾処理を開始
する際には、被写体に関する情報は設定されていないの
で、必ずステップ301の否定判定となり、ステップ3
02において、被写界内の特定の位置(例えば被写界の
中央)を示す座標とCCD231の対応する素子の出力
とが、座標保持部241および分光情報保持部242に
初期値として設定される。この場合は、上述した位置に
被写体があるものとして、以下の追尾処理が行われる。
These coordinates and spectral information are sent to a distance calculator 243 and a difference calculator 244, respectively. First, the coordinate holding unit 2 described above
It is determined whether the coordinates of the subject and the spectral information are stored in the spectral information storage unit 41 and the spectral information storage unit 242 (step 301). When the tracking processing by the tracking means 112 is started, since information on the subject has not been set, a negative determination is always made in step 301 and step 3 is performed.
In 02, the coordinates indicating a specific position in the field (for example, the center of the field) and the output of the corresponding element of the CCD 231 are set as initial values in the coordinate storage unit 241 and the spectral information storage unit 242. . In this case, the following tracking processing is performed assuming that the subject is located at the above-described position.

【0030】また、追尾処理を開始する際には、撮影者
は被写体を注視していると考えられるので、上述した被
写体認識手段111で得られた座標を座標保持部241
に保持し、また、この座標に対応するCCD231の出
力を分光情報保持部242に保持してもよい。この場合
は、撮影者が注視している位置が初期位置とされるの
で、最初から被写体を正確に捉えて追尾することができ
る。
When the tracking process is started, it is considered that the photographer is gazing at the subject, and the coordinates obtained by the subject recognizing unit 111 are stored in the coordinate holding unit 241.
The output of the CCD 231 corresponding to the coordinates may be stored in the spectral information storage unit 242. In this case, the position where the photographer gazes is set as the initial position, so that the subject can be accurately captured and tracked from the beginning.

【0031】また、被写体位置をリセットする旨の警告
をファインダ内の被写界に対応する画面の外側に表示
し、撮影者に、被写体を画面の中央部に入れた状態でリ
セットスイッチ(図示せず)を押すように促してもよ
い。この場合は、リセットスイッチの押下に応じて、画
面の中央に対応する座標およびCCD231の対応する
素子の出力を設定すればよい。
A warning to reset the position of the object is displayed outside the screen corresponding to the object field in the viewfinder, and the photographer is prompted to set the reset switch (shown in the figure) with the object in the center of the screen. You may be prompted to press zu). In this case, the coordinates corresponding to the center of the screen and the output of the corresponding element of the CCD 231 may be set according to the depression of the reset switch.

【0032】一方、ステップ301における肯定判定の
場合は、距離算出部243は、上述した被写体の位置と
被写界の各要素領域との間の距離を算出し、また、差分
算出部244は、被写界の各要素領域の色を示す分光情
報と被写体位置の色を示す分光情報との差分を求める
(ステップ303)。ここで、上述したように、CCD
231の各素子は、被写界の要素領域にそれぞれ対応し
ている。従って、距離算出部243は、被写界における
距離の代わりに、上述した座標(Xb, Yb)で示されるCC
D231の素子と他の各素子との距離をその最大距離I
max(={(Xn −X1)2+(Ym −Y1)2})で規格化した距離
dIを求める構成とすればよい。つまり、距離算出部2
43は、最大距離Imax と各素子の座標(X,Y)を用
いて、 dI(X, Y)={(Xb−X)2+(Yb−Y)21/2 /Imax で表される距離dI(X, Y)を求めて判別処理部245に
送出すればよい。但し、上述した最大距離Imax は、C
CD231の対角線上で対向する隅の2つの素子の座標
(X1,Y1),(Xn, Ym)を用いて、 Imax ={(Xn−X1)2+(Ym−Y1)21/2 で表される。
On the other hand, in the case of an affirmative determination in step 301, the distance calculation unit 243 calculates the distance between the position of the subject and each element region of the object scene, and the difference calculation unit 244 calculates The difference between the spectral information indicating the color of each element region of the object scene and the spectral information indicating the color of the subject position is obtained (step 303). Here, as described above, the CCD
Each element 231 corresponds to an element region of the field. Therefore, the distance calculation unit 243 replaces the distance in the object scene with the CC indicated by the coordinates (Xb, Yb) described above.
The distance between the element of D231 and each of the other elements is the maximum distance I.
The distance dI standardized by max (= {(X n −X 1 ) 2 + (Y m −Y 1 ) 2 }) may be obtained. That is, the distance calculation unit 2
43 uses the maximum distance Imax and coordinates of each element (X, Y), is represented by dI (X, Y) = { (Xb-X) 2 + (Yb-Y) 2} 1/2 / Imax What is necessary is just to find the distance dI (X, Y) and send it to the determination processing unit 245. However, the maximum distance Imax described above is C
Coordinates of two elements at opposite corners on diagonal line of CD231
(X 1, Y 1), (Xn, Ym) using, represented by Imax = {(Xn-X 1 ) 2 + (Ym-Y 1) 2} 1/2.

【0033】また、差分算出部244は、CCD231
の各素子の出力から、各要素領域の色を示す分光情報R
(X, Y),G(X, Y),B(X, Y)を求め、この分光情報から
被写体の分光情報をそれぞれ差し引いて、 dR(X, Y)=R(Xa, Ya)−R(X, Y) dG(X, Y)=G(Xa, Ya)−G(X, Y) dB(X, Y)=B(Xa, Ya)−B(X, Y) で表される差分dR(X, Y),dG(X, Y),dB(X, Y)を
求める構成となっており、得られた差分dR(X, Y),d
G(X, Y),dB(X, Y)を判別処理部245に送出すれば
よい。
The difference calculator 244 is provided with a CCD 231.
From the output of each element, spectral information R indicating the color of each element area
(X, Y), G (X, Y), and B (X, Y) are obtained, and the spectral information of the subject is subtracted from the spectral information to obtain dR (X, Y) = R (Xa, Ya) −R (X, Y) dG (X, Y) = G (Xa, Ya) −G (X, Y) dB (X, Y) = B (Xa, Ya) −B (X, Y) dR (X, Y), dG (X, Y), and dB (X, Y) are obtained, and the obtained differences dR (X, Y), d
G (X, Y) and dB (X, Y) may be sent to the determination processing unit 245.

【0034】この判別処理部245は、上述したステッ
プ303において得られた距離dIと分光情報の差分d
R,dG,dBとをパラメータとして、後述するファジ
ー演算処理を行って、被写体に相当する位置を判別し、
該当する位置を新しい被写体の位置とする構成となって
いる。以下に説明するファジー演算処理は、 if dR(X,Y)=small and dG(X,Y)=small and dB(X,Y)=sma
ll and dI(X,Y)=nearthen S(X,Y)=big で表されるファジールールを用いて、座標(X,Y) で示さ
れる被写界の各要素領域の位置が被写体に相当する位置
である旨の命題に対する適合度S(X,Y) を求める処理で
ある。上述したファジールールにおいて、各式は該当す
るパラメータについての命題を示しており、全体とし
て、分光情報の各色成分の差分dR(X, Y),dG(X,
Y),dB(X, Y)それぞれが小さい(small) 旨の命題と距
離dI(X, Y)が近い(near)旨の命題とが全て“真”であ
るときに、上述した適合度S(X,Y) が大きい(big) 旨の
命題が“真”であることを示している。
The discrimination processing unit 245 calculates the difference d between the distance dI obtained in step 303 and the spectral information.
By using R, dG, and dB as parameters, a fuzzy calculation process described later is performed to determine a position corresponding to the subject,
The corresponding position is set as the position of the new subject. The fuzzy arithmetic processing described below is performed if dR (X, Y) = small and dG (X, Y) = small and dB (X, Y) = sma
Using the fuzzy rule represented by ll and dI (X, Y) = nearthen S (X, Y) = big, the position of each element region of the scene represented by coordinates (X, Y) corresponds to the subject. This is a process of calculating the degree of conformity S (X, Y) for the proposition that the position is to be performed. In the fuzzy rules described above, each expression indicates a proposition about the corresponding parameter, and as a whole, the differences dR (X, Y) and dG (X,
When the proposition that each of Y) and dB (X, Y) is small (small) and the proposition that the distance dI (X, Y) is short (near) are all “true”, the above-described fitness S It means that the proposition that (X, Y) is big is “true”.

【0035】まず、図11(a),(b),(c),(d) に示す各パ
ラメータについてのメンバーシップ関数から、距離dI
が近い(near)旨の命題および分光情報の差分dR,d
G,dBそれぞれが小さい(small)旨の命題についての
適合度をそれぞれ算出する(ステップ304)。ステッ
プ304において、判別処理部245は、各命題に対応
するメンバーシップ関数のヘッジと対応するパラメータ
の値との交点の値を求め、この値を各命題の適合度とす
ればよい。
First, from the membership function for each parameter shown in FIGS. 11 (a), (b), (c) and (d), the distance dI
Is near and the difference dR, d between the spectral information
The suitability for the proposition that G and dB are small is calculated (step 304). In step 304, the discrimination processing unit 245 obtains the value of the intersection between the hedge of the membership function corresponding to each proposition and the value of the corresponding parameter, and sets this value as the degree of conformity of each proposition.

【0036】次に、各パラメータに対応する適合度にm
ax−min合成法を用いて、上述した4つの命題につ
いての適合度を合成し、座標(X, Y)で示される被写界の
各要素領域の位置が被写体に相当する位置である旨の命
題に対する適合度S(X, Y)を求める(ステップ30
5)。ここで、max−min合成法においては、ファ
ジールール全体の適合度として、各パラメータの適合度
の最少値をとることになっている。従って、ステップ3
05においては、各パラメータの適合度から最少値を選
択し、図11(e) に示した適合度Sに対するメンバーシ
ップ関数の該当するヘッジとの交点を求め、この交点の
値を上述した命題の最終的な適合度S(X, Y)とすればよ
い。
Next, the degree of conformity corresponding to each parameter is m
Using the ax-min synthesis method, the degrees of fitness for the above four propositions are synthesized, and the position of each element region of the scene indicated by coordinates (X, Y) is a position corresponding to the subject. Find the degree of conformity S (X, Y) for the proposition (step 30)
5). Here, in the max-min combining method, the minimum value of the fitness of each parameter is taken as the fitness of the whole fuzzy rule. Therefore, step 3
In step 05, the minimum value is selected from the fitness of each parameter, the intersection of the membership function with the corresponding hedge of the fitness S shown in FIG. 11 (e) is obtained, and the value of this intersection is determined by the above-mentioned proposition. What is necessary is just to make it final S (X, Y).

【0037】このようにして得られたCCD231の各
素子に対応する適合度S(X, Y)は、被写界の要素領域そ
れぞれの位置が被写体に相当する位置である度合いを示
しているから、適合度S(X, Y)の最大値を検出し(ステ
ップ306)、該当するCCD231の素子の座標を被
写体の位置を示す座標(Xb, Yb)とすればよい。上述した
ようにして、被写界の各要素領域から被写体に近似した
色であって、かつ、以前に求められた被写体の位置に近
い要素領域である度合いを評価して、被写体に相当する
位置を判別することができる。これにより、被写体が日
陰から日向に移動した場合のように、被写体の輝度が大
きく変化した場合においても、被写体の色を示す分光情
報の変化が比較的少ないことを利用して、確実に被写体
に相当する位置を判別することができる。
The degree of conformity S (X, Y) corresponding to each element of the CCD 231 thus obtained indicates the degree to which the position of each element region of the object scene corresponds to the object. Then, the maximum value of the conformity S (X, Y) is detected (step 306), and the coordinates of the corresponding element of the CCD 231 may be set as the coordinates (Xb, Yb) indicating the position of the subject. As described above, the degree of the element area having a color similar to the object from each element area of the object field and close to the position of the object obtained previously is evaluated, and the position corresponding to the object is evaluated. Can be determined. Thus, even when the brightness of the subject changes greatly, such as when the subject moves from the shade to the sun, the change in the spectral information indicating the color of the subject is relatively small, and the The corresponding position can be determined.

【0038】また、判別処理部245は、上述したよう
にして得られた座標(Xb, Yb)およびCCD231の該当
する素子の出力を座標保持部241および分光情報保持
部242にそれぞれ送出して(ステップ307)、被写
体の位置を示す座標(Xb, Yb)と被写体の色を示す分光情
報R(Xb,Yb),G(Xb, Yb),B(Xb, Yb)とを更新する構
成となっている。
The discrimination processing unit 245 sends the coordinates (Xb, Yb) obtained as described above and the output of the corresponding element of the CCD 231 to the coordinate holding unit 241 and the spectral information holding unit 242, respectively ( Step 307), the coordinates (Xb, Yb) indicating the position of the subject and the spectral information R (Xb, Yb), G (Xb, Yb), B (Xb, Yb) indicating the color of the subject are updated. ing.

【0039】従って、上述したステップ301〜ステッ
プ307を繰り返すことにより、被写界内での被写体の
移動に追従して、被写体の位置を確実に追尾することが
できる。なお、判別処理部245が、被写界の各要素領
域について、ステップ303で得られる各パラメータの
総和をそれぞれ求め、この総和の最少値を与える被写界
の要素領域を被写体位置とする構成としてもよい。
Therefore, by repeating steps 301 to 307 described above, the position of the subject can be reliably tracked following the movement of the subject in the scene. Note that the discrimination processing unit 245 obtains the sum of the parameters obtained in step 303 for each element region of the object scene, and sets the element region of the object scene that gives the minimum value of the sum as the subject position. Is also good.

【0040】この場合は、上述したような複雑な演算処
理を行う必要がないので、判別処理部245の構成を簡
易とすることができ、また、追尾処理を高速化すること
ができる。但し、1つのパラメータのみが以前の被写体
位置に対応するパラメータと大幅に異なっている場合で
も、他のパラメータの値が近似していれば被写体の位置
とされる可能性があり、上述したファジー演算処理を用
いた場合に比べて誤差が大きい。
In this case, since it is not necessary to perform the above-described complicated arithmetic processing, the configuration of the discrimination processing unit 245 can be simplified, and the tracking processing can be speeded up. However, even when only one parameter is significantly different from the parameter corresponding to the previous subject position, if the values of the other parameters are close to each other, the position of the subject may be determined. The error is larger than when the processing is used.

【0041】また、図5において、被写体認識手段11
1で得られた座標(Xa, Ya)と追尾手段112で得られた
座標(Xb, Yb)とは、認識処理部250にそれぞれ入力さ
れており、この認識処理部250が最終的な被写体位置
を示す座標(Xo, Yo)を決定して、後述する露出制御処理
および焦点制御処理に供する構成となっている。図12
に、認識処理部250の詳細構成図を示す。また、図1
3に、被写体位置の決定処理の流れ図を示す。
Also, in FIG.
1, the coordinates (Xa, Ya) obtained by the tracking means 112 and the coordinates (Xb, Yb) obtained by the tracking means 112 are input to the recognition processing unit 250, and the recognition processing unit 250 (Xo, Yo) are determined and provided for exposure control processing and focus control processing to be described later. FIG.
2 shows a detailed configuration diagram of the recognition processing unit 250. FIG.
FIG. 3 shows a flowchart of the processing for determining the subject position.

【0042】図12において、距離算出回路251と比
較回路252とは、判定手段113を形成しており、距
離算出回路251が、被写体認識手段111と追尾手段
112とで得られた2つの座標(Xa, Ya),(Xb, Yb)で示
される2点間の距離Dを求め、比較回路252が、この
距離Dと所定の閾値とを比較する構成となっている。こ
の比較回路252には、上述した被写体認識手段111
の判定回路227の判定結果が入力されており、撮影者
が被写体を注視している旨の判定結果の入力に応じて比
較動作を行う構成となっている。
In FIG. 12, a distance calculation circuit 251 and a comparison circuit 252 form a determination means 113, and the distance calculation circuit 251 generates two coordinates (the two coordinates obtained by the object recognition means 111 and the tracking means 112). The configuration is such that a distance D between two points indicated by Xa, Ya) and (Xb, Yb) is obtained, and a comparison circuit 252 compares this distance D with a predetermined threshold. The comparison circuit 252 includes the object recognition unit 111 described above.
The determination result of the determination circuit 227 is input, and the comparison operation is performed in response to the input of the determination result indicating that the photographer is gazing at the subject.

【0043】すなわち、上述した被写体認識手段111
の判定回路227によって、撮影者が注視している位置
があるとされたときに、ステップ401の肯定判定とな
り、比較回路252により、距離算出回路251で得ら
れた距離Dと閾値とが比較される(ステップ402)。
また、図12において、セレクタ253は、選択手段1
14に相当するものであり、上述した比較回路252に
よる比較結果および被写体認識手段111の判定回路2
27による判定結果に応じて、上述した2つの座標(Xa,
Ya),(Xb, Yb)の一方を被写体位置(Xo, Yo)として選択
する構成となっている。
That is, the above-described subject recognition means 111
When the determination circuit 227 determines that there is a position where the photographer is gazing, an affirmative determination is made in step 401, and the comparison circuit 252 compares the distance D obtained by the distance calculation circuit 251 with the threshold. (Step 402).
Also, in FIG. 12, the selector 253 is
14 and the comparison result of the comparison circuit 252 and the judgment circuit 2 of the object recognizing means 111.
27, the two coordinates (Xa,
One of (Ya) and (Xb, Yb) is selected as the subject position (Xo, Yo).

【0044】ここで、標準的な被写体(例えば人物な
ど)が被写界において占める大きさに対応する値を閾値
として比較回路252に設定すれば、ステップ402の
比較結果から、被写体認識手段111と追尾手段112
とでそれぞれ得られた被写体の位置が同一の被写体に対
応するものであるか否かを判定することができる。つま
り、比較回路252により、上述した距離Dが閾値を超
えたとされた場合(ステップ402の肯定判定)に撮影
者が注目している被写体が変わったと判定し、この判定
結果に応じて、セレクタ253が、被写体認識手段11
1で得られた座標(Xa, Ya)を選択して(ステップ40
3)、被写体位置(Xo, Yo)として出力すればよい。
Here, if a value corresponding to the size occupied by a standard subject (for example, a person or the like) in the object scene is set as a threshold value in the comparison circuit 252, the comparison result of step 402 indicates that the object recognition means 111 Tracking means 112
Then, it can be determined whether or not the obtained positions of the objects correspond to the same object. That is, when the comparison circuit 252 determines that the above-described distance D exceeds the threshold value (a positive determination in step 402), it determines that the subject that the photographer is paying attention to has changed, and the selector 253 according to the determination result. Is the subject recognition means 11
Select the coordinates (Xa, Ya) obtained in step 1 (step 40).
3) It is sufficient to output as the subject position (Xo, Yo).

【0045】また、図12において、読出回路254と
転送回路255とは、制御手段115を形成しており、
被写体が変更された旨の判定結果に応じて、読出回路2
54が、CCD231から座標(Xa, Ya)で示される素子
の出力を読み出す構成となっている。また、転送回路2
55は、上述した座標(Xa, Ya)および読出回路254で
得られた素子の出力を新しい被写体の位置を示す座標(X
b, Yb)および新しい被写体の色を示す分光情報R(Xb, Y
b),G(Xb, Yb),B(Xb, Yb)として追尾手段112に送
出し(ステップ404)、座標保持部241および分光
情報保持部242にそれぞれ格納する構成となってい
る。
In FIG. 12, the read circuit 254 and the transfer circuit 255 form the control means 115.
In response to the determination result that the subject has been changed, the readout circuit 2
Numeral 54 reads out the output of the element indicated by the coordinates (Xa, Ya) from the CCD 231. Also, the transfer circuit 2
55 represents the coordinates (Xa, Ya) described above and the output of the element obtained by the readout circuit 254 as the coordinates (X
b, Yb) and spectral information R (Xb, Y
b), G (Xb, Yb), and B (Xb, Yb) are sent to the tracking means 112 (step 404) and stored in the coordinate storage unit 241 and the spectral information storage unit 242, respectively.

【0046】従って、以降は、追尾手段112により、
上述した新しい被写体位置および分光情報に基づいて、
被写体の位置の追尾処理が行われる。これにより、撮影
者が被写体を変更したことを漏れなく検出し、被写体が
変わったときに、速やかに新しい被写体位置を求め、こ
の新しい被写体の位置を追尾することが可能となる。
Therefore, thereafter, the tracking means 112
Based on the new subject position and spectral information described above,
Tracking processing of the position of the subject is performed. As a result, it is possible to detect that the photographer has changed the subject without fail, and when the subject changes, quickly obtain a new subject position and track the position of the new subject.

【0047】また、上述したステップ302において、
撮影者が注視している位置にかかわらず画面の中央を被
写体の初期位置とした場合においても、上述したステッ
プ404の処理により、正しく認識された被写体の位置
を示す座標が設定され、以後は、この被写体の位置の追
尾処理が行われる。一方、ステップ401あるいは40
2の否定判定の場合は、撮影者に被写体を変更する意図
はないと考えられる。従って、セレクタ253は、撮影
者が被写体を注視していない旨の判定結果の入力あるい
は被写体が変わっていない旨の判定結果の入力に応じ
て、追尾手段112で得られた座標(Xb, Yb)を選択し
(ステップ405)、被写体位置(Xo, Yo)として出力す
ればよい。
In step 302 described above,
Even when the center of the screen is set as the initial position of the subject irrespective of the position where the photographer is gazing, coordinates indicating the position of the correctly recognized subject are set by the processing of step 404 described above. The tracking processing of the position of the subject is performed. Step 401 or 40
In the case of a negative determination of 2, it is considered that the photographer does not intend to change the subject. Therefore, the selector 253 determines the coordinates (Xb, Yb) obtained by the tracking means 112 in response to the input of the determination result that the photographer is not gazing at the subject or the input of the determination result that the subject has not changed. Is selected (step 405) and output as the subject position (Xo, Yo).

【0048】被写体が変わっていないとされた場合に、
追尾手段112によって得られた座標(Xb, Yb)を被写体
位置とすることにより、撮影者の眼球のランダムな運動
によって被写体位置が必要以上に変動することを防い
で、安定した被写体位置を求めることが可能となる。こ
のようにして、撮影者が意図する被写体の位置を正しく
認識するとともに、この被写体の安定した位置を得るこ
とが可能となるので、得られた被写体位置を露出制御処
理および焦点制御処理に供することにより、被写体の良
好な像を撮影することができる。
If it is determined that the subject has not changed,
By setting the coordinates (Xb, Yb) obtained by the tracking means 112 as the subject position, it is possible to prevent the subject position from fluctuating more than necessary due to random movement of the photographer's eyeball, and to obtain a stable subject position. Becomes possible. In this way, it is possible to correctly recognize the position of the subject intended by the photographer and obtain a stable position of the subject, so that the obtained subject position is subjected to the exposure control process and the focus control process. Thereby, a good image of the subject can be taken.

【0049】図5において、メインミラー201を透過
した光は、ハーフミラー207によって折り曲げられ、
合焦判別手段131に入射する構成となっている。この
合焦判別手段131は、図14に示すように、2つのセ
パレータレンズ263a,263bによって、被写界に
対応する像を2つの2次元CCDイメージセンサ(以
下、単にCCDと称する)264a,264b上にそれ
ぞれ結像し、これらのCCD264a,264bの任意
の部分について、相関演算回路265が出力の相関を求
める構成となっている。上述した2つのCCD264
a,264bとしては、上述したCCD224と同様
に、n×m個の素子からなるものを用いればよい。
In FIG. 5, the light transmitted through the main mirror 201 is bent by the half mirror 207,
It is configured to be incident on the focus determination unit 131. As shown in FIG. 14, the focus determining means 131 converts an image corresponding to the object field into two two-dimensional CCD image sensors (hereinafter simply referred to as CCDs) 264a and 264b by two separator lenses 263a and 263b. An image is formed on each of the CCDs 264a and 264b, and a correlation operation circuit 265 obtains an output correlation for an arbitrary portion of the CCDs 264a and 264b. The two CCDs 264 described above
As the a and 264b, similarly to the above-described CCD 224, a device having n × m elements may be used.

【0050】また、相関演算回路265は、上述した認
識処理部250で得られた被写体位置の入力に応じて、
この被写体位置を含む所定の範囲について、CCD26
4a,264bの出力の相関を求め、この相関演算結果
を被写体の合焦状態の判別結果として出力すればよい。
例えば、相関演算回路265は、被写体位置(Xo, Yo)を
含むp×q個の素子からなる領域に対応するCCD26
4a,264bの出力の相関を求め、得られた相関を合
焦状態の判別結果として、図5に示すレンズ駆動機構2
62に送出すればよい。また、レンズ駆動機構262
は、この判別結果に応じて、撮影レンズ210を合焦位
置まで駆動する構成となっている。
Further, the correlation operation circuit 265 responds to the input of the subject position obtained by the recognition processing section 250,
For a predetermined range including the subject position, the CCD 26
The correlation between the outputs 4a and 264b may be obtained, and the result of the correlation operation may be output as the result of determining the in-focus state of the subject.
For example, the correlation operation circuit 265 includes a CCD 26 corresponding to a region including p × q elements including the subject position (Xo, Yo).
4a and 264b are obtained, and the obtained correlation is used as a determination result of the in-focus state as the lens driving mechanism 2 shown in FIG.
62. Also, the lens driving mechanism 262
Is configured to drive the taking lens 210 to an in-focus position in accordance with the result of this determination.

【0051】これにより、撮影者が意図した被写体の移
動に対応して、撮影レンズ210の焦点を正しく合わせ
ることができる。また、上述した認識処理部250によ
り、被写体の移動に正しく追従し、しかも安定した被写
体位置が得られるので、撮影レンズ210の焦点位置が
目まぐるしく変化することはなく、被写体の移動に追従
した焦点制御を可能とするとともに焦点制御の安定化を
図ることができる。
Thus, the focus of the photographing lens 210 can be correctly adjusted in accordance with the movement of the subject intended by the photographer. In addition, the above-described recognition processing unit 250 correctly follows the movement of the subject and obtains a stable subject position. Therefore, the focus position of the photographing lens 210 does not change drastically, and focus control that follows the movement of the subject is not performed. And the focus control can be stabilized.

【0052】また、露出演算手段121は、輝度算出部
271と重み算出部272と露出値演算部273とから
構成されている。この輝度算出部271は、CCD23
1の各素子の出力R(X, Y),G(X, Y),B(X,Y)にそれ
ぞれ所定の定数K1 , 2 , 3 を乗じて、 BV=K1×B(X, Y)+K2×G(X, Y)+K2×R(X, Y) 各素子に対応する被写界の要素領域の輝度値BVを求める
構成となっている。
The exposure calculating means 121 is composed of a luminance calculator 271, a weight calculator 272, and an exposure value calculator 273. The brightness calculation unit 271 is provided with the CCD 23
1, the output R (X, Y), G (X, Y), B (X, Y) of each element is multiplied by predetermined constants K 1, K 2, K 3 respectively, and BV = K 1 × B ( X, Y) + K 2 × G (X, Y) + K 2 × R (X, Y) The luminance value BV of the element region of the object scene corresponding to each element is obtained.

【0053】また、重み算出部272は、後述する処理
を行って、被写界の各要素領域に対応する重みを求める
構成となっており、露出演算部273は、この重みを用
いて上述した各要素領域の輝度値を加重平均し、得られ
た結果を露出値として、メカ制御部274に送出する構
成となっている。図15に、重み算出部272の詳細構
成を示す。
The weight calculating section 272 performs a process described later to obtain a weight corresponding to each element region of the object scene. The exposure calculating section 273 uses the weight to perform the above-described processing. The luminance value of each element region is weighted and averaged, and the obtained result is sent to the mechanical control unit 274 as an exposure value. FIG. 15 shows a detailed configuration of the weight calculator 272.

【0054】図15において、重み算出部272は、距
離算出部275と差分算出部276と適合度算出部27
7とから形成されている。この距離算出部275は、被
写体位置(Xo, Yo)が入力されており、CCD231の各
素子と被写体位置(Xo, Yo)との距離dIを求め、適合度
算出部275に送出する構成となっている。また、差分
算出部276には、CCD231の出力および上述した
輝度算出部271の出力が入力されており、被写界の要
素領域の分光情報および輝度値から被写体の分光情報お
よび輝度値を差し引いて、 dR(X, Y)=R(Xo, Yo)−R(X, Y) dG(X, Y)=G(Xo, Yo)−G(X, Y) dB(X, Y)=B(Xo, Yo)−B(X, Y) dBV(X, Y)=BV(Xa, Ya)−BV(X, Y) で表される差分dR,dG,dB,dBVを求める構成と
なっている。
In FIG. 15, a weight calculator 272 includes a distance calculator 275, a difference calculator 276, and a fitness calculator 27.
7 are formed. The distance calculation unit 275 receives the subject position (Xo, Yo), finds the distance dI between each element of the CCD 231 and the subject position (Xo, Yo), and sends the distance dI to the suitability calculation unit 275. ing. The output of the CCD 231 and the output of the above-described brightness calculation unit 271 are input to the difference calculation unit 276, and the difference information and the brightness value of the subject are subtracted from the spectrum information and the brightness value of the element region of the object scene. DR (X, Y) = R (Xo, Yo) -R (X, Y) dG (X, Y) = G (Xo, Yo) -G (X, Y) dB (X, Y) = B ( Xo, Yo) −B (X, Y) dBV (X, Y) = BV (Xa, Ya) −BV (X, Y) Differences dR, dG, dB, and dBV are obtained. .

【0055】また、適合度算出部277は、距離dIと
差分dR,dG,dB,dBVとをパラメータとして、 if dR(X,Y)=small and dG(X,Y)=small and dB(X,Y)=sma
ll and dI(X,Y)=nearand dBV(X,Y)=small then S(X,Y)=big で表されるファジールールを適用して、座標(X, Y)で示
される被写界の各要素領域が、被写界において被写体が
占める領域内にある度合いを示す適合度S(X, Y)を求
め、この適合度S(X, Y)の値を重みとして出力する構成
となっている。上述したパラメータdBVに対応するメン
バーシップ関数としては、図11(a) 〜(d)に示した各
パラメータdI,dR,dG,dBと同様のメンバーシ
ップ関数を用い、上述したファジールールの該当する命
題の適合度を求めればよい。
The fitness calculating section 277 uses the distance dI and the differences dR, dG, dB, and dBV as parameters, and if dR (X, Y) = small and dG (X, Y) = small and dB (X , Y) = sma
ll and dI (X, Y) = nearand dBV (X, Y) = small then Apply the fuzzy rule expressed by S (X, Y) = big, and the object field indicated by coordinates (X, Y) Of each element area is within the area occupied by the subject in the object scene, and the fitness S (X, Y) is obtained, and the value of the fitness S (X, Y) is output as a weight. ing. As a membership function corresponding to the above parameter dBV, a membership function similar to each of the parameters dI, dR, dG, and dB shown in FIGS. 11 (a) to 11 (d) is used. What is necessary is just to find the conformity of the proposition.

【0056】この場合は、露出演算部273によって得
られる露出値BVa は、
In this case, the exposure value BVa obtained by the exposure calculator 273 is

【0057】[0057]

【数1】 (Equation 1)

【0058】で表され、各要素領域の輝度情報の露出値
BVa への寄与は、適合度S(X, Y)の値の大小に応じて決
定される。つまり、ほぼ確実に被写体が占める領域に含
まれていると考えられる要素領域の輝度情報は、確実に
露出値に反映され、逆に被写体が占める領域に含まれて
いるかどうか疑わしい要素領域の輝度情報の露出値への
寄与は小さくなっている。これにより、被写体の輝度情
報を正確に評価することが可能となるので、被写体の輝
度変化に対応して、被写体に適合した露出値を求めるこ
とができる。
Exposure value of luminance information of each element area
The contribution to BVa is determined according to the magnitude of the value of the fitness S (X, Y). In other words, the luminance information of the element area which is considered to be almost certainly included in the area occupied by the subject is surely reflected in the exposure value, and conversely, the luminance information of the element area which is doubtful whether or not it is included in the area occupied by the subject Has a small contribution to the exposure value. As a result, it is possible to accurately evaluate the luminance information of the subject, so that an exposure value suitable for the subject can be obtained in accordance with a change in the luminance of the subject.

【0059】このようにして、撮影者が意図した被写体
の輝度情報に基づいて、露出値を求めることができ、こ
の露出値に応じた露出制御が可能となる。なお、露出演
算手段121が、被写体位置(Xo, Yo)を含む所定の領域
の輝度に応じた露出値を求める構成としてもよい。例え
ば、CCD231から被写体位置(Xo, Yo)に対応する素
子とその周囲のr×s個の素子の出力を読み出して、こ
れらの出力から得られる輝度値の平均値を被写体の輝度
値として、露出値を求めればよい。
In this manner, the exposure value can be obtained based on the luminance information of the subject intended by the photographer, and the exposure can be controlled according to the exposure value. Note that the exposure calculation unit 121 may be configured to obtain an exposure value corresponding to the luminance of a predetermined area including the subject position (Xo, Yo). For example, the outputs of the element corresponding to the object position (Xo, Yo) and r × s elements around the element are read out from the CCD 231 and the average value of the luminance values obtained from these outputs is used as the luminance value of the object. What is necessary is just to obtain a value.

【0060】この場合は、上述したような複雑なファジ
ー演算を行う必要がないので、露出演算処理を高速化す
ることが可能である。一方、被写体に含まれていない要
素領域の輝度情報が露出値に反映されてしまう可能性も
ある。また、上述した適合度S(X, Y)の値が所定の閾値
以上である要素領域を抽出し、該当する要素領域の輝度
情報のみから露出値を求める構成としてもよい。
In this case, it is not necessary to perform a complicated fuzzy operation as described above, so that the exposure operation process can be sped up. On the other hand, there is a possibility that luminance information of an element region not included in the subject is reflected on the exposure value. In addition, a configuration may be adopted in which an element region in which the value of the above-described degree of conformity S (X, Y) is equal to or larger than a predetermined threshold is extracted, and an exposure value is obtained only from luminance information of the corresponding element region.

【0061】例えば、図16(a) に示すような被写体
(猫)が捉えられ、被写体位置として被写体となった猫
の額の部分を示す座標 (Xo, Yo) が得られた場合は、上
述した重み算出部272において、図16(b)にハッチ
ングの種類を変えて示すような適合度S(X, Y)の値の分
布が得られる。但し、図16(b) においてハッチングが
施されていない部分は、適合度S(X, Y)の値が0.3以
下であることを示す。
For example, when an object (cat) as shown in FIG. 16A is captured and coordinates (Xo, Yo) indicating the cat's forehead portion as the object position are obtained, The weight calculator 272 obtains a distribution of the values of the fitness S (X, Y) as shown by changing the type of hatching in FIG. In FIG. 16B, the unhatched portion indicates that the value of the fitness S (X, Y) is 0.3 or less.

【0062】例えば、上述した閾値を0.3として、図
16(a) において、実線で囲んで示す部分に対応するC
CD231の各素子の出力を抽出すれば、被写体部分に
対応する測光結果をほぼもれなく抽出することが可能と
なり、被写体の部分の輝度情報をもれなく反映した露出
値を得ることができる。このようにして得られた露出値
に基づいて、図5に示すメカ制御部274は、従来のカ
メラと同様にして、撮影レンズ210に設けられた絞り
211および図示しないシャッタの動作を制御する構成
となっている。このメカ制御部274は、上述した露出
値に応じて、絞り211の開口の制御を行い、また、露
光時にシャッタの動作を制御して露光時間を制御する構
成とすればよい。
For example, assuming that the above-described threshold value is 0.3, C in FIG. 16A corresponds to a portion surrounded by a solid line.
If the output of each element of the CD 231 is extracted, it is possible to extract the photometric result corresponding to the subject portion almost completely, and it is possible to obtain an exposure value reflecting the luminance information of the subject portion without fail. Based on the exposure value thus obtained, the mechanical control unit 274 shown in FIG. 5 controls the operation of the aperture 211 provided on the taking lens 210 and the operation of a shutter (not shown) in the same manner as in a conventional camera. It has become. The mechanical control unit 274 may be configured to control the opening of the diaphragm 211 according to the above-described exposure value, and to control the operation of the shutter during exposure to control the exposure time.

【0063】ここで、認識処理部250により、安定し
た被写体位置(Xo,Yo)が得られるので、上述した露出演
算部273によって安定した露出値BVa が得られる。従
って、メカ制御部274によって、絞り211の開口の
大きさが目まぐるしく変えられることはなく、被写体の
輝度変化に追従した露出処理を可能とするとともに、露
出制御の安定化を図ることができる。
Here, since the stable subject position (Xo, Yo) is obtained by the recognition processing section 250, the stable exposure value BVa is obtained by the above-described exposure calculation section 273. Therefore, the size of the aperture of the stop 211 is not changed rapidly by the mechanical control unit 274, and the exposure process can be performed in accordance with the luminance change of the subject, and the exposure control can be stabilized.

【0064】例えば、撮影者によってレリーズボタン
(図示せず)が半押しされたときに、上述した被写体認
識処理を行い、得られた被写体位置(Xo, Yo)に応じて、
上述した焦点制御および露出値演算処理を行う構成とす
れば、撮影レンズ210は、常に被写体に焦点が合った
状態となっており、また、被写体に適合する露出値が求
められ、絞り211の開口が制御されている。従って、
レリーズボタンの全押しに応じて、上述したメカ制御部
273が、シャッタの開閉動作を制御することにより、
被写体の良好な像をフィルムなどの撮像媒体上に得るこ
とができる。
For example, when the release button (not shown) is half-pressed by the photographer, the above-described subject recognition processing is performed, and according to the obtained subject position (Xo, Yo),
If the focus control and the exposure value calculation process described above are performed, the photographing lens 210 is always in focus on the subject, and an exposure value suitable for the subject is obtained. Is controlled. Therefore,
In response to the full press of the release button, the above-described mechanical control unit 273 controls the opening and closing operation of the shutter,
A good image of the subject can be obtained on an imaging medium such as a film.

【0065】なお、追尾手段112が、被写体に近似し
た輝度を有する位置を追尾する構成としてもよい。図1
7に、請求項3の被写体認識装置の実施例の要部構成を
示す。図17において、2次元CCDイメージセンサ
(CCD)233と輝度算出部234とは、輝度判別手
段116に相当するものであり、レンズ206により、
ピント板203上の像がCCD233の受光面上に結像
する構成となっている。このCCD233は、上述した
CCD231からR,G,B成分を選択的に透過させる
フィルタを除去した構成であり、n×m個の素子から形
成され、被写界の各要素領域における光の強度を測定す
る構成となっている。また、輝度算出部234は、この
CCD233の出力に基づいて、被写界の各要素領域の
輝度値を求める構成となっており、この輝度算出部23
4で得られた各要素領域の輝度値BV(X, Y)が追尾手段1
12に送出される。
Note that the tracking means 112 may track a position having a luminance similar to that of the subject. FIG.
FIG. 7 shows a main configuration of an embodiment of the subject recognition apparatus according to claim 3. In FIG. 17, a two-dimensional CCD image sensor (CCD) 233 and a brightness calculation unit 234 correspond to the brightness determination unit 116,
The image on the focus plate 203 is formed on the light receiving surface of the CCD 233. The CCD 233 has a configuration in which a filter for selectively transmitting the R, G, and B components is removed from the above-described CCD 231. The CCD 233 is formed of n × m elements, and reduces the light intensity in each element region of the object scene. It is configured to measure. The luminance calculator 234 is configured to calculate the luminance value of each element region of the object scene based on the output of the CCD 233.
The brightness value BV (X, Y) of each element region obtained in step 4
12 is sent.

【0066】これに応じて、追尾手段112は、差分算
出部244により、被写界の各要素領域の輝度値と被写
体の輝度値との差分dBVを求め、判別処理部245が、
距離dIとこの差分dBVとに基づいて、被写体の輝度値
に近似した輝度値を有し、被写体位置に近い要素領域を
判別すればよい。従って、この場合は、判別処理部24
5におけるファジー演算処理にかかるパラメータが少な
くなるので、被写体の追尾処理に要する時間を短縮する
ことができ、また、色判別手段117に比べて、測光素
子であるCCD233の構成が単純となるので、被写体
認識装置の小型化および低価格化を図ることができる。
In response, the tracking means 112 calculates the difference dBV between the luminance value of each element region of the object scene and the luminance value of the subject by the difference calculation section 244, and the discrimination processing section 245
Based on the distance dI and the difference dBV, an element region having a luminance value close to the luminance value of the subject and close to the position of the subject may be determined. Therefore, in this case, the discrimination processing unit 24
5, the number of parameters required for the fuzzy calculation processing is reduced, so that the time required for the subject tracking processing can be reduced. In addition, since the configuration of the CCD 233, which is a photometric element, is simpler than that of the color determination means 117, The object recognition device can be reduced in size and cost.

【0067】なお、上述した色判別手段117で得られ
る分光情報から輝度値を算出し、追尾手段112におい
て、分光情報の差分とともに輝度値の差分をもパラメー
タに加えて上述したファジールールを適用し、被写体に
近似した色を有し、かつ、近似した輝度を有する位置を
判別する構成としてもよい。また、合焦判別手段131
に設けられた2つのCCD264a,264bによって
捉えられた被写界における光の強度分布に基づいて、被
写体の位置を判別する構成としてもよい。
A luminance value is calculated from the spectral information obtained by the above-described color discriminating means 117, and the tracking means 112 applies the above-mentioned fuzzy rule by adding the difference of the luminance value to the parameter together with the difference of the spectral information. Alternatively, a configuration may be employed in which a position having a color similar to a subject and having similar luminance is determined. Also, the focus determination means 131
The position of the subject may be determined based on the intensity distribution of the light in the object scene captured by the two CCDs 264a and 264b provided in the.

【0068】この場合は、図18に示すように、分光情
報保持部242に代えて、上述したCCD264a,2
64bの出力の相関から被写界の各要素領域に捉えられ
た物体と撮影レンズ210との距離L(X, Y)を判別する
距離判別部246を備えて追尾手段112を構成し、差
分算出部244が、被写体までの距離L(Xb, Yb)と各要
素領域に対応する距離L(X, Y)との差分dL(X, Y)を求
め、判別処理部245が、距離算出部243で得られた
dI(X, Y)とこの差分dL(X, Y)とに基づいて、被写体
までの距離L(Xb, Yb)に近似した距離にある物体を捉え
ており、被写体の位置(Xb, Yb)に近い座標で示される要
素領域の位置を判別すればよい。
In this case, as shown in FIG. 18, the above-described CCDs 264a,
The tracking means 112 is provided with a distance discriminating unit 246 for discriminating the distance L (X, Y) between the object captured in each element region of the object field and the photographing lens 210 from the correlation of the output of the 64b and calculating the difference. The unit 244 obtains a difference dL (X, Y) between the distance L (Xb, Yb) to the subject and the distance L (X, Y) corresponding to each element region. Based on dI (X, Y) obtained in and the difference dL (X, Y), an object at a distance close to the distance L (Xb, Yb) to the subject is captured, and the position of the subject ( What is necessary is just to determine the position of the element area indicated by the coordinates near Xb, Yb).

【0069】なお、上述した実施例においては、本発明
を一眼レフカメラに適用した場合について説明したが、
一眼レフカメラに限らず、コンパクトカメラやムービー
カメラなどに適用してもよく、要は、被写界における光
の強度分布に関する情報に基づいて、追尾手段が上述し
た追尾処理を行って、被写体位置を求めて追尾する構成
であれば適用できる。
In the above-described embodiment, the case where the present invention is applied to a single-lens reflex camera has been described.
The present invention is not limited to a single-lens reflex camera, but may be applied to a compact camera, a movie camera, or the like. In short, the tracking unit performs the above-described tracking processing based on information about the intensity distribution of light in an object scene, and Any configuration can be applied as long as tracking is performed.

【0070】また、ファインダ系に備えられた測光手段
から被写界における光の強度分布に関する情報を得る構
成に限らず、例えば、ムービーカメラや電子スチルカメ
ラにおいては、撮像媒体であるCCDイメージセンサを
測光手段として用いる構成としてもよい。
The present invention is not limited to a configuration in which information relating to the intensity distribution of light in an object field is obtained from photometric means provided in a finder system. For example, in a movie camera or an electronic still camera, a CCD image sensor as an image pickup medium is used. It may be configured to be used as photometric means.

【0071】[0071]

【発明の効果】以上説明したように本発明の被写体認識
装置は、被写体認識手段が撮影者が注視している位置を
被写体の位置として判別し、また、判定手段と選択手段
とが、被写体認識手段と追尾手段とでそれぞれ得られた
被写体の位置が一致するか否かに応じて、2つの位置の
一方を選択することにより、撮影者が意図した被写体の
位置を正しく認識するとともに、安定した被写体位置を
得て、露出制御処理および焦点制御処理に供することが
できる。
As described above, in the subject recognition apparatus of the present invention, the subject recognition means determines the position where the photographer is gazing as the position of the subject, and the determination means and the selection means perform the subject recognition. By selecting one of the two positions according to whether the position of the subject obtained by the means and the position of the subject obtained by the tracking means coincide with each other, the photographer can correctly recognize the position of the subject intended by the photographer and obtain a stable image. The subject position can be obtained and provided to the exposure control process and the focus control process.

【0072】特に、被写体認識手段で得られた位置を被
写体の初期位置として、追尾処理を行うことにより、最
初から正しい被写体を追尾することができる。また、追
尾手段において、被写体に近似した色を有する位置を判
別することにより、被写体を確実に追尾することがで
き、一方、被写体に近似した輝度を有する位置を判別す
ることにより、追尾処理を簡単とし、被写体認識装置の
小型化および低価格化を図ることができる。
In particular, by performing the tracking process using the position obtained by the subject recognition means as the initial position of the subject, the correct subject can be tracked from the beginning. Further, the tracking means can reliably track the subject by determining a position having a color similar to the subject, and can easily perform the tracking process by determining a position having a brightness similar to the subject. Thus, the size and cost of the object recognition device can be reduced.

【0073】また、上述した被写体認識装置により、安
定した被写体位置が得られるので、この被写体位置にお
ける輝度情報に基づいて露出値を求めて露出制御を行う
ことにより、被写体の輝度変化に追従した露出制御を可
能とするとともに、露出制御の安定化を図ることができ
る。同様に、上述した被写体位置で示される被写体に対
応する光像の合焦状態の判別結果を焦点制御に供するこ
とにより、被写体の移動に追従した焦点制御を可能とす
るとともに、焦点制御の安定化を図ることができる。
Since a stable subject position can be obtained by the above-described subject recognizing device, an exposure value is calculated based on luminance information at the subject position, and exposure control is performed. The control can be performed, and the exposure control can be stabilized. Similarly, by providing the focus control with the determination result of the in-focus state of the optical image corresponding to the subject indicated by the above-described subject position, focus control following the movement of the subject is enabled, and the focus control is stabilized. Can be achieved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】請求項1および請求項2の被写体認識装置の構
成を示す図である。
FIG. 1 is a diagram showing a configuration of a subject recognition device according to claims 1 and 2;

【図2】請求項3の被写体認識装置の構成を示す図であ
る。
FIG. 2 is a diagram showing a configuration of a subject recognition device according to a third embodiment.

【図3】請求項4の被写体認識装置の構成を示す図であ
る。
FIG. 3 is a diagram showing a configuration of a subject recognition device according to claim 4;

【図4】請求項5および請求項6のカメラの構成を示す
図である。
FIG. 4 is a diagram showing a configuration of a camera according to claims 5 and 6;

【図5】請求項1の発明を適用した一眼レフカメラの実
施例構成図である。
FIG. 5 is a configuration diagram of an embodiment of a single-lens reflex camera to which the invention of claim 1 is applied.

【図6】被写体認識手段の詳細構成を示す図である。FIG. 6 is a diagram showing a detailed configuration of a subject recognizing unit.

【図7】視線位置の移動を示す図である。FIG. 7 is a diagram illustrating movement of a line-of-sight position.

【図8】フィルタの分光特性を示す図である。FIG. 8 is a diagram illustrating spectral characteristics of a filter.

【図9】追尾手段の詳細構成を示す図である。FIG. 9 is a diagram showing a detailed configuration of a tracking unit.

【図10】追尾処理を表す流れ図である。FIG. 10 is a flowchart illustrating a tracking process.

【図11】メンバーシップ関数を示す図である。FIG. 11 is a diagram showing a membership function.

【図12】認識処理部の詳細構成を示す図である。FIG. 12 is a diagram illustrating a detailed configuration of a recognition processing unit.

【図13】被写体位置の決定処理を表す流れ図である。FIG. 13 is a flowchart illustrating a process of determining a subject position.

【図14】合焦判別手段の詳細構成を示す図である。FIG. 14 is a diagram illustrating a detailed configuration of a focus determination unit.

【図15】重み算出部の詳細構成図である。FIG. 15 is a detailed configuration diagram of a weight calculation unit.

【図16】被写体部分の抽出処理の説明図である。FIG. 16 is an explanatory diagram of a subject portion extraction process.

【図17】請求項3の被写体認識装置の実施例の要部構
成を示す図である。
FIG. 17 is a diagram showing a configuration of a main part of an embodiment of a subject recognition apparatus according to claim 3;

【図18】請求項1の被写体認識装置の別実施例の要部
構成を示す図である。
FIG. 18 is a diagram showing a main part configuration of another embodiment of the subject recognition device of claim 1;

【図19】従来の視線検出手段を有するカメラの構成を
示す図である。
FIG. 19 is a diagram illustrating a configuration of a camera having a conventional line-of-sight detection unit.

【符号の説明】[Explanation of symbols]

111 被写体認識手段 112 追尾手段 113 判定手段 114 選択手段 115 制御手段 116 輝度判別手段 117 色判別手段 121 露出演算手段 131 合焦判別手段 201 メインミラー 202 ペンタプリズム 203 ピント板 204 接眼レンズ 205 ビームスプリッタ 206,223 レンズ 207,222 ハーフミラー 210,610 撮影レンズ 211,612 絞り 221 発光素子 224,231,233,264,615 2次元CC
Dイメージセンサ(CCD) 225 検出処理回路 226 視線追跡部 227 判定回路 228 位置算出部 234,271 輝度算出部 241 座標保持部 242 分光情報保持部 243,275 距離算出部 244,276 差分算出部 245 判別処理部 246 距離判別部 250 認識処理部 251 距離算出回路 252 比較回路 253 セレクタ 254 読出回路 255 転送回路 262 レンズ駆動機構 263 セパレータレンズ 265 相関演算回路 272 重み算出部 273 露出値演算部 274 メカ制御部 277 適合度算出部 614 撮像回路 620 自動焦点(AF)制御回路 622 自動露出(AE)制御回路 624 レンズ駆動装置 626 絞り駆動装置 628 クロック回路 630 眼球運動検出器 634 ゲート制御回路
111 Object Recognition Unit 112 Tracking Unit 113 Judgment Unit 114 Selection Unit 115 Control Unit 116 Luminance Judgment Unit 117 Color Judgment Unit 121 Exposure Calculation Unit 131 Focus Judgment Unit 201 Main Mirror 202 Penta Prism 203 Focusing Plate 204 Eyepiece 205 Beam Splitter 206, 223 lens 207, 222 half mirror 210, 610 photographing lens 211, 612 aperture 221 light emitting element 224, 231, 233, 264, 615 two-dimensional CC
D image sensor (CCD) 225 Detection processing circuit 226 Eye tracking unit 227 Judgment circuit 228 Position calculation unit 234,271 Brightness calculation unit 241 Coordinate storage unit 242 Spectral information storage unit 243,275 Distance calculation unit 244,276 Difference calculation unit 245 Processing unit 246 Distance discrimination unit 250 Recognition processing unit 251 Distance calculation circuit 252 Comparison circuit 253 Selector 254 Read circuit 255 Transfer circuit 262 Lens drive mechanism 263 Separator lens 265 Correlation calculation circuit 272 Weight calculation unit 273 Exposure value calculation unit 274 Mechanical control unit 277 Fitness calculation unit 614 Image pickup circuit 620 Automatic focus (AF) control circuit 622 Automatic exposure (AE) control circuit 624 Lens drive unit 626 Aperture drive unit 628 Clock circuit 630 Eye movement detector 634 Gate control circuit

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮影者の眼球の動きから、カメラの被写
界内において撮影者が注視している位置を被写体の位置
として求める被写体認識手段と、 前記被写界における光の強度分布に関する情報に基づい
て、前記被写体に相当する位置を判別し、この位置を追
尾する追尾手段と、 前記被写体認識手段で得られた位置と前記追尾手段で得
られた位置とを比較して、撮影者が被写体を変更したか
否かを判定する判定手段と、 前記判定手段による判定結果に応じて、前記被写体認識
手段と前記追尾手段とによってそれぞれ得られた位置の
いずれかを被写体位置として選択する選択手段と、 被写体が変更された旨の判定結果に応じて、前記被写体
認識手段で得られた位置を新しい被写体に関する情報と
して前記追尾手段に送出して追尾処理を制御する制御手
段とを備えたことを特徴とする被写体認識装置。
1. A subject recognizing means for obtaining, as a position of a subject, a position at which a photographer is gazing within a field of a camera from movement of an eyeball of the photographer, and information on an intensity distribution of light in the field. A position corresponding to the subject is determined based on the following, a tracking unit that tracks this position, and a position obtained by the subject recognition unit and a position obtained by the tracking unit are compared. Determining means for determining whether or not the subject has been changed; selecting means for selecting any of the positions obtained by the subject recognizing means and the tracking means as a subject position in accordance with the determination result by the determining means In accordance with the determination result that the subject has been changed, the position obtained by the subject recognizing unit is sent to the tracking unit as information on a new subject to control the tracking process. Object recognition apparatus characterized by comprising a control means.
【請求項2】 請求項1に記載の被写体認識装置におい
て、 前記追尾手段が、前記被写体認識手段で得られた位置を
被写体の初期位置とし、この初期位置における光情報に
基づいて、前記被写体に相当する位置を判別する構成で
あることを特徴とする被写体認識装置。
2. The object recognition device according to claim 1, wherein the tracking unit sets a position obtained by the object recognition unit as an initial position of the object, and determines the position of the object based on light information at the initial position. An object recognizing device having a configuration for determining a corresponding position.
【請求項3】 請求項1に記載の被写体認識装置におい
て、 被写界における光の強度分布から前記被写界の各位置の
輝度を判別して、前記追尾手段による追尾処理に供する
輝度判別手段を備え、 前記追尾手段が、被写体に近似した輝度を有する位置を
判別して、この位置を追尾する構成であることを特徴と
する被写体認識装置。
3. The luminance discriminating device according to claim 1, wherein the luminance at each position in the object field is determined from the intensity distribution of light in the object field, and is used for a tracking process by the tracking unit. An object recognizing device, characterized in that the tracking means determines a position having a luminance similar to that of the object and tracks this position.
【請求項4】 請求項1に記載の被写体認識装置におい
て、 被写界における光の強度分布から前記被写界の各位置の
色を判別して、前記追尾手段による追尾処理に供する色
判別手段を備え、 前記追尾手段が、被写体に近似した色を有する位置を判
別して、この位置を追尾する構成であることを特徴とす
る被写体認識装置。
4. The object recognizing device according to claim 1, wherein a color at each position of the object field is determined from a light intensity distribution in the object field, and is provided to a tracking process by the tracking unit. An object recognizing device, characterized in that the tracking means determines a position having a color similar to the object and tracks this position.
【請求項5】 請求項1に記載の被写体認識装置と、 被写界における光の強度分布に関する情報と前記選択手
段によって選択された被写体位置とが入力され、前記被
写体位置における明るさを示す輝度情報を用いて露出値
を求めて、露出制御に供する露出演算手段とを備えたこ
とを特徴とするカメラ。
5. An object recognition apparatus according to claim 1, wherein information relating to an intensity distribution of light in an object scene and an object position selected by said selection means are inputted, and luminance indicating brightness at said object position is input. A camera comprising: an exposure calculating unit that obtains an exposure value using information and performs exposure control.
【請求項6】 請求項1に記載の被写体認識装置と、 被写界における光の強度分布に関する情報と前記選択手
段によって選択された被写体位置とが入力され、前記被
写体位置で示される被写体に対応する光像の合焦状態を
判別して、焦点制御に供する合焦判別手段とを備えたこ
とを特徴とするカメラ。
6. An object recognition apparatus according to claim 1, wherein information on an intensity distribution of light in an object scene and an object position selected by said selection means are input, and correspond to an object indicated by said object position. And a focus determining means for determining a focus state of the light image to be subjected to focus control.
JP21518291A 1991-08-27 1991-08-27 Subject recognition device and camera Expired - Lifetime JP3163668B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP21518291A JP3163668B2 (en) 1991-08-27 1991-08-27 Subject recognition device and camera
US07/933,819 US5392091A (en) 1991-08-27 1992-08-24 Exposure calculating apparatus
US08/341,978 US5461452A (en) 1991-08-27 1994-11-16 Exposure calculating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21518291A JP3163668B2 (en) 1991-08-27 1991-08-27 Subject recognition device and camera

Publications (2)

Publication Number Publication Date
JPH0553043A JPH0553043A (en) 1993-03-05
JP3163668B2 true JP3163668B2 (en) 2001-05-08

Family

ID=16668030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21518291A Expired - Lifetime JP3163668B2 (en) 1991-08-27 1991-08-27 Subject recognition device and camera

Country Status (1)

Country Link
JP (1) JP3163668B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4923722B2 (en) * 2006-05-16 2012-04-25 カシオ計算機株式会社 Imaging apparatus, imaging method, and program
JP5056168B2 (en) * 2007-05-30 2012-10-24 株式会社ニコン Focus adjustment device and imaging device
JP6799063B2 (en) * 2016-07-20 2020-12-09 富士フイルム株式会社 Attention position recognition device, image pickup device, display device, attention position recognition method and program
JP6991746B2 (en) * 2017-06-09 2022-01-13 キヤノン株式会社 Imaging device
WO2021044732A1 (en) * 2019-09-06 2021-03-11 ソニー株式会社 Information processing device, information processing method, and storage medium
JP2022050908A (en) 2020-09-18 2022-03-31 キヤノン株式会社 Tracking device, tracking method, and program

Also Published As

Publication number Publication date
JPH0553043A (en) 1993-03-05

Similar Documents

Publication Publication Date Title
US5253008A (en) Camera
JP5082631B2 (en) Imaging device
US7627239B2 (en) Image-taking apparatus and focusing method
JP5247076B2 (en) Image tracking device, focus adjustment device, and imaging device
JP4998308B2 (en) Focus adjustment device and imaging device
US5392091A (en) Exposure calculating apparatus
JP4499271B2 (en) camera
JPH1125263A (en) Object feature point detector, focus adjusting device, exposure controller and camera
JP3163668B2 (en) Subject recognition device and camera
JPH10170813A (en) Focus detector, automatic focusing device, and camera
JPH06138367A (en) Sight line detecting device
JP2002214659A (en) Camera with shake correcting function
JP3180458B2 (en) Camera having line-of-sight detection means
JP4391637B2 (en) camera
JP3571744B2 (en) Camera with gaze detection means
US6473127B1 (en) Image pickup apparatus
JP2003189136A (en) Camera
JP2018197812A (en) Imaging device, method for controlling the same, and program
JP3210089B2 (en) Eye gaze detection device and camera
JPH03107933A (en) Automatic exposure controller for camera
JP3563895B2 (en) Imaging device
JPH11281886A (en) Optical device and automatic focusing camera
JPH10148864A (en) Photometry device for camera
JPH1172818A (en) Multi-point range finder
JPH06308373A (en) Camera with line of sight detecting function

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100302

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120302

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120302

Year of fee payment: 11