JPH06153092A - Storage controller of photoelectric conversion element - Google Patents
Storage controller of photoelectric conversion elementInfo
- Publication number
- JPH06153092A JPH06153092A JP4293019A JP29301992A JPH06153092A JP H06153092 A JPH06153092 A JP H06153092A JP 4293019 A JP4293019 A JP 4293019A JP 29301992 A JP29301992 A JP 29301992A JP H06153092 A JPH06153092 A JP H06153092A
- Authority
- JP
- Japan
- Prior art keywords
- image
- line
- transfer
- photoelectric conversion
- storage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 25
- 238000012546 transfer Methods 0.000 claims abstract description 39
- 238000001514 detection method Methods 0.000 abstract description 64
- 108050001286 Somatostatin Receptor Proteins 0.000 abstract description 5
- 102000011096 Somatostatin receptor Human genes 0.000 abstract description 5
- 230000003111 delayed effect Effects 0.000 abstract 1
- 210000005252 bulbus oculi Anatomy 0.000 description 52
- 238000009825 accumulation Methods 0.000 description 30
- 230000003321 amplification Effects 0.000 description 20
- 238000003199 nucleic acid amplification method Methods 0.000 description 20
- 230000000007 visual effect Effects 0.000 description 19
- 230000003287 optical effect Effects 0.000 description 18
- 210000001747 pupil Anatomy 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 210000001508 eye Anatomy 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000001444 catalytic combustion detection Methods 0.000 description 9
- 210000004087 cornea Anatomy 0.000 description 8
- 238000005375 photometry Methods 0.000 description 8
- 238000000034 method Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 4
- 229910052753 mercury Inorganic materials 0.000 description 4
- 230000011514 reflex Effects 0.000 description 4
- 102100036601 Aggrecan core protein Human genes 0.000 description 3
- 108091006419 SLC25A12 Proteins 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- BWSIKGOGLDNQBZ-LURJTMIESA-N (2s)-2-(methoxymethyl)pyrrolidin-1-amine Chemical compound COC[C@@H]1CCCN1N BWSIKGOGLDNQBZ-LURJTMIESA-N 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 102100038191 Double-stranded RNA-specific editase 1 Human genes 0.000 description 1
- 101000742223 Homo sapiens Double-stranded RNA-specific editase 1 Proteins 0.000 description 1
- 101000884271 Homo sapiens Signal transducer CD24 Proteins 0.000 description 1
- 101000686491 Platymeris rhadamanthus Venom redulysin 1 Proteins 0.000 description 1
- 108091006418 SLC25A13 Proteins 0.000 description 1
- 102100038081 Signal transducer CD24 Human genes 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- GGCZERPQGJTIQP-UHFFFAOYSA-N sodium;9,10-dioxoanthracene-2-sulfonic acid Chemical compound [Na+].C1=CC=C2C(=O)C3=CC(S(=O)(=O)O)=CC=C3C(=O)C2=C1 GGCZERPQGJTIQP-UHFFFAOYSA-N 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Landscapes
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、光電変換素子からなる
センサを用いた、たとえば、カメラの視線検出装置や焦
点検出装置等に用いるのに適する光電変換素子の蓄積制
御を行う、光電変換素子の蓄積制御装置に関するもので
ある。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a photoelectric conversion element which uses a sensor composed of a photoelectric conversion element and which controls accumulation of photoelectric conversion elements suitable for use in, for example, a visual axis detection device or a focus detection device of a camera. Storage controller.
【0002】[0002]
【従来の技術】光電変換素子は照射される光量に対応し
た電気信号が得られるが、限られた蓄積可能電気信号容
量内で暗電流とよばれる照射光量によらない出力の影響
を受けず、かつ求めようとするコントラスト成分が得ら
れる最適な電気信号量となるように照射される光量に応
じて蓄積時間を制御する必要がある。2. Description of the Related Art A photoelectric conversion element can obtain an electric signal corresponding to the amount of light to be irradiated, but is not affected by an output called dark current which does not depend on the amount of light to be irradiated, within a limited storable electric signal capacity. In addition, it is necessary to control the storage time according to the amount of light emitted so that the optimum electric signal amount that can obtain the contrast component to be obtained is obtained.
【0003】そこで一般的に最適な信号量を得るための
蓄積時間を制御する情報を求めるにあたり、次のような
事前処理動作を行っている。Therefore, in order to obtain information for controlling the storage time for obtaining an optimum signal amount, the following preprocessing operation is generally performed.
【0004】まず、予め一定の蓄積時間で蓄積を行って
信号量を求め、この時得られた画素毎の信号量を光電変
換素子から読みだす。First, the amount of signal is obtained by previously accumulating for a certain amount of accumulation time, and the amount of signal for each pixel obtained at this time is read from the photoelectric conversion element.
【0005】次に、蓄積制御する光電変換素子に照射さ
れる光量が一様であることは少ないため、全ての画素出
力あるいは、必要とする部分的な領域を構成する画素に
ついて信号処理を行う。Next, since the amount of light applied to the photoelectric conversion element for controlling storage is not uniform, all pixel outputs or signal processing is performed for pixels forming a required partial area.
【0006】そして、最適な信号量の領域内で、必要と
する画素の電気信号出力が光電変換によって得られるで
あろう最適な蓄積時間を、画素単位で行った信号処理結
果に基づいた画素出力の平均値と蓄積時間から求め、求
めた蓄積時間により蓄積制御を行い、電気信号を得てい
る。Then, within the area of the optimum signal amount, the pixel output based on the result of the signal processing performed on a pixel-by-pixel basis for the optimum accumulation time at which the required electric signal output of the pixel will be obtained by photoelectric conversion. Is obtained from the average value and the accumulation time, and the accumulation control is performed according to the obtained accumulation time to obtain an electric signal.
【0007】また蓄積時間を制御する情報を求めるの
に、カメラのように被写体の輝度を測定できる測光手段
を備えた光学機器においては被写体の輝度情報から蓄積
時間を制御する事が考えられる。Further, in order to obtain the information for controlling the accumulation time, it is conceivable to control the accumulation time from the luminance information of the object in an optical device having a photometric means such as a camera capable of measuring the luminance of the object.
【0008】[0008]
【発明が解決しようとしている課題】上記のような従来
の蓄積制御装置では、最適な信号量を得るために行う光
電変換素子の蓄積制御において蓄積時間を制御する情報
を得るため必要とする領域の画素出力の平均値を1画素
毎の読みだし駆動と信号処理により求めているから、1
回の最適な像信号を得るために、2回の蓄積、1画素毎
読みだし、信号処理を行うことになり、かかる時間は膨
大であり、画素数依存性大であるために、高画素化への
対応は難しい。In the conventional storage control device as described above, in the storage control of the photoelectric conversion element performed to obtain the optimum signal amount, the area necessary for obtaining the information for controlling the storage time is controlled. Since the average value of pixel output is obtained by reading drive and signal processing for each pixel, 1
In order to obtain the optimum image signal of two times, the accumulation is performed twice, each pixel is read, and signal processing is performed. The time required is enormous and the number of pixels is large, so that the number of pixels is increased. It is difficult to deal with.
【0009】あるいはカメラの視線検出装置などへの利
用では、視線検出にかかる時間がカメラのその他一連の
処理動作時間に比べ非常に大きな率を占めてしまい、単
に光電変換素子出力からの情報を用いた装置のみにかか
る時間だけでなく、蓄積制御装置を用いたシステム全体
での機能低下をもたらしユーザーの不快感は著しいもの
となる。In the case of use in a visual axis detection device of a camera, the time required for visual axis detection occupies a very large rate as compared with the other series of processing operation time of the camera, and the information from the photoelectric conversion element output is simply used. Not only the time required for the existing device but also the function deterioration in the entire system using the storage control device, the user's discomfort becomes significant.
【0010】本発明は、かかる課題を解決するためにな
されるもので、一連の蓄積制御にかかる時間を短縮する
とともに、蓄積制御装置を用いたシステム全体の機能向
上を実現するものである。The present invention has been made to solve the above problems, and it is intended to shorten the time required for a series of storage control and to improve the function of the entire system using a storage control device.
【0011】あるいは前述のように測光手段によって蓄
積時間と制御する事は要する時間は短いが非常に大まか
な制御しかできず視線検出のような画像処理を精度良く
行なうには不充分であった。Alternatively, as described above, the control of the storage time by the photometric means requires a short time, but only a very rough control can be performed, which is insufficient for performing image processing such as visual axis detection with high accuracy.
【0012】[0012]
【課題を解決するための手段】そこで、信号量を必要と
する領域内で転送駆動がなされているときにのみ転送速
度を遅くすることで、その画素位置で光電変換される電
荷の蓄積を行うとともに、転送中の各画素位置で蓄積さ
れた電荷の累積蓄積出力により、読みだし後の信号処理
量を削減するものである。Therefore, the transfer speed is slowed only when transfer driving is performed in a region requiring a signal amount, so that the charges photoelectrically converted at the pixel position are accumulated. At the same time, the amount of signal processing after reading is reduced by the cumulative accumulation output of the charges accumulated at each pixel position during transfer.
【0013】[0013]
【実施例】本発明を視線検出装置に適用した場合を例に
とり内容を詳細に説明するが、その前にまず視線検出の
方法について簡単に説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS The contents will be described in detail by taking the case where the present invention is applied to a visual axis detecting device as an example, but before that, the visual axis detecting method will be briefly described first.
【0014】図20は視線検出方法の原理説明図、図2
1(A)、(B)は図20のイメージセンサー14面上
に投影される眼球像と、イメージセンサー14からの出
力強度の説明図である。FIG. 20 is an explanatory view of the principle of the line-of-sight detection method, FIG.
1A and 1B are explanatory diagrams of the eyeball image projected on the surface of the image sensor 14 in FIG. 20 and the output intensity from the image sensor 14.
【0015】次に図20、図21(A)、(B)を用い
て視線検出方法を示している。光源としての各赤外発光
ダイオード13a、13bは受光レンズ12の光軸アに
対してZ方向に略対称に配置され、各々撮影者の眼球を
発散照明している。Next, a line-of-sight detection method will be described with reference to FIGS. 20, 21 (A) and 21 (B). The infrared light emitting diodes 13a and 13b as light sources are arranged substantially symmetrically in the Z direction with respect to the optical axis A of the light receiving lens 12, and divergently illuminate the photographer's eyes.
【0016】赤外発光ダイオード13bより放射された
赤外光は眼球15の角膜16を照明する。このとき角膜
16の表面で反射した赤外光の一部による角膜反射像d
は受光レンズ12により集光されイメージセンサー14
上の位置d′に再結像する。The infrared light emitted from the infrared light emitting diode 13b illuminates the cornea 16 of the eyeball 15. At this time, the corneal reflection image d by a part of the infrared light reflected on the surface of the cornea 16
Is collected by the light receiving lens 12 and the image sensor 14
The image is re-imaged at the upper position d '.
【0017】同様に赤外発光ダイオード13aより放射
された赤外光は眼球の角膜16を照明する。このとき角
膜16の表面で反射した赤外光の一部による角膜反射像
eは受光レンズ12により集光されイメージセンサー1
4上の位置e′に再結像する。Similarly, the infrared light emitted from the infrared light emitting diode 13a illuminates the cornea 16 of the eyeball. At this time, the cornea reflection image e by a part of the infrared light reflected on the surface of the cornea 16 is condensed by the light receiving lens 12 and the image sensor 1
The image is re-imaged at the position e'on the position 4.
【0018】又、虹彩17の端部a、bからの光束は受
光レンズ12を介してイメージセンサー14上の位置
a′、b′に該端部a,bの像を結像する。受光レンズ
12の光軸(光軸ア)に対する眼球15の光軸イの回転
角θが小さい場合、虹彩17の端部a、bのZ座標をX
a、Xbとすると、瞳孔19の中心位置cの座標Xcは Xc≒(Xa+Xb)/2 と表わされる。The light beams from the ends a and b of the iris 17 form the images of the ends a and b at the positions a ′ and b ′ on the image sensor 14 via the light receiving lens 12. When the rotation angle θ of the optical axis a of the eyeball 15 with respect to the optical axis of the light receiving lens 12 (optical axis a) is small, the Z coordinate of the ends a and b of the iris 17 is set to X.
Assuming a and Xb, the coordinate Xc of the center position c of the pupil 19 is expressed as Xc≈ (Xa + Xb) / 2.
【0019】又、角膜反射像d及びeの中点のZ座標と
角膜16の曲率中心OのZ座標Zoとは一致するため、
角膜反射像の発生位置d、eのX座標をXd、Xe、角
膜16の曲率中心Oから瞳孔19の中心Cまでの標準的
な距離をLOCとし、距離LOCに対する個人差を考慮する
係数をA1とすると眼球光軸イの回転角θは (A1*LOC)*sinθ≒Xc−(Xd+Xe)/2 …(1) の関係式を略満足する。このため視線演算処理装置にお
いて図27(B)のごとくイメージセンサー上の一部に
投影された各特徴点(角膜反射像d、e及び虹彩の端部
a、b)の位置を検出することにより眼球の光軸イの回
転角θを求めることができる。このとき(1)式は、 β(A1*LOC)*sinθ≒(Xa′+Xb′)/2 −(Xd′+Xe′)/2 …(2) とかきかえられる。但し、βは受光レンズ12に対する
眼球の位置により決まる倍率で、実質的には角膜反射像
の間隔|Xd′−Xe′|の関数として求められる。*
は掛け算を表す。眼球15の回転角θは θ≒ARCSIN{(Xc′−Xf′)/β/(A1*LOC)} …(3) とかきかえられる。但し Xc′≒(Xa′+Xb′)/2 Xf′≒(Xd′+Xe′)/2 である。ところで撮影者の眼球の光軸イと視軸とは一致
しない為、撮影者の眼球の光軸イの水平方向の回転角θ
が算出されると眼球の光軸と視軸との角度補正δをする
ことにより撮影者の水平方向の視線θHは求められる。
眼球の光軸イと視軸との補正角度δに対する個人差を考
慮する係数をB1とすると撮影者の水平方向の視線θH
は θH=θ±(B1*δ) …(4) と求められる。ここで符号±は、撮影者に関して右への
回転角を正とすると、観察装置をのぞく撮影者の目が左
目の場合は+、右目の場合は−の符号が選択される。Further, since the Z coordinate of the midpoint of the corneal reflection images d and e and the Z coordinate Zo of the center of curvature O of the cornea 16 coincide with each other,
The X-coordinates of the corneal reflection image generation positions d and e are Xd and Xe, the standard distance from the center of curvature O of the cornea 16 to the center C of the pupil 19 is L OC, and a coefficient that considers individual differences with respect to the distance L OC Where A1 is A1, the rotation angle θ of the eyeball optical axis B substantially satisfies the relational expression of (A1 * L OC ) * sin θ≈Xc− (Xd + Xe) / 2 (1). Therefore, by detecting the positions of the respective feature points (corneal reflection images d and e and the edges a and b of the iris) projected on a part of the image sensor in the visual line processing device as shown in FIG. The rotation angle θ of the optical axis a of the eyeball can be obtained. At this time, the expression (1) can be rewritten as β (A1 * L OC ) * sin θ≈ (Xa ′ + Xb ′) / 2− (Xd ′ + Xe ′) / 2 (2). However, β is a magnification determined by the position of the eyeball with respect to the light receiving lens 12, and is substantially obtained as a function of the interval | Xd′−Xe ′ | of corneal reflection images. *
Represents multiplication. The rotation angle θ of the eyeball 15 can be rewritten as θ≈ARCSIN {(Xc′−Xf ′) / β / (A1 * L OC )} (3). However, Xc′≈ (Xa ′ + Xb ′) / 2 Xf′≈ (Xd ′ + Xe ′) / 2. By the way, since the optical axis a of the photographer's eye does not coincide with the visual axis, the horizontal rotation angle θ of the optical axis a of the photographer's eye
When is calculated, the angle of view δ between the optical axis of the eyeball and the visual axis is corrected to obtain the horizontal line of sight θH of the photographer.
Letting B1 be a coefficient considering the individual difference with respect to the correction angle δ between the optical axis a of the eyeball and the visual axis, the horizontal line of sight θH of the photographer
Is calculated as θH = θ ± (B1 * δ) (4). Here, if the angle of rotation to the right of the photographer is positive, the sign ± is selected as + when the eye of the photographer looking through the observation device is the left eye, and when the eye of the photographer is the right eye.
【0020】又、同図においては撮影者の眼球がZ−X
平面(例えば水平面)内で回転する例を示しているが、
撮影者の眼球がZ−Y平面(例えば垂直面)内で回転す
る場合においても同様に検出可能である。ただし、撮影
者の視線の垂直方向の成分は眼球の光軸の垂直方向の成
分θ′と一致するため垂直方向の視線θVは θV=θ′ となる。更に視線データθH、θVより撮影者が見てい
るファインダー視野内のピント板上の位置(Xn、Y
n)は、 Xn≒m*θH ≒m*[ARCSIN{(Xc′−Xf′)/β/(A1*LOC)} ±(B1*δ)] …(5) Yn≒m*θV と求められる。ただし、mはカメラのファインダー光学
系で決まる定数である。Further, in the figure, the eyeball of the photographer is Z-X.
It shows an example of rotation in a plane (eg horizontal plane),
The same can be detected when the photographer's eyeball rotates in the Z-Y plane (for example, a vertical plane). However, since the vertical component of the line of sight of the photographer coincides with the vertical component θ ′ of the optical axis of the eyeball, the vertical line of sight θV is θV = θ ′. Further, from the line-of-sight data θH, θV, the position (Xn, Y
n) is calculated as Xn≈m * θH≈m * [ARCSIN {(Xc′−Xf ′) / β / (A1 * L OC )} ± (B1 * δ)] (5) Yn≈m * θV To be However, m is a constant determined by the finder optical system of the camera.
【0021】ここで撮影者の眼球の個人差を補正する係
数A1、B1の値は撮影者にカメラのファインダー内の
所定の位置に配設された指標を固視してもらい、該指標
の位置と(5)式に従い産出された固視点の位置とを一
致させることにより求められる。Here, the values of the coefficients A1 and B1 for correcting the individual differences of the eyeballs of the photographer have the photographer fixate the index arranged at a predetermined position in the viewfinder of the camera, and the position of the index. And the position of the fixation point produced according to equation (5).
【0022】本実施例における撮影者の視線及び注視点
を求める演算は、前記各式に基づき視線演算処理装置の
マイクロコンピュータのソフトで実行している。The calculation for obtaining the line-of-sight and gazing point of the photographer in this embodiment is executed by the software of the microcomputer of the line-of-sight calculation processing device based on the above equations.
【0023】又、視線の個人差を補正する係数は通常観
察者の眼球の水平方向の回転に対応するものであるた
め、カメラのファインダー内の配設される二つの指標は
観察者に対して水平方向になるように設定されている。Further, since the coefficient for correcting the individual difference of the line of sight usually corresponds to the horizontal rotation of the eyeball of the observer, the two indexes provided in the viewfinder of the camera are for the observer. It is set to be horizontal.
【0024】視線の個人差を補正する係数が求まり
(5)式を用いてカメラのファインダーを覗く観察者の
視線のピント板上の位置を算出し、その視線情報を撮影
レンズの焦点調節あるいは露出制御等に利用している。The coefficient for correcting the individual difference of the line of sight is obtained, and the position of the line of sight of the observer looking into the viewfinder of the camera is calculated using the formula (5), and the line-of-sight information is used for focus adjustment or exposure of the photographing lens. It is used for control.
【0025】図1は本発明を視線検出装置を設けた一眼
レフカメラに適用したときの実施例1の要部配置図、図
2は本発明を一眼レフカメラに適用したときの後面図、
図3は図1のファインダー視野内の説明図である。FIG. 1 is a layout view of the essential parts of Embodiment 1 when the present invention is applied to a single-lens reflex camera provided with a visual axis detection device, and FIG. 2 is a rear view when the present invention is applied to a single-lens reflex camera.
FIG. 3 is an explanatory view in the viewfinder field of FIG.
【0026】各図において、1は撮影レンズで便宜上2
枚のレンズで示したが、実際はさらに多数のレンズから
構成されている。2は主ミラーで、ファインダー系によ
る被写体像の観察状態と被写体像の撮影状態に応じて撮
影光路へ斜設されあるいは退去される。3はサブミラー
で、主ミラー2を透過した光束をカメラボディの下方の
後述する焦点検出装置6へ向けて反射する。In each of the drawings, reference numeral 1 is a taking lens, which is 2 for convenience.
Although shown with one lens, it is actually composed of a larger number of lenses. Reference numeral 2 denotes a main mirror, which is obliquely installed or retreated in the photographing optical path according to the observation state of the subject image by the finder system and the photographing state of the subject image. Reference numeral 3 denotes a sub-mirror, which reflects the light flux transmitted through the main mirror 2 toward a focus detection device 6 described below below the camera body.
【0027】4はシャッター、5は感光部材で、銀塩フ
ィルムあるいはCCDやMOS型等の固体撮像素子ある
いはビディコン等の撮像管より成っている。Reference numeral 4 is a shutter, and 5 is a photosensitive member, which is composed of a silver salt film, a CCD or MOS type solid-state image pickup device, or an image pickup tube such as a vidicon.
【0028】6は焦点検出装置であり、結像面近傍に配
置されたフィールドレンズ6a、反射ミラー6b及び6
c、2次結像レンズ6d、絞り6e、複数のCCDから
なるラインセンサー6f等から構成されている。Reference numeral 6 denotes a focus detection device, which is a field lens 6a and reflection mirrors 6b and 6 arranged near the image plane.
c, a secondary imaging lens 6d, a diaphragm 6e, a line sensor 6f including a plurality of CCDs, and the like.
【0029】本実施例における焦点検出装置6は周知の
位相差方式を用いており、図3に示すように観察画面内
(ファインダー視野内)の複数の領域(5箇所)を測距
点として、該測距点が焦点検出可能となるように構成さ
れている。The focus detecting device 6 in this embodiment uses a well-known phase difference method, and as shown in FIG. 3, a plurality of regions (5 places) in the observation screen (in the viewfinder field) are used as distance measuring points. The focus detection point is configured to be capable of focus detection.
【0030】7は撮影レンズ1の予定結像面に配置され
たピント板、8はファインダー光路変更用のペンタプリ
ズム、9、10は各々観察画面内の被写体輝度を測定す
るための結像レンズと測光センサーである。結像レンズ
9はペンタダハプリズム8内の反射光路を介してピント
板7と測光センサー10を共役に関係付けている。Reference numeral 7 is a focusing plate arranged on the planned image forming surface of the taking lens 1, 8 is a pentaprism for changing the finder optical path, and 9 and 10 are image forming lenses for measuring the brightness of the subject in the observation screen. It is a photometric sensor. The imaging lens 9 conjugately connects the focusing plate 7 and the photometric sensor 10 via the reflection optical path in the penta roof prism 8.
【0031】次にペンタダハプリズム8の射出面後方に
は光分割器11aを備えた接眼レンズ11が配され、撮
影者眼15によるピント板7の観察に使用される。光分
割器11aは、例えは可視光を透過し赤外光を反射する
ダイクロイックミラーより成っている。Next, an eyepiece lens 11 having a light splitter 11a is arranged behind the exit surface of the penta roof prism 8 and is used for observation of the focusing plate 7 by the photographer's eye 15. The light splitter 11a is composed of, for example, a dichroic mirror that transmits visible light and reflects infrared light.
【0032】12は受光レンズ、14はCCD等の光電
素子列を2次元的に配したイメージセンサーで受光レン
ズ12に関して所定の位置にある撮影者眼15の瞳孔近
傍と共役になるように配置されている。13a〜13f
は各々照明光源であるところの赤外発光ダイオードで、
図2に示すように接眼レンズ11の回りに配置されてい
る。Reference numeral 12 is a light-receiving lens, and 14 is an image sensor in which a photoelectric element array such as a CCD is two-dimensionally arranged so as to be conjugated with the vicinity of the pupil of the photographer's eye 15 at a predetermined position with respect to the light-receiving lens 12. ing. 13a to 13f
Are infrared light emitting diodes, which are the illumination light sources,
As shown in FIG. 2, it is arranged around the eyepiece lens 11.
【0033】21は明るい被写体の中でも視認できる高
輝度のスーパーインポーズ用LEDで、発光された光は
投光用プリズム22を介し、主ミラー2で反射してピン
ト板7の表示部に設けた微小プリズムアレー7aで垂直
方向に曲げられ、ペンタプリズム8、接眼レンズ11を
通って撮影者眼15に達する。Reference numeral 21 is a high-intensity superimposing LED that can be visually recognized even in a bright subject, and the emitted light is reflected by the main mirror 2 via the projection prism 22 and is provided on the display portion of the focusing plate 7. It is bent in the vertical direction by the micro prism array 7a, passes through the penta prism 8 and the eyepiece lens 11 and reaches the photographer's eye 15.
【0034】そこでピント板7の焦点検出領域に対応す
る複数の位置(測距点)にこの微小プリズムアレイ7a
を枠状に形成し、これを各々に対応した5つのスーパー
インポーズ用LED21(各々をLED−L1,LED
−L2,LED−C,LED−R1,LED−R2とす
る)によって照明する。Therefore, the fine prism array 7a is provided at a plurality of positions (distance measuring points) corresponding to the focus detection area of the focusing plate 7.
Are formed in a frame shape, and five superimposing LEDs 21 (each of which are LED-L1 and LED
-L2, LED-C, LED-R1, LED-R2).
【0035】これによって図3に示したファインダー視
野から分かるように、各々の測距点マーク200、20
1、202、203、204がファインダー視野内で光
り、焦点検出領域(測距点)を表示させることができる
ものである(以下これをスーパーインポーズ表示とい
う)。As a result, as can be seen from the field of view of the finder shown in FIG.
Numerals 1, 202, 203 and 204 illuminate in the finder field to display a focus detection area (distance measuring point) (hereinafter referred to as superimpose display).
【0036】23はファインダー視野領域を形成する視
野マスク。24はファインダー視野外に撮影情報を表示
するためのファインダー内LCDで、照明用LED(F
−LED)25によって照明されている。Reference numeral 23 is a field mask for forming a finder field area. Reference numeral 24 denotes an LCD in the finder for displaying photographing information outside the finder field of view.
-LED) 25.
【0037】LCD24を透過した光は三角プリズム2
6によってファインダー視野内に導かれ、図3の207
で示したようにファインダー視野外に表示され、撮影者
は撮影情報を知ることができる。27はカメラの姿勢を
検知する公知の水銀スイッチである。The light transmitted through the LCD 24 is the triangular prism 2
6 is guided into the field of view of the finder, and 207 of FIG.
It is displayed outside the field of view of the viewfinder as shown by, and the photographer can know the photographing information. Reference numeral 27 is a known mercury switch for detecting the attitude of the camera.
【0038】31は撮影レンズ1内に設けた絞り、32
は後述する絞り駆動回路111を含む絞り駆動装置、3
3はレンズ駆動用モーター、34は駆動ギヤ等からなる
レンズ駆動部材、35はフォトカプラーでレンズ駆動部
材34に連動するパルス板36の回転を検知してレンズ
焦点調節回路110に伝えている。焦点調節回路110
は、この情報とカメラ側からのレンズ駆動量の情報に基
づいてレンズ駆動用モーターを所定量駆動させ、撮影レ
ンズ1を合焦位置に移動させるようになっている。37
は公知のカメラとレンズとのインターフェイスとなるマ
ウント接点である。Reference numeral 31 denotes an aperture provided in the taking lens 1, 32
Is a diaphragm driving device including a diaphragm driving circuit 111 described later, 3
Reference numeral 3 is a lens driving motor, 34 is a lens driving member including a driving gear, and 35 is a photocoupler which detects rotation of the pulse plate 36 interlocking with the lens driving member 34 and transmits it to the lens focus adjusting circuit 110. Focus adjustment circuit 110
On the basis of this information and the information on the lens driving amount from the camera side, the lens driving motor is driven by a predetermined amount to move the taking lens 1 to the in-focus position. 37
Is a mount contact that serves as an interface between a known camera and a lens.
【0039】図4はカメラに内蔵された電気回路図で、
図1と同一の部材には同一番号をつけている。FIG. 4 is an electric circuit diagram built in the camera.
The same members as those in FIG. 1 are given the same numbers.
【0040】カメラ本体に内蔵されたマイクロコンピュ
ータの中央処理装置(以下CPU)100には視線検出
回路101、測光回路102、自動焦点検出回路10
3、信号入力回路104、LCD駆動回路105、LE
D駆動回路106、IRED駆動回路107、シャッタ
ー制御回路108、モーター制御回路109が接続され
ている。又、撮影レンズ内に配置された焦点調節回路1
10、絞り駆動回路111とは図1で示したマウント接
点37を介して信号の伝達がなされる。A central processing unit (hereinafter referred to as a CPU) 100 of a microcomputer incorporated in the camera body includes a visual axis detection circuit 101, a photometric circuit 102, and an automatic focus detection circuit 10.
3, signal input circuit 104, LCD drive circuit 105, LE
The D drive circuit 106, the IRED drive circuit 107, the shutter control circuit 108, and the motor control circuit 109 are connected. Further, a focus adjustment circuit 1 arranged in the photographing lens
10. Signals are transmitted to and from the diaphragm drive circuit 111 via the mount contact 37 shown in FIG.
【0041】CPU100に付随したEEPROM10
0aは記憶手段としての視線の個人差を補正する視線補
正データの記憶機能を有している。EEPROM 10 attached to CPU 100
Reference numeral 0a has a function of storing the line-of-sight correction data as a storage unit for correcting individual differences in line-of-sight.
【0042】視線検出回路101は、イメージセンサー
14(CCD−EYE)からの眼球像の出力をA/D変
換し、この像情報をCPU100に送信する。CPU1
00は後述するように視線検出に必要な眼球像の各特徴
点を所定のアルゴリズムに従って抽出し、さらに各特徴
点の位置から撮影者の視線を算出する。The line-of-sight detection circuit 101 A / D converts the output of the eyeball image from the image sensor 14 (CCD-EYE) and sends this image information to the CPU 100. CPU1
As will be described later, 00 extracts each feature point of the eyeball image required for sight line detection according to a predetermined algorithm, and further calculates the photographer's sight line from the position of each feature point.
【0043】測光回路102は測光センサー10からの
出力を増幅後、対数圧縮、A/D変換し、各センサーの
輝度情報としてCPU100に送られる。測光センサー
10は図3に示したファインダー視野内の左側測距点2
00、201を含む左領域210を測光するSPC−L
と中央の測距点202を含む中央領域211を測光する
SPC−Cと右側の測距点203、204を含む右側領
域212を測光するSPC−Rとこれらの周辺領域21
3を測光するSPC−Aとの4つの領域を測光するフォ
トダイオードから構成されている。The photometric circuit 102, after amplifying the output from the photometric sensor 10, performs logarithmic compression and A / D conversion, and sends it to the CPU 100 as luminance information of each sensor. The photometric sensor 10 is the left focus point 2 in the viewfinder field shown in FIG.
SPC-L for photometry of the left area 210 including 00 and 201
SPC-C for measuring the central area 211 including the center distance measuring point 202, SPC-R for measuring the right area 212 including the right distance measuring points 203 and 204, and their peripheral areas 21.
SPC-A for photometry of 3 and a photodiode for photometry of four areas.
【0044】図4のラインセンサー6fは前述の図3に
示すように画面内の5つの測距点200〜204に対応
した5組のラインセンサーCCD−L2、CCD−L
1、CCD−C、CCD−R1、CCD−R2から構成
される公知のCCDラインセンサーである。As shown in FIG. 3, the line sensor 6f in FIG. 4 includes five sets of line sensors CCD-L2 and CCD-L corresponding to the five distance measuring points 200 to 204 in the screen.
This is a known CCD line sensor composed of 1, CCD-C, CCD-R1, and CCD-R2.
【0045】自動焦点検出回路103は、これらライン
センサー6fから得た電圧をA/D変換し、CPU10
0に送る。SW−1はレリーズ釦の第1ストロークでO
Nし、測光、AF、視線検出動作等を開始するスイッ
チ、SW−2はレリーズ釦の第2ストロークでONする
レリーズスイッチ、SW−ANGは水銀スイッチ27に
よって検知されるところの姿勢検知スイッチ、SW−A
ELはAEロック釦を押すことによってONするAEロ
ックスイッチ、SW−DIAL1とSW−DIAL2
は、不図示である電子ダイヤル内に設けたダイヤルスイ
ッチで信号入力回路104のアップダウンカウンターに
入力され、電子ダイヤルの回転クリック量をカウントす
る。The automatic focus detection circuit 103 A / D-converts the voltage obtained from these line sensors 6f, and the CPU 10
Send to 0. SW-1 is O at the first stroke of the release button
N, switch for starting photometry, AF, line-of-sight detection operation, SW-2 is a release switch that is turned on by the second stroke of the release button, SW-ANG is an attitude detection switch that is detected by the mercury switch 27, SW -A
EL is an AE lock switch, SW-DIAL1 and SW-DIAL2, which is turned on by pressing the AE lock button.
Is input to the up / down counter of the signal input circuit 104 by a dial switch provided in the electronic dial (not shown) to count the rotation click amount of the electronic dial.
【0046】105は液晶表示素子LCDを表示駆動さ
せるための公知のLCD駆動回路で、CPU100から
の信号に従い絞り値、シャッター秒時、設定した撮影モ
ード等の表示をモニター用LCD42とファインダー内
LCD24の両方に同時に表示させることができる。L
ED駆動回路106は照明用LED(F−LED)25
とスーパーインポーズ用LED21を点灯、点滅制御す
る。IRED駆動回路107は赤外発光ダイオード(I
RED1〜6)13a〜13fを状況に応じて選択的に
点灯させる。Reference numeral 105 denotes a known LCD drive circuit for driving the liquid crystal display device LCD to display the aperture value, the shutter speed, the set photographing mode, etc. according to a signal from the CPU 100 on the monitor LCD 42 and the viewfinder LCD 24. Both can be displayed at the same time. L
The ED drive circuit 106 is a lighting LED (F-LED) 25.
Then, the superimposing LED 21 is turned on and controlled to blink. The IRED drive circuit 107 is an infrared light emitting diode (I
RED1 to 6) 13a to 13f are selectively turned on according to the situation.
【0047】シャッター制御回路108は通電すると先
幕を走行させるマグネットMG−1と、後幕を走行させ
るマグネットMG−2を制御し、感光部材に所定光量を
露光させる。モーター制御回路109はフィルムの巻き
上げ、巻戻しを行なうモーターM1と主ミラー2及びシ
ャッター4のチャージを行なうモーターM2を制御する
ためのものである。これらシャッター制御回路108、
モーター制御回路109によって一連のカメラのレリー
ズシーケンスが動作する。When the shutter control circuit 108 is energized, it controls the magnet MG-1 for moving the front curtain and the magnet MG-2 for moving the rear curtain to expose the photosensitive member with a predetermined amount of light. The motor control circuit 109 is for controlling the motor M1 for winding and rewinding the film and the motor M2 for charging the main mirror 2 and the shutter 4. These shutter control circuits 108,
A series of camera release sequences operate by the motor control circuit 109.
【0048】次に、視線検出装置を有したカメラの動作
のフローチャートを図5をもとに以下説明する。Next, a flow chart of the operation of the camera having the visual axis detecting device will be described below with reference to FIG.
【0049】不図示のモードダイヤルを回転させてカメ
ラを不作動状態から所定の撮影モードに設定すると(本
実施例ではシャッター優先AEに設定された場合をもと
に説明する)カメラの電源がONされ(#100)、C
PU100の視線検出に使われる変数がリセットされる
(#101)。When the mode dial (not shown) is rotated to set the camera from the inoperative state to the predetermined photographing mode (this embodiment will be described based on the case where the shutter priority AE is set), the power of the camera is turned on. Yes (# 100), C
The variable used for the sight line detection of the PU 100 is reset (# 101).
【0050】そしてカメラはレリーズ釦が押し込まれて
スイッチSW1がONされるまで待機する(#10
2)。レリーズ釦が押し込まれスイッチSW1がONさ
れたことを信号入力回路104が検知すると、CPU1
00は視線検出回路101に確認する(#103)。Then, the camera waits until the switch SW1 is turned on by pressing the release button (# 10).
2). When the signal input circuit 104 detects that the release button is pressed and the switch SW1 is turned on, the CPU1
00 is confirmed with the line-of-sight detection circuit 101 (# 103).
【0051】この時、視線禁止モードに設定されていた
ら、視線検出は実行せずにすなわち視線情報を用いずに
測距点自動選択サブルーチン(#116)によって特定
の測距点を選択する。この測距点において自動焦点検出
回路103は焦点検出動作を行なう(#107)。At this time, if the line-of-sight prohibition mode is set, a specific range-finding point is selected by the range-finding point automatic selection subroutine (# 116) without executing line-of-sight detection, that is, without using line-of-sight information. At this focus detection point, the automatic focus detection circuit 103 performs focus detection operation (# 107).
【0052】尚、測距点自動選択のアルゴリズムとして
はいくつかの方法が考えられるが、中央測距点に重み付
けを置いた近点優先アルゴリズムが有効であり、ここで
は本発明にその内容については直接関係しない為、説明
を省略する。Although several methods can be considered as algorithms for automatically selecting distance measuring points, a near point priority algorithm in which weighting is applied to a central distance measuring point is effective. Here, the contents of the present invention will be described. Since it is not directly related, the description is omitted.
【0053】視線検出モードに設定されている場合は視
線検出を実行する(#104)。ここで視線検出回路1
01において検出された視線はピント板7上の注視点座
標に変換される。CPU100は該注視点座標に近接し
た測距点を選択し、LED駆動回路106に信号を送信
してスーパーインポーズ用LED21を用いて前記測距
点マークを点滅表示させる(#105)。When the visual axis detection mode is set, visual axis detection is executed (# 104). Here, the line-of-sight detection circuit 1
The line of sight detected at 01 is converted into the gazing point coordinates on the focus plate 7. The CPU 100 selects a distance measuring point close to the gazing point coordinates, transmits a signal to the LED driving circuit 106, and causes the distance measuring point mark to blink using the superimposing LED 21 (# 105).
【0054】撮影者が該撮影者の視線によって選択され
た測距点が表示されたのを見て、その測距点が正しくな
いと認識してレリーズ釦から手を離しスイッチSW1を
OFFすると(#106)、カメラはスイッチSW1が
ONされるまで待機する(#102)。When the photographer sees the distance measuring point selected by the photographer's line of sight and recognizes that the distance measuring point is not correct, he releases his hand from the release button and turns off the switch SW1 ( # 106), the camera waits until the switch SW1 is turned on (# 102).
【0055】このように視線情報によって測距点が選択
されたことをファインダー視野内の測距点マークを点滅
表示させて撮影者に知らせるようになっているので撮影
者は意志どうりに選択されたかどうか確認することがで
きる。As described above, the fact that the distance measuring point is selected by the line-of-sight information is displayed by blinking the distance measuring point mark in the viewfinder to notify the photographer, so that the photographer can arbitrarily select the distance measuring point. You can check whether or not.
【0056】又、撮影者が視線によって選択された測距
点が表示されたのを見て、引続きスイッチSW1をON
し続けたならば(#106)、自動焦点検出回路103
は検出された視線情報を用いて1つ以上の測距点の焦点
検出を実行する(#107)。Further, seeing that the distance measuring point selected by the photographer is displayed by the photographer, the switch SW1 is continuously turned on.
If continued (# 106), the automatic focus detection circuit 103
Performs focus detection of one or more focus detection points using the detected line-of-sight information (# 107).
【0057】ここで選択された測距点が測距不能である
かを判定し(#108)、不能であればCPU100は
LCD駆動回路105に信号を送ってファインダー内L
CD24の合焦マークを点滅させ、測距がNG(不能)
であることを撮影者に警告し、(#118)、SW1が
離されるまで続ける(#119)。It is determined whether or not the distance measuring point selected here cannot be measured (# 108). If it is impossible, the CPU 100 sends a signal to the LCD drive circuit 105 to set L in the finder.
The focus mark on the CD24 blinks, and distance measurement is NG (impossible)
That is, the photographer is warned (# 118) and continues until SW1 is released (# 119).
【0058】測距が可能であり、所定のアルゴリズムで
選択された測距点の焦点調節状態が合焦でなければ(#
109)、CPU100はレンズ焦点調節回路110に
信号を送って所定量撮影レンズ1を駆動させる(#11
7)。レンズ駆動後自動焦点検出回路103は再度焦点
検出を行ない(#107)、撮影レンズ1が合焦してい
るか否かの判定を行なう(#109)。Distance measurement is possible, and the focus adjustment state of the distance measurement point selected by the predetermined algorithm is not in focus (#
109), the CPU 100 sends a signal to the lens focus adjustment circuit 110 to drive the taking lens 1 by a predetermined amount (# 11).
7). After driving the lens, the automatic focus detection circuit 103 performs focus detection again (# 107), and determines whether or not the taking lens 1 is in focus (# 109).
【0059】所定の測距点において撮影レンズ1が合焦
していたならば、CPU100はLCD駆動回路105
に信号を送ってファインダー内LCD24の合焦マーク
を点灯させるとともに、LED駆動回路106にも信号
を送って合焦している測距点201に合焦表示させる
(#110)。If the taking lens 1 is in focus at a predetermined distance measuring point, the CPU 100 causes the LCD drive circuit 105 to operate.
Is sent to turn on the focus mark on the LCD 24 in the finder, and also the signal is sent to the LED drive circuit 106 to display the focus on the focusing point 201 in focus (# 110).
【0060】この時、前記視線によって選択された測距
点の点滅表示は消灯するが合焦表示される測距点と前記
視線によって選択された測距点とは一致する場合が多い
ので、合焦したことを撮影者に認識させるために合焦測
距点は点灯状態に設定される。合焦した測距点がファイ
ンダー内に表示されたのを撮影者が見て、その測距点が
正しくないと認識してレリーズ釦から手を離しスイッチ
SW1をOFFすると(#111)、引き続きカメラは
スイッチSW1がONされるまで待機する(#10
2)。At this time, the blinking display of the distance measuring point selected by the line of sight is turned off, but the distance measuring point displayed in focus is often coincident with the distance measuring point selected by the line of sight. The focus range-finding point is set to a lighting state so that the photographer can recognize that the focus has been achieved. When the photographer sees that the focusing point is displayed in the viewfinder and recognizes that the focusing point is incorrect, he releases the release button and turns off the switch SW1 (# 111). Waits until switch SW1 is turned on (# 10
2).
【0061】又、撮影者が合焦表示された測距点を見
て、引続きスイッチSW1をONし続けたならば(#1
11)、CPU100は測光回路102に信号を送信し
て測光を行なわせる(#112)。この時合焦した測距
点を含む測光領域210〜213に重み付けを行なった
露出値が演算される。If the photographer looks at the focus detection point displayed in focus and continues to turn on the switch SW1 (# 1
11), the CPU 100 sends a signal to the photometry circuit 102 to perform photometry (# 112). At this time, the exposure value is calculated by weighting the photometric areas 210 to 213 including the in-focus distance measuring points.
【0062】本実施例の場合、測距点201を含む測光
領域210に重み付けされた公知の測光演算を行なって
いる。In the case of the present embodiment, the known photometry calculation is performed by weighting the photometry area 210 including the distance measuring point 201.
【0063】更にレリーズ釦が押し込まれてスイッチS
W2がONされているかどうかの判定を行ない(#11
3)、スイッチSW2がOFF状態であれば再びスイッ
チSW1の状態の確認を行なう(#111)。又、スイ
ッチSW2がONされたならばCPU100はシャッタ
ー制御回路108、モーター制御回路109、絞り駆動
回路111にそれぞれ信号を送信する。Further, the release button is pressed and the switch S
It is determined whether or not W2 is turned on (# 11
3) If the switch SW2 is OFF, the state of the switch SW1 is checked again (# 111). When the switch SW2 is turned on, the CPU 100 sends signals to the shutter control circuit 108, the motor control circuit 109, and the diaphragm drive circuit 111, respectively.
【0064】まずM2に通電し主ミラー2をアップさ
せ、絞り31を絞り込んだ後、MG1に通電しシャッタ
ー4の先幕を開放する。絞り31の絞り値及びシャッタ
ー4のシャッタースピードは、前記測光回路102にて
検知された露出値とフィルム5の感度から決定される。
所定のシャッター秒時(例えば1/250秒)経過後M
G2に通電し、シャッター4の後幕を閉じる。フィルム
5への露光が終了すると、M2に再度通電し、ミラーダ
ウン、シャッターチャージを行なうとともにM1にも通
電し、フィルムのコマ送りを行ない、一連のシャッター
レリーズシーケンスの動作が終了する。(#114)そ
の後、カメラは再びスイッチSW1がONされるまで待
機する(#102)。First, M2 is energized to raise the main mirror 2 and the diaphragm 31 is narrowed down. Then, MG1 is energized to open the front curtain of the shutter 4. The aperture value of the aperture 31 and the shutter speed of the shutter 4 are determined from the exposure value detected by the photometric circuit 102 and the sensitivity of the film 5.
M after a predetermined shutter time (1/250 second, for example)
Energize G2 and close the rear curtain of the shutter 4. When the exposure of the film 5 is completed, the M2 is energized again, the mirror is down, the shutter is charged, and the M1 is also energized, the film is advanced by a frame, and the series of shutter release sequence operations is completed. (# 114) After that, the camera waits until the switch SW1 is turned on again (# 102).
【0065】図6は視線検出のフローチャートである。
前述のように視線検出回路101はCPU100より信
号を受け取ると視線検出を実行する(#104)。FIG. 6 is a flow chart of the visual axis detection.
As described above, the line-of-sight detection circuit 101 executes the line-of-sight detection upon receiving a signal from the CPU 100 (# 104).
【0066】視線検出回路101は、撮影モードでの視
線検出の場合はまず最初にカメラがどのような姿勢にな
っているかを信号入力回路104を介して検知する(#
201)。信号入力回路104は水銀スイッチ27(S
W−ANG)の出力信号を処理してカメラが横位置であ
るか縦位置であるか、又、縦位置である場合は例えばレ
リーズ釦が天方向にあるか地(面)方向にあるかを判断
する。In the case of detecting the line of sight in the photographing mode, the line-of-sight detection circuit 101 first detects the posture of the camera via the signal input circuit 104 (#
201). The signal input circuit 104 is a mercury switch 27 (S
W-ANG) output signal is processed to determine whether the camera is in the horizontal position or the vertical position, and in the case of the vertical position, for example, whether the release button is in the top direction or the ground (plane) direction. to decide.
【0067】次に先に検知されたカメラの姿勢情報とキ
ャリブレーションデータに含まれる撮影者の眼鏡情報よ
り赤外発光ダイオード(以下IREDと称す)13a〜
13fの選択を行なう(#202)。即ちカメラが横位
置に構えられ、撮影者が眼鏡をかけ13a、13bが選
択される。又、カメラが横位置で、撮影者が眼鏡をかけ
ていれば、ファインダー光軸から離れたIRED13
c、13dが選択される。このとき撮影者の眼鏡で反射
した照明光の一部は、眼球像が投影されるイメージセン
サー14上の所定の領域以外に達するため眼球像の解析
に支障は生じない。Next, from the previously detected camera posture information and the photographer's eyeglass information included in the calibration data, the infrared light emitting diode (hereinafter referred to as IRED) 13a.about.
13f is selected (# 202). That is, the camera is held in the horizontal position, and the photographer puts on the glasses and selects 13a and 13b. Also, if the camera is in the horizontal position and the photographer wears glasses, the IRED 13 that is far from the viewfinder optical axis
c and 13d are selected. At this time, a part of the illumination light reflected by the photographer's spectacles reaches a region other than a predetermined region on the image sensor 14 on which the eyeball image is projected, so that the analysis of the eyeball image does not occur.
【0068】更にはカメラが縦位置で構えられていたな
らば、撮影者の眼球を下方から照明するようなIRED
の組合せIRED13a、13eもしくはIRED13
b、13fのどちらかの組合せが選択される。Further, if the camera is held in the vertical position, an IRED that illuminates the photographer's eyeball from below.
Combinations of IRED13a, 13e or IRED13
Either combination of b and 13f is selected.
【0069】次に眼球の輝度情報(明るさ)をもとにC
CD−EYE14の蓄積時間と増幅特性を設定する(#
203)。眼球の輝度情報を知る為に検出される眼球像
を複数の領域に分割し、各々の輝度値をもとに、例えば
外光が眼球に当っているとか、暗い室内での状態である
とか、眼球の外光による照明状態を判断し、プルキンエ
像と瞳孔部の特徴点を抽出しやすいように最適な蓄積時
間とセンサー出力の増幅特性を設定するようにしてい
る。Next, based on the luminance information (brightness) of the eyeball, C
Set the accumulation time and amplification characteristics of the CD-EYE 14 (#
203). The eyeball image detected in order to know the brightness information of the eyeball is divided into a plurality of areas, based on each brightness value, for example, outside light is hitting the eyeball, or in a dark room, The illumination conditions of the eyeballs due to the external light are determined, and the optimum accumulation time and the amplification characteristic of the sensor output are set so that the Purkinje image and the feature points of the pupil can be easily extracted.
【0070】この眼球像を複数の領域に分割して眼球の
輝度情報と求める為のCCD−EYEの駆動方法は本発
明の主要点を成し、これについては後で詳細に説明す
る。The driving method of the CCD-EYE for dividing the eyeball image into a plurality of areas and obtaining the luminance information of the eyeball is the main point of the present invention, which will be described in detail later.
【0071】CCD−EYE蓄積時間が設定されると、
CPU100はIRED駆動回路107を介してIRE
Dを所定のパワー点灯させる(#204)とともに、視
線検出回路101はCCD−EYEの蓄積を開始する
(#205)。When the CCD-EYE storage time is set,
The CPU 100 sends the IRE through the IRED drive circuit 107.
D is turned on with a predetermined power (# 204), and the line-of-sight detection circuit 101 starts accumulating CCD-EYE (# 205).
【0072】先に設定されたCCD−EYEの蓄積時間
にしたがってCCD−EYEは蓄積を終了し、それとと
もにIREDも消灯される。CPU100は蓄積の終了
したCCD−EYEから撮影者の眼球像を読み出すと同
時に逐時的に角膜反射像(以下プルキンエ像)や瞳孔部
の特徴抽出の処理を行なう(#206)。The CCD-EYE finishes the accumulation according to the previously set accumulation time of the CCD-EYE, and at the same time, the IRED is turned off. The CPU 100 reads out the eyeball image of the photographer from the CCD-EYE whose accumulation has been completed, and at the same time, performs a corneal reflection image (hereinafter, Purkinje image) and a feature extraction process of the pupil portion (# 206).
【0073】プルキンエ像は光強度の強い輝点として現
われるため光強度に対する所定のしきい値を設け、該し
きい値をこえるものに対してプルキンエ像の候補として
抽出する事が可能である。尚、瞳孔19と虹彩17の境
界点は複数抽出される。Since the Purkinje image appears as a bright spot having a strong light intensity, it is possible to set a predetermined threshold value for the light intensity and to extract a Purkinje image candidate exceeding the threshold value as a Purkinje image candidate. A plurality of boundary points between the pupil 19 and the iris 17 are extracted.
【0074】さて、プルキンエ像瞳孔の特徴抽出が完了
した後は、これらの情報に基づいて1組のプルキンエ像
の位置と瞳孔中心の位置を検出する(#207)。CC
D−EYE14のほぼ1ライン上にある1組のIRED
の虚像であるプルキンエ像の位置(Xd′,Yd′)
(Xe′,Ye′)が検出され、瞳孔の中心位置(X
c′,Yc′)は抽出された各境界点をもとに円の最小
2乗近似を行なう事により検出される。この時瞳孔径r
pも算出され、又2つのプルキンエ像の位置よりその間
隔が算出される(#207)。After the feature extraction of the Purkinje image pupil is completed, the position of one set of Purkinje images and the position of the center of the pupil are detected based on these information (# 207). CC
A set of IREDs located almost on one line of D-EYE14
Position (Xd ', Yd') of Purkinje's image which is a virtual image of
(Xe ′, Ye ′) is detected, and the center position of the pupil (X
c ', Yc') is detected by performing the least squares approximation of the circle based on the extracted boundary points. At this time, pupil diameter r
p is also calculated, and the distance is calculated from the positions of the two Purkinje images (# 207).
【0075】さらに眼球像のコントラストあるいは瞳孔
の大きさ等から、算出されたプルキンエ像及び瞳孔中心
の位置の信頼性が判定される(#208)。Further, the reliability of the calculated position of the Purkinje image and the center of the pupil is judged from the contrast of the eyeball image or the size of the pupil (# 208).
【0076】次にプルキンエ像の間隔よりカメラの接眼
レンズ11と撮影者の眼球15との距離が算出され、さ
らには該接眼レンズ11と撮影者の眼球15との距離か
らCCD−EYEに投影された眼球像の結像倍率βが算
出される(#209)。以上の計算値より眼球15の光
軸の回転角θは(3)より算出される(#210)。Next, the distance between the eyepiece lens 11 of the camera and the eyeball 15 of the photographer is calculated from the distance between the Purkinje images, and further, the distance between the eyepiece lens 11 and the eyeball 15 of the photographer is projected on the CCD-EYE. The imaging magnification β of the eyeball image is calculated (# 209). From the above calculated values, the rotation angle θ of the optical axis of the eyeball 15 is calculated from (3) (# 210).
【0077】撮影者の眼球の回転角θX,θYが求まると
ピント板上7での視線の位置が式(5)より求まる(#
211)。以上にて視線検出のルーチンをリターンする
(#212)。When the rotation angles θ X and θ Y of the eyeball of the photographer are obtained, the position of the line of sight on the focusing plate 7 is obtained from the equation (5) (#
211). Thus, the visual axis detection routine is returned (# 212).
【0078】次にCCD−EYE14の検出領域を複数
に分割して各領域の輝度情報の求める上でのCCD−E
YE14の駆動方法について説明する。Next, the detection area of the CCD-EYE 14 is divided into a plurality of areas, and the CCD-E for obtaining the luminance information of each area.
The driving method of the YE 14 will be described.
【0079】視線検出回路101には不図示のセンサー
駆動装置SDRが内蔵されており、センサー駆動時に
は、タイミング信号φVI、φHIがCPU101から
供給され、この2つのタイミング信号に基づいて、セン
サー駆動信号φVO、φHOを出力しイメージセンサー
CCD−EYE14を駆動する。イメージセンサーCC
D−EYEを図7にしたがって説明する。The line-of-sight detection circuit 101 has a sensor driving device SDR (not shown) built therein. When the sensor is driven, timing signals φVI and φHI are supplied from the CPU 101, and the sensor driving signal φVO is supplied based on these two timing signals. , ΦHO are output to drive the image sensor CCD-EYE14. Image sensor CC
D-EYE will be described with reference to FIG.
【0080】図7は垂直K画素、水平L画素からなる、
垂直フレーム転送方式のCCDエリアセンサーを表すブ
ロック図である。CCDセンサーの内部構造および、電
荷転送のメカニズムについては、本発明に直接関係ない
ので説明を省略する。FIG. 7 shows vertical K pixels and horizontal L pixels.
It is a block diagram showing a CCD area sensor of a vertical frame transfer system. Since the internal structure of the CCD sensor and the mechanism of charge transfer are not directly related to the present invention, the description thereof will be omitted.
【0081】SIMGは感光領域であり、垂直方向に
K、水平方向にL配置されている画素IMPXLからな
る。IMPXLは、例えばフォトダイオードであるよう
な光電変換機能と、電荷転送機能とを備えた単位画素
で、ここに発生する信号は垂直転送クロックφVOを印
加することで、CCD−EYE14内部にてφVOを基
に生成される複数の駆動信号により駆動される。SIMG is a photosensitive area, and is composed of pixels IMPXL arranged in K in the vertical direction and L in the horizontal direction. The IMPXL is a unit pixel having a photoelectric conversion function such as a photodiode and a charge transfer function, and a signal generated here is applied with a vertical transfer clock φVO to generate φVO inside the CCD-EYE 14. It is driven by a plurality of drive signals generated on the basis.
【0082】SSTRは感光領域SIMGで発生した電
荷を一時的に記憶する記憶領域、SSTRを構成する単
位記憶部STPXLは、SIMGを構成する単位画素I
MPXLと同数であり、転送クロックも同じく垂直転送
クロックφVOである。SSTR is a storage area for temporarily storing the charges generated in the photosensitive area SIMG, and the unit storage section STPXL forming the SSTR is a unit pixel I forming the SIMG.
The number is the same as MPXL, and the transfer clock is also the vertical transfer clock φVO.
【0083】HSHIFTは水平方向の転送レジスタ
で、センサー駆動装置SDRから入力される水平転送ク
ロックφHOを印加することで、CCD−EYE14内
部にてφHOを基に生成される複数の駆動信号により駆
動される。HSHIFT is a horizontal transfer register, which is driven by a plurality of drive signals generated based on φHO in the CCD-EYE 14 by applying a horizontal transfer clock φHO input from the sensor driving device SDR. It
【0084】φROはHSHIFTにより信号の転送が
行われ。これに同期して、SOUTから信号出力がなさ
れるとき、SOUTの出力順に、前画素出力の影響が次
出力画素に及ばぬよう、信号増幅回路SAMPにおいて
画素毎に出力の初期化を行う信号である。A signal is transferred to φRO by HSHIFT. In synchronization with this, when a signal is output from SOUT, a signal that initializes the output for each pixel in the signal amplifier circuit SAMP so that the influence of the output of the previous pixel does not affect the next output pixel in the output order of SOUT. is there.
【0085】VOFには画素IMPXLの飽和レベルを
制御する電圧で印加される。OFDは画素IMPXLに
照射される光量に応じて発生する電荷がVOFに印加さ
れた電圧により制御される所定のレベル、すなわち飽和
に達したとき、過飽和とならぬように、所定レベル以上
の電荷を排出するために設けられた、一般にはオーバー
フロードレインと呼ばれる排出溝である。A voltage for controlling the saturation level of the pixel IMPXL is applied to VOF. The OFD applies a charge of a predetermined level or higher so that the charge generated according to the amount of light applied to the pixel IMPXL reaches a predetermined level controlled by the voltage applied to the VOF, that is, when the charge does not become oversaturated. It is a discharge groove that is provided for discharging and is generally called an overflow drain.
【0086】次に図6の#203で示されたイメージセ
ンサーCCD−EYEの蓄積時間を設定するための眼球
の輝度情報を求める方法を図8〜図14にしたがって説
明する。Next, a method of obtaining the luminance information of the eyeball for setting the accumulation time of the image sensor CCD-EYE shown in # 203 of FIG. 6 will be described with reference to FIGS.
【0087】ここではイメージセンサーCCD−EYE
14の2次元的に配置されたK×L個の画素を図8に示
すように縦方向に3等分割、横方向に4等分割、すなわ
ち12等分割した各2次元的領域の輝度情報を求めるも
のである。このとき、12分割された領域は(K/3)
×(L/4)個の画素により構成される。Here, the image sensor CCD-EYE
As shown in FIG. 8, 14 two-dimensionally arranged K × L pixels are divided into three equal parts in the vertical direction and four equal parts in the horizontal direction. It is what you want. At this time, the area divided into 12 is (K / 3)
It is composed of × (L / 4) pixels.
【0088】図9は図8に示した12の領域から水平方
向成分を抽出したものである。図中のSIMGBV1、
SIMGBV2、SIMGBV3は感光領域SIMGを
縦方向に3等分割した領域であり、これら各領域内での
最上位置に置かれているラインに着目する。すなわち、
SIMGBV1では1ライン目、SIMGBV2では
(K/3)+1ライン目、SIMGBV3は(2K/
3)+1ライン目である。以下に駆動タイミングの説明
を行う。FIG. 9 shows horizontal components extracted from the 12 regions shown in FIG. SIMGBV1 in the figure,
SIMGBV2 and SIMGBV3 are areas obtained by dividing the photosensitive area SIMG into three equal parts in the vertical direction, and attention is paid to the line placed at the uppermost position in each of these areas. That is,
SIMGBV1 is the first line, SIMGBV2 is the (K / 3) +1 line, and SIMGBV3 is (2K /
3) It is the + 1st line. The drive timing will be described below.
【0089】まず最初に、不要電荷を排出するためのク
リア駆動を行う。図11中のクリアはφVOをK回、φ
HOをL回繰り返すセットであるV−TRANSを2サ
イクル行いSIMGおよびSSTRを駆動し初期化であ
るところのクリア駆動を行っているタイミング図であ
る。V−TRANSについて説明は後述する。First, clear driving for discharging unnecessary charges is performed. To clear in Fig. 11, φVO is K times, φ
FIG. 9 is a timing diagram in which V-TRANS, which is a set in which HO is repeated L times, is performed for two cycles to drive SIMG and SSTR to perform clear driving which is initialization. The description of V-TRANS will be given later.
【0090】次にAGCシーケンスを行う。図11のA
GCシーケンスはAGC1,AGC2,AGC3の3つ
のサブシーケンスにより構成されている。さらに各サブ
シーケンスは蓄積、V−TRANS、読み出しの各駆動
により構成されている。このうちV−TRANSはクリ
ア動作時のV−TRANSと同一の駆動である。Next, an AGC sequence is performed. 11A
The GC sequence is composed of three sub-sequences AGC1, AGC2 and AGC3. Further, each sub-sequence is composed of driving for accumulation, V-TRANS, and reading. Of these, V-TRANS is the same drive as V-TRANS during the clear operation.
【0091】まず、サブシーケンスAGC1について説
明する。AGC1は図9のSIMGBV1の領域につい
て蓄積動作を行っているときの駆動タイミングであり、
これを詳細に示したタイミング図が図12である。First, the sub-sequence AGC1 will be described. AGC1 is the drive timing when the accumulation operation is performed for the area of SIMGBV1 in FIG.
FIG. 12 is a timing diagram showing this in detail.
【0092】図12中の蓄積にてはDRV−B、DRV
−Aなる2つの駆動パターンにより駆動を行う。DRV
−A、DRV−B中のP(1)、C(2,1)、C
(1,1)はそれぞれ1回の転送駆動に対応するもの
で、これにより隣接1画素への電荷転送が行われる。In the accumulation shown in FIG. 12, DRV-B and DRV
The drive is performed by two drive patterns of -A. DRV
-A, P (1), C (2,1), C in DRV-B
Each of (1, 1) corresponds to one transfer driving operation, whereby the charges are transferred to one adjacent pixel.
【0093】まずφHO=HIとすることで、不図示の
水平転送レジスタHSHIFTに沿って配置されている
オーバーフロードレインのスイッチをONし、φVOな
る垂直転送クロックにてHSHIFTに転送された過剰
電荷の排出を行えるようにする。次にφVOにて垂直方
向の転送を行う。First, by setting φHO = HI, the switch of the overflow drain arranged along the horizontal transfer register HSHIFT (not shown) is turned on, and the excess charge transferred to HSHIFT is discharged by the vertical transfer clock φVO. To be able to. Next, vertical transfer is performed by φVO.
【0094】まず、DRV−Bなる間は、φVOにより
等間隔であるP(1)からP((K/3)−1)までの
駆動を行う。ここでは、P(1)なる間、図9の1ライ
ン目は1ライン目に留まっており、さらに2回目のφV
O出力により2ライン目に転送され、3回目のφVO出
力がなされるまでのP(2)なる間は2ライン目に留ま
っている。これをK/3回繰り返し、SIMGBV1の
下端であるK/3ライン目まで転送する。First, during DRV-B, φVO drives P (1) to P ((K / 3) -1) at equal intervals. Here, during P (1), the first line in FIG. 9 remains on the first line, and the second φV
It is transferred to the second line by the O output and remains on the second line until P (2) until the third φVO output is performed. This is repeated K / 3 times to transfer to the K / 3 line which is the lower end of SIMGBV1.
【0095】ここで、P(1)からP(K/3)までの
各間隔は領域SIMGB1の垂直方向の転送間隔であ
り、転送中に留まっていた各画素にて発生した電荷が蓄
積される蓄積時間となる。Here, each interval from P (1) to P (K / 3) is a transfer interval in the vertical direction of the area SIMGB1, and the charge generated in each pixel that has remained during the transfer is accumulated. It is the accumulation time.
【0096】すなわち、1ライン目からK/3ライン目
までの領域について、縦方向で各画素に対しP(1)な
る時間で蓄積がなされ、これら蓄積された電荷の縦方向
での総和と等しいものとなる。That is, in the area from the 1st line to the K / 3rd line, accumulation is performed for each pixel in the vertical direction at a time of P (1), which is equal to the total sum of these accumulated charges in the vertical direction. Will be things.
【0097】これに続けて、DRV−Aなる駆動動作を
行う。DRV−BにてK/3ライン目まで転送した電荷
は、第1のDRV−Aにて、2K/3ライン目まで転送
され、さらに第2のDRV−AにてKライン目まで転送
される。ここで図中のC(2,1)、C(1,1)なる
時間は同一であり、第1、第2のDRV−AともC
(2,1)、C(1,1)なる間隔でφVOを繰り返し
出力する。この間にても照射される光量に応じて電荷発
生が生ずるが、P(1)からP(K/3)で示された時
間に比較して微小であるため、発生電荷量も微小となり
DRV−Bでの発生電荷量への影響はほとんどない。K
ライン目まで転送された電荷は続けて行われるV−TR
ANSにより記憶部に転送されることで蓄積が完了す
る。Following this, a drive operation called DRV-A is performed. The charges transferred to the K / 3 line in the DRV-B are transferred to the 2K / 3 line in the first DRV-A, and further transferred to the K line in the second DRV-A. . Here, the times C (2,1) and C (1,1) in the figure are the same, and both the first and second DRV-A are C.
ΦVO is repeatedly output at intervals of (2,1) and C (1,1). Even during this period, charge generation occurs according to the amount of light irradiated, but since it is minute compared to the time indicated by P (1) to P (K / 3), the amount of generated charge also becomes minute and DRV- There is almost no effect on the amount of charge generated in B. K
The charge transferred to the line line is continuously V-TR
The storage is completed by being transferred to the storage unit by the ANS.
【0098】次にV−TRANSの説明を行う。V−T
RANSは蓄積された電荷をφVOをK回出力すること
によりSSTR内の最下端ラインであるSTLLOWま
で転送し、さらにL回のφHO出力で1ライン目の電荷
転送の直前までの電荷が加算および転送されているHS
HIFTを駆動しクリア動作を行う。そして、V−TR
ANSによりSTLLOWに転送された電荷は、読みだ
し動作にて読みだされる。Next, V-TRANS will be described. VT
RANS transfers the accumulated charge to STLLOW which is the lowermost line in SSTR by outputting φVO K times, and further adds and transfers the charge up to immediately before the charge transfer of the first line by L times φHO output. Has been HS
The HIFT is driven to perform the clear operation. And V-TR
The charges transferred to STLLOW by the ANS are read by the read operation.
【0099】まず、φVOにより水平転送レジスタにS
TLLOWからの電荷転送が行われ、これに続けて、φ
HOを出力する図中のR(1)にて1画素目、R(2)
にて2画素目、R(L)にてL画素目が読みだされる。
このとき、φHOにて水平転送された電荷は、水平転送
に同期して信号増幅器SAMPにて順次電圧変換と増幅
が行われ、さらにCPU100に内蔵されたA/D変換
器によりアナログ値からデジタル値に変換される。ここ
で、水平方向にはL個の画素あるから、CPU100は
図12のR(1)〜R(L)に対応するL個のデジタル
値を読み込む。First, S is stored in the horizontal transfer register by φVO.
Charge transfer from TLLOW is performed, and then φ
The first pixel at R (1) in the figure that outputs HO, R (2)
The second pixel is read at, and the L pixel is read at R (L).
At this time, the charges horizontally transferred by φHO are sequentially voltage-converted and amplified by the signal amplifier SAMP in synchronization with the horizontal transfer, and further the analog value is converted to the digital value by the A / D converter incorporated in the CPU 100. Is converted to. Here, since there are L pixels in the horizontal direction, the CPU 100 reads L digital values corresponding to R (1) to R (L) in FIG.
【0100】CPU100に格納したR(1)に対応す
るデジタル値をD(1),R(2)に対応するデジタル
値をD(2),R(L)に対応するデジタル値をD
(L)とすると、図10のSIMGBH1,SIMGB
H2,SIMGBH3,SIMGBH4の各領域に対応
するデジタル値は SIMGBH1:D(1)〜D(L/4) SIMGBH2:D((L/4)+1)〜D(2L/
4) SIMGBH3:D((2L/4)+1)〜D(3L/
4) SIMGBH4:D((3L/4)+1)〜D(L) となり輝度情報としてはThe digital value corresponding to R (1) stored in the CPU 100 is D (1), the digital value corresponding to R (2) is D (2), and the digital value corresponding to R (L) is D.
(L), SIMGBH1, SIMGB in FIG.
The digital value corresponding to each area of H2, SIMGBH3, and SIMGBH4 is SIMGBH1: D (1) to D (L / 4) SIMGBH2: D ((L / 4) +1) to D (2L /
4) SIMGBH3: D ((2L / 4) +1) to D (3L /
4) SIMGBH4: D ((3L / 4) +1) to D (L), and the luminance information is
【0101】[0101]
【外1】 となる演算結果が得られる。[Outer 1] The calculation result is obtained.
【0102】このとき、SIMGBH1なる値は図8の
SIMGB1で示された領域に照射された光量により光
電変換された電荷の1画素あたりの平均値であり、これ
を各領域毎に行うことで、各領域の輝度としての情報と
して利用している。At this time, the value SIMGBH1 is the average value per pixel of the charges photoelectrically converted by the amount of light applied to the area indicated by SIMGB1 in FIG. 8. By performing this for each area, It is used as information as the brightness of each area.
【0103】図13はSIMGBV2についての輝度情
報を求めるための駆動タイミングを示す図、図14はS
IMGBV3についての輝度情報を求めるための駆動タ
イミングを示す図である。FIG. 13 is a diagram showing a drive timing for obtaining the luminance information about SIMGBV2, and FIG. 14 is an S timing chart.
It is a figure which shows the drive timing for calculating | requiring the brightness | luminance information about IMGBV3.
【0104】これら2つのタイミングにおいても、蓄積
中のDRV−Bなる駆動を行っている領域の輝度情報が
求まる。すなわち図13からはDRV−Bなる駆動はS
IMGBV2にて行っているから、この駆動からはSI
MGBV2領域の輝度情報が求まる。ただし、このとき
はDRV−Bなる駆動を前にDRV−Aなる駆動を予め
行い、蓄積前には1ライン目にあった電荷をC(1,
1)なる間隔でK/3回のφVO出力でK/3+1ライ
ン目までの転送を行っている。Also at these two timings, the luminance information of the driving region DRV-B which is being accumulated can be obtained. That is, from FIG. 13, the drive called DRV-B is S
Since it is performed by IMGBV2, SI is started from this drive.
The brightness information of the MGBV2 area is obtained. However, at this time, the drive of DRV-A is performed in advance before the drive of DRV-B, and the charge on the first line before the accumulation is changed to C (1,
1) The transfer to the K / 3 + 1th line is performed by the φVO output of K / 3 times at the interval.
【0105】そして、図13のSIMGBV2領域から
の輝度情報により図8のSIMGB5、SIMGB6、
SIMGB7、SIMGB8の輝度情報が算出される。
同様にして図14においてはSIMGBV3領域の輝度
情報が求まり、図8のSIMGB9、SIMGB10、
SIMGB11、SIMGB12の輝度情報が算出され
る。Then, according to the luminance information from the SIMGBV2 area of FIG. 13, SIMGB5, SIMGB6 of FIG.
The brightness information of SIMGB7 and SIMGB8 is calculated.
Similarly, in FIG. 14, the luminance information of the SIMGBV3 area is obtained, and SIMGB9, SIMGB10, and
The brightness information of SIMGB11 and SIMGB12 is calculated.
【0106】このようにして図8に示されたSIMGB
1〜SIMGB12までの12の領域の輝度情報を得
る。SIMGB thus shown in FIG.
The brightness information of 12 areas from 1 to SIMGB 12 is obtained.
【0107】次にこのようにCCD−EYE14の検出
領域を12分割して得られた眼球像の輝度情報をもとに
CCD−EYEに14の蓄積時間とセンサー出力の増幅
特性を設定する方法について説明する。Next, regarding the method for setting the accumulation time of 14 and the amplification characteristic of the sensor output in the CCD-EYE based on the luminance information of the eyeball image obtained by dividing the detection area of the CCD-EYE 12 into 12 in this way explain.
【0108】図15は12分割された各検出領域に対す
る眼球像の様子を示したものである。図8での各検出領
域SIMGB1〜12は図15ではI〜XIIに対応し
ている。ここで検出領域の中央部Aである領域VI、V
IIの輝度値をA1 、A2 又中央部Aの上下の領域の中
間部Bである領域II、III、X、XIの輝度値をB
1 、B2 、B3 、B4 又検出領域の左右の領域の周辺部
Cである領域I、IV、V、VIII、IX、XIIの
輝度値をC1 、C2 、C3 、C4 、C5 、C6とする。FIG. 15 shows a state of an eyeball image for each of the 12 divided detection areas. The detection areas SIMGB1 to 12 in FIG. 8 correspond to I to XII in FIG. Here, the regions VI and V which are the central portion A of the detection region
The brightness value of II is A 1 , A 2 or the brightness values of areas II, III, X, and XI which are intermediate portions B above and below the central portion A are B
1 , 1 , B 2 , B 3 , B 4, or the brightness values of the regions I, IV, V, VIII, IX, and XII which are the peripheral portions C on the left and right of the detection region are C 1 , C 2 , C 3 , and C 4. , C 5 , and C 6 .
【0109】図16はフローチャート図6の#203の
“CCDの蓄積時間、増幅特性の設定”のフローチャー
トである。まず前述のCCDのブロック駆動し(#30
1)を行ない、これによって12分割された各分割領域
の輝度値を決定する(#302)。FIG. 16 is a flow chart of "setting of CCD accumulation time and amplification characteristic" in # 203 of the flow chart of FIG. First, block driving of the above-mentioned CCD (# 30
1) is performed, and the brightness value of each of the 12 divided areas is determined (# 302).
【0110】図17はCPU100のEEPROM10
0aに記憶されている蓄積時間と増幅特性の設定値を示
したAGCテーブルである。次に各検出領域I〜XII
の輝度値をもとに所定のアルゴリズムによって眼球像の
輝度値Beを算出し(#303)、このBe値をもとに
EEPROM100aのAGCテーブル1〜8のいずれ
かが選ばれ、各アドレス上に記憶された蓄積時間と増幅
率と増幅特性の設定値を読み込むようになっている(#
304)。そして設定が終了するとリターンする(#3
05)。MPU100は読み込まれた設定値によってC
CD−EYEの蓄積を行ないセンサー出力を増幅して像
信号を出力するように視線検出回路を制御する。FIG. 17 shows the EEPROM 10 of the CPU 100.
It is an AGC table showing the accumulation time and the setting value of the amplification characteristic stored in 0a. Next, each detection area I to XII
The brightness value Be of the eyeball image is calculated by a predetermined algorithm based on the brightness value of (No. 303), and one of the AGC tables 1 to 8 of the EEPROM 100a is selected based on this Be value, and it is selected on each address. The stored accumulation time, amplification factor and amplification characteristic setting values are read (#
304). Then, when the setting is completed, it returns (# 3
05). MPU100 is C according to the read setting value
The line-of-sight detection circuit is controlled so as to accumulate CD-EYE, amplify the sensor output, and output an image signal.
【0111】次にこの像信号をA/D変換する事によっ
てプルキンエ像や瞳孔部の特徴抽出を行なうのは図6の
フローチャート#205、#206ですでに述べた通り
である。この時の像信号出力を図21に示すようにプ
ルキンエ像がプルキンエ像と判定するしきい値W以上で
ある。虹彩部17の像出力レベルがしきい値W以下で
あり、かつ虹彩部17と瞳孔19との像出力レベルの差
分しきい値がV以上であるようという検出アルゴリズム
の条件を満たすように蓄積時間と増幅特性を設定し
ている。Next, the A / D conversion of this image signal is performed to extract the features of the Purkinje image and the pupil portion, as already described in the flow charts # 205 and # 206 of FIG. The image signal output at this time is equal to or greater than the threshold value W for determining that the Purkinje image is the Purkinje image as shown in FIG. The accumulation time is set so that the image output level of the iris part 17 is equal to or lower than the threshold value W and the difference threshold value of the image output level between the iris part 17 and the pupil 19 is equal to or higher than V. And the amplification characteristics are set.
【0112】ここでAGテーブル1〜8に設定されてい
る増幅特性の非線形増幅と線形増幅について説明するプ
ルキンエ像はその性格から非常に光強度の強い輝点とし
て現われる為、外光の影響が少ない室内や日陰での撮影
では虹彩部のセンサー出力とプルキンエ像の出力差が非
常に大きく、プルキンエ像のセンサー出力が飽和してし
まう。Here, the Purkinje image for explaining the non-linear amplification and the linear amplification of the amplification characteristics set in the AG tables 1 to 8 appears as a bright spot having a very strong light intensity due to its nature, and therefore is less affected by outside light. When shooting indoors or in the shade, the output difference between the sensor output of the iris and the Purkinje image is very large, and the sensor output of the Purkinje image is saturated.
【0113】又、プルキンエ像の出力自体が非常に変動
の大きい性質をもっている為、虹彩部とプルキンエ像と
を同じ眼球像のセンサー出力レベルで同時に検出する事
が困難な場合が生じていた。Further, since the output of the Purkinje image itself has a very large variation, it has been difficult to detect the iris portion and the Purkinje image at the same eyeball image sensor output level at the same time.
【0114】そこで図18はイメージセンサーの出力を
増幅する様子を示した特性図で、これに示すようにセン
サー出力を非線形増幅し、増幅された像信号に対してプ
ルキンエ像の検出しきい値レベルWを増幅率変化の大な
る点に設定する事によって解決している。Therefore, FIG. 18 is a characteristic diagram showing how the output of the image sensor is amplified. As shown in this figure, the sensor output is non-linearly amplified, and the Purkinje image detection threshold level for the amplified image signal is shown. The problem is solved by setting W to the point where the amplification factor change is large.
【0115】具体的には図18においてセンサー出力が
小さいD領域の場合の増幅率を大きく設定し、例えば約
10〜20倍に設定し、センサー出力が大きいE領域の
場合の増幅率を小さく設定し、例えば約1〜2倍程度に
設定する。これによってイメージセンサーの出力がPI
1からPI2まで変動しても検出する像出力はPO1か
らPO2までしか変動しない。すなわち、センサー出力
がPI2/PI1比変動しても像出力はPO2/PO1
比となり相対的な変動比が小さくなる。そしてプルキン
エ像の検出しきい値レベルをD領域とE領域との変換点
近傍に設定する事によってプルキンエ像のセンサー出力
がPI3以上であれば変動の少ない像信号出力が得られ
安定してプルキンエ像が検出できる事となる。一定鎖線
fは変換点のない線形特性を示しており増幅率は常に一
定である。Specifically, in FIG. 18, the amplification factor is set large in the D region where the sensor output is small, for example, about 10 to 20 times, and the amplification factor is set small in the E region where the sensor output is large. However, for example, it is set to about 1 to 2 times. This makes the output of the image sensor PI.
Even if it changes from 1 to PI2, the detected image output changes only from PO1 to PO2. That is, even if the sensor output changes in the PI2 / PI1 ratio, the image output is PO2 / PO1.
It becomes a ratio and the relative fluctuation ratio becomes small. By setting the detection threshold level of the Purkinje image in the vicinity of the conversion point between the D region and the E region, if the sensor output of the Purkinje image is PI3 or more, an image signal output with little fluctuation can be obtained and a stable Purkinje image can be obtained. Can be detected. The constant chain line f shows a linear characteristic without a conversion point, and the amplification factor is always constant.
【0116】またAGCテーブル1〜8の特徴的な事は
蓄積時間と増幅率(Gain)と増幅特性とが1組とな
って決定されるようになっておりAGCテーブル数の削
減に役立っている。さらに前述の非線形特性を眼球輝度
Beがある一定以上(実施例では12以上)から線形特
性に切り換えている。これは眼球像の輝度がかなり明る
くなり、蓄積時間が短く増幅率も小さくなると、プルキ
ンエ像の虹彩部に対する相対的な像信号の出力比が眼球
像の輝度か暗い時に比べて小さくなる。これを補う為に
線形特性に切り換え、プルキンエ像の像信号出力を相対
的に高くして検出しやすくしているものである。The characteristic of the AGC tables 1 to 8 is that the accumulation time, the amplification factor (Gain), and the amplification characteristic are determined as one set, which is useful for reducing the number of AGC tables. . Furthermore, the above-mentioned non-linear characteristic is switched to a linear characteristic from a certain level or more (12 or more in the embodiment) of the eyeball brightness Be. This is because the luminance of the eyeball image becomes considerably bright, and when the accumulation time is short and the amplification factor is small, the output ratio of the image signal relative to the iris portion of the Purkinje image becomes smaller than that when the luminance of the eyeball image is dark. In order to compensate for this, the characteristic is switched to a linear characteristic, and the image signal output of the Purkinje image is made relatively high to facilitate detection.
【0117】次に各分割領域I〜XIIの輝度値をもと
に眼球像の輝度値Beを求める(#303)アルゴリズ
ムについて図19にて説明する。まず輝度値A1 、A
2 、B1 、B2 、B3 、B4 、C1 、C2 、C3 、C
4 、C5 、C6 の中で、極端に明るい輝度であるもの
は、外光によるゴーストと判断し、しきい値Fより大な
るものを排除する(#401)。同様に極端に暗い輝度
であるものは、暗い室内にて眼球の存在しない部分(像
が存在しない部分)と判断し、しきい値Gより小なるも
のを排除する(#402)。Next, an algorithm for obtaining the brightness value Be of the eyeball image (# 303) based on the brightness values of the divided areas I to XII (# 303) will be described with reference to FIG. First, the brightness values A 1 , A
2 , B 1 , B 2 , B 3 , B 4 , C 1 , C 2 , C 3 , C
Of 4 , C 5 , and C 6 , those having extremely bright brightness are determined to be ghosts due to external light, and those having a value larger than the threshold F are excluded (# 401). Similarly, if the brightness is extremely dark, it is determined that the eyeball does not exist (the image does not exist) in the dark room, and the one smaller than the threshold G is excluded (# 402).
【0118】次に図15から判るようにファインダーを
覗く場合にほぼ中央に瞳孔を置くことによってファイン
ダーが一番見えやすくなる為、一般的検出領域の中央部
Aに虹彩部が一番大きく、次に中間部Bに虹彩部が掛か
っている事が多い。従って本実施例においては#40
1、#402で排除された輝度情報を除いたA部の輝度
値平均Ai、B部の輝度値平均Bi、C部の輝度値平均
Ciとすると、Next, as can be seen from FIG. 15, since the finder can be seen most easily by placing the pupil in the center when looking into the finder, the iris portion is the largest in the central portion A of the general detection area. In addition, the iris part is often hung on the middle part B. Therefore, in this embodiment, # 40
1, the brightness value average Ai of the A part excluding the brightness information excluded in # 402, the brightness value average Bi of the B part, and the brightness value average Ci of the C part are
【0119】[0119]
【外2】 で示される、中央部Aに重み付けを大きく、中間部Bに
やや大きく、周辺部Cに少なく掛ける重み付け演算を行
なっている(#403)。これによって眼球部の輝度値
Beが決定され#303のアルゴリズムが終了する(#
404)。ここで#401、#402にてしきい値Fよ
り大なるもの、しきい値Gより小なるものを排除した
が、これらを排除する代わりにしきい値F、Gを各々の
輝度値として置き換えても良い。[Outside 2] A weighting operation is performed in which the central portion A is heavily weighted, the intermediate portion B is slightly large, and the peripheral portion C is slightly weighted (# 403). As a result, the brightness value Be of the eyeball portion is determined, and the algorithm of # 303 ends (#
404). Here, in # 401 and # 402, those larger than the threshold value F and those smaller than the threshold value G are excluded, but instead of eliminating them, the threshold values F and G are replaced as respective luminance values. Is also good.
【0120】これによって眼球部への外光ノイズによっ
て眼球像の明るさを誤る事なく、かつ虹彩部を中心とし
た眼球の明るさを判定する事ができるのである。As a result, the brightness of the eyeball centering on the iris part can be determined without erroneous brightness of the eyeball image due to external light noise on the eyeball part.
【0121】[0121]
【発明の効果】以上説明したように、照射される輝度に
応じ光電変換を行う光電変換手段と、光電変換された電
荷を蓄える電荷蓄積手段とからなる単位画素を、連続に
配置し、転送信号により画素内の光電変換された電荷を
隣接画素の1つに転送するセンサー(いわゆるCCD
等)の蓄積時間を決定する情報を本蓄積の前にブロック
単位でセンサー駆動を行ない、前記の情報を必要とする
ブロック領域中を転送している時のみ転送速度を遅くす
る事によって1画素毎の駆動時より短い時間で求めら
れ、一連の蓄積制御にかかる時間を短縮するとともに正
確にセンサー装置の蓄積時間を制御することができ、本
蓄積制御装置を用いたシステム全体の機能が向上する効
果がある。又蓄積時間を決定するのに要する時間が短い
ため、専用の光電センサーを設ける必要もないといった
効果がある。As described above, the unit pixel composed of the photoelectric conversion means for performing the photoelectric conversion according to the brightness to be irradiated and the charge storage means for storing the photoelectrically converted charges is arranged continuously and the transfer signal is transmitted. A sensor that transfers the photoelectrically converted charge in one pixel to one of the adjacent pixels (a so-called CCD
For each pixel by driving the sensor for the information which determines the storage time of (etc.) in block units before the main storage and slowing down the transfer speed only when transferring the above information in the block area that requires it. It is required in a shorter time than when driving, and it is possible to shorten the time required for a series of storage control and accurately control the storage time of the sensor device, which improves the function of the entire system using this storage control device. There is. Further, since the time required to determine the accumulation time is short, there is an effect that it is not necessary to provide a dedicated photoelectric sensor.
【0122】さらにカメラなどの被写体輝度の測定手段
を用いて蓄積制御を行なうのに比べて飛躍的に正確な蓄
積制御を行なえ、視線検出装置に応用した場合も精度の
良い画像処理を行なえるといった効果がある。Further, as compared with performing storage control using a subject brightness measuring means such as a camera, it is possible to perform dramatically more accurate storage control, and it is possible to perform accurate image processing even when applied to a visual axis detection device. effective.
【図1】一眼レフカメラの配置図。FIG. 1 is a layout view of a single-lens reflex camera.
【図2】一眼レフカメラの後面図。FIG. 2 is a rear view of the single-lens reflex camera.
【図3】ファインダー視野図。FIG. 3 is a viewfinder view.
【図4】カメラの電気回路図。FIG. 4 is an electric circuit diagram of the camera.
【図5】視線検出装置を有したカメラの動作のフローチ
ャート。FIG. 5 is a flowchart of the operation of a camera having a visual line detection device.
【図6】視線検出のフローチャート。FIG. 6 is a flowchart of eye gaze detection.
【図7】イメージセンサーCCD−EYEのブロック
図。FIG. 7 is a block diagram of an image sensor CCD-EYE.
【図8】イメージセンサーCCD−EYEの分割領域
図。FIG. 8 is a divided area diagram of an image sensor CCD-EYE.
【図9】イメージセンサーCCD−EYEの水平方向領
域の説明図。FIG. 9 is an explanatory diagram of a horizontal area of the image sensor CCD-EYE.
【図10】イメージセンサーCCD−EYEの垂直方向
領域の説明図。FIG. 10 is an explanatory diagram of a vertical area of an image sensor CCD-EYE.
【図11】イメージセンサーCCD−EYEの駆動タイ
ミング図。FIG. 11 is a drive timing chart of the image sensor CCD-EYE.
【図12】イメージセンサーCCD−EYEの駆動タイ
ミング図。FIG. 12 is a drive timing chart of the image sensor CCD-EYE.
【図13】イメージセンサーCCD−EYEの駆動タイ
ミング図。FIG. 13 is a driving timing chart of the image sensor CCD-EYE.
【図14】イメージセンサーCCD−EYEの駆動タイ
ミング図。FIG. 14 is a drive timing chart of the image sensor CCD-EYE.
【図15】検出領域に対する眼球像の模式図。FIG. 15 is a schematic diagram of an eyeball image for a detection region.
【図16】蓄積時間と増幅特性の設定のフローチャー
ト。FIG. 16 is a flowchart for setting a storage time and an amplification characteristic.
【図17】AGCテーブル。FIG. 17 is an AGC table.
【図18】イメージセンサー出力の増幅特性図。FIG. 18 is an amplification characteristic diagram of an image sensor output.
【図19】眼球輝度を求めるアルゴリズムを示したフロ
ーチャート。FIG. 19 is a flowchart showing an algorithm for obtaining eyeball luminance.
【図20】視線検出方法の原理説明図。FIG. 20 is an explanatory view of the principle of the eye gaze detection method.
【図21】眼球像とイメージセンサーの出力図。FIG. 21 is an output diagram of an eyeball image and an image sensor.
1 撮影レンズ 2 主ミラー 6 焦点検出装置 6f イメージセンサー 7 ピント板 10 測光センサー 11 接眼レンズ 13 赤外発光ダイオード(IRED) 14 イメージセンサー(CCD−EYE) 15 眼球 16 角膜 17 虹彩 19 瞳孔 21 スーパーインポーズ用LED 24 ファインダー内LCD 25 照明用LED 27 水銀スイッチ 31 絞り 100 CPU 101 視線検出回路 103 焦点検出回路 104 信号入力回路 105 LCD駆動回路 106 LED駆動回路 107 IRED駆動回路 110 焦点調節回路 200 測距点マーク(キャリブレーション視標) 201 測距点マーク(キャリブレーション視標) 203 測距点マーク(キャリブレーション視標) 204 測距点マーク(キャリブレーション視標) 1 Photographic Lens 2 Main Mirror 6 Focus Detection Device 6f Image Sensor 7 Focus Plate 10 Photometric Sensor 11 Eyepiece Lens 13 Infrared Light Emitting Diode (IRED) 14 Image Sensor (CCD-EYE) 15 Eyeball 16 Cornea 17 Iris 19 Pupil 21 Superimpose LED 24 Finder LCD 25 Illumination LED 27 Mercury switch 31 Aperture 100 CPU 101 Line-of-sight detection circuit 103 Focus detection circuit 104 Signal input circuit 105 LCD drive circuit 106 LED drive circuit 107 IRED drive circuit 110 Focus adjustment circuit 200 Focusing point mark (Calibration target) 201 Distance measuring point mark (Calibration target) 203 Distance measuring point mark (Calibration target) 204 Distance measuring point mark (Calibration target)
Claims (1)
蓄積する光電変換部と、前記光電変換部に蓄積された光
電変換出力を読み出すための読みだし部とを具えた単位
画素を複数個有し、前記単位画素は互いに隣接して連続
に配置され、1回の転送信号出力により画素内に蓄えら
れた光電変換信号出力を隣接画素に転送する光電変換素
子において、前記転送信号の出力間隔を変化させる転送
信号出力可変手段を設け、該転送信号出力可変手段によ
り、転送間にて、照射される光量に応じ光電変換信号出
力の蓄積を行うことを特徴とする光電変換素子の蓄積制
御装置。1. A plurality of unit pixels each including a photoelectric conversion unit for accumulating photoelectrically converted charges according to an incident light beam and a reading unit for reading out photoelectric conversion output accumulated in the photoelectric conversion unit. In the photoelectric conversion element that has the unit pixels and is continuously arranged adjacent to each other and transfers the photoelectric conversion signal output accumulated in the pixel to the adjacent pixel by one transfer signal output, the output interval of the transfer signal. And a transfer signal output varying means for varying the photoelectric conversion signal output varying means for accumulating the photoelectric conversion signal output according to the amount of light irradiated during the transfer. .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29301992A JP3437201B2 (en) | 1992-10-30 | 1992-10-30 | Photoelectric conversion device |
US08/142,062 US5541400A (en) | 1992-10-29 | 1993-10-28 | Accumulation control apparatus for photoelectric conversion element and visual axis detection apparatus using the element |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29301992A JP3437201B2 (en) | 1992-10-30 | 1992-10-30 | Photoelectric conversion device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06153092A true JPH06153092A (en) | 1994-05-31 |
JP3437201B2 JP3437201B2 (en) | 2003-08-18 |
Family
ID=17789434
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29301992A Expired - Fee Related JP3437201B2 (en) | 1992-10-29 | 1992-10-30 | Photoelectric conversion device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3437201B2 (en) |
-
1992
- 1992-10-30 JP JP29301992A patent/JP3437201B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP3437201B2 (en) | 2003-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3158643B2 (en) | Camera having focus detecting means and line-of-sight detecting means | |
US5987151A (en) | Apparatus for detecting visual axis | |
US5541400A (en) | Accumulation control apparatus for photoelectric conversion element and visual axis detection apparatus using the element | |
JP3352238B2 (en) | Eye gaze detection device and camera | |
JP3297481B2 (en) | Eye gaze detection device | |
US5402199A (en) | Visual axis detecting apparatus | |
JP2004008323A (en) | Optical device with visual axis function | |
JP3184633B2 (en) | camera | |
JP4054436B2 (en) | Optical device | |
JP3256294B2 (en) | Eye gaze detection apparatus and eye gaze detection method | |
JPH06153092A (en) | Storage controller of photoelectric conversion element | |
JPH06138376A (en) | Line-of-sight detecting device | |
JP3352195B2 (en) | Eye gaze detecting device, optical device, and eye gaze detecting method | |
JP3559622B2 (en) | Gaze detection device and optical apparatus having gaze detection device | |
JP3391892B2 (en) | Eye gaze detecting device, optical device, and eye gaze detecting method | |
JPH07151958A (en) | Optical equipment with line-of-sight detecting function | |
JP3530647B2 (en) | Eye gaze detecting device and optical device | |
JP3176147B2 (en) | Eye gaze detection device | |
JPH10148864A (en) | Photometry device for camera | |
JP3530648B2 (en) | Eye gaze detecting device and optical device | |
JP3630762B2 (en) | Eyeball image light receiving device and eyeball image light receiving control method | |
JPH06148511A (en) | Line-of-sight detector and optical device with the same | |
JP3211427B2 (en) | Eye gaze detection device | |
JPH08286240A (en) | Photographing device | |
JP3332581B2 (en) | An optical device, a camera, a line-of-sight detection device, a line-of-sight detection method, and a relative position determination method between an eyepiece and an eyeball position. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030520 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080606 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090606 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090606 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100606 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110606 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120606 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |