JP3199877B2 - Eye gaze detection device - Google Patents

Eye gaze detection device

Info

Publication number
JP3199877B2
JP3199877B2 JP31441092A JP31441092A JP3199877B2 JP 3199877 B2 JP3199877 B2 JP 3199877B2 JP 31441092 A JP31441092 A JP 31441092A JP 31441092 A JP31441092 A JP 31441092A JP 3199877 B2 JP3199877 B2 JP 3199877B2
Authority
JP
Japan
Prior art keywords
pupil
image
value
line
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP31441092A
Other languages
Japanese (ja)
Other versions
JPH06148509A (en
Inventor
一樹 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP31441092A priority Critical patent/JP3199877B2/en
Publication of JPH06148509A publication Critical patent/JPH06148509A/en
Application granted granted Critical
Publication of JP3199877B2 publication Critical patent/JP3199877B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B2213/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B2213/02Viewfinders
    • G03B2213/025Sightline detection

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、ビデオカメラ等に配置
される視線検出装置の改良に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an improvement in a gaze detecting device arranged in a video camera or the like.

【0002】[0002]

【従来の技術】従来のプルキンエ像(角膜反射像)の位
置算出方法としては、特開昭61−172552号など
に開示されている。この特開昭61−172552号に
は、以下のように記載されている。
2. Description of the Related Art A conventional method for calculating the position of a Purkinje image (corneal reflection image) is disclosed in Japanese Patent Application Laid-Open No. Sho 61-172552. This Japanese Patent Application Laid-Open No. Sho 61-172552 describes as follows.

【0003】図16は、一つの半導体一次元撮像素子
(ここでは31)のセンサアレイ部31aに観察者の瞳
孔50,虹彩51が結像した状態を示し、図17は、そ
の時の半導体一次元撮像素子31のセンサアレイ部31
a上の像の明るさの分布を表している。
FIG. 16 shows a state in which a pupil 50 and an iris 51 of an observer are imaged on a sensor array section 31a of one semiconductor one-dimensional imaging device (here, 31), and FIG. Sensor array unit 31 of image sensor 31
3A shows the distribution of the brightness of the image on a.

【0004】虹彩51は瞳孔50よりも反射率が高いの
で、像として明るくなる。図17において、明るさの大
きく変化する点53,54は、図16における瞳孔50
と虹彩51の境界52がセンサアレイ部31aと交差す
る二つの点53a,54aに対応する。尚、図17に示
す55はプルキンエ像PIに対応する出力である。
Since the iris 51 has a higher reflectance than the pupil 50, it becomes brighter as an image. In FIG. 17, points 53 and 54 where the brightness changes greatly are pupils 50 in FIG.
And the iris 51 correspond to two points 53a and 54a that intersect with the sensor array 31a. Incidentally, 55 shown in FIG. 17 is an output corresponding to the Purkinje image PI.

【0005】例えば、各画素毎にA/D変換器によりデ
ィジタル化されたデータを該半導体一次元撮像素子31
の両端それぞれから調べていき、それぞれ初めに明るい
レベル56から暗いレベル57へ変化した点を求めれ
ば、瞳孔50と虹彩51の境界52がセンサアレイ部3
1aと交差する二点53a,54aを求めることができ
る。そして、この交差する二点53a,54aの平均を
とることにより、撮影者の瞳孔中心を求める。
For example, data digitized by an A / D converter for each pixel is transferred to the semiconductor one-dimensional image pickup device 31.
When the point at which the level changes from the bright level 56 to the dark level 57 at first is obtained, the boundary 52 between the pupil 50 and the iris 51 is detected.
Two points 53a and 54a intersecting with 1a can be obtained. Then, the center of the pupil of the photographer is obtained by taking the average of these two intersecting points 53a and 54a.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、半導体
一次元撮像素子より得られる実際の信号波形は図18〜
図21に示すようなものであり、単純に明るいレベルか
ら暗いレベルに変化した初めの点を求める従来の方法に
おいては、正確に瞳孔エッジを抽出することは困難であ
った。
However, actual signal waveforms obtained from a semiconductor one-dimensional image sensor are shown in FIGS.
As shown in FIG. 21, it is difficult to accurately extract a pupil edge by the conventional method of simply finding the first point at which the level changes from a bright level to a dark level.

【0007】また、プルキンエ像が瞳孔の外にあること
や、垂直方向の検出においては瞳孔が瞼でけられる事が
良くある。このような場合も明るいレベルから暗いレベ
ルへの初めの変化点は瞳孔エッジとはならず、従来の方
法では瞳孔中心の算出はできなかった。
Further, it is often the case that the Purkinje image is outside the pupil, and the pupil is often shaken by the eyelid in the vertical detection. Also in such a case, the initial transition point from the light level to the dark level does not become the pupil edge, and the pupil center cannot be calculated by the conventional method.

【0008】(発明の目的)本発明の目的は、瞳孔エッ
ジの抽出を常に正確に行うことのできる視線検出装置を
提供することである。
(Object of the Invention) It is an object of the present invention to provide a gaze detecting apparatus capable of always accurately extracting a pupil edge.

【0009】[0009]

【課題を解決するための手段】 上記目的を達成するた
めに、請求項1に記載した発明は、眼球を照明する照明
手段と、前記照明手段により照明された前記眼球を撮像
する撮像センサと、前記撮像センサの出力から前記眼球
の瞳孔および角膜反射像の位置を求めて、視線を検出す
る視線検出手段とを有する視線検出装置において、前記
視線検出手段は、前記撮像センサを複数のエリアに分割
して、各エリア毎の最低輝度値と前記撮像センサの全エ
リア内での最低輝度値とを検出するとともに、全エリア
内での最低輝度値と各エリア毎の最低輝度値とをそれぞ
れ比較して、全エリア内での最低輝度値と一致する最低
輝度値であるエリアのみの出力に基づいて前記瞳孔の位
置を求めることを特徴としている。
Means for Solving the Problems To achieve the above object,
The first aspect of the present invention provides an illumination for illuminating an eyeball.
Means and an image of the eye illuminated by the illuminating means
The eyeball from the output of the imaging sensor
The position of the pupil and corneal reflection image of
A line-of-sight detection device comprising:
The line-of-sight detecting means divides the image sensor into a plurality of areas.
Then, the minimum luminance value for each area and the total
In addition to detecting the lowest luminance value in the rear,
The minimum luminance value within the area and the minimum luminance value for each area
The minimum brightness value that matches the lowest brightness value in all areas
The position of the pupil is determined based on the output of only the area that is the luminance value.
It is characterized by seeking the position.

【0010】 上記目的を達成するために、請求項2に
記載した発明は、眼球を照明する照明手段と、前記照明
手段により照明された前記眼球を撮像する撮像センサ
と、前記撮像センサの出力から前記眼球の瞳孔および角
膜反射像の位置を求めて、視線を検出する視線検出手段
とを有する視線検出装置において、前記視線検出手段
は、前記撮像センサの出力から所定の条件を満たす部分
を瞳孔と虹彩の境界位置の候補として複数箇所抽出し、
抽出した境界位置の候補のうち前記角膜反射像の位置の
周辺にあるものを排除して、残りの境界位置の候補だけ
を用いて前記瞳孔の位置を求めることを特徴としてい
る。
[0010] To achieve the above object, the present invention provides
The described invention provides an illumination unit for illuminating an eyeball, and the illumination unit.
Sensor for imaging the eyeball illuminated by means
And the pupil and angle of the eyeball from the output of the imaging sensor
Line-of-sight detecting means for detecting the position of the film reflection image and detecting the line of sight
A line-of-sight detecting device comprising:
Is a portion satisfying a predetermined condition from the output of the image sensor.
Are extracted at multiple locations as candidates for the boundary position between the pupil and the iris,
Of the extracted boundary position candidates, the position of the corneal reflection image
Exclude peripheral objects and only remaining boundary position candidates
Is used to determine the position of the pupil.
You.

【0011】[0011]

【0012】[0012]

【0013】[0013]

【実施例】以下、本発明を図示の実施例に基づいて詳細
に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the illustrated embodiments.

【0014】図1は本発明の第1の実施例における視線
検出装置を備えたカメラの概略構成を示すブロック図で
ある。
FIG. 1 is a block diagram showing a schematic configuration of a camera provided with a visual line detecting device according to a first embodiment of the present invention.

【0015】図1において、1はMPU(マイクロプロ
セッシングユニット)、2はメモリ、3は後述のCCD
及びIRED(赤外発光ダイオード)を駆動する為のド
ライバ回路、4は二次元撮像素子であるところのCC
D、5は観察者の眼球に対して不感の赤外光を投射する
複数のIREDから構成されるIRED群であり、水平
・垂直方向に所定の間隔をもってそれぞれ2個、つまり
ペアとなって配置されている。6はAF(オートフォー
カス)を行うためのレンズ駆動ユニット、7は絞り駆動
ユニット、8はシャッタユニットである。
In FIG. 1, 1 is an MPU (Micro Processing Unit), 2 is a memory, and 3 is a CCD described later.
And a driver circuit for driving an IRED (infrared light emitting diode), and 4 is a CC which is a two-dimensional image sensor.
Reference numerals D and 5 denote IRED groups each composed of a plurality of IREDs projecting insensitive infrared light to the observer's eyeball. Two IREDs are arranged at predetermined intervals in the horizontal and vertical directions, that is, arranged in pairs. Have been. Reference numeral 6 denotes a lens drive unit for performing AF (auto focus), 7 denotes an aperture drive unit, and 8 denotes a shutter unit.

【0016】図2は上記構成から成る視線検出装置を備
えたカメラのメイン動作を示すフローチャートである。
FIG. 2 is a flow chart showing the main operation of the camera provided with the visual axis detection device having the above-mentioned configuration.

【0017】カメラの不図示のレリーズ釦の第1ストロ
ーク操作に連動するスイッチSW1のONなどにより視
線検出の要求がなされると、MPU1はステップ102
からの視線検出のルーチンに入る。
When a line-of-sight detection request is made by turning on a switch SW1 linked to a first stroke operation of a release button (not shown) of the camera, the MPU 1 executes step 102.
Enters the line-of-sight detection routine.

【0018】ステップ102においては、演算に使用す
る変数の初期化処理を行い、次のステップ103におい
て、蓄積時間の設定を行う(ステップ103)。これは
眼鏡の有無・外光の強度等を考慮して行い、同時にIR
ED群5内より点灯させるべくIREDペアの選択も行
う。そして、ステップ104以降の蓄積制御動作へと移
る。
In step 102, a process for initializing variables used for calculation is performed, and in the next step 103, an accumulation time is set (step 103). This is done in consideration of the presence or absence of glasses, the intensity of external light, etc.
An IRED pair is also selected for lighting from within the ED group 5. Then, the process proceeds to the accumulation control operation after step 104.

【0019】まず、ステップ104においては、CCD
4の電荷クリア動作を行うための指示をドライバ回路3
に対して行う。この指示を受けたドライバ回路3はクリ
ア動作を行い、CCD4のメモリゾーン、電荷転送ライ
ン等に残っている電荷を消去する。次いで、ステップ1
05において、上記ステップ103において選択したI
REDペアを点灯させるためにIRED選択信号をドラ
イバ回路3に送信すると同時に、蓄積信号をハイレベル
にしてCCD4による蓄積を開始し、上記の設定した蓄
積時間が経過したら蓄積信号をローレベルにし、蓄積を
終了する。この蓄積に同期して選択されたIREDペア
は点灯することになる。
First, in step 104, the CCD
The instruction for performing the charge clear operation of the driver circuit 3
Do for Upon receiving this instruction, the driver circuit 3 performs a clear operation, and erases charges remaining in the memory zone of the CCD 4, charge transfer lines, and the like. Then, Step 1
At 05, the I selected at step 103
At the same time as transmitting the IRED selection signal to the driver circuit 3 to turn on the RED pair, the accumulation signal is set to the high level and the accumulation by the CCD 4 is started. To end. The IRED pair selected in synchronization with the accumulation is turned on.

【0020】次いで、MPU1は光像ブロック(プルキ
ンエ像候補),瞳孔エッジ候補抽出の処理を行うステッ
プ106以降の動作へと移る。
Next, the MPU 1 shifts to the operation after step 106 for extracting optical image blocks (Purkinje image candidates) and pupil edge candidates.

【0021】まず、ステップ106においては、ドライ
バ回路3を介してCCD4の1ライン分の画像信号を順
次読み込み、A/D変換を行い、メモリ2にその値を記
憶していく。そして、次のステップ107において、こ
のデータを使って光像ブロック(プルキンエ像候補)並
びに瞳孔エッジ候補の抽出処理を行っていく。この処理
はCCD4のライン数分だけ行う。
First, in step 106, the image signals for one line of the CCD 4 are sequentially read through the driver circuit 3, A / D converted, and the values are stored in the memory 2. Then, in the next step 107, extraction processing of an optical image block (Purkinje image candidate) and a pupil edge candidate is performed using this data. This process is performed for the number of lines of the CCD 4.

【0022】ここで、上記ステップ107において行わ
れる「瞳孔エッジの抽出」に関して、図3及び図4のフ
ローチャートを用いて説明する。
Here, the "pupillary edge extraction" performed in step 107 will be described with reference to the flowcharts of FIGS.

【0023】まず、MPU1はステップ151におい
て、1ライン分のデータを読み込み、次のステップ15
2において、このデータよりこのラインにおける最低値
MINL並びにその座標を求める。そして、この「最低
値MINL」とそれまでに読み込んでいるラインの中で
の「最低値MIN+定数C」との比較を行い、この「最
低値MINL」が「最低値MIN+定数C」より小さい
かこれに略等しい値ならステップ154以降の処理を継
続するが、そうでなければこのラインにおける水平方向
の瞳孔エッジの抽出は行わず、図4において後述するス
テップ169以降の動作へと移る。
First, in step 151, the MPU 1 reads data for one line, and in the next step 15
In step 2, the minimum value MINL in this line and its coordinates are obtained from this data. Then, the “minimum value MINL” is compared with the “minimum value MIN + constant C” in the lines that have been read so far, and whether the “minimum value MINL” is smaller than the “minimum value MIN + constant C” is determined. If the value is substantially equal to this, the processing after step 154 is continued, but otherwise, the horizontal pupil edge in this line is not extracted, and the operation proceeds to the operation after step 169 described later in FIG.

【0024】瞳孔エッジの抽出は、先ず水平方向の瞳孔
エッジ抽出から行う。
The extraction of the pupil edge is first performed from the pupil edge extraction in the horizontal direction.

【0025】水平方向の瞳孔エッジ抽出は最低値MIN
Lの座標より開始する(ステップ154)。
The pupil edge extraction in the horizontal direction is the lowest value MIN
It starts from the coordinates of L (step 154).

【0026】まず、ステップ155において、カウンタ
を減算し、左側の瞳孔エッジの検出を行う。そして、出
力信号がn画素にわたって単調減少しているか否かを調
べる。すなわち、次式 d[j]<d[j−1]<d[j−2]<……<d[j−(n−1)]<d [j−n] が成り立つか否かを調べる。また、この際、単調減少が
続いていればその間はカウントを継続し、スロープの長
さDを求めておく。
First, in step 155, the counter is decremented and the left pupil edge is detected. Then, it is determined whether or not the output signal monotonously decreases over n pixels. That is, it is determined whether or not the following expression is satisfied. D [j] <d [j-1] <d [j-2] <... <D [j- (n-1)] <d [jn] . At this time, if the monotonous decrease continues, counting is continued during that time, and the length D of the slope is obtained.

【0027】次に、ステップ156において、そのスロ
ープの最低値にあたるd[j]が、それまでに読み込ま
れたラインの最低値MINに略等しいかどうか、すなわ
ち、「d[j]≦MIN+定数C」が成り立つか否かを
調べる。さらに、全てのスロープ内の画素について隣り
の画素との差が一定値Cde以上か否かを調べる。例え
ば、d[j−n]−d[j],d[j−n]−d[j−
(n−1)]……について調べる。このようにすること
によって、信号強度が最低値に略等しい瞳孔部からある
一定値以上の傾斜をもって立上がるスロープ(瞳孔エッ
ジのスロープ)を検出することができる。
Next, in step 156, it is determined whether or not d [j], which is the lowest value of the slope, is substantially equal to the lowest value MIN of the line read so far, ie, "d [j] ≤MIN + constant C" To see if it holds. Further, it is checked whether or not the difference between adjacent pixels in all the slopes is equal to or greater than a predetermined value Cde. For example, d [j-n] -d [j], d [j-n] -d [j-
(N-1)]. By doing so, it is possible to detect a slope (a pupil edge slope) that rises from the pupil portion having a signal intensity substantially equal to the lowest value with a slope equal to or more than a certain value.

【0028】次いで、ステップ157から160におい
て、まつ毛による輝度変化の影響を取り除く処理を行
う。
Next, in steps 157 to 160, processing is performed to remove the influence of the luminance change due to the eyelashes.

【0029】このまつ毛による輝度変化は図5のように
なる。そこで、アップエッジAと対になるダウンエッジ
Bがその直後にないか否かを調べることで、いま検出し
たエッジがまつ毛か否かの判断ができる。
The change in luminance due to the eyelashes is as shown in FIG. Therefore, by examining whether or not the down edge B paired with the up edge A is immediately after, it can be determined whether or not the currently detected edge is an eyelash.

【0030】上記3つの条件を満たしたならば、画素
(j−2D)付近(例えばj−2D±数画素)を調べ、
もし最低値(MIN)に略等しいものがあったなら、こ
の輝度変化はまつ毛によるものと判断する。
When the above three conditions are satisfied, the vicinity of the pixel (j-2D) (for example, j-2D ± several pixels) is examined.
If there is one that is substantially equal to the minimum value (MIN), it is determined that this luminance change is due to eyelashes.

【0031】そして、以上の4つの条件を満たしたもの
は瞳孔エッジとみなし、ステップ161において、左側
瞳孔エッジ情報としてそのライン番号1と画素番号(j
+j−D)/2をメモリ2に記憶する。
A pupil edge that satisfies the above four conditions is regarded as a pupil edge. In step 161, the line number 1 and the pixel number (j
+ J-D) / 2 is stored in the memory 2.

【0032】その後、MPU1は反対側(右側)の瞳孔
エッジを検出するステップ163以降のルーチンへ移
る。
Thereafter, the MPU 1 proceeds to a routine after step 163 for detecting the pupil edge on the opposite side (right side).

【0033】逆に、以上の4つの条件を満たさない場合
は、ステップ160から158へと戻り、隣りの画素に
移って同様の処理を行う。
Conversely, if the above four conditions are not satisfied, the process returns from step 160 to step 158, and moves to the next pixel to perform the same processing.

【0034】上記反対側(右側)の瞳孔エッジを検出す
るルーチン(ステップ163から167まで)において
も、同様の処理を行う。
Similar processing is performed in the routine for detecting the pupil edge on the opposite side (right side) (steps 163 to 167).

【0035】すなわち、 (1)n画素にわたって単調増加している(スロープの
長さDを求める)。
That is, (1) monotonically increasing over n pixels (slope length D is obtained).

【0036】(2)スロープの最低値にあたるd[j]
が最低値(MIN)に略等しい。
(2) d [j] which is the lowest value of the slope
Is substantially equal to the minimum value (MIN).

【0037】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。
(3) The difference between the pixels in all the slopes and the adjacent pixels is equal to or greater than a predetermined value Cde.

【0038】(4)アップエッジの直後にダウンエッジ
がない(まつ毛による輝度の変化ではない)。 の4つの条件を満足した場合はその位置を瞳孔エッジと
みなし、右側瞳孔エッジ情報としてそのライン番号Lと
画素番号(j+j+D)をメモリ2に記憶し、水平方向
の瞳孔エッジ抽出処理を終了する。
(4) There is no down edge immediately after the up edge (not a change in luminance due to eyelashes). When the above four conditions are satisfied, the position is regarded as a pupil edge, the line number L and the pixel number (j + j + D) are stored in the memory 2 as right pupil edge information, and the horizontal pupil edge extraction processing ends.

【0039】逆に、上記4つの条件を満たさなかった場
合は、隣りの画素に処理を移す。
On the other hand, if the above four conditions are not satisfied, the process is shifted to an adjacent pixel.

【0040】次いで、図4に示す垂直方向の瞳孔エッジ
の抽出を行う。
Next, a vertical pupil edge shown in FIG. 4 is extracted.

【0041】この処理は、メモリ2の容量の関係ですべ
ての画素の情報を用いることができないので、mライン
分の画像情報を該メモリ2に記憶しておき、抽出を行
う。
In this process, since information on all pixels cannot be used due to the capacity of the memory 2, image information for m lines is stored in the memory 2 and extracted.

【0042】まず、ラインの最低値MINLとmライン
前のライン(L−m)の最低値MIN(L−m)の値を
比較し、「MINL<MIN(L−m)」、かつ、この
最低値MINLがそれまで読み込まれたラインの中で最
低値MINより小さいかMINに略等しい値なら、上側
瞳孔エッジ抽出処理を行い(ステップ169→170→
171)、又「MIN≧MIN(L−m)」、かつ、こ
の最低値MIN(L−m)がそれまでに読み込まれたラ
インの中での最低値MINより小さいかこの値に略等し
い値なら、下側瞳孔エッジ抽出処理を行う(ステップ1
69→174→175)。それ以外は垂直方向瞳孔エッ
ジ抽出処理を行わない(ステップ169→170→17
8,ステップ169→174→178)。
First, the minimum value MINL of the line and the value of the minimum value MIN (L-m) of the line (L-m) before the m-th line are compared, and "MINL <MIN (L-m)" is obtained. If the minimum value MINL is smaller than or approximately equal to the minimum value MIN among the lines read so far, an upper pupil edge extraction process is performed (steps 169 → 170 →).
171) Also, “MIN ≧ MIN (L−m)” and a value in which this minimum value MIN (L−m) is smaller than or substantially equal to the minimum value MIN in the lines read so far. If so, a lower pupil edge extraction process is performed (step 1).
69 → 174 → 175). Otherwise, the vertical pupil edge extraction processing is not performed (steps 169 → 170 → 17).
8, steps 169 → 174 → 178).

【0043】上側瞳孔エッジ抽出処理は、水平方向と同
様な3つの条件を満たすか否かを調べることにより行う
(ステップ171,172)。すなわち、 (1)n画素にわたって単調減少している(但し、メモ
リ容量の関係で、n>mの場合はm画素にわたって単調
減少している)。
The upper pupil edge extraction process is performed by checking whether the same three conditions as those in the horizontal direction are satisfied (steps 171 and 172). That is, (1) monotonically decreasing over n pixels (however, when n> m, monotonically decreasing over m pixels due to memory capacity).

【0044】(2)スロープの最低値にあたるラインL
の値が最低値(MIN)に略等しい。
(2) Line L corresponding to the lowest slope value
Is substantially equal to the minimum value (MIN).

【0045】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、上側瞳孔エッジ情報としてそのライン番号(L
+1−D)〔または(L+1−m)〕と画素番号jをメ
モリ2に記憶する。なお、n<mの場合は水平方向の瞳
孔エッジ抽出と同様にスロープの長さDを求める。
(3) The difference between the pixels in all the slopes and the adjacent pixels is equal to or greater than a fixed value Cde. Is satisfied, the position is regarded as a pupil edge, and the line number (L
+ 1-D) [or (L + 1-m)] and the pixel number j are stored in the memory 2. When n <m, the length D of the slope is obtained in the same manner as in the horizontal pupil edge extraction.

【0046】下側瞳孔エッジ抽出処理も同様に、3つの
条件を満たすか否かを調べることにより行う(ステップ
175,176)。すなわち、 (1)n画素にわたって単調減少している(但し、メモ
リ容量の関係で、n>mの場合はm画素にわたって単調
増加している)。
Similarly, the lower pupil edge extraction process is performed by checking whether three conditions are satisfied (steps 175 and 176). That is, (1) monotonically decreasing over n pixels (however, when n> m, monotonically increasing over m pixels due to memory capacity).

【0047】(2)スロープの最低値にあたるラインL
−Dの値(またはラインL−m)が最低値(MIN)に
略等しい。
(2) Line L corresponding to the lowest slope value
The value of -D (or line L-m) is substantially equal to the minimum value (MIN).

【0048】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、下側瞳孔エッジ情報としてそのライン番号(L
+1−D)〔または(L+1−m)〕と画素番号jをメ
モリ2に記憶する。なお、n<mの場合は水平方向の瞳
孔エッジ抽出と同様にスロープの長さDを求める。
(3) The difference between the pixels in all the slopes and the adjacent pixels is equal to or greater than a predetermined value Cde. Is satisfied, the position is regarded as a pupil edge, and the line number (L
+ 1-D) [or (L + 1-m)] and the pixel number j are stored in the memory 2. When n <m, the length D of the slope is obtained in the same manner as in the horizontal pupil edge extraction.

【0049】以上の処理を1ラインの有効範囲内の全画
素について行う。
The above processing is performed for all pixels within the effective range of one line.

【0050】最後にこのエリアの最低値を記憶する。Finally, the lowest value of this area is stored.

【0051】メモリ容量を節約する意味からも全画面を
垂直方向に分割し、そのエリア内で最低値を記憶するよ
うにする。ラインLがどのエリアにあたるかを求めた
後、そのエリアにおける最低値MINn(n:エリア番
号)とラインの最低値MINLを比較し、「MINn>
MINL」なら「MINn=MINL」と更新する。
In order to save the memory capacity, the entire screen is divided in the vertical direction, and the lowest value is stored in the area. After determining which area the line L corresponds to, the lowest value MINn (n: area number) in that area is compared with the lowest value MINL of the line, and “MINn>
If it is "MINL", it is updated to "MINn = MINL".

【0052】再び図2に戻り、ステップ108におい
て、全ラインについてこの処理が終了したことを判別す
ると、ステップ109へ移り、プルキンエ像選択の処理
を開始する。
Returning to FIG. 2, when it is determined in step 108 that this process has been completed for all the lines, the process proceeds to step 109 to start the process of selecting a Purkinje image.

【0053】ここにおける一番目の処理では、各々の光
像ブロック(プルキンエ像候補)の水平・垂直方向のブ
ロック幅を調べ、その幅がともに定数CH 以下のものの
み採用する。これ以上ブロック幅が大きいものは、眼鏡
のゴースト・外光の瞼等での反射などプルキンエ像以外
の光像である為、排除する。
In the first processing here, the block width in the horizontal and vertical directions of each optical image block (Purkinje image candidate) is checked, and only those whose width is equal to or less than the constant CH are adopted. Those with a larger block width than this are light images other than the Purkinje image, such as ghosts of spectacles and reflection of external light on eyelids, and are therefore excluded.

【0054】二番目の処理では、一番目の処理で採用さ
れた光像ブロックの垂直方向座標を調べる。もし、ある
光像ブロックとある光像ブロックが、垂直方向に重なっ
ているか接している時は、この二つの光像ブロックの垂
直方向座標は略等しいと判断する。すなわち、n番目の
光像ブロックの上下左右の境界位置を各々Bny1,B
ny2,Bnx1,Bnx2とした時、m番目の光像ブ
ロックの上下左右の境界位置を各々Bmy1,Bmy
2,Bmx1,Bmx2とした時、 Bny1≦Bmy2 かつ Bny2≧Bmy1 の条件式が成り立った場合、二つの光像ブロックの垂直
方向座標は略等しいと判断する。次いで、この垂直方向
座標の略等しいものの無い光像ブロックを排除する。そ
の後、略等しいものの有る光像ブロックについて各々の
水平方向のブロック間隔Δmnを調べ、その値が所定範
囲内(Δ1≦Δmn≦Δ2)のもののみを採用する(但
し、Δ1,Δ2は定数)。
In the second process, the vertical coordinates of the optical image block adopted in the first process are checked. If a certain light image block and a certain light image block overlap or touch in the vertical direction, it is determined that the vertical coordinates of the two light image blocks are substantially equal. That is, the upper, lower, left, and right boundary positions of the n-th light image block are Bny1, Bny, respectively.
When ny2, Bnx1 and Bnx2 are set, the upper, lower, left and right boundary positions of the m-th optical image block are Bmy1 and Bmy, respectively.
When Bmx1 and Bmx2 are satisfied, and the conditional expressions Bny1 ≦ Bmy2 and Bny2 ≧ Bmy1 hold, it is determined that the vertical coordinates of the two optical image blocks are substantially equal. Next, the optical image blocks having no one having substantially the same vertical coordinates are excluded. Thereafter, the horizontal image block intervals Δmn of the optical image blocks having substantially the same value are examined, and only those having a value within a predetermined range (Δ1 ≦ Δmn ≦ Δ2) are employed (however, Δ1 and Δ2 are constants).

【0055】例えば、光像ブロックB1,B2,B3の
三つの垂直方向座標が略等しい場合、B1とB2の間隔
Δ12,B2とB3の間隔Δ23,B3とB1の間隔Δ
31を求め、それが所定値内にあるか否かを調べ、その
結果、Δ12,Δ23が所定値内にあれば、プルキンエ
像候補ペアとして[B1,B2][B2,B3]の組み
合わせを採用する。この時点でプルキンエ像候補ペアが
一つあれば(光像ブロックの数が二つであれば)、これ
をプルキンエ像として採用する。もしこの時点でプルキ
ンエ像が決定できない場合には次の処理を行う。
For example, when the three vertical coordinates of the light image blocks B1, B2, and B3 are substantially equal, the interval Δ12 between B1 and B2, the interval Δ23 between B2 and B3, and the interval Δ between B3 and B1.
31 and checks whether it is within a predetermined value. If Δ12 and Δ23 are within the predetermined value, a combination of [B1, B2] [B2, B3] is adopted as a Purkinje image candidate pair. I do. At this point, if there is one Purkinje image candidate pair (if the number of optical image blocks is two), this is adopted as the Purkinje image. If the Purkinje image cannot be determined at this point, the following processing is performed.

【0056】三番目の処理では、プルキンエ像ペアの最
大輝度値の平均値を比較し、その値が最大のものをプル
キンエ像として選択する。
In the third process, the average of the maximum luminance values of the pair of Purkinje images is compared, and the one having the maximum value is selected as the Purkinje image.

【0057】例えば、光像ブロックB1とB2,B3と
B4が二番目までの処理で選ばれている場合、(Ima
x1+Imax2),(Imax3+Imax4)を計
算し、「前者≧後者」の関係にあるならば、B1,B2
をプルキンエ像とし、「前者<後者」の関係にあるなら
ば、光像ブロックB3,B4をプルキンエ像とする(但
し、Imax1,Imax2,Imax3,Imax4
はB1,B2,B3,B4の最大輝度)。
For example, if the optical image blocks B1 and B2 and B3 and B4 have been selected in the processes up to the second, (Ima
x1 + Imax2), (Imax3 + Imax4), and if there is a relationship of “former ≧ latter”, B1, B2
Is a Purkinje image, and if there is a relationship of “former <latter”, the light image blocks B3 and B4 are Purkinje images (however, Imax1, Imax2, Imax3, and Imax4
Is the maximum luminance of B1, B2, B3, and B4).

【0058】また、プルキンエ像ペアの最大輝度値の平
均値を比較し、その値が最大のものを選択するようにし
てもよい。
Further, the average value of the maximum luminance values of the Purkinje image pair may be compared, and the one having the maximum value may be selected.

【0059】 以上のようにして決定されたプルキンエ
像ペアP1,P2及びプルキンエ像Pcの座標は P1x=(Bnx1+Bnx2)/2 P1y=(Bny1+Bny2)/2 P2x=(Bmx1+Bmx2)/2 P2y=(Bmy1+Bmy2)/2 Pcx=(P1x+P2x)/2 Pcy=(P1y+P2y)/2 のように計算される。但し、P1x,P1y,P2x,
P2y,Pcx,Pcyはプルキンエ像ペアP1,P2
及びプルキンエ像Pcの水平垂直座標である。また、n
番目,m番目の光像ブロックがプルキンエ像として選択
されたものとする。
The coordinates of the Purkinje image pair P1, P2 and the Purkinje image Pc determined as described above are: P1x = (Bnx1 + Bnx2) / 2 P1y = (Bny1 + Bny2) / 2 P2x = (Bmx1 + Bmx2) / 2 P2y = (Bmy1 + Bmy2) / 2Pcx = (P1x + P2x) / 2 Pcy = (P1y + P2y ) / 2 However, P1x, P1y, P2x,
P2y, Pcx, Pcy are Purkinje image pairs P1, P2
And the horizontal and vertical coordinates of the Purkinje image Pc. Also, n
It is assumed that the i-th and m-th light image blocks have been selected as Purkinje images.

【0060】次に、ステップ110へ移り、「瞳孔円の
演算」動作を行う。
Next, the routine proceeds to step 110, where the "operation of pupil circle" operation is performed.

【0061】この「瞳孔円の演算」動作は、図6及び図
7に示すステップ201から225までによって、以下
のようにして行われる。
The operation of "calculation of the pupil circle" is performed as follows by steps 201 to 225 shown in FIGS.

【0062】前述の瞳孔エッジ抽出処理においてMPU
1は、抽出した瞳孔エッジの座標、そのエリアnの最低
輝度MINn及び画像全体の最低輝度MIN0をメモリ
2に記憶している。
In the pupil edge extraction processing described above, the MPU
1 stores in the memory 2 the coordinates of the extracted pupil edge, the minimum luminance MINn of the area n, and the minimum luminance MIN0 of the entire image.

【0063】そこで、まずMPU1は、瞳孔エッジが抽
出されているエリアの最低輝度(MINn)と画像全体
の最低輝度(MIN0+定数C)を比較し、 MINn≦MIN0+定数C の条件を満たさない場合は、そのエリアに存在する瞳孔
エッジは不適切なものとしてこれを排除する。
Then, first, the MPU 1 compares the minimum luminance (MINn) of the area where the pupil edge is extracted with the minimum luminance (MIN0 + constant C) of the entire image. If the condition of MINn ≦ MIN0 + constant C is not satisfied, Pupil edges present in that area are rejected as inappropriate.

【0064】次いで、先のステップ109において求め
たプルキンエ像の周辺の瞳孔エッジを排除する。これ
は、プルキンエ像の水平垂直座標(Pnx,Pny)を
中心にしたエリア内のもの、例えば、(Pnx−定数,
Pny−定数),(Pnx−定数,Pny+定数),
(Pnx+定数,Pny−定数),(Pnx+定数,P
ny+定数)の4点で囲まれた四角形内のものを排除す
ることにより行われる。プルキンエ像は2個存在するの
で、この処理は各々のプルキンエ像について行われる。
Next, the pupil edge around the Purkinje image obtained in the previous step 109 is eliminated. This is within an area centered on the horizontal and vertical coordinates (Pnx, Pny) of the Purkinje image, for example, (Pnx-constant,
(Pny-constant), (Pnx-constant, Pny + constant),
(Pnx + constant, Pny-constant), (Pnx + constant, P
(ny + constant). Since there are two Purkinje images, this process is performed for each Purkinje image.

【0065】次いで、プルキンエ像との位置関係により
不適当と思われるエッジを排除する。
Next, edges deemed inappropriate due to the positional relationship with the Purkinje image are eliminated.

【0066】プルキンエ像と瞳孔の関係は図8に示す様
になる。但し、この図は説明を容易にするため、プルキ
ンエ像の位置を固定しているが、実際の眼球運動におい
ては該プルキンエ像,瞳孔ともに移動する。この図8よ
り下表の範囲に入るものを瞳孔エッジとして適切なエッ
ジとみなすことができる。
The relationship between the Purkinje image and the pupil is as shown in FIG. However, in this figure, the position of the Purkinje image is fixed for ease of explanation, but in the actual eye movement, both the Purkinje image and the pupil move. From FIG. 8, those falling within the range in the table below can be regarded as appropriate edges as pupil edges.

【0067】 また、α1,α2,α3,α4の値は瞳孔径を考慮して
可変にしてもよい。この場合、AEに用いる測光情報か
ら瞳孔径を推定し、瞳孔径が小さければ(明るい場
合)、α1,α2,α3,α4の値を大きく、瞳孔径が
大きければ(暗い場合)、α1,α2,α3,α4の値
を小さくする。
[0067] The values of α1, α2, α3, α4 may be made variable in consideration of the pupil diameter. In this case, the pupil diameter is estimated from the photometric information used for the AE. If the pupil diameter is small (bright), the values of α1, α2, α3, α4 are large, and if the pupil diameter is large (dark), α1, α2 , Α3, α4 are reduced.

【0068】さらに、これまでに選択した瞳孔エッジ候
補の座標の平均値mと標準偏差σを求め、[平均値m−
a*標準偏差σ〜平均値m+a*標準偏差σ(但し、a
は定数)]の範囲内のもののみを採用する。この演算は
水平方向のみに関して行ってもよいし、水平垂直両方向
に関して行ってもよい。また、この処理を二重に行って
もよい。すなわち、[平均値m−a*標準偏差σ〜平均
値m+a*標準偏差σ]の範囲内に入ったものの平均値
m′と標準偏差σ′を再び求め、この二量によって定め
られる範囲[平均値m′−a*標準偏差σ′〜平均値
m′+a*標準偏差σ′]内のもののみを採用する。
Further, the average value m and the standard deviation σ of the coordinates of the pupil edge candidates selected so far are obtained, and [the average value m−
a * standard deviation σ to average value m + a * standard deviation σ (where a
Is a constant)]. This calculation may be performed only in the horizontal direction, or may be performed in both the horizontal and vertical directions. Further, this processing may be performed twice. That is, the average value m 'and the standard deviation σ' of the average value m-a * standard deviation σ to the average value m + a * standard deviation σ] are obtained again, and the range [average Values m'-a * standard deviation σ 'to average value m' + a * standard deviation σ '] are used.

【0069】次いで、以上に様にして選択した瞳孔エッ
ジを用い、瞳孔中心及び瞳孔半径を求める。この方法と
しては最小二乗法を用いれば良い。
Next, the pupil center and the pupil radius are obtained using the pupil edge selected as described above. As this method, the least square method may be used.

【0070】その後、ステップ111へ移り、プルキン
エ像と瞳孔中心の位置を用いて眼球の回転角、さらには
カメラのピント板上での視点位置を演算する。そして、
ステップ112において、この視点位置を基にAFポイ
ント等を決定し、カメラの制御を行う。
Thereafter, the process proceeds to step 111, where the rotation angle of the eyeball and the viewpoint position on the focus plate of the camera are calculated using the Purkinje image and the position of the center of the pupil. And
In step 112, an AF point or the like is determined based on the viewpoint position, and the camera is controlled.

【0071】(第2の実施例)図9及び図10は本発明
の第2の実施例における視線検出装置を備えたカメラの
主要部分の動作を示すフローチャートである。なお、回
路構成は図1に示した第1の実施例と同様であり、ま
た、該カメラのメインルーチンは図2に示した第1の実
施例であるので、この動作に関わる部分の説明では同一
の回路番号及びステップ番号を付すものとする。
(Second Embodiment) FIGS. 9 and 10 are flowcharts showing the operation of the main part of a camera provided with a visual line detection device according to a second embodiment of the present invention. Note that the circuit configuration is the same as that of the first embodiment shown in FIG. 1, and the main routine of the camera is the first embodiment shown in FIG. The same circuit number and step number are assigned.

【0072】第1の実施例と同様、カメラの不図示のレ
リーズ釦の第1ストローク操作に連動するスイッチSW
1のONなどにより視線検出の要求がなされると、MP
U1はステップ102からの視線検出のルーチンに入
る。
As in the first embodiment, a switch SW interlocked with a first stroke operation of a release button (not shown) of the camera.
When a line-of-sight detection request is made due to ON of MP1, MP
U1 enters a line-of-sight detection routine from step 102.

【0073】ステップ102においては、演算に使用す
る変数の初期化処理を行い、次のステップ103におい
て、蓄積時間の設定を行う(ステップ103)。これ
は、眼鏡の有無・外光の強度等を考慮して行い、同時に
IRED群5内より点灯させるべくIREDペアの選択
も行う。そして、ステップ104以降の蓄積制御動作へ
と移る。
In step 102, a variable used for calculation is initialized, and in the next step 103, an accumulation time is set (step 103). This is performed in consideration of the presence or absence of glasses, the intensity of external light, and the like, and at the same time, the selection of an IRED pair for lighting from within the IRED group 5. Then, the process proceeds to the accumulation control operation after step 104.

【0074】まず、ステップ104においては、CCD
4の電荷クリア動作を行うための指示をドライバ回路3
に対して行う。この指示を受けたドライバ回路3はクリ
ア動作を行い、CCD4のメモリゾーン、電荷転送ライ
ン等に残っている電荷を消去する。次いで、ステップ1
05において、上記ステップ103において選択したI
REDペアを点灯させるためにIRED選択信号をドラ
イバ回路3に送信すると同時に、蓄積信号をハイレベル
にしてCCD4による蓄積を開始し、上記の設定した蓄
積時間が経過したら蓄積信号をローレベルにし、蓄積を
終了する。この蓄積に同期して選択されたIREDペア
は点灯することになる。
First, in step 104, the CCD
The instruction for performing the charge clear operation of the driver circuit 3
Do for Upon receiving this instruction, the driver circuit 3 performs a clear operation, and erases charges remaining in the memory zone of the CCD 4, charge transfer lines, and the like. Then, Step 1
At 05, the I selected at step 103
At the same time as transmitting the IRED selection signal to the driver circuit 3 to turn on the RED pair, the accumulation signal is set to the high level and the accumulation by the CCD 4 is started. To end. The IRED pair selected in synchronization with the accumulation is turned on.

【0075】次いで、MPU1は光像ブロック(プルキ
ンエ像候補),瞳孔エッジ候補抽出の処理を行うステッ
プ106以降の動作へと移る。
Next, the MPU 1 proceeds to the operation after step 106 for extracting the optical image block (Purkinje image candidate) and the pupil edge candidate.

【0076】まず、ステップ106においては、ドライ
バ回路3を介してCCD4の1ライン分の画像信号を順
次読み込み、A/D変換を行い、メモリ2にその値を記
憶していく。そして、次のステップ107において、こ
のデータを使って光像ブロック(プルキンエ像候補)並
びに瞳孔エッジ候補の抽出処理を行っていく。この処理
はCCD4のライン数分だけ行う。
First, in step 106, the image signals for one line of the CCD 4 are sequentially read through the driver circuit 3, A / D converted, and the values are stored in the memory 2. Then, in the next step 107, extraction processing of an optical image block (Purkinje image candidate) and a pupil edge candidate is performed using this data. This process is performed for the number of lines of the CCD 4.

【0077】ここで、上記ステップ107において行わ
れる「瞳孔エッジの抽出」に関して、図9及び図10の
フローチャートを用いて説明する。
Here, the “pupillary edge extraction” performed in step 107 will be described with reference to the flowcharts of FIGS. 9 and 10.

【0078】まず、MPU1はステップ301におい
て、1ライン分のデータを読み込み、次のステップ30
2において、このデータよりこのラインにおける最低値
MINL並びにその座標を求める。そして、この「最低
値MINL」とそれまでに読み込んでいるラインの中で
の「最低値MIN+定数C」との比較を行い、この「最
低値MINL」が「最低値MIN+定数C」より小さい
かこれに略等しい値ならステップ304以降の処理を継
続するが、そうでなければこのラインにおける水平方向
の瞳孔エッジの抽出は行わず、図10において後述する
ステップ319以降の動作へと移る。
First, the MPU 1 reads data of one line in step 301, and the next step 30
In step 2, the minimum value MINL in this line and its coordinates are obtained from this data. Then, the “minimum value MINL” is compared with the “minimum value MIN + constant C” in the lines that have been read so far, and whether the “minimum value MINL” is smaller than the “minimum value MIN + constant C” is determined. If the value is substantially equal to this value, the processing after step 304 is continued. Otherwise, the extraction of the horizontal pupil edge in this line is not performed, and the operation proceeds to the operation after step 319 described later in FIG.

【0079】瞳孔エッジの抽出は、先ず水平方向の瞳孔
エッジ抽出から行う。
The extraction of the pupil edge is first performed from the pupil edge extraction in the horizontal direction.

【0080】水平方向の瞳孔エッジ抽出は最低値MIN
Lの座標より開始する(ステップ304)。
The pupil edge extraction in the horizontal direction is the lowest value MIN
It starts from the coordinates of L (step 304).

【0081】まず、ステップ305において、カウンタ
を減算し、左側の瞳孔エッジの検出を行う。そして、出
力信号がn画素にわたって単調減少しているか否かを調
べる。すなわち、次式 d[j]<d[j−1]<d[j−2]<……<d[j−(n−1)]<d [j−n] が成り立つか否かを調べる。また、この際、単調減少が
続いていればその間はカウントを継続し、スロープの長
さDを求めておく。
First, in step 305, the counter is decremented and the left pupil edge is detected. Then, it is determined whether or not the output signal monotonously decreases over n pixels. That is, it is determined whether or not the following expression is satisfied. D [j] <d [j-1] <d [j-2] <... <D [j- (n-1)] <d [jn] . At this time, if the monotonous decrease continues, counting is continued during that time, and the length D of the slope is obtained.

【0082】次に、ステップ306において、そのスロ
ープの最低値にあたるd[j]が、それまでに読み込ま
れたラインの最低値MINに略等しいかどうか、すなわ
ち、「d[j]≦MIN+定数C」が成り立つか否かを
調べる。さらに、全てのスロープ内の画素について隣り
の画素との差が一定値Cde以上か否かを調べる。例え
ば、d[j−n]−d[j],d[j−n]−d[j−
(n−1)]……について調べる。このようにすること
によって、信号強度が最低値に略等しい瞳孔部からある
一定値以上の傾斜をもって立上がるスロープ(瞳孔エッ
ジのスロープ)を検出することができる。
Next, in step 306, it is determined whether or not d [j], which is the lowest value of the slope, is substantially equal to the lowest value MIN of the line read so far, that is, "d [j] ≤MIN + constant C To see if it holds. Further, it is checked whether or not the difference between adjacent pixels in all the slopes is equal to or greater than a predetermined value Cde. For example, d [j-n] -d [j], d [j-n] -d [j-
(N-1)]. By doing so, it is possible to detect a slope (a pupil edge slope) that rises from the pupil portion having a signal intensity substantially equal to the lowest value with a slope equal to or more than a certain value.

【0083】次いで、ステップ307から310におい
て、まつ毛による輝度変化の影響を取り除く処理を行
う。
Next, in steps 307 to 310, a process for removing the influence of the luminance change due to the eyelashes is performed.

【0084】このまつ毛による輝度変化は前述した様に
図5に示す様になる。そこで、アップエッジAと対にな
るダウンエッジBがその直後にないか否かを調べること
で、いま検出したエッジがまつ毛か否かの判断ができ
る。
The change in luminance due to the eyelashes is as shown in FIG. 5 as described above. Therefore, by examining whether or not the down edge B paired with the up edge A is immediately after, it can be determined whether or not the currently detected edge is an eyelash.

【0085】上記3つの条件を満たしたならば、画素
(j−2D)付近(例えばj−2D±数画素)を調べ、
もし最低値(MIN)に略等しいものがあったなら、こ
の輝度変化はまつ毛によるものと判断する。
If the above three conditions are satisfied, the vicinity of the pixel (j−2D) (for example, j−2D ± several pixels) is checked.
If there is one that is substantially equal to the minimum value (MIN), it is determined that this luminance change is due to eyelashes.

【0086】そして、以上の4つの条件を満たしたもの
は瞳孔エッジとみなし、ステップ311において、左側
瞳孔エッジ情報としてそのライン番号1と画素番号(j
+j−D)/2及びそのスロープにおける最低輝度(こ
の場合d[j])をメモリ2に記憶する。
A pupil edge that satisfies the above four conditions is regarded as a pupil edge, and in step 311, the line number 1 and the pixel number (j
+ J-D) / 2 and the lowest luminance (in this case, d [j]) at the slope thereof are stored in the memory 2.

【0087】その後、MPU1は反対側(右側)の瞳孔
エッジを検出するステップ313以降のルーチンへ移
る。
Thereafter, the MPU 1 proceeds to a routine after step 313 for detecting the pupil edge on the opposite side (right side).

【0088】逆に、以上の4つの条件を満たさない場合
は、ステップ310から308へと戻り、隣りの画素に
移って同様の処理を行う。
Conversely, if the above four conditions are not satisfied, the process returns from step 310 to step 308, and the same processing is performed by moving to the next pixel.

【0089】上記反対側(右側)の瞳孔エッジを検出す
るルーチン(ステップ313から317まで)において
も、同様の処理を行う。
The same processing is performed in the routine for detecting the pupil edge on the opposite side (right side) (steps 313 to 317).

【0090】すなわち、 (1)n画素にわたって単調増加している(スロープの
長さDを求める)。
That is, (1) monotonically increasing over n pixels (slope length D is obtained).

【0091】(2)スロープの最低値にあたるd[j]
が最低値(MIN)に略等しい。
(2) d [j] which is the lowest value of the slope
Is substantially equal to the minimum value (MIN).

【0092】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。
(3) The difference between the pixels in all the slopes and the adjacent pixels is equal to or more than a fixed value Cde.

【0093】(4)アップエッジの直後にダウンエッジ
がない(まつ毛による輝度の変化ではない)。 の4つの条件を満足した場合はその位置を瞳孔エッジと
みなし、右側瞳孔エッジ情報としてそのライン番号1と
画素番号(j+j+D)をメモリ2に記憶し、水平方向
の瞳孔エッジ抽出処理を終了する。
(4) There is no down edge immediately after the up edge (not a change in luminance due to eyelashes). If the above four conditions are satisfied, the position is regarded as a pupil edge, the line number 1 and the pixel number (j + j + D) are stored in the memory 2 as right pupil edge information, and the horizontal pupil edge extraction processing ends.

【0094】逆に、上記4つの条件を満たさなかった場
合は、隣りの画素に処理を移す。
On the other hand, if the above four conditions are not satisfied, the process is shifted to an adjacent pixel.

【0095】次いで、図10に示す垂直方向の瞳孔エッ
ジの抽出を行う。
Next, the vertical pupil edge shown in FIG. 10 is extracted.

【0096】この処理は、メモリ2の容量の関係ですべ
ての画素の情報を用いることができないので、mライン
分の画像情報を該メモリ2に記憶しておき、抽出を行
う。
In this process, since information of all pixels cannot be used due to the capacity of the memory 2, image information for m lines is stored in the memory 2 and extracted.

【0097】まず、ラインの最低値MINLとmライン
前のライン(L−m)の最低値MIN(L−m)の値を
比較し、「MINL<MIN(L−m)」、かつ、この
最低値MINLがそれまで読み込まれたラインの中で最
低値MINより小さいかMINに略等しい値なら、上側
瞳孔エッジ抽出処理を行い(ステップ319→320→
321)、又「MIN≧MIN(L−m)」、かつ、こ
の最低値MIN(L−m)がそれまでに読み込まれたラ
インの中での最低値MINより小さいかこの値に略等し
い値なら、下側瞳孔エッジ抽出処理を行う(ステップ3
19→324→325)。それ以外は垂直方向瞳孔エッ
ジ抽出処理を行わない。
First, the minimum value MINL of the line and the value of the minimum value MIN (L-m) of the line (L-m) before the m-th line are compared, and "MINL <MIN (L-m)" is obtained. If the minimum value MINL is smaller than or approximately equal to the minimum value MIN among the lines read so far, an upper pupil edge extraction process is performed (steps 319 → 320 →).
321) Also, “MIN ≧ MIN (L−m)” and a value in which this minimum value MIN (L−m) is smaller than or substantially equal to the minimum value MIN in the lines read so far. If so, the lower pupil edge extraction processing is performed (step 3
19 → 324 → 325). Otherwise, the vertical pupil edge extraction processing is not performed.

【0098】上側瞳孔エッジ抽出処理は、水平方向と同
様な3つの条件を満たすか否かを調べることにより行う
(ステップ321,322)。すなわち、 (1)n画素にわたって単調減少している(但し、メモ
リ容量の関係で、n>mの場合はm画素にわたって単調
減少している)。
The upper pupil edge extraction process is performed by checking whether the same three conditions as those in the horizontal direction are satisfied (steps 321 and 322). That is, (1) monotonically decreasing over n pixels (however, when n> m, monotonically decreasing over m pixels due to memory capacity).

【0099】(2)スロープの最低値にあたるラインL
の値が最低値(MIN)に略等しい。
(2) Line L corresponding to the lowest slope value
Is substantially equal to the minimum value (MIN).

【0100】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、上側瞳孔エッジ情報としてそのライン番号(L
+1−D)〔または(L+1−m)〕と画素番号j及び
そのスロープにおける最低輝度をメモリ2に記憶する。
なお、n<mの場合は水平方向の瞳孔エッジ抽出と同様
にスロープの長さDを求める。
(3) The difference between the pixels in all the slopes and the adjacent pixels is equal to or greater than a predetermined value Cde. Is satisfied, the position is regarded as a pupil edge, and the line number (L
+ 1-D) [or (L + 1-m)], the pixel number j, and the lowest luminance on the slope thereof are stored in the memory 2.
When n <m, the length D of the slope is obtained in the same manner as in the horizontal pupil edge extraction.

【0101】下側瞳孔エッジ抽出処理も同様に、3つの
条件を満たすか否かを調べることにより行う(ステップ
325,326)。すなわち、 (1)n画素にわたって単調減少している(但し、メモ
リ容量の関係で、n>mの場合はm画素にわたって単調
増加している)。
Similarly, the lower pupil edge extraction process is performed by checking whether three conditions are satisfied (steps 325 and 326). That is, (1) monotonically decreasing over n pixels (however, when n> m, monotonically increasing over m pixels due to memory capacity).

【0102】(2)スロープの最低値にあたるラインL
−Dの値(またはラインL−m)が最低値(MIN)に
略等しい。
(2) Line L corresponding to the lowest slope value
The value of -D (or line L-m) is substantially equal to the minimum value (MIN).

【0103】(3)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、下側瞳孔エッジ情報としてそのライン番号(L
+1−D)〔または(L+1−m)〕と画素番号j及び
そのスロープにおける最低輝度をメモリ2に記憶する。
なお、n<mの場合は水平方向の瞳孔エッジ抽出と同様
にスロープの長さDを求める。
(3) The difference between adjacent pixels in all slopes is equal to or greater than a fixed value Cde. Is satisfied, the position is regarded as a pupil edge, and the line number (L
+ 1-D) [or (L + 1-m)], the pixel number j, and the lowest luminance on the slope thereof are stored in the memory 2.
When n <m, the length D of the slope is obtained in the same manner as in the horizontal pupil edge extraction.

【0104】以上の処理を1ラインの有効範囲内の全画
素について行う。
The above processing is performed for all pixels within the effective range of one line.

【0105】再び図2に戻り、ステップ108におい
て、全ラインについてこの処理が終了したことを判別す
ると、ステップ109へ移り、プルキンエ像選択の処理
を開始する。
Returning to FIG. 2 again, when it is determined in step 108 that this processing has been completed for all the lines, the processing shifts to step 109 to start the processing of Purkinje image selection.

【0106】ここにおける一番目の処理では、各々の光
像ブロックの水平・垂直方向のブロック幅を調べ、その
幅がともに定数C以下のもののみ採用する。これ以上ブ
ロック幅が大きいものは、眼鏡のゴースト・外光の瞼等
での反射などプルキンエ像以外の光像である為、排除す
る。
In the first processing here, the block width in the horizontal and vertical directions of each optical image block is checked, and only the block whose width is equal to or smaller than the constant C is adopted. Those with a larger block width than this are light images other than the Purkinje image, such as ghosts of spectacles and reflection of external light on eyelids, and are therefore excluded.

【0107】二番目の処理では、一番目の処理で採用さ
れた光像ブロックの垂直方向座標を調べる。もし、ある
光像ブロックとある光像ブロックが、垂直方向に重なっ
ているか接している時は、この二つの光像ブロックの垂
直方向座標は略等しいと判断する。すなわち、n番目の
光像ブロックの上下左右の境界位置を各々Bny1,B
ny2,Bnx1,Bnx2とした時、n番目の光像ブ
ロックの上下左右の境界位置を各々Bmy1,Bmy
2,Bmx1,Bmx2とした時、 Bny1≦Bmy2 かつ Bny2≧Bmy1 の条件式が成り立った場合、二つの光像ブロックの垂直
方向座標は略等しいと判断する。次いで、この垂直方向
座標の略等しいものの無い光像ブロックを排除する。そ
の後、略等しいものの有る光像ブロックについて各々の
水平方向のブロック間隔Δmnを調べ、その値が所定範
囲内(Δ1≦Δmn≦Δ2)のもののみを採用する(但
し、Δ1,Δ2は定数)。この時点でプルキンエ像候補
ペアが一つあれば(光像ブロックの数が二つであれ
ば)、これをプルキンエ像として採用する。もしこの時
点でプルキンエ像が決定できない場合には次の処理を行
う。
In the second processing, the vertical coordinates of the optical image block adopted in the first processing are checked. If a certain light image block and a certain light image block overlap or touch in the vertical direction, it is determined that the vertical coordinates of the two light image blocks are substantially equal. That is, the upper, lower, left, and right boundary positions of the n-th light image block are Bny1, Bny, respectively.
When ny2, Bnx1, and Bnx2 are set, the upper, lower, left, and right boundary positions of the n-th optical image block are Bmy1, Bmy, respectively.
When Bmx1 and Bmx2 are satisfied, and the conditional expressions Bny1 ≦ Bmy2 and Bny2 ≧ Bmy1 hold, it is determined that the vertical coordinates of the two optical image blocks are substantially equal. Next, the optical image blocks having no one having substantially the same vertical coordinates are excluded. Thereafter, the horizontal image block intervals Δmn of the optical image blocks having substantially the same value are examined, and only those having a value within a predetermined range (Δ1 ≦ Δmn ≦ Δ2) are employed (however, Δ1 and Δ2 are constants). At this point, if there is one Purkinje image candidate pair (if the number of optical image blocks is two), this is adopted as the Purkinje image. If the Purkinje image cannot be determined at this point, the following processing is performed.

【0108】三番目の処理では、プルキンエ像ペアの最
大輝度値の平均値をまず求めた後、その値を比較し、最
大のものをプルキンエ像として選択する。
In the third process, the average of the maximum luminance values of the pair of Purkinje images is first determined, the values are compared, and the maximum one is selected as the Purkinje image.

【0109】例えば、ブロックB1とB2,B3とB4
が二番目までの処理で選ばれている場合、光像ブロック
B1,B2,B3,B4の輝度値の平均値Iave1,
Iave2,Iave3,Iave4を次式の様にして
計算する。
For example, blocks B1 and B2, B3 and B4
Has been selected in the second processing, the average value Iave1, of the luminance values of the optical image blocks B1, B2, B3, B4
Iave2, Iave3, and Iave4 are calculated as in the following equation.

【0110】 Iave1=SI[1]/〔(B1x2−B1x1+1)* (B1y2−B1y2+1)〕 Iave2=SI[2]/〔(B2x2−B2x1+1)* (B2y2−B2y2+1)〕 Iave3=SI[3]/〔(B3x2−B3x1+1)* (B3y2−B3y2+1)〕 Iave4=SI[4]/〔(B4x2−B4x1+1)* (B4y2−B4y2+1)〕 そして、「Iave1+Iave2」と「Iave3+
Iave4」を比較し、「前者≧後者」の関係にあるな
らば、B1,B2をプルキンエ像とし、「前者<後者」
の関係にあるならば、B3,B4をプルキンエ像とす
る。
Iave1 = SI [1] / [(B1x2-B1x1 + 1) * (B1y2-B1y2 + 1)] Iave2 = SI [2] / [(B2x2-B2x1 + 1) * (B2y2-B2y2 + 1)] Iave3 = SI [3] / [(B3x2-B3x1 + 1) * (B3y2-B3y2 + 1)] Iave4 = SI [4] / [(B4x2-B4x1 + 1) * (B4y2-B4y2 + 1)] Then, "Iave1 + Iave2" and "Iave3 +"
Iave4 ”, and if there is a relationship of“ former ≧ latter ”, B1 and B2 are Purkinje images, and“ former <latter ”
, B3 and B4 are defined as Purkinje images.

【0111】また、プルキンエ像ペアの最大輝度値の平
均値を比較し、その値が最大のものを選択するようにし
てもよい。
Further, the average value of the maximum luminance values of the Purkinje image pair may be compared, and the one having the maximum value may be selected.

【0112】 以上のようにして決定されたプルキンエ
像ペアP1,P2及びプルキンエ像Pcの座標は P1x=SIx[n]/SI[n] P1y=SIy[n]/SI[n] P2x=SIx[m]/SI[m] P2y=SIy[m]/SI[m] Pcx=(P1x+P2x)/2 Pcy=(P1y+P2y)/2 のように計算される。但し、P1x,P1y,P2x,
P2y,Pcx,Pcyはプルキンエ像ペアP1,P2
及びプルキンエ像Pcの水平垂直座標である。また、n
番目,m番目の光像ブロックがプルキンエ像として選択
されたものとする。但し、SI[n],SIx[n],
SIy[n]はn番目のブロックの輝度の和、輝度と水
平座標の積の和、輝度と垂直座標の積の和である。
The coordinates of the Purkinje image pairs P1 and P2 and the Purkinje image Pc determined as described above are: P1x = SIx [n] / SI [n] P1y = SIy [n] / SI [n] P2x = SIx [ m] / SI [m] P2y = SIy [m] / SI [m] Pcx = (P1x + P2x) / 2 Pcy = (P1y + P2y ) / 2 However, P1x, P1y, P2x,
P2y, Pcx, Pcy are Purkinje image pairs P1, P2
And the horizontal and vertical coordinates of the Purkinje image Pc. Also, n
It is assumed that the i-th and m-th light image blocks have been selected as Purkinje images. Where SI [n], SIx [n],
SIy [n] is the sum of the brightness of the n-th block, the sum of the product of the brightness and the horizontal coordinate, and the sum of the product of the brightness and the vertical coordinate.

【0113】次に、ステップ110へ移り、「瞳孔円の
演算」動作を行う。
Then, the process proceeds to a step 110, where a "pupil circle calculation" operation is performed.

【0114】この「瞳孔円の演算」動作は、図11に示
すステップ401から423までによって、以下のよう
にして行われる。
This operation of "calculation of the pupil circle" is performed as follows by steps 401 to 423 shown in FIG.

【0115】前述の瞳孔エッジ抽出処理においてMPU
1は、抽出した瞳孔エッジの座標、そのエッジ(スロー
プ)における最低輝度MIN(e) 及び画像全体の最低輝
度MIN0をメモリ2に記憶している(eはエッジ番
号)。
In the pupil edge extraction processing described above, the MPU
1 stores the extracted coordinates of the pupil edge, the minimum luminance MIN (e) at the edge (slope), and the minimum luminance MIN0 of the entire image in the memory 2 (e is an edge number).

【0116】そこで、まずMPU1は、瞳孔エッジが抽
出されているエリアの最低輝度(MIN(e) )と画像全
体の最低輝度(MIN0+定数C)を比較し、 MIN(e) ≦MIN0+定数C の条件を満たさない場合は、そのエリアに存在する瞳孔
エッジは不適切なものとしてこれを排除する。
Therefore, first, the MPU 1 compares the minimum luminance (MIN (e)) of the area where the pupil edge is extracted with the minimum luminance (MIN0 + constant C) of the entire image, and satisfies MIN (e) ≦ MIN0 + constant C. If the condition is not satisfied, the pupil edge existing in the area is excluded as inappropriate.

【0117】次いで、先のステップ109において求め
たプルキンエ像の周辺の瞳孔エッジを排除する。これ
は、プルキンエ像の水平垂直座標(Pnx,Pny)を
中心にしたエリア内のもの、例えば、(Pnx−定数,
Pny−定数),(Pnx−定数,Pny+定数),
(Pnx+定数,Pny−定数),(Pnx+定数,P
ny+定数)の4点で囲まれた四角形内のものを排除す
ることにより行われる。プルキンエ像は2個存在するの
で、この処理は各々のプルキンエ像について行われる。
Next, the pupil edge around the Purkinje image obtained in step 109 is eliminated. This is within an area centered on the horizontal and vertical coordinates (Pnx, Pny) of the Purkinje image, for example, (Pnx-constant,
(Pny-constant), (Pnx-constant, Pny + constant),
(Pnx + constant, Pny-constant), (Pnx + constant, P
(ny + constant). Since there are two Purkinje images, this process is performed for each Purkinje image.

【0118】次いで、プルキンエ像との位置関係により
不適当と思われるエッジを排除する。
Next, edges deemed inappropriate due to the positional relationship with the Purkinje image are eliminated.

【0119】プルキンエ像と瞳孔の関係は図12のよう
になる。但し、この図は説明を容易にするため、プルキ
ンエ像の位置を固定しているが、実際の眼球運動におい
てはプルキンエ像,瞳孔ともに移動する。図12より図
13の斜線で示す範囲に入るものを瞳孔エッジとして適
切なエッジとみなすことができる。Oは二つのプルキン
エ像の中心位置(平均位置)である。また、β1,β
2,β3,β4,β5,β6,β7,β8の値は瞳孔径
を考慮して可変にしてもよい。この場合、AEに用いる
測光情報から瞳孔径を推定し、瞳孔径が小さければ(明
るい場合)、β1,β2,β3,β4,β5,β6,β
7,β8の値を小さく、瞳孔径が大きければ(暗い場
合)、β1,β2,β3,β4,β5,β6,β7,β
8の値を大きくする。
FIG. 12 shows the relationship between the Purkinje image and the pupil. However, in this figure, the position of the Purkinje image is fixed for ease of explanation, but in the actual eye movement, both the Purkinje image and the pupil move. Those falling within the range shown by the oblique lines in FIG. 13 from FIG. 12 can be regarded as appropriate pupil edges. O is the center position (average position) of the two Purkinje images. Β1, β
The values of 2, β3, β4, β5, β6, β7, β8 may be made variable in consideration of the pupil diameter. In this case, the pupil diameter is estimated from the photometric information used for the AE, and if the pupil diameter is small (bright), β1, β2, β3, β4, β5, β6, β
If the value of 7, β8 is small and the pupil diameter is large (dark), β1, β2, β3, β4, β5, β6, β7, β
Increase the value of 8.

【0120】また、上記の第1の実施例の方法とこの第
2の実施例の方法とを併用してもよく、その場合、両者
の方法でともに適切とみなされた瞳孔エッジを以下の処
理で用いればよい。
Further, the method of the first embodiment and the method of the second embodiment may be used in combination. In this case, the pupil edge which is deemed appropriate by both methods is subjected to the following processing. May be used.

【0121】さらに、これまでに選択した瞳孔エッジ候
補の座標の平均値mと標準偏差σを求め、[平均値m−
a*標準偏差σ〜平均値m+a*標準偏差σ(但し、a
は定数)]の範囲内のもののみを採用する。この演算は
水平方向のみに関して行ってもよいし、水平垂直両方向
に関して行ってもよい。また、この処理を二重に行って
もよい。すなわち、[平均値m−a*標準偏差σ〜平均
値m+a*標準偏差σ]の範囲内に入ったものの平均値
m′と標準偏差σ′を再び求め、この二量によって定め
られる範囲[平均値m′−a*標準偏差σ′〜平均値
m′+a*標準偏差σ′]内のもののみを採用する。
Further, the average value m and the standard deviation σ of the coordinates of the pupil edge candidates selected so far are obtained, and [the average value m−
a * standard deviation σ to average value m + a * standard deviation σ (where a
Is a constant)]. This calculation may be performed only in the horizontal direction, or may be performed in both the horizontal and vertical directions. Further, this processing may be performed twice. That is, the average value m 'and the standard deviation σ' of the average value m-a * standard deviation σ to the average value m + a * standard deviation σ] are obtained again, and the range [average Values m'-a * standard deviation σ 'to average value m' + a * standard deviation σ '] are used.

【0122】次いで、以上に様にして選択した瞳孔エッ
ジを用い、瞳孔中心及び瞳孔半径を求める。この方法と
しては最小二乗法を用いれば良い。
Next, the pupil center and the pupil radius are obtained using the pupil edge selected as described above. As this method, the least square method may be used.

【0123】その後、ステップ111へ移り、プルキン
エ像と瞳孔中心の位置を用いて眼球の回転角、さらには
カメラのピント板上での視点位置を演算する。そして、
ステップ112において、この視点位置を基にAFポイ
ント等を決定し、カメラの制御を行う。
Thereafter, the process proceeds to step 111, in which the rotation angle of the eyeball and the viewpoint position on the focus plate of the camera are calculated using the Purkinje image and the position of the center of the pupil. And
In step 112, an AF point or the like is determined based on the viewpoint position, and the camera is controlled.

【0124】 上記の第1及び第2の実施例によれば、
二次元撮像素子を用い、多数の瞳孔エッジの位置を求め
る過程において、あるエリアにおける最低値(又はその
瞳孔エッジに対応する最低輝度)を座標と共に記憶し、
この値が画像全体の最低値に略等しくない場合には、不
適当なエッジとしてこれを排除したり、抽出(決定)さ
れるプルキンエ像位置の周辺にエッジが有るか否かを判
別し、有ればこれを不適当なエッジとして排除したり、
プルキンエ像と抽出されたエッジとの位置関係が所定の
関係にあるか否かを判別し、所定の関係になければ不
当なエッジとしてこれを排除したり、抽出されたエッジ
に統計的処理、つまり、平均値と標準偏差を求め、これ
らの値により定められた範囲内になるか否かを判別し、
この範囲外であればこれを不適当なエッジとして排除す
るするようにしている為、眼球の状態に依らず良好に瞳
孔エッジの抽出並びに瞳孔(瞳孔中心,瞳孔径)の算出
を行うことが可能となる。
According to the first and second embodiments described above,
Using a two-dimensional image sensor, in the process of determining the position of a large number of pupil edges, store the lowest value in a certain area (or the lowest luminance corresponding to the pupil edge) together with the coordinates,
If this value is not substantially equal to the lowest value of the entire image, it is excluded as an inappropriate edge, or it is determined whether or not there is an edge around the position of the Purkinje image to be extracted (determined). If you remove this as an inappropriate edge,
Positional relationship between the extracted edge Purkinje image it is determined whether or not a predetermined relationship, or to eliminate it as a non-suitable <br/> those edges to be in the predetermined relationship, the extracted edge Statistical processing, that is, determine the average value and standard deviation, determine whether or not within the range determined by these values,
If it is out of this range, it is excluded as an inappropriate edge, so that pupil edge extraction and pupil (pupil center, pupil diameter) calculation can be performed well regardless of the state of the eyeball. Becomes

【0125】(第3の実施例)図14及び図15は本発
明の第3の実施例における視線検出装置を備えたカメラ
の主要部分の動作を示すフローチャートであり、他の実
施例と異なるのは、受光手段としてラインセンサを用い
ると共に単一のIERDを点灯して処理を行う点であ
る。従って、回路構成としては、図1に示した第1の実
施例とは、CCDがラインセンサに、IRED群が一つ
のIREDになる点のみ異なり、他は同様である。ま
た、該カメラのメインルーチンは図2に示した第1の実
施例であるので、この動作に関わる部分の説明では同一
のステップ番号を付すものとする。
(Third Embodiment) FIGS. 14 and 15 are flowcharts showing the operation of the main part of a camera provided with a visual axis detection device according to a third embodiment of the present invention, which is different from the other embodiments. The point is that a line sensor is used as a light receiving means and a single IERD is turned on to perform processing. Therefore, the circuit configuration is the same as that of the first embodiment shown in FIG. 1 except that the CCD is a line sensor and the IRED group is one IRED, and the others are the same. Further, since the main routine of the camera is the first embodiment shown in FIG. 2, the same step numbers are given in the description of the parts related to this operation.

【0126】第1の実施例と同様、カメラの不図示のレ
リーズ釦の第1ストローク操作に連動するスイッチSW
1のONなどにより視線検出の要求がなされると、MP
U1はステップ102からの視線検出のルーチンに入
る。
As in the first embodiment, a switch SW interlocked with a first stroke operation of a release button (not shown) of the camera.
When a line-of-sight detection request is made due to ON of MP1, MP
U1 enters a line-of-sight detection routine from step 102.

【0127】ステップ102においては、演算に使用す
る変数の初期化処理を行い、次のステップ103におい
て、蓄積時間の設定を行う。そして、ステップ104以
降の蓄積制御動作へと移る。
In step 102, a variable used for calculation is initialized, and in the next step 103, an accumulation time is set. Then, the process proceeds to the accumulation control operation after step 104.

【0128】まず、ステップ104においては、ライン
センサの電荷クリア動作を行うための指示をドライバ回
路3に対して行う。この指示を受けたドライバ回路3は
クリア動作を行い、ラインセンサのメモリゾーン、電荷
転送ライン等に残っている電荷を消去する。次いで、ス
テップ105において、IREDを点灯させるためにI
RED駆動信号をドライバ回路3に送信すると同時に、
蓄積信号をハイレベルにしてラインセンサによる蓄積を
開始し、上記の設定した蓄積時間が経過したら蓄積信号
をローレベルにし、蓄積を終了する。
First, in step 104, the driver circuit 3 is instructed to perform the charge clear operation of the line sensor. Upon receiving this instruction, the driver circuit 3 performs a clear operation, and erases charges remaining in the memory zone of the line sensor, the charge transfer line, and the like. Next, at step 105, I
At the same time as transmitting the RED drive signal to the driver circuit 3,
The accumulation signal is set to the high level to start accumulation by the line sensor. After the set accumulation time has elapsed, the accumulation signal is set to the low level, and the accumulation ends.

【0129】次いで、MPU1は光像ブロック(プルキ
ンエ像候補),瞳孔エッジ候補抽出の処理を行うステッ
プ106以降の動作へと移る。
Next, the MPU 1 proceeds to the operation after step 106 for extracting the optical image block (Purkinje image candidate) and the pupil edge candidate.

【0130】まず、ステップ106においては、ドライ
バ回路3を介してラインセンサ上の画像信号を順次読み
込み、A/D変換を行い、メモリ2にその値を記憶して
いく。そして、次のステップ107において、このデー
タを使って光像ブロック(プルキンエ像候補)並びに瞳
孔エッジ候補の抽出処理を行っていく。
First, in step 106, the image signals on the line sensor are sequentially read via the driver circuit 3, A / D converted, and the values are stored in the memory 2. Then, in the next step 107, extraction processing of an optical image block (Purkinje image candidate) and a pupil edge candidate is performed using this data.

【0131】ここで、上記ステップ107において行わ
れる「瞳孔エッジの抽出」に関して、図14のフローチ
ャートを用いて説明する。
Here, "pupillary edge extraction" performed in step 107 will be described with reference to the flowchart in FIG.

【0132】まず、MPU1はステップ501におい
て、ラインセンサ上のデータを読み込み、次のステップ
502において、このデータより最低値MINL並びに
その位置(座標)を求める。そして、ステップ503に
おいて、水平方向にセンサを分割し、各々のエリアにお
ける最低値を求める。
First, in step 501, the MPU 1 reads data on the line sensor, and in the next step 502, obtains the minimum value MINL and its position (coordinate) from this data. Then, in step 503, the sensor is divided in the horizontal direction, and the lowest value in each area is obtained.

【0133】そして、ステップ504以降において、水
平方向の瞳孔エッジ抽出を最低値MINLの座標より開
始する。
After step 504, horizontal pupil edge extraction is started from the coordinates of the minimum value MINL.

【0134】まず、ステップ505において、カウンタ
を減算し、左側の瞳孔エッジの検出を行う。そして、出
力信号がn画素にわたって単調減少しているか否かを調
べる。すなわち、次式 d[j]<d[j−1]<d[j−2]<……<d[j−(n−1)]<d [j−n] が成り立つか否かを調べる。また、この際、単調減少が
続いていればその間はカウントを継続し、スロープの長
さDを求めておく。さらに、全てのスロープ内の画素に
ついて隣りの画素との差が一定値Cde以上か否かを調
べる。例えば、d[j−n]−d[j],d[j−n]
−d[j−(n−1)]……について調べる。このよう
にすることによって、信号強度が最低値に略等しい瞳孔
部からある一定値以上の傾斜をもって立上がるスロープ
(瞳孔エッジのスロープ)を検出することができる。
First, in step 505, the counter is decremented and the left pupil edge is detected. Then, it is determined whether or not the output signal monotonously decreases over n pixels. That is, it is determined whether or not the following expression is satisfied. D [j] <d [j-1] <d [j-2] <... <D [j- (n-1)] <d [jn] . At this time, if the monotonous decrease continues, counting is continued during that time, and the length D of the slope is obtained. Further, it is checked whether or not the difference between adjacent pixels in all the slopes is equal to or greater than a predetermined value Cde. For example, d [j-n] -d [j], d [j-n]
-D [j- (n-1)]... By doing so, it is possible to detect a slope (a pupil edge slope) that rises from the pupil portion having a signal intensity substantially equal to the lowest value with a slope equal to or more than a certain value.

【0135】次いで、ステップ506において、まつ毛
による輝度変化の影響を取り除く処理を行う。
Next, in step 506, a process for removing the influence of a change in luminance due to eyelashes is performed.

【0136】このまつ毛による輝度変化は前述した様に
図6に示す様になる。そこで、アップエッジAと対にな
るダウンエッジBがその直後にないか否かを調べること
で、いま検出したエッジがまつ毛か否かの判断ができ
る。
The change in luminance due to the eyelashes is as shown in FIG. 6 as described above. Therefore, by examining whether or not the down edge B paired with the up edge A is immediately after, it can be determined whether or not the currently detected edge is an eyelash.

【0137】上記3つの条件を満たしたならば、画素
(j−2D)付近(例えばj−2D±数画素)を調べ、
もし最低値(MIN)に略等しいものがあったなら、こ
の輝度変化はまつ毛によるものと判断する。
If the above three conditions are satisfied, the vicinity of the pixel (j−2D) (for example, j−2D ± several pixels) is examined.
If there is one that is substantially equal to the minimum value (MIN), it is determined that this luminance change is due to eyelashes.

【0138】そして、以上の3つの条件を満たしたもの
は瞳孔エッジとみなし、ステップ507において、左側
瞳孔エッジ情報として画素番号(j+j−D)/2をメ
モリ2に記憶する。
A pupil edge that satisfies the above three conditions is regarded as a pupil edge, and in step 507, a pixel number (j + j-D) / 2 is stored in the memory 2 as left pupil edge information.

【0139】この処理をMPU1はラインセンサの有効
範囲の端部に達するまで行う(ステップ508)。その
後、MPU1は反対側(右側)の瞳孔エッジを検出する
ステップ509以降のルーチンへ移る。
This process is performed until the MPU 1 reaches the end of the effective range of the line sensor (step 508). Thereafter, the MPU 1 proceeds to the routine after step 509 for detecting the pupil edge on the opposite side (right side).

【0140】上記反対側(右側)の瞳孔エッジを検出す
るルーチン(ステップ509から513まで)において
も、同様の処理を行う。
The same processing is performed in the routine for detecting the pupil edge on the opposite side (right side) (steps 509 to 513).

【0141】すなわち、 (1)n画素にわたって単調増加している(スロープの
長さDを求める)。
That is, (1) monotonically increasing over n pixels (slope length D is obtained).

【0142】(2)すべてのスロープ内の画素について
隣りの画素との差が一定値Cde以上である。
(2) The difference between the pixels in all the slopes and the adjacent pixels is equal to or greater than a predetermined value Cde.

【0143】(3)アップエッジの直後にダウンエッジ
がない(まつ毛による輝度の変化ではない)。 の3つの条件を満足した場合はその位置を瞳孔エッジと
みなし、右側瞳孔エッジ情報としてそのライン番号Lと
画素番号(j+j+D)をメモリ2に記憶し、有効範囲
の端部に達するまで処理を継続する。
(3) There is no down edge immediately after the up edge (not a change in luminance due to eyelashes). Is satisfied, the position is regarded as a pupil edge, the line number L and the pixel number (j + j + D) are stored in the memory 2 as right pupil edge information, and the process is continued until the end of the effective range is reached. I do.

【0144】以上のようにしてこの処理をラインセンサ
上の有効範囲内の全画素について行う。
As described above, this processing is performed for all pixels within the effective range on the line sensor.

【0145】再び図2に戻り、ステップ108におい
て、第1の実施例と同様にしてプルキンエ像選択の処理
を行う。
Returning to FIG. 2 again, in step 108, a Purkinje image selection process is performed in the same manner as in the first embodiment.

【0146】つまり、一番目の処理では、各々の光像ブ
ロックの水平方向のブロック幅を調べ、その幅がともに
定数CH 以下のもののみ採用する。これ以上ブロック幅
が大きいものは、眼鏡のゴースト・外光のまぶた等での
反射などプルキンエ像以外の光像である為、排除する。
この時点でのプルキンエ像候補が一つになればこれをプ
ルキンエ像として採用する。もしこの時点でプルキンエ
像が決定できない場合に、次の処理を行う。
That is, in the first processing, the block width in the horizontal direction of each optical image block is checked, and only the blocks whose width is equal to or smaller than the constant CH are adopted. Those having a larger block width than this are light images other than Purkinje images, such as ghosts of spectacles and reflection of external light on the eyelids, and are therefore excluded.
If the number of Purkinje image candidates at this time becomes one, this is adopted as the Purkinje image. If the Purkinje image cannot be determined at this point, the following processing is performed.

【0147】二番目の処理では、プルキンエ像の輝度値
の平均値をまず求めた後、その値を比較し、最大のもの
をプルキンエ像として選択する。
In the second processing, the average value of the luminance values of the Purkinje images is first obtained, and then the values are compared, and the largest one is selected as the Purkinje image.

【0148】例えば、ブロックB1とB2,B3がこれ
までの処理で選ばれている場合、光像ブロックB1,B
2,B3の輝度値の平均値Iave1,Iave2,I
ave3を次式の様にして計算する。
For example, if the blocks B1, B2, and B3 have been selected in the processing so far, the optical image blocks B1, B2
, Iave2, I3
ave3 is calculated as in the following equation.

【0149】 Iave1=SI[1]/(B1x2−B1x1+1) Iave2=SI[2]/(B2x2−B2x1+1) Iave3=SI[3]/(B3x2−B3x1+1) そして、Iave1,Iave2,Iave3を比較
し、最も値の大きいものをプルキンエ像とする。
Iave1 = SI [1] / (B1x2-B1x1 + 1) Iave2 = SI [2] / (B2x2-B2x1 + 1) Iave3 = SI [3] / (B3x2-B3x1 + 1) Then, Iave1, Iave2, and Iave3 are compared. The one with the largest value is the Purkinje image.

【0150】以上のようにして決定されたプルキンエ像
Pcの座標は Pcx=SIx[n]/SI[n] のように計算される。但し、Pcxはプルキンエ像Pc
の水平座標である。また、n番目の光像ブロックがプル
キンエ像として選択されたものとする(ステップ10
9)。
The coordinates of the Purkinje image Pc determined as described above are calculated as Pcx = SIx [n] / SI [n]. However, Pcx is the Purkinje image Pc
Are the horizontal coordinates of It is also assumed that the n-th light image block has been selected as the Purkinje image (step 10).
9).

【0151】次に、ステップ110へ移り、「瞳孔円の
演算」を以下のようにして行う。
Next, the routine proceeds to step 110, where "calculation of the pupil circle" is performed as follows.

【0152】この「瞳孔円の演算」は図15のステップ
601から617までにおいて、以下のようにして行わ
れる。
This "calculation of the pupil circle" is performed as follows in steps 601 to 617 of FIG.

【0153】前述の瞳孔エッジ抽出処理においてMPU
1は、抽出した瞳孔エッジの座標、そのエッジ(スロー
プ)における最低輝度MINn及び画像全体の最低輝度
MIN0をメモリ2に記憶している。
In the aforementioned pupil edge extraction processing, the MPU
1 stores in the memory 2 the coordinates of the extracted pupil edge, the minimum luminance MINn at the edge (slope), and the minimum luminance MIN0 of the entire image.

【0154】そこで、まずMPU1は、瞳孔エッジが抽
出されているエリアの最低輝度(MIN(e) )と画像全
体の最低輝度(MIN0+定数C)を比較し、 MIN(e) ≦MIN0+定数C の条件を満たさない場合は、そのエリアに存在する瞳孔
エッジは不適切なものとしてこれを排除する。
Therefore, first, the MPU 1 compares the minimum luminance (MIN (e)) of the area where the pupil edge is extracted with the minimum luminance (MIN0 + constant C) of the whole image, and MIN (e) ≦ MIN0 + constant C If the condition is not satisfied, the pupil edge existing in the area is excluded as inappropriate.

【0155】次いで、先のステップ109において求め
たプルキンエ像の周辺の瞳孔エッジを排除する。これ
は、プルキンエ像の水平位置Pnxを中心にしたエリア
内のもの、例えば、(Pnx−定数),(Pnx+定
数)で囲まれた範囲内のものを排除することにより行わ
れる。
Next, the pupil edge around the Purkinje image obtained in the previous step 109 is eliminated. This is performed by excluding an image in an area centered on the horizontal position Pnx of the Purkinje image, for example, an image in a range surrounded by (Pnx−constant) and (Pnx + constant).

【0156】さらに、これまでに選択した瞳孔エッジ候
補の座標の平均値mと標準偏差σを求め、[平均値m−
a*標準偏差σ〜平均値m+a*標準偏差σ(但し、a
は定数)]の範囲内のもののみを採用する。
Further, the average value m and the standard deviation σ of the coordinates of the pupil edge candidates selected so far are obtained, and [the average value m−
a * standard deviation σ to average value m + a * standard deviation σ (where a
Is a constant)].

【0157】次いで、以上に様にして選択した瞳孔エッ
ジを用い、瞳孔中心を求める。これは、採用された瞳孔
エッジの平均値により求めることができる。
Next, the center of the pupil is obtained by using the pupil edge selected as described above. This can be determined from the average value of the adopted pupil edges.

【0158】その後、ステップ111へ移り、プルキン
エ像と瞳孔中心の位置を用いて眼球の回転角、さらには
カメラのピント板上での視点位置を演算する。そして、
ステップ112において、この視点位置を基にAFポイ
ント等を決定し、カメラの制御を行う。
Thereafter, the flow proceeds to step 111, where the rotation angle of the eyeball and the viewpoint position on the focus plate of the camera are calculated using the Purkinje image and the position of the center of the pupil. And
In step 112, an AF point or the like is determined based on the viewpoint position, and the camera is controlled.

【0159】 上記の第3の実施例によれば、ラインセ
ンサを用い、多数の瞳孔エッジの位置を求める過程にお
いて、あるエリアにおける最低値(又はその瞳孔エッジ
に対応する最低輝度)を座標と共に記憶し、この値が画
像全体の最低値に略等しくない場合には、不適当なエッ
ジとしてこれを排除したり、抽出(決定)されるプルキ
ンエ像位置の周辺にエッジが有るか否かを判別し、有れ
ばこれを不適当なエッジとして排除したり、プルキンエ
像と抽出されたエッジとの位置関係が所定の関係にある
か否かを判別し、所定の関係になければ不適当なエッジ
としてこれを排除したり、抽出されたエッジに統計的処
理、つまり、平均値と標準偏差を求め、これらの値によ
り定められた範囲内になるか否かを判別し、この範囲外
であればこれを不適当なエッジとして排除するするよう
にしている為、眼球の状態に依らず良好に瞳孔エッジの
抽出並びに瞳孔(瞳孔中心,瞳孔径)の算出を行うこと
が可能となる。
According to the third embodiment, in the process of obtaining the positions of a large number of pupil edges using the line sensor, the lowest value (or the lowest luminance corresponding to the pupil edge) in a certain area is stored together with the coordinates. If this value is not substantially equal to the lowest value of the entire image, it is excluded as an inappropriate edge, or it is determined whether or not there is an edge around the position of the Purkinje image to be extracted (determined). , or eliminates it if there as improper edge, positional relationship between the extracted edge Purkinje image it is determined whether or not a predetermined relationship, as improper edge to be in the predetermined relationship Eliminate this, or statistically process the extracted edges, that is, calculate the average value and standard deviation, determine whether or not they fall within the range defined by these values. Unsuitable Since the pupil edge is excluded as an appropriate edge, pupil edge extraction and pupil (pupil center, pupil diameter) calculation can be performed well regardless of the state of the eyeball.

【0160】[0160]

【発明の効果】 以上説明したように、請求項1に記載
した発明によれば、眼球を照明する照明手段と、前記照
明手段により照明された前記眼球を撮像する撮像センサ
と、前記撮像センサの出力から前記眼球の瞳孔および角
膜反射像の位置を求めて、視線を検出する視線検出手段
とを有する視線検出装置において、前記視線検出手段
は、前記撮像センサを複数のエリアに分割して、各エリ
ア毎の最低輝度値と前記撮像センサの全エリア内での最
低輝度値とを検出するとともに、全エリア内での最低輝
度値と各エリア毎の最低輝度値とをそれぞれ比較して、
全エリア内での最低輝度値と一致する最低輝度値である
エリアのみの出力に基づいて前記瞳孔の位置を求めるこ
とにより、瞳孔が存在しない可能性が高いエリアからの
出力を使わないので、視線検出時間の短縮と、高精度化
につながる。
According to the first aspect of the present invention, as described above.
According to the invention, the illumination means for illuminating the eyeball, and the illumination means
An image sensor for imaging the eyeball illuminated by the light means
And the pupil and angle of the eyeball from the output of the imaging sensor
Line-of-sight detecting means for detecting the position of the film reflection image and detecting the line of sight
A line-of-sight detecting device comprising:
Divides the image sensor into a plurality of areas, and
And the lowest luminance value in the entire area of the image sensor.
Detects low brightness value and the lowest brightness in all areas
By comparing the degree value with the minimum luminance value for each area,
The lowest brightness value that matches the lowest brightness value in all areas
The position of the pupil can be determined based on the output of only the area.
From the area where there is a high possibility that the pupil does not exist
Since no output is used, gaze detection time is reduced and accuracy is improved.
Leads to.

【0161】 また、請求項2に記載した発明は、眼球
を照明する照明手段と、前記照明手段により照明された
前記眼球を撮像する撮像センサと、前記撮像センサの出
力から前記眼球の瞳孔および角膜反射像の位置を求め
て、視線を検出する視線検出手段とを有する視線検出装
置において、前記視線検出手段は、前記撮像センサの出
力から所定の条件を満たす部分を瞳孔と虹彩の境界位置
の候補として複数箇所抽出し、抽出した境界位置の候補
のうち前記角膜反射像の位置の周辺にあるものを排除し
て、残りの境界位置の候補だけを用いて前記瞳孔の位置
を求めることにより、確からしい境界位置の候補を抽出
することができ、視線検出時間の短縮と、高精度化につ
ながる。
The invention described in claim 2 is an eyeball.
Illuminating means for illuminating, and illuminated by the illuminating means
An image sensor for imaging the eyeball; and an output of the image sensor.
Find the position of the pupil and corneal reflection image of the eyeball from the force
A gaze detection device having gaze detection means for detecting the gaze.
Wherein the line-of-sight detection means outputs the image sensor.
The part that satisfies the predetermined condition from the force is the boundary position between the pupil and the iris
Extracted at multiple locations as candidates for
Out of those around the position of the corneal reflection image
The pupil position using only the remaining boundary position candidates.
To extract probable boundary position candidates
To reduce gaze detection time and improve accuracy.
It goes.

【0162】[0162]

【0163】[0163]

【0164】[0164]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施例装置を具備したカメラの
概略構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of a camera including a device according to a first embodiment of the present invention.

【図2】図1のカメラのメイン動作を示すフローチャー
トである。
FIG. 2 is a flowchart showing a main operation of the camera of FIG.

【図3】図2のステップ107において行われる動作を
示すフローチャートである。
FIG. 3 is a flowchart showing an operation performed in step 107 of FIG. 2;

【図4】図3の動作の続きを示すフローチャートであ
る。
FIG. 4 is a flowchart showing a continuation of the operation in FIG. 3;

【図5】まつげによる輝度の変化の一例を示す図であ
る。
FIG. 5 is a diagram illustrating an example of a change in luminance due to eyelashes.

【図6】図2のステップ110において行われる動作を
示すフローチャートである。
FIG. 6 is a flowchart showing an operation performed in step 110 of FIG. 2;

【図7】図6の動作の続きを示すフローチャートであ
る。
FIG. 7 is a flowchart showing a continuation of the operation in FIG. 6;

【図8】眼球運動時のプルキンエ像と瞳孔の位置関係を
説明するための図である。
FIG. 8 is a diagram for explaining a positional relationship between a Purkinje image and a pupil during eye movement.

【図9】本発明の第2の実施例装置を備えたカメラの主
要部分の動作を示すフローチャートである。
FIG. 9 is a flowchart showing an operation of a main part of a camera provided with the device according to the second embodiment of the present invention.

【図10】図9の動作の続きを示すフローチャートであ
る。
FIG. 10 is a flowchart showing a continuation of the operation in FIG. 9;

【図11】本発明の第2の実施例において図2のステッ
プ110において行われる動作を示すフローチャートで
ある。
FIG. 11 is a flowchart showing an operation performed in step 110 of FIG. 2 in the second embodiment of the present invention.

【図12】眼球運動時のプルキンエ像と瞳孔の位置関係
を説明するための図である。
FIG. 12 is a diagram for explaining a positional relationship between a Purkinje image and a pupil during eye movement.

【図13】適切とする瞳孔エッジの範囲を示す図であ
る。
FIG. 13 is a diagram showing a range of a pupil edge that is appropriate.

【図14】本発明の第3の実施例装置を備えたカメラの
光像ブロック抽出動作を示すフローチャートである。
FIG. 14 is a flowchart showing an optical image block extracting operation of a camera provided with the third embodiment of the present invention.

【図15】本発明の第3の実施例装置を備えたカメラの
瞳孔円の演算動作を示すフローチャートである。
FIG. 15 is a flowchart showing an operation of calculating a pupil circle of a camera provided with the third embodiment of the present invention.

【図16】従来の半導体1次元撮像素子上に観察者の瞳
孔、虹彩を結像した状態を示す図である。
FIG. 16 is a diagram showing a state in which a pupil and an iris of an observer are imaged on a conventional semiconductor one-dimensional image sensor.

【図17】図16の半導体1次元撮像素子上の像の明る
さの分布を示す図である。
17 is a diagram illustrating a distribution of brightness of an image on the semiconductor one-dimensional image sensor in FIG. 16;

【図18】実際の半導体1次元撮像素子上の像の明るさ
の分布の一例を示す図である。
FIG. 18 is a diagram showing an example of an actual brightness distribution of an image on a semiconductor one-dimensional image sensor.

【図19】同じく実際の半導体1次元撮像素子上の像の
明るさの分布の他の例を示す図である。
FIG. 19 is a diagram showing another example of the distribution of the brightness of the image on the actual semiconductor one-dimensional image sensor.

【図20】同じく実際の半導体1次元撮像素子上の像の
明るさの分布の別の例を示す図である。
FIG. 20 is a diagram showing another example of the brightness distribution of the image on the actual semiconductor one-dimensional image sensor.

【図21】同じく実際の半導体1次元撮像素子上の像の
明るさの分布の更に別の例を示す図である。
FIG. 21 is a diagram showing still another example of the distribution of the brightness of the image on the actual semiconductor one-dimensional image sensor.

【符号の説明】[Explanation of symbols]

1 MPU 2 メモリ 4 CCD 5 IRED群 1 MPU 2 memory 4 CCD 5 IRED group

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G02B 7/28 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) G02B 7/28

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 眼球を照明する照明手段と、前記照明手
段により照明された前記眼球を撮像する撮像センサと、
前記撮像センサの出力から前記眼球の瞳孔および角膜反
射像の位置を求めて、視線を検出する視線検出手段とを
有する視線検出装置において、前記視線検出手段は、前記撮像センサを複数のエリアに
分割して、各エリア毎の最低輝度値と前記撮像センサの
全エリア内での最低輝度値とを検出するとともに、全エ
リア内での最低輝度値と各エリア毎の最低輝度値とをそ
れぞれ比較して、全エリア内での最低輝度値と一致する
最低輝度値であるエリアのみの出力に基づいて前記瞳孔
の位置を求める ことを特徴とする視線検出装置。
1. Illuminating means for illuminating an eyeball, and said illuminating hand
An imaging sensor for imaging the eyeball illuminated by a step;
From the output of the imaging sensor, the pupil of the eyeball and the cornea
Line of sight detecting means for detecting the position of the projected image and detecting the line of sight.
In the eye-gaze detecting device having the eye- gaze detecting means , the eye-gaze detecting means is configured to set the image sensor in a plurality of areas.
Divide the minimum brightness value for each area and the image sensor
In addition to detecting the lowest luminance value in all areas,
The minimum brightness value in the rear and the minimum brightness value for each area
Compare with each other and match the lowest luminance value in all areas
The pupil based on the output of only the area having the lowest luminance value
An eye gaze detecting device for determining the position of an eye.
【請求項2】 眼球を照明する照明手段と、前記照明手
段により照明された前記眼球を撮像する撮像センサと、
前記撮像センサの出力から前記眼球の瞳孔および角膜反
射像の位置を求めて、視線を検出する視線検出手段とを
有する視線検出装置において、前記視線検出手段は、前記撮像センサの出力から所定の
条件を満たす部分を瞳孔と虹彩の境界位置の候補として
複数箇所抽出し、抽出した境界位置の候補のうち前記角
膜反射像の位置の周辺にあるものを排除して、残りの境
界位置の候補だけを用いて前記瞳孔の位置を求める こと
を特徴とする視線検出装置。
2. Illumination means for illuminating an eyeball, and said illuminating hand
An imaging sensor for imaging the eyeball illuminated by a step;
From the output of the imaging sensor, the pupil of the eyeball and the cornea
Line of sight detecting means for detecting the position of the projected image and detecting the line of sight.
In the eye-gaze detecting device having the eye- gaze detecting means, a predetermined
The part that satisfies the conditions is a candidate for the boundary position between the pupil and the iris
A plurality of points are extracted, and the corners among the extracted boundary position candidates are
Exclude objects around the position of the film reflection image, and
A gaze detection apparatus, wherein the position of the pupil is determined using only field position candidates .
JP31441092A 1992-10-30 1992-10-30 Eye gaze detection device Expired - Fee Related JP3199877B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP31441092A JP3199877B2 (en) 1992-10-30 1992-10-30 Eye gaze detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31441092A JP3199877B2 (en) 1992-10-30 1992-10-30 Eye gaze detection device

Publications (2)

Publication Number Publication Date
JPH06148509A JPH06148509A (en) 1994-05-27
JP3199877B2 true JP3199877B2 (en) 2001-08-20

Family

ID=18053009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31441092A Expired - Fee Related JP3199877B2 (en) 1992-10-30 1992-10-30 Eye gaze detection device

Country Status (1)

Country Link
JP (1) JP3199877B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6036316A (en) * 1996-10-02 2000-03-14 Canon Kabushiki Kaisha Visual axis detecting device and apparatus including visual axis detecting device
JP5622431B2 (en) * 2010-04-21 2014-11-12 オリンパス株式会社 Head-mounted pupil detection device

Also Published As

Publication number Publication date
JPH06148509A (en) 1994-05-27

Similar Documents

Publication Publication Date Title
US5253008A (en) Camera
JP5297486B2 (en) Device for detecting and tracking the eye and its gaze direction
JP3647376B2 (en) Viewpoint position detection apparatus, viewpoint position detection method, and stereoscopic image display system
JP3143819B2 (en) Eyelid opening detector
JP3450801B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
JPH0846846A (en) Image pickup device
JP3214057B2 (en) Pupil center detection method, pupil center detection device, pupil limbus detection method, and pupil limbus detection device
JP3465336B2 (en) Face image capturing device
JP3199877B2 (en) Eye gaze detection device
JP3178747B2 (en) Eye gaze detection device
JP4536248B2 (en) Imaging device
JP3726122B2 (en) Gaze detection system
JP3428920B2 (en) Viewpoint position detecting device, method and stereoscopic image display system
JP3259991B2 (en) Eye gaze detection device
JP3185522B2 (en) Gaze direction measuring device for vehicles
JP2989974B2 (en) Eye gaze detection device
JPH06138379A (en) Camera provided with device for detecting line of sight
US5570157A (en) Visual axis detection apparatus
JP2002006203A (en) Focusing device and image pickup device
US5706071A (en) Line of sight detection apparatus and an equipment having the line of sight detection apparatus
JP3256294B2 (en) Eye gaze detection apparatus and eye gaze detection method
JPH06294930A (en) Camera with detecting function for line of sight
JP3630792B2 (en) Gaze detection device and optical device
JP3320123B2 (en) Eye gaze detecting apparatus and method, and video camera
JP2000075198A (en) Device provided with function of detecting line-of-sight

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080615

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090615

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090615

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100615

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110615

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120615

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees