JP3624030B2 - 視線検出装置及び光学装置 - Google Patents

視線検出装置及び光学装置 Download PDF

Info

Publication number
JP3624030B2
JP3624030B2 JP23211595A JP23211595A JP3624030B2 JP 3624030 B2 JP3624030 B2 JP 3624030B2 JP 23211595 A JP23211595 A JP 23211595A JP 23211595 A JP23211595 A JP 23211595A JP 3624030 B2 JP3624030 B2 JP 3624030B2
Authority
JP
Japan
Prior art keywords
line
eyeball
observer
image
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23211595A
Other languages
English (en)
Other versions
JPH0956677A (ja
Inventor
圭介 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP23211595A priority Critical patent/JP3624030B2/ja
Publication of JPH0956677A publication Critical patent/JPH0956677A/ja
Priority to US08/900,398 priority patent/US5926655A/en
Application granted granted Critical
Publication of JP3624030B2 publication Critical patent/JP3624030B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、観察者の視線位置を観察者の個人差データを使って求める視線検出装置や該装置を具備したカメラ等の光学装置の改良に関するものである。
【0002】
【従来の技術】
従来より、撮影者が観察面上のどの位置を観察しているかを検出する、いわゆる視線(視軸)を検出する装置(例えばアイカメラ)が種々提供されている。例えば特開平1−274736号公報においては、光源からの平行光束を撮影者の眼球の前眼部へ投射し、角膜からの反射光による角膜反射像と瞳孔の結像位置を利用して注視点を求めている。また同公報において、注視点検出装置を一眼レフカメラに配設し、撮影者の注視点情報を用いて撮影レンズの自動焦点調節を行なう例を開示している。
【0003】
図8は視線検出原理を説明する為の図である。
【0004】
同図において、15は撮影者の眼球、16は角膜、17は虹彩である。以下この図を用いて視線の検出方法を説明する。
【0005】
光源13bより放射された赤外光は、観察者の眼球15の角膜16を照射する。このとき角膜16の表面で反射した赤外光の一部により形成される角膜反射像d(虚像)は受光レンズ12により集光され、イメージセンサ14上の位置d´に結像する。同様に光源13aにより放射された赤外光は、眼球15の角膜16を照明する。このとき、角膜16の表面で反射した赤外光の一部により形成された角膜反射像eは受光レンズ12により集光され、イメージセンサ14上の位置e´に結像する。
【0006】
又、虹彩の端部a,bからの光束は、受光レンズ12を介してイメージセンサ14上の位置a´,b´に該端部a,bの像を結像する。受光レンズ12の光軸に対する眼球15の光軸の回転角θが小さい場合、虹彩の端部a,bのx座標をxa,xbとすると、瞳孔19の中心位置cの座標xcは、
xc≒(xa+xb)/2
と表される。
【0007】
また、角膜反射像d及びeの中点のx座標と角膜16の曲率中心oのx座標xoとは略一致する。このため、角膜反射像の発生位置d,eのx座標をxd,xe、角膜16の曲率中心oと瞳孔の中心cまでの標準的な距離をOCとすると、眼球15の光軸15aの回転角θxは、
OC*SINθx≒(xd+xe)/2−xc …………(1)
の関係式を略満足する。このためイメージセンサ14上に投影された眼球15の各特徴点(角膜反射像及び瞳孔の中心)の位置を検出することにより、眼球15の光軸15aの回転角θを求めることができる。
【0008】
眼球15の光軸15aの回転角は(1) 式より、
β*OC*SINθx≒{(xpo−δx)−xic}*pitch ……(2)
β*OC*SINθy≒{(ypo−δy)−yic}*pitch ……(3)
と求められる。ここで、θxはz−x平面内での眼球光軸の回転角、θyはy−z平面内での眼球光軸の回転角である。(xpo,ypo)はイメージセンサ14上の2個の角膜反射像の中点の座標、(xic,yic)はイメージセンサ14上の瞳孔中心の座標である。pitchはイメージセンサ14の画素ピッチである。また、βは受光レンズ12に対する眼球15の位置により決まる結像倍率で、実質的には2個の角膜反射像の間隔の関数として求められる。
【0009】
δx,δyは角膜反射像の中点の座標を補正する補正項であり、撮影者の眼球を平行光ではなく発散光にて照明していることにより生じる誤差を補正する補正項及び、δyに関しては、撮影者の眼球を下まぶたの方から発散光にて照明していることにより生じるオフセット成分を補正する補正項も含まれている。
【0010】
次に、眼球回転角と注視点の座標の関係から撮影者の注視点を求める。眼球回転角と注視点の座標の関係は、撮影者の眼球光軸の回転角を(θx,θy)とすると、撮影者の観察面上の注視点(x,y)は、カメラの姿勢が横位置の場合、
x=m*(θx+Δ) …………(4)
y=m*θy …………(5)
と求められる。ここで、x方向はカメラの姿勢が横位置の場合の撮影者に対して水平方向、y方向はカメラの姿勢が横位置の場合の撮影者に対して垂直方向を示している。mは眼球の回転角からピント板上の座標に変換する変換係数、Δは眼球光軸15aと視軸(注視点)とのなす角である。この時の変換係数m、Δには個人差があるため、この変換係数を含んだ形での個人差補正データを予め求めておく必要がある。
【0011】
個人差補正データは、撮影者に所定の座標を注視してもらい、そのときの眼球光軸の回転角を求める事で算出する事ができる。この様に個人差補正データを求めるための検出動作をキャリブレーションといい、キャリブレーションにより求めた個人差補正データをキャリブレーションデータという。
【0012】
観察面上(x1,0)を注視したときの眼球の回転角を(θx1,0)、(x2,0)を注視したときの眼球の回転角を(θx2,0)とすると以下の式で個人差データを求める事ができる。
【0013】
m=(x1−x2)/(θx1−θx2) …………(6)
Δ=(x2・θx1−x1・θx2)/(x1−x2) ………(7)
このような個人差補正データを求めること以外に、キャリブレーションは、使用する照明の選択や照明の明るさのパラメータの設定等を行っている。照明の種類は、主に裸眼の場合を対象とした照明(裸眼照明)とメガネ(眼鏡)を使用した撮影者用(眼鏡照明)との2種類がある。
【0014】
キャリブレーション時の照明の選択は、最初に裸眼照明を行って視線の検出が出来なければ、眼鏡照明にするとか、裸眼照明で視線検出出来た場合でも、眼鏡のゴーストが発生しているか否かを判定したり、眼球の距離を判定したりして照明を最終的に決定する。
【0015】
通常の視線検出動作においては、センサ画面内の瞳孔領域のみを読み出し、時間を短縮する方法が本願出願人より先願(特開平6−138370号)されている。この提案によれば、過去の視線検出画像の瞳孔位置を記憶しておいてその位置から今回の瞳孔位置を推定し、視線演算を行う領域を限定している。
【0018】
【発明が解決しようとする課題】
しかしながら、視線検出の演算時間を短縮するためにセンサ画面内の瞳孔領域のみを読み出すと、ゴーストの有無を判定することができず、本来眼鏡照明を使用すべきところで裸眼照明を使うという誤りが生じる。
【0019】
さらに別な問題として、外光が有る場合は領域を制限して視線検出演算を行った方が良いのに、ゴーストの有無を判定するために画像の全体で演算を行おうとして結果的に視線検出演算ができないことがある。
【0020】
さらに別な問題として、照明やセンサ制御を決定するために行った視線検出演算結果は個人差補正データを求める際に使用していないため、データが無駄になってしまう。すなわち、1回分の視線検出時間が余計に掛かる。
【0021】
以上のような様々な課題がある。
【0024】
(発明の目的) 本発明の第の目的は、眼鏡用の照明手段を選択する必要があるのに、誤って裸眼用の照明手段を選択してしまうといったことを防止することのできる視線検出装置を提供することにある。
【0025】
本発明の第の目的は、個人差データ取得時に、観察者の眼球に照明手段にて照明された以外の光が入射している場合であっても、個人差データ取得の為の動作を正確に行うことのできる視線検出装置を提供することにある。
【0026】
本発明の第の目的は、最適な照明手段及び受光手段の制御方法を決定する為に行った視線検出の結果を無駄にせず、個人差補正データの一つとして有効活用することのできる視線検出装置を提供することにある。
【0029】
【課題を解決するための手段】
上記第1の目的を達成するために、請求項1記載の本発明は、観察者の眼球を照明する為の照明手段と、該照明手段により照明された観察者の眼球像を受光して画像情報を出力する受光手段と、該受光手段にて得られた画像情報の部分領域もしくは全体領域を選択する画像領域選択手段と、該画像領域選択手段にて選択された画像情報の領域から眼球の特徴点を検出する特徴点検出手段と、観察者の個人差データを取得する個人差データ取得手段とを備え、前記個人差データと前記眼球の特徴点から観察者の視線を検出する視線検出装置において、前記個人差データ取得手段が、画像情報中にゴーストが含まれているか否かを前記受光手段にて得られた画像情報の全体領域を用いて判定するゴースト判定手段を有し、前記画像領域選択手段が、前記ゴースト判定手段にてゴーストの有無が判定されるまでは、前記画像情報の全体領域を選択し、ゴースト判定後は特徴点検出のために前記画像情報の部分領域を選択することを特徴とするものである。
【0030】
また、上記第2の目的を達成するために、請求項2記載の本発明は、観察者の眼球を照明する為の照明手段と、該照明手段により照明された観察者の眼球像を受光して画像情報を出力する受光手段と、該受光手段にて得られた画像情報の部分領域もしくは全体領域を選択する画像領域選択手段と、該画像領域選択手段にて選択された画像情報の領域から眼球の特徴点を検出する特徴点検出手段と、観察者の個人差データを取得する個人差データ取得手段とを備え、前記個人差データと前記眼球の特徴点から観察者の視線を検出する視線検出装置において、前記個人差データ取得手段が、観察者の眼球に前記照明手段によるものではない外光が入射しているか否かを前記受光手段にて得られた画像情報の全体領域を用いて判定する外光判定手段を有し、前記画像領域選択手段が、前記外光判定手段にて外光が入射していると判定された場合は、前記画像情報の部分領域を選択することを特徴とするものである。
【0031】
また、上記第3の目的を達成するために、請求項3記載の本発明は、観察者の眼球を照明する為の照明手段と、該照明手段により照明された観察者の眼球像を受光して画像情報を出力する受光手段と、該受光手段にて得られた画像情報から眼球の特徴点を検出する特徴点検出手段と、観察者の個人差データを取得する個人差データ取得手段とを備え、前記個人差データと前記特徴点から観察者の視線を検出する視線検出装置において、前記個人差データ取得手段が、前記照明手段と前記受光手段の少なくとも一方の制御方法の設定を変更して視線検出動作を行い、最適な前記照明手段及び前記受光手段の制御方法を決定し、該制御方法で視線検出動作を複数回行った視線検出結果と、該制御方法を決定する際に行った視線検出動作の視線検出結果とから個人差データを算出することを特徴とするものである。
【0032】
【発明の実施の形態】
以下、本発明を図示の実施の形態に基づいて詳細に説明する。
【0033】
図1は本発明の実施の第1の形態に係るカメラ本体に内蔵された電気回路の要部に示すブロック図である。
【0034】
カメラ本体に内蔵されたカメラ制御手段であるところのマイクロコンピュータの中央処理装置(以下CPUと称す)100には、視線検出回路101、姿勢検知回路102、自動焦点検出回路103、信号入力回路104、LCD駆動回路105、LED駆動回路106、IRED駆動回路107が接続されている。また、不図示ではあるが、視撮影レンズ内に配置された焦点調節回路、絞り駆動回路とはマウント接点を介して信号の伝達がなされる。
【0035】
CPU100に付随した記憶手段としてのEEPROM100aは、フィルムカウンタその他の撮影情報を記憶すると共にキャリブレーションを行って得た個人差補正データを記憶する。
【0036】
視線検出回路101は、イメージセンサ14(CCD−EYE)からの眼球像の出力をCPU100に送信する。CPU100はイメージセンサ14からの眼球像信号をCPU内部のA/D変換手段によりA/D変換し、この像情報を視線検出に必要な眼球像の各特徴点を所定のアルゴリズムに従って抽出し、さらに各特徴点の位置から撮影者の眼球の回転角を算出する。
【0037】
姿勢検知回路102は、複数のペアのフォトセンサとLED(HV1,HV2)及び重力により可動な遮蔽物から成り、重力により遮蔽物が動きフォトセンサの出力が変化することにより姿勢を検知する。
【0038】
自動焦点検出回路103は、複数のラインセンサから得た電圧をCPU100に送り、CPU100では内蔵されたA/D変換手段によってラインセンサ信号を順次A/D変換する。A/D変換されたセンサ信号は所定のアルゴリズムにより焦点状態を演算するのに用いられる。
【0039】
前記信号入力回路104は、各種スイッチからの信号入力を行い、スイッチの状態が変化するとCPU100に割り込み信号を発生させる。SW−1はレリーズ釦の第1ストロークでONし、測光,AF,視線検出動作を開始するスイッチ、SW−2はレリーズ釦の第2ストロークでONするレリーズスイッチ、SW−MDIALはカメラの各種撮影モードの他、キャリブレーションモードやカメラのロックポジションを選択するモードダイアルである〔図2(a),(b)参照〕。SW−CALDELは個人差補正データ消去スイッチである。SW−DIAL1とSW−DIAL2は電子ダイアルで、信号入力回路104のアップダウンカウンタに入力され、ここで電子ダイアルの回転クリック量がカウントされる。電子ダイヤルSW−DIAL1はSW−1,SW−2とモニタ用LCD42の間に配置され、右手の人差し指で操作できるようになっている〔図2(a)参照〕。電子ダイヤルSW−DIAL2はカメラの背面に配置され右手の親指で操作できるようになっている〔図2(a)参照〕。
【0040】
LCD駆動回路105は、ファインダ内LCD24〔図2(d)参照〕及びモニタ用LCD42〔図2(a)参照〕に各種情報を表示する他に、不図示のブザーを駆動し、ブザー音を発生させる。
【0041】
LED駆動回路106は、ファインダ内の測距点(焦点検出点)をスーパーインポーズ照明するためのLED21(LED−L2,LED−L1,LED−C,LED−R1,LED−R2)を点灯させるための回路である。前記LED−L2,LED−L1,LED−C,LED−R1,LED−R2は、それぞれファインダ内の測距マークFP−L2,FP−L1,FP−C,FP−R1,FP−R2に対応しており、LED21を点灯させることによりファインダ内の測距マークが照明される〔図2(d)参照〕。
【0042】
IRED駆動回路107は、撮影者の眼球を赤外光で照明するための赤外LED(IRED−0,IRED−1,IRED−2,IRED−3,IRED−4,IRED−5,IRED−6,IRED−7)を点灯させるための回路である。この回路には過電流を防止する為の回路や長時間の通電を防止するための回路が組み込まれている。IREDは2つがペアで使用され、眼球に対し下側から照明される。なお、裸眼用の照明は視線検出の光軸に近く、2つの間隔も狭い。眼鏡用照明は、光軸から遠く、2つの照明の間隔は広い。そして、眼鏡使用者は、裸眼の人よりも眼球距離が遠くなることが多く、照明の間隔が狭いと、角膜反射像が検出できなかったり、光軸に近いところから照明すると眼鏡表面の反射像により(ゴースト)角膜反射像が検出できなくなってしまう。更に眼鏡照明の時は、裸眼照明の時に較べ、光量を多くしたり、センサの蓄積時間を長くしたりする。
【0043】
カメラの姿勢が横位置の場合、裸眼用としてIRED−0,IRED−1が、また眼鏡用としてIRED−4,IRED−5が、それぞれペアとして使用され、グリップ上の縦位置では、裸眼用としてIRED−3,IRED−0が、また眼鏡用としてIRED−7,IRED−4が、ペアとして使用される。グリップ下の縦位置では、裸眼用としてIRED−1,IRED−2が、また眼鏡用としてIRED−5,IRED−6が、それぞれペアとして使用される〔図2(c)参照〕。
【0044】
上記の様に、どの姿勢においても裸眼の場合は間隔の狭いIREDペアが使用され、眼鏡使用時や眼球の距離が遠い場合は間隔の広いIREDペアが使用される。
【0045】
CPU100は視線検出装置の各機能部材に信号を送信して制御を行うとともに、各種の検出回路からの信号を受けてその信号処理を行う。
【0046】
次に、図3を使って、キャリブレーション動作と表示について説明する。
【0047】
カメラのモードダイアルSW−MDIALをキャリブレーションモードにすると、プログラムの制御がステップ#1に移る。そして、キャリブレーションモードにおいて電子ダイアルSW−DIAL1を回転させると、キャリブレーション番号の変更ができる。キャリブレーションモードで電子ダイアルSW−DIAL1に変化があると割り込みでキャリブレーション番号の変更処理を行う。
【0048】
次に、パラメータの初期設定を行う(#2)。初期設定が終了すると、カメラの姿勢検知を行い、カメラの姿勢を4つの姿勢(横位置、縦位置:グリップが上、縦位置:グリップが下、逆さ位置)に分類する(#3)。次いで、その姿勢のキャリブレーションデータがあるかどうかを判定し(#4)、データがある場合はキャリブレーション番号(CAL番号)を点灯させる(#5)。一方、データがなければCAL番号を点滅させる(#6)。
【0049】
次に、スイッチSW−1の状態を判別する(#7)。もしスイッチSW−1がONのままならステップ#3〜#7を繰り返す。また、スイッチSW−1がOFF状態なら、キャリブレーションの指標をファインダ内にスーパーインポーズ表示する。横位置で構えた場合は右測距点を第1の指標として使用し、縦位置に構えた場合は常に上になる測距点を第1の指標として使用する。その為、姿勢がグリップ下位置の縦位置であるか判定し(#8)、そうであるならLED−L2を点滅させることにより、図2(d)に示した左端の測距マークFP−L2を表示する(#10)。それ以外のカメラ姿勢ならLED−R2を点滅させ、右端の測距マークFP−R2を表示する。この状態でスイッチSW−1がONされるのを待つ(#11)。
【0050】
上記スイッチSW−1がOFFの間はステップ#3〜#11を繰り返す。そして、こ間に電子ダイアルSW−DIAL1を回転させると、キャリブレーション番号の表示が変化する。
【0051】
スイッチSW−1がONされると、上記ステップ#9又は#10で点滅表示したLEDを点灯表示にし(#12)、サブルーチン「眼鏡判定」をコールし、視線検出で使う照明の選択やその他のパラメータ設定を行う(#13)。ここでは、何種類かの照明で視線検出を行い、どの照明系が良いかの選択を行ったり、その結果によって照明の明るさ設定などを行う。詳しくは図4のフローチャートを使って説明する。
【0052】
次にキャリブレーションデータを取得するために「CAL視線演算」ルーチンをコールする(#13. 5)。ここでは、サブルーチン「眼鏡判定」で決定した照明とパラメータ設定で視線検出を行う。視線演算が終了するとLEDを消灯させ(#14)、視線演算が失敗したかを判定する(#15)。成功なら「ピピッ」というブザーで成功したことを知らせる(#16)。
【0053】
次に、スイッチSW−1がOFFするのを待ち(#17)、OFFになったら第2の指標を点滅させる。グリップ下の縦位置の場合点滅させるLEDが異なるのでそれを判定し(#18)、グリップ下の縦位置ならLED−R2を点滅させ、測距マークFP−R2を表示する(#19)。それ以外ならLED−L2を点滅させ、測距マークFP−L2を表示する(#20)。これで縦位置なら下の測距点が、横位置なら左の測距点が、それぞれ点滅表示されることになる。
【0054】
そして、スイッチSW−1が再びONされるのを待ち(#21)、ONされたらLEDを点滅から点灯に変え(#22)、2点目の指標に対するキャリブレーションの視線検出を行う(#23)。この時、2点目の指標の視線演算であることを示すフラグCALSTEP2をセットしておく。視線演算が終了したらLEDを消灯させ(#24)、再度視線失敗かどうか判定する(#25)。成功なら「ピピッ」というブザー音で知らせ(#26)、取得したデータをカメラ姿勢とCAL番号に対応させてCPU内のEEPROM100aに記憶する(#27)。ここで、キャリブレーションが終了したことを表示し(#28)、スイッチSW−1がOFFされるのを待つ(#29)。そして、スイッチSW−1がOFFされたらリターンする。
【0055】
次に、ステップ#13.5またはステップ#23で視線演算が失敗した場合について説明する。
【0056】
この場合、ステップ#15又は#25からステップ#30へ分岐し、ここで失敗表示を行う。これは、「CAL」の表示と番号の両方を点滅し、ブザーを連続で「ピピピピピピピピピピピピピ・・・・・・・」と鳴らすことで失敗を認識させる。スイッチSW−1がON(#30. 5)及びOFF(#29)するのを待ち、リターンする(#31)。
【0057】
リターンした後も引き続きカメラのモードダイアルSW−MDIALがキャリブレーションモードになっていれば、上記のステップ#1からプログラムを実行する。
【0058】
ここで、個人差補正データの消去について簡単に説明しておく。
【0059】
カメラのモードがキャリブレーションモードの時に、キャリブレーションデータ消去スイッチSW−CALDELをONする事によって、姿勢別の個人差補正データの消去を行うことができる。該消去スイッチSW−CALDELをONすると信号入力回路104はCPU100に割り込み信号を発生させ、CPU100は割り込みサブルーチン「データ消去」を実行する。
【0060】
次に、本発明の主要部分であるサブルーチン「眼鏡判定」(図3のステップ#13の部分)について、図4のフローチャートにより説明する。
【0061】
最初は、裸眼設定にするため「眼鏡フラグ」(GlassF)を“0”に、眼鏡によるゴーストの有無を判断するため「領域制限禁止フラグ」(EstimDis)を“1”に、それぞれセットする(#32)。制限された領域の外にゴーストがあるとゴーストの発見ができなくなるため、全体領域で視線演算を行う。次に、「視線検出」(NAC_MAIN)をコールする(#33)。
【0062】
ここで、図5(a)を使ってサブルーチン「視線検出」の説明を行う。
【0063】
サブルーチンがコールされると(#M01)、まず設定されたCAL番号に対する個人差データをEEPROM100aから読み出す(#M02)。キャリブレーションモードの場合は過去に入力されたデータを読み出すが、過去にデータが無い場合やデータが消去されている場合はパラメータを所定の値に初期設定する。次に、CAL番号に関わらず共通なパラメータの初期化を行う(#M03)。パラメータの初期化が終了したら、イメージセンサの蓄積を開始する(#M04)。
【0064】
イメージセンサ14はまず照明手段を使わずに所定時間予備蓄積を行う。この予備蓄積の結果で実際に眼球像を求めるときの蓄積制御方法を決定する。蓄積制御方法が決定したら今度は照明を点灯して蓄積を行う。照明はフラグGlassFが“1”なら眼鏡用照明を使用する。照明はフラグGlassFが“1”にセットされていれば眼鏡用照明を使い、“0”ならば裸眼用照明を使う。
【0065】
蓄積制御は、照明に連動して変える。具体的には眼鏡照明の時は、裸眼照明の時と較べ、蓄積時間を長くする。若しくは照明の光量を増す様にしても良い。
【0066】
また、照明の種類とは別に、蓄積制御の補正の設定がされていれば蓄積制御の補正を行う(蓄積時間を短くするとか、外光除去蓄積を行うとか)。
【0067】
次に、センサの読み出し及び特徴点の抽出を行う(#M05)。瞳孔の中心や照明の反射像(P像:プルキンエ像)などの特徴点座標が抽出できたら、所定の演算を行って眼球像の回転角を求める(#M06)。通常モードでは眼球像の回転角からキャリブレーションで求めた個人差補正データを使って観察者の注視点座標を求める。キャリブレーション動作時は眼球の回転角だけを求める。キャリブレーション時は、「キャリブレーションフラグ」を“1”に設定し、この事によってキャリブレーション用の視線演算を行う。さらにこれらの他に、眼球像の信頼性の度合いを示す値や眼球の距離などを求める。
【0068】
このように「視線検出」(NAC_MAIN)では、眼球像の瞳孔円及び照明の反射像(P像)などの特徴点を抽出し、所定の演算を行うことにより、観察者の眼球の回転角度や眼球までの距離,計算したデータの信頼性評価値等を求める。
【0069】
図4に戻って、視線検出の結果を判定して分岐を行う(#34)。視線検出が成功していればNAC_OKフラグが“1”にセットされるのでこれで判定する。
【0070】
ここから先は、いくつかのケースに分けて説明する。
【0071】
最初に裸眼の場合(眼鏡ゴーストが無い場合)について説明する。
【0072】
視線検出が成功するとステップ#35へ進み、今回が2巡目かどうかを判定する(裸眼照明→眼鏡照明の2回で1巡)。1巡目なら(#36)へ分岐する。そして、ここで既にゴーストが発見されているかどうかを判定する。1回目では未だゴースト判定を行っていないのでステップ#37へ分岐する。ゴースト判定用の眼球像を取り込んで視線検出を行ったので、ゴースト判定の前に「領域制限禁止フラグ」(EstimDis)を“0”にクリアする。領域制限を禁止したのはゴースト判定をする為なので、1回だけ領域制限を禁止すればよく、次回からは領域制限を行う。
【0073】
次に、ゴーストの数を判定する(#38)。ゴーストの数はP像検出の時にP像と同程度の輝度レベルで大きさがP像より大きい領域の数をカウントしておく。裸眼の場合、ゴーストは無いので眼球距離Szeの閾値をゴースト無し閾値に設定する(#40)。そして、設定した閾値と検出した眼球距離Szeとを比較して(#43)、眼球距離が近ければステップ#44へ分岐し、眼鏡照明かどうかを判定する(裸眼の人は、眼鏡の人に比べ眼球距離が短い)。最初は裸眼設定なのでステップ#50へ進み、ここでも裸眼設定なのでステップ#52へと進む。
【0074】
そして、「領域制限禁止フラグ」(EstimDis)を“0”に設定し、領域制限を許可する。今説明していた動作では既に「領域制限禁止フラグ」は“0”に設定されているが、別のルートを通った場合に「領域制限禁止フラグ」が“1”のままにならないように、ここで“0”にしている。同時に、眼鏡判定直後を表す「CAL眼鏡判定後フラグ」(CAL_JAGJ)を“1”に設定する(#52)。このフラグが“1”にセットされていると、眼鏡判定で使用したデータが「CAL視線演算」で使われる。最後にサブルーチンをリターンする(#53)。
【0075】
このように、最初画像の領域制限を禁止し、全体画像でゴーストを判断し、ゴーストを判断する為の画像を得た後に領域の制限を許可し、視線検出の演算時間を短縮する為にセンサ画面内の瞳孔領域のみを読み出すようにしたことにより、ゴーストの有無を判定することができ、さらにゴースト判定後は演算時間の短縮が可能である。1 回の視線検出にかかる時間を短くすることにより、同じ時間内に多くの回数視線検出が可能になり、精度のよいキャリブレーションデータを求めることができる。さらに、正しくゴースト判定ができるので、本来眼鏡照明を使用すべきところは眼鏡照明の設定ができる。
【0076】
次に、図4のステップ#43で眼球の距離が閾値より遠かった場合を説明する。
【0077】
この場合、ステップ#43からステップ#46へ分岐する。そして、「眼鏡フラグ」(GlassF)を判定し、ここでは“0”なので、サブルーチン「眼鏡設定&距離判定」(GsetDstChk)を実行する(#47)。サブルーチン「眼鏡設定&距離判定」(GsetDstChk)では、「眼鏡フラグ」(GlassF)を“1”に設定し、再び眼球距離を判定する。これは、眼鏡照明で距離が近い場合、蓄積過多になる傾向があったため、本発明でそれに対する対策を新しく追加した。ここではステップ#43とは別の閾値で距離の判定を行う。眼球距離が近い場合は、「近距離フラグ」(DistanceF )を“1”に設定する。
【0078】
サブルーチン「眼鏡設定&距離判定」(GsetDstChk)を終了すると、ステップ#33に戻り、再び「視線検出」(NAC_MAIN)を行う。そして、視線成功(#34)で、1巡目なら(#35)、ゴーストフラグの判定を行う(#36)。ゴースト無しなら、EstimDISを“0”にクリアし(#37)、ゴースト数を判定する(#38)。そして、眼球距離Szeの閾値をゴースト無しの値に設定し(#40)、検出した眼球距離と閾値の比較を行う(#43)。眼球距離が遠い場合はステップ#46で眼鏡フラグをチェックする。今回は眼鏡照明なのでステップ#50へ進み、眼鏡照明で検出した結果に基づいて距離の判断を行うために、もう一度サブルーチン「眼鏡設定&距離判定」GsetDstChkを実行する(#51)。裸眼照明で既に距離の判定を行っている場合もあるが、眼鏡照明で視線演算を行った結果で判定をし直す方がより正確な判断が可能なためである。
【0079】
次に「領域制限禁止フラグ」(EstimDis)を“0”に設定し領域制限を許可して「CAL 眼鏡判定後フラグ」(CAL_JAGJ)を“1”に設定し(#52)、サブルーチンを終了する(#53)。
【0080】
次に、眼鏡の場合(眼鏡ゴーストが発生した場合)の説明を行う。
【0081】
ステップ#33で視線検出を行い、視線検出が成功するとステップ#34からステップ#35へ進み、今回が2巡目かどうか判定する。1巡目ならステップ#36へ分岐する。1 回目では未だゴースト判定を行っていないので、ステップ#37へ分岐する。ゴースト判定の前に「領域制限禁止フラグ」(EstimDis)を“0”にクリアし、次回からは領域制限を行う。次にゴーストの数を判定する(#38)。ゴーストの数が閾値より多いとステップ#39へ分岐し、眼鏡照明かどうかを判定する。最初は裸眼設定なのでステップ#48へ進み、「ゴーストフラグ」を“1”に設定する。
【0082】
次にサブルーチン「眼鏡設定&距離判定」(GsetDstChk)(#49)において、「眼鏡フラグ」(GlassF)を“1”に設定し、眼球距離を判定する。このサブルーチンを終了するとステップ#33に戻り、もう一度「視線検出」(NAC_MAIN)を行う。そして、視線検出成功なら(#34)、2巡目の判定を行い(#35)、1巡目なのでステップ#36へ進む。既にゴースト判定を行い、ゴーストフラグが“1”に設定されているので、眼球距離Szeの閾値を「ゴースト有り閾値」に設定する(#42)。
【0083】
そして、前記の閾値と眼球距離Szeを比較して分岐を行う(#43)。距離が遠いならステップ#46で眼鏡判定を行う。眼鏡照明なのでステップ#50に進み、ステップ#51 へ分岐する。もう一度サブルーチン「眼鏡設定&距離判定」GsetDstChkを実行する(#51 )。ここで、眼鏡照明で検出した結果に基づいて距離の判定を行う。次に「領域制限禁止フラグ」(EstimDis)を“0”に設定し領域制限を許可し、「CAL眼鏡判定後フラグ」(CAL_JAGJ)を“1”に設定し(#52)、サブルーチンを終了する(#53)。
【0084】
上記ステップ#43で距離判定を行って距離が近い場合はステップ#44を介して#45へ分岐する。1 回目の視線検出でゴーストが発生したため眼鏡照明で再検出を行ったが、眼球距離が近い場合である。この場合は「眼鏡フラグ」(GlassF)及び、「近距離フラグ」(DistanceF )を“0”にクリアし、再度、裸眼照明で視線検出を試みる。「2巡目フラグ」を“1”にセットし、2巡目であることを設定する。この後、ステップ#33に戻り、再度「視線検出」(NAC_MAIN)を行う。視線検出ができたなら(#34)、分岐を行い、2巡目判定を行う(#35)。2巡目なのでステップ#50へ進み、眼鏡判定を行い、その結果ステップ#52に進む。ここで、「領域制限禁止フラグ」(EstimDis)を“0”に設定し領域制限を許可し、「CAL眼鏡判定後フラグ」(CAL_JAGJ)を“1”に設定し(#52)、サブルーチンを終了する(#53)。
【0085】
このように、眼鏡照明の時は、距離判定を行い、撮影者の眼球距離が所定より短い場合、蓄積制御を変更することによって適切な眼球像を得ることができる。具体的には、眼鏡照明の場合、受光センサの蓄積時間を長くしたり、照明を強くしたりして制御を行うが、眼鏡照明で眼球距離が近い場合は、蓄積時間を短くしたり、照明を弱めにしたりする。
【0086】
次に、視線検出ができなかった場合について説明を行う。
【0087】
「視線検出」(NAC_MAIN)を行って視線検出ができなかった場合、ステップ#34からステップ#54へ分岐する。ここで「瞬きフラグ」(WinkF )が“1”に設定されているか判定を行い(#54)、Wink=1なら「繰り返しフラグ」(RepFlag )を“1”にセットする(#55)。キャリブレーション動作時に「RepFlag 」はクリアされないため、瞬きの判定で同じ蓄積制御を行うのは1回だけである。これは、瞬きによってキャリブレーション動作の時間が長くなりすぎないようにするためである。さらに、瞬きの判定を行うのは眼鏡判定の中だけである。
【0088】
次にステップ#33に戻り、再度同じ照明で「視線検出」(NAC_MAIN)を行う。
【0089】
瞬き検知は視線演算中の「特徴点抽出」、つまり図5(a)のステップ#M05で行う。図5(b)を使ってこの「特徴点抽出」の説明を行う。
【0090】
サブルーチン「特徴点抽出」がコールされると(#R01)、まずセンサのブロック読みを行う(#R02)。ブロック読みでセンサの全体を荒く読むことができる。ブロック読みの画像を使って最低輝度を求める(#R03)。最低輝度は瞬き検知の他、領域制限の読み出し領域を検出するとき、さらに特徴点を抽出するときなどに用いる。次に「瞬きの検知」(#R04)、「領域設定」(#R05)を行う。次に「領域設定」で設定された領域の読み出しを行いながら画像の特徴点を抽出する(#R06)。特徴点の抽出,センサの読み出しが終了すると、サブルーチンをリターンする(#R07)。
【0091】
ここで、図6を使って瞬き判定の説明を行う。
【0092】
サブルーチン「瞬き検知」がコールされると(#W01)、まず瞬きフラグ「WinkF 」をクリアする(#W02)。次に、前回瞬き検知で同じ蓄積制御を行っているかを「RepFlag 」を使って判定する(#W03)。「RepFlag 」がセットされている場合はすぐにリターンする。瞬き判定を2回続けて行わないためである。
【0093】
一方、「RepFlag 」がクリアされている場合は、瞬きの通常閾値を設定する(#W04)。次に全体輝度を全体輝度閾値と決定し、全体の輝度が高く(#W05)、外光除去制御でないなら(#W06)、瞬きの高輝度閾値を設定する。次に眼鏡照明かどうかを判定し(#W08)、眼鏡照明なら眼鏡閾値を設定する(#W09)。次に、ブロック画像から求めた最低輝度からセンサのダーク分を減算し(#W10)、それを設定した閾値と比較する(#W11)。閾値より大きければ「WinkF 」を“1”に設定し、瞬きであると判定する。瞬き判定が終了するとリターンする(#W13)。
【0094】
ここで再び図4の説明に戻る。
【0095】
ステップ#54で瞬きをしていない場合は、眼鏡照明の判定を行う(#56)。裸眼照明で検出ができなければ次回眼鏡照明で視線検出を行うので「眼鏡フラグ」(GlassF)を“1”に設定する(#57)。その後、ステップ#33に戻り、「視線検出」(NAC_MAIN)を行う。眼鏡照明で視線演算を行って(#33)、検出可能なら(#34)、2巡目であるかを判定し(#35)、1巡目ならゴーストの判定を行う(#36)。そして、1回目の視線検出で検出できなかった場合、未だゴースト判定を行っていないので、「領域制限禁止フラグ」を“0”にクリアした後(#37)、ゴースト数の判定を行う(#38)。ゴースト有りなら眼鏡判定を行い(#39)、眼球距離Szeはゴースト有りの閾値を設定する(#41)。#38でゴーストが無ければ、ゴースト無し閾値を設定する(#40)。
【0096】
その後は、前に説明したのと同様に距離判定を行い適切な照明を決定する。
【0097】
このように裸眼照明で検出ができなかった場合は、眼球距離等に無関係に照明を眼鏡用に切り換えて検出を行って見る。「瞬き検知」結果を用いなければ、裸眼の観察者がたまたま瞬きを行ったために眼鏡照明に設定されてしまったり、眼鏡の観察者が瞬きの為にキャリブレーションが出来なくなってしまうことがある。そこで、「瞬き検知」結果をキャリブレーション動作中に適用し、同じ照明で再度視線演算を繰り返すことによって、正しく照明の設定や蓄積制御の設定が出来る。さらに、瞬きの判定で同じ蓄積制御を繰り返すのは1回のみとし、瞬き判定でキャリブレーション動作が長くなることを防いでいる。
【0098】
ステップ#56で既に眼鏡照明の時は、2巡目の判定を行う(#58)。1巡目なら、外光の判定を行う(#59)。ここでは、外光の判定を行い、もし外光があるなら次回領域制限を行うように「領域制限禁止フラグ」(EstimDis)を0にクリアする(#60)。これは、外光が有るために偽のP像や睫毛の偽エッジが発生して視線検出が失敗する場合が有るためである。ここで領域制限を行ってしまうとゴースト数の判定ができなくなる事があるが、視線検出ができないよりは良い。外光が無い場合は、領域制限禁止のままである。次に「2巡目フラグ」を1に設定し、「眼鏡フラグ」(GlassF)を“0”にクリアし(#61)、再度裸眼照明で「視線検出」(NAC_MAIN)を行う。
【0099】
2巡目でステップ#62に分岐した場合には、キャリブレーション失敗を表す「CAL失敗フラグ」を“1”に設定する(#33)。そして、ステップ#50〜#52を通過し(プログラムの都合上通過するが取り立てて意味はない)、リターンする(#53)。
【0100】
このように、裸眼照明→眼鏡照明→裸眼照明→眼鏡照明という巡で視線演算を行って検出ができなければキャリブレーション失敗となる。
【0101】
次に、図3のステップ#13. 5及びステップ#23のサブルーチン「CAL視線演算」の詳細について、図7のフローチャートにより説明する。
【0102】
図3のステップ#13. 5でサブルーチン「CAL 視線演算」がコールする前にはサブルーチン「眼鏡判定」が実行され(図3のステップ#13)、その最後のステップ、つまり図4のステップ#52でフラグ「CAL_JAGJ」が“1”に設定されている。この状態で図7のステップ#80にプログラムの制御が移行してくる。
【0103】
まず、CAL視線演算を行うに当たり、初期設定を行う(#80)。キャリブレーションで視線検出を試行する回数の設定し、取得したデータを格納するアドレス設定、検出できた回数をカウントするカウンタ、及び、「CAL_ERR フラグ」のクリアを行う。次にステップ(#82)でフラグ「CAL_JAGJ」が“0”であるか判定をし、もし“0”なら「視線検出」(NAC_MAIN)(#83)をコールする。眼鏡判定を行った直後なら「CAL_JAGJ」が“1”に設定されているので「視線検出」(NAC_MAIN)をコールせずにステップ#84へ進む。
【0104】
このことにより、眼鏡判定で視線検出を行った結果を捨てずに使用することができる。
【0105】
次に、同じデータを重複して使用しないようにフラグ「CAL_JAGJ」を“0”にクリアする(#84)。そして、視線検出の結果を判定する(#85)。視線検出が成功していればNAC_OKフラグが“1”にセットされるのでこれで判定する。成功していればステップ#86で今検出した視線データを所定のアドレスに格納し、次のステップ#87で成功したデータ数をカウントする。そして、試行する回数をダウンカウントしているカウンタを減算し(#88)、もし「0」でないなら所定回数ステップ#81〜#88を繰り返す。所定回数繰り返すとループをぬけ個人差データの計算を行う(#89)。ここで、片方の指標に対するデータが計算できる。
【0106】
次に、フラグ「CAL_STEP2」でどちらの指標を見ているのかを判定し、1点目ならステップ#91へ、2点目ならステップ#92へ、それぞれ分岐し、計算データを格納するアドレス設定を行い、アドレスが設定されたら計算データを格納する(#93)。次に成功したデータ数(ステップ#87でカウントしている)が所定数より多いかどうかを判定し(#94)、所定数に満たなければ「CAL_ERR フラグ」を“1”に設定する(#95)。最後にサブルーチンをリターンする(#96)。
【0107】
このようにすることによって、サブルーチン「眼鏡判定」、即ち照明やセンサ制御を決定するために行った視線検出演算結果は個人差補正データを求める際に有効に使うことができ、データが無駄にならない。つまり、1回分の視線検出時間だけ速くキャリブレーション動作が終了する。
【0108】
(発明と実施の形態の対応)
実施の各形態において、IRED駆動回路107及び赤外発光ダイオードIRED−0〜IRED−7が本発明の照明手段に相当し、視線検出回路101及びイメージセンサ14が本発明の受光手段に相当する。
【0109】
また、CPU100内の図3〜図7の動作を行う部分が、本発明の特徴点検出手段、個人差データ取得手段、決定手段、ゴースト判定手段、画像領域選択手段、外光判定手段に相当する。
【0110】
以上が実施の形態の各構成と本発明の各構成の対応関係であるが、本発明は、これら実施の形態の構成に限定されるものではなく、請求項で示した機能、又は実施の形態がもつ機能が達成できる構成であればどのようなものであってもよいことは言うまでもない。
【0111】
(変形例)
本発明は、一眼レフカメラに適用した場合を述べているが、レンズシャッタカメラ,ビデオカメラ等のカメラにも適用できるものである。更には、その他の光学機器や他の装置や構成ユニットとしても適用することができるものである。
【0116】
【発明の効果】
以上説明したように、本発明によれば、画像情報中にゴーストが含まれているか否かを受光手段にて得られた画像情報の全体領域を用いて判定するゴースト判定手段にてゴーストの有無が判定されるまでは、受光手段にて得られた画像情報の全体領域を選択し、ゴーストの有無が判定された後は特徴点検出のために画像情報の領域を制限して眼球の特徴点を検出する。
【0117】
よって、眼鏡用の照明手段を選択する必要があるのに、誤って裸眼用の照明手段を選択してしまうといったことを防止することができる。
【0118】
また、本発明によれば、観察者の眼球に照明手段によるものではない外光が入射しているか否かを受光手段にて得られた画像情報の全体領域を用いて判定する外光判定手段にて外光が入射していると判定された場合は、受光手段にて得られた画像情報の領域を制限して眼球の特徴点を検出する。
【0119】
よって、個人差データ取得時に、観察者の眼球に照明手段にて照明された以外の光が入射している場合であっても、個人差データ取得の為の動作を正確に行うことができる。
【0120】
また、本発明によれば、照明手段と受光手段の少なくとも一方の制御方法の設定を変更して視線検出動作を行うことで最適な照明手段及び受光手段の制御方法を決定し、この決定された制御方法で視線検出動作を複数回行った視線検出結果と、制御方法を決定する際に行った視線検出動作の視線検出結果とから個人差データを算出する。
【0121】
よって、最適な照明手段及び受光手段の制御方法を決定する為に行った視線検出の結果を無駄にせず、個人差補正データの一つとして有効活用することができる。
【図面の簡単な説明】
【図1】本発明の実施の各形態に係るカメラの要部構成を示すブロック図である。
【図2】図1のカメラの各操作部材や視線検出用照明手段やファインダ内の表示例を示す図である。
【図3】図1のカメラのキャリブレーション動作を示すフローチャートである。
【図4】図3のステップ#13での動作を示すフローチャートである。
【図5】図1のカメラの視線検出時の動作を示すフローチャートである。
【図6】図5(b)のステップ#R04での動作を示すフローチャートである。
【図7】図1のカメラのキャリブレーション視線演算時の動作を示すフローチャートである。
【図8】視線検出原理について説明する為の図である。
【符号の説明】
100 マイクロコンピュータの中央処理装置(CPU)
101 視線検出回路
102 姿勢検知回路
103 自動焦点検出回路
104 信号入力回路
105 LCD駆動回路
106 LED駆動回路
107 IRED駆動回路
IRED−0〜IRED−7 赤外発光ダイオード

Claims (4)

  1. 観察者の眼球を照明する為の照明手段と、該照明手段により照明された観察者の眼球像を受光して画像情報を出力する受光手段と、該受光手段にて得られた画像情報の部分領域もしくは全体領域を選択する画像領域選択手段と、該画像領域選択手段にて選択された画像情報の領域から眼球の特徴点を検出する特徴点検出手段と、観察者の個人差データを取得する個人差データ取得手段とを備え、前記個人差データと前記眼球の特徴点から観察者の視線を検出する視線検出装置において、
    前記個人差データ取得手段は、画像情報中にゴーストが含まれているか否かを前記受光手段にて得られた画像情報の全体領域を用いて判定するゴースト判定手段を有し、
    前記画像領域選択手段は、前記ゴースト判定手段にてゴーストの有無が判定されるまでは、前記画像情報の全体領域を選択し、ゴースト判定後は特徴点検出のために前記画像情報の部分領域を選択することを特徴とする視線検出装置。
  2. 観察者の眼球を照明する為の照明手段と、該照明手段により照明された観察者の眼球像を受光して画像情報を出力する受光手段と、該受光手段にて得られた画像情報の部分領域もしくは全体領域を選択する画像領域選択手段と、該画像領域選択手段にて選択された画像情報の領域から眼球の特徴点を検出する特徴点検出手段と、観察者の個人差データを取得する個人差データ取得手段とを備え、前記個人差データと前記眼球の特徴点から観察者の視線を検出する視線検出装置において、
    前記個人差データ取得手段は、観察者の眼球に前記照明手段によるものではない外光が入射しているか否かを前記受光手段にて得られた画像情報の全体領域を用いて判定する外光判定手段を有し、
    前記画像領域選択手段は、前記外光判定手段にて外光が入射していると判定された場合は、前記画像情報の部分領域を選択することを特徴とする視線検出装置。
  3. 観察者の眼球を照明する為の照明手段と、該照明手段により照明された観察者の眼球像を受光して画像情報を出力する受光手段と、該受光手段にて得られた画像情報から眼球の特徴点を検出する特徴点検出手段と、観察者の個人差データを取得する個人差データ取得手段とを備え、前記個人差データと前記特徴点から観察者の視線を検出する視線検出装置において、
    前記個人差データ取得手段は、前記照明手段と前記受光手段の少なくとも一方の制御方法の設定を変更して視線検出動作を行い、最適な前記照明手段及び前記受光手段の制御方法を決定し、該制御方法で視線検出動作を複数回行った視線検出結果と、該制御方法を決定する際に行った視線検出動作の視線検出結果とから前記個人差データを算出することを特徴とする視線検出装置。
  4. 請求項1から3のいずれかに記載の視線検出装置を具備したことを特徴とする光学装置。
JP23211595A 1995-08-15 1995-08-18 視線検出装置及び光学装置 Expired - Fee Related JP3624030B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP23211595A JP3624030B2 (ja) 1995-08-18 1995-08-18 視線検出装置及び光学装置
US08/900,398 US5926655A (en) 1995-08-15 1997-07-21 Line of sight detection device and an apparatus having a line of sight detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23211595A JP3624030B2 (ja) 1995-08-18 1995-08-18 視線検出装置及び光学装置

Publications (2)

Publication Number Publication Date
JPH0956677A JPH0956677A (ja) 1997-03-04
JP3624030B2 true JP3624030B2 (ja) 2005-02-23

Family

ID=16934249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23211595A Expired - Fee Related JP3624030B2 (ja) 1995-08-15 1995-08-18 視線検出装置及び光学装置

Country Status (1)

Country Link
JP (1) JP3624030B2 (ja)

Also Published As

Publication number Publication date
JPH0956677A (ja) 1997-03-04

Similar Documents

Publication Publication Date Title
US5926655A (en) Line of sight detection device and an apparatus having a line of sight detection device
JP2002345756A (ja) 視線検出装置及び光学機器
US5797046A (en) Visual axis controllable optical apparatus including a visual axis detecting device for detecting a visual axis
US5983030A (en) Optical apparatus having a visual axis detector
US6507702B2 (en) Device having sight line detecting function
US5402199A (en) Visual axis detecting apparatus
JP3624030B2 (ja) 視線検出装置及び光学装置
JP3256294B2 (ja) 視線検出装置および視線検出方法
JP3304408B2 (ja) 視線検出装置および視線検出装置を有する機器
JP2002301030A (ja) 視線検出機能付き機器
JP3530647B2 (ja) 視線検出装置及び光学装置
JP2003339642A (ja) 視線検出装置及びそれを有した光学装置
JP3184634B2 (ja) 視線検出装置を有する光学装置
JP2023006629A (ja) 制御装置およびその制御方法
JP2003307774A (ja) 視線検出機能付き光学機器
JP3605081B2 (ja) 視線検出装置
JP3605080B2 (ja) 視線検出装置
JP3437343B2 (ja) 視線検出装置
JP3530642B2 (ja) 視線検出装置
JP3219491B2 (ja) 視線検出装置
JP2022096819A (ja) 視線検出装置
JP3530648B2 (ja) 視線検出装置及び光学装置
JPH0956679A (ja) 画像処理装置及び光学装置
JP2002341239A (ja) 視線検出装置
JPH08194154A (ja) 視線検出機能付き観察装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041129

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081203

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091203

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091203

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101203

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111203

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121203

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131203

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees