JP2004188017A - Gaze tracking system - Google Patents
Gaze tracking system Download PDFInfo
- Publication number
- JP2004188017A JP2004188017A JP2002361220A JP2002361220A JP2004188017A JP 2004188017 A JP2004188017 A JP 2004188017A JP 2002361220 A JP2002361220 A JP 2002361220A JP 2002361220 A JP2002361220 A JP 2002361220A JP 2004188017 A JP2004188017 A JP 2004188017A
- Authority
- JP
- Japan
- Prior art keywords
- gaze
- state
- image
- line
- sight
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Eye Examination Apparatus (AREA)
- Focusing (AREA)
- Details Of Cameras Including Film Mechanisms (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は視線検出手段を有した光学装置に関し、特に撮影系による被写体像が形成されている観察面(ピント面)上のファインダー系を介して観察者(撮影者)が観察している注視点方向の軸、いわゆる視線(視軸)を、観察者の眼球面上を照明したときに得られる眼球の反射像を利用して検出し、各種の撮影操作を行うようにした視線検出手段を有した光学装置に関するものである。
【0002】
【従来の技術】
従来より観察者が観察面上のどの位置を観察しているかを検出する、いわゆる視線(視軸)を検出する装置(例えばアイカメラ)が種々提案されている。
具体的には、光源からの平行光束を観察者の眼球の前眼部へ投射し、角膜からの反射光による角膜反射像と瞳孔の結像位置を利用して視軸を求める視線検出装置が提案されている(例えば、特許文献1参照)。
【0003】
また、撮影者の視線の個人差を補正する視線のキャリブレーション方法を用いて各種の撮影を行うようにした視線検出装置を有した光学装置(カメラ)が提案されている(例えば、特許文献2参照)。
【0004】
図20は視線検出方法の原理説明図である。各部の名称と記号については、図1、図2と同様である。13a、13bは各々ユーザに対して不感の赤外光を放射する発光ダイオードであり、各光源13a、13bは受光レンズ12の光軸に対してx方向にほぼ対称に配置され、さらにユーザの眼球17を下方(y方向にオフセットした位置)から照明するように配置されている。眼球17で反射した照明光の一部は、受光レンズ12を介してCCD14に集光する。17bは角膜、17cは虹彩である。
【0005】
図21(a)はCCD14に投影される眼球像の概略図であり、図21(b)はCCD14の出力ラインからの信号の強度分布を示す図である。
以下、上記の各図を用いて視線の検出方法について説明する。
【0006】
IRED13bより放射された赤外光は、ユーザの眼球17の角膜17bを照射する。このとき、角膜17bの表面で反射した赤外光の一部により形成される角膜反射像d(虚像;プルキンエ像もしくはP像)は、受光レンズ12により集光され、CCD14上の位置d'に結像する。
【0007】
同様にIRED13aにより放射された赤外光は、眼球17の角膜17bを照射する。このとき、角膜17bの表面で反射した赤外光の一部により形成された角膜反射像e(虚像;プルキンエ像もしくはP像)は、受光レンズ12により集光され、CCD14上の位置e'に結像する。
【0008】
また、虹彩17cの端部a、bからの光束は、受光レンズ12を介してCCD14上の位置a'、b'に端部a、bの像を結像する。受光レンズ12の光軸に対する眼球17の光軸の回転角θが小さい場合、虹彩17cの端部a、bのx座標をxa、xbとすると、瞳孔17dの中心位置cの座標xは、
【0009】
【数1】
と表される。
【0010】
また、角膜反射像d及びeの中点のx座標と角膜17bの曲率中心oのx座標xoとはほぼ一致する。このため角膜反射像の発生位置d、eのx座標をxd、xe、角膜17bの曲率中心oと瞳孔17dの中心cまでの標準的な距離をLocとすると、眼球17の光軸17aの回転角θxは、
【0011】
【数2】
の関係式を満足する。
【0012】
このため、図21(a)に示した様に、CCD14上に投影された眼球17の各特徴点(角膜反射像及び瞳孔の中心)の位置を検出することにより、眼球17の光軸17aの回転角θを求めることができる。
【0013】
眼球17の光軸17aの回転角は(2)式より、
【0014】
【数3】
【0015】
と求められる。ここで、βは受光レンズ12に対する眼球17の位置により決まる結像倍率で、実質的には2個の角膜反射像(プルキンエ像)の間隔|xd'-xe'|の関数として求められる。
【0016】
また、θxはz‐x平面内での眼球光軸の回転角、θyはy‐z平面内での眼球光軸の回転角である。(xpo,ypo)はCCD14上の2個の角膜反射像の中点の座標、(xic,yic)はCCD14上の瞳孔中心の座標である。Ptx,PtyはCCD14のx方向およびy方向の画素ピッチである。δx,δyは角膜反射像の中点の座標を補正する補正項であり、ユーザの眼球を平行光ではなく発散光にて照明していることにより生じる誤差を補正する補正項、及び、δyに関しては、ユーザの眼球を下まぶたの方から発散光にて照明していることにより生じるオフセット成分を補正する補正項も含まれている。
【0017】
ユーザの眼球光軸17aの回転角(θx,θy)が算出されると、ユーザの観察面上の注視点(x,y)は、
【0018】
【数4】
【0019】
と求められる。ここで、x方向は観察者に対して水平方向、y方向はユーザに対して垂直方向を示している。mは眼球17の回転角から観察面上の座標に変換する変換係数であり、ax,bx、ay,byは注視点キャリブレーション係数で、ユーザの眼球17の回転角と観察面上の注視点を一致させるための補正係数である。
【0020】
角膜反射像(プルキンエ像)の中点の位置の補正項δx、δyの算出方法を図22(a)、(b),(c)を用いて説明する。
接眼レンズ射出面と視線検出光学系の光軸(z軸)との交点を原点に設定する。IRED1の座標を(-Sxi1,Syi,Szi)、IRED2の座標を(Sxi1,Syi,Szi)、撮影者の眼球の角膜の曲率中心Oの座標を(Sxc,Syc,Szc)とする。
【0021】
プルキンエ像dとeの中点P0は、IRED1,2の中点に配置された1個のIREDによって発生するプルキンエ像の位置と等価である。視線算出式は2つのプルキンエ像の中点P0の座標に基づいているため、以降IRED1とIRED2の中点(0,Si,Zi)と角膜の曲率中心Oとの距離をLとすると、
【0022】
【数5】
【0023】
アッベの不変量より、角膜表面からプルキンエ像の発生する位置までの距離Kは、
【0024】
【数6】
と表される。
【0025】
また、プルキンエ像P1,P2の中点P0のx方向のシフト量δx(CCD座標系でのシフト量;眼球座標系でのΔx)は、
【0026】
【数7】
の関係を満足する。上式を展開するとシフト量δxは、
【0027】
【数8】
となる。
同様にプルキンエ像P1,P2の中点P0のy方向のシフト量δyは、
【数9】
【0028】
ここで、視線検出光学系の結像倍率βを、接眼レンズ射出面(原点)からの距離Szの2次関数として定義すると、
【0029】
【数10】
となる。
【0030】
係数b1〜b3は、所定距離における結像倍率を光学シミュレーションにて求め、それらの値を2次近似することにより算出される。
プルキンエ像の結像倍率βpは、角膜の頂点からのz方向の距離をSzpとすると、
【0031】
【数11】
となる。
【0032】
以下、Szp、Szcを求めるため、算出ルーチンを複数回実行し、Szp、Szcを収束させる。ここで、式(9)と式(11)を比較した場合、式(11)では、Syi((βp)/(Pty))の1項が加えられている。これは、図22(b)に対して、図22(c)のごとく、y軸方向にz軸を挟んで、IREDが存在しないため、プルキンエ像が無いことで生じている項である。即ち、y方向のシフト量δyは、プルキンエ像P1,P2の中点P0から、直接的に求めることが出来ない。
【0033】
このため、y方向のシフト量δyは、x方向のシフト量δxに対して、前述の係数b1〜b3の2次近似近似をはじめとして、収束計算での他の近似計算誤差、マイコン上の量子化誤差などが加わるため、精度が劣るという欠点を有する。
【0034】
したがって、δxを含む式(3)、δyを含む式(4)で求められるユーザの眼球光軸17aの回転角(θx,θy)において、θxに対して、θyは精度が劣るという欠点を有する。δxを含む式(3)、δyを含む式(4)から、撮影者の眼球回転角θx、θyが算出されると、式(5)、式(6)からの個人差に関するax,bx、ay,byの補正係数を与え、ピント板上の座標が算出される。
【0035】
ここで、θyの精度が劣るという欠点を回避するために、図2(b)のごとく、発光ダイオード13a、13bに対して、y軸方向にz軸を挟んで、13eまたは、13fを更に照明することで、新たな角膜反射像(虚像;プルキンエ像もしくはP像)を得ることで、δyをδxと同様に、求めることで、θyを、θxと同様の精度にする必要がある。
【0036】
これを、発光ダイオード13cの照射を追加した図23で説明する。図23(a)は、図21(a)と同様に、CCD14上に投影された眼球17の各特徴点(角膜反射像及び瞳孔の中心)の位置を示したもので、発光ダイオード13cに対応する新たな角膜反射像P3が、座標 (Xe",Ye")に、発光ダイオード13a、13bに対応する従来の角膜反射像P1、P2の座標 (Xe',Ye')、(Xd',Yd')のy座標から構成されるy方向P像中心が座標(xp1,yp1)にある。図23(b)は、図22(c)と同じy-z平面眼球座標図で表したものである。
【0037】
式(4)は、
【数12】
で表され、
補正項δyに関しては、
【数13】
で表され、y方向のシフト量δyが、式(3)のx方向のシフト量δxと同様の式であることが判る。
【0038】
ここで、従来の発光ダイオード13a、13bでの角膜反射像で得られる式(11)のδyと、新たな角膜反射像を得ることで算出される式(10)''のδyの値は、当然異なるため、得られるθyの値も異なる。即ち、眼球回転角θx、θyから、算出される式(5)、式(6)で与える個人差に関するax,bx、ay,byの補正係数も、同一個人であっても、発光ダイオード13a、13b で得られる角膜反射像から得られるax,bx、ay,by に対して、13eまたは、13fを更に照明し、新たな角膜反射像を加えて得られるay,byが異なる。
【0039】
ここで、観察者の視線検出を行う際、必ずしも、照明光源に対応したプルキンエ像が得られるわけでは無い。特に、上側の発光ダイオード13eに対応する上側の角膜反射像は、観察条件、個人差によって、観察者の上瞼、睫毛で、照明光源が遮られるためである。前述の新たな照明光源を追加したとしてもそれに対応したプルキンエ像が得られるとは限らない。前述のごとく、個人差に関するax,bx、ay,byの補正係数も、前述の角膜反射像の状態を考慮せず、一様に与えれば、y軸方向に関しての精度に問題が依然残る。
【0040】
そこで、従来の発光ダイオード13a、13bに対し、発光ダイオード13e、13fを追加して、照明に用いる提案がある。この様に行えば、観察条件、個人差によって、観察者の上瞼、睫毛で、照明光源が遮られたとしても、少なくとも発光ダイオード13e、13fに対応する角膜反射像のいずれかを得られる確率を増したものである。
【0041】
発光ダイオード13A、13b、13e、13fに対応して、発光ダイオード13a、13b、3つの角膜反射像が得られた場合、前述のごとく、個人差に関するax,bx、ay,byの補正係数を正しく与えれば、眼球回転角θx、θyの精度は、同等となる。
【0042】
図24は、図21(a)、図23(a)と同様に、この時の4つの角膜反射像が得られた場合のCCD14上に投影された眼球17の各特徴点(角膜反射像及び瞳孔の中心)の位置を示したものである。
【0043】
発光ダイオード13a、13b、13e、13fに対応する4つの角膜反射像が得られた場合、図21、図23に対して、x方向、y方向のP像中心位置は、各々2つの角膜反射像の座標でなく、4つの角膜反射像の座標から算出される為、個人差に関するax,bx、ay,byの補正係数を正しく与えれば、眼球回転角θx、θyの精度は、θyばかりで無く、θxも更に向上する。
【0044】
この様な従来提案として、3つ以上の照明光源から少なくとも2つの角膜反射像を得て、視線を算出する視線検出装置がある(例えば、特許文献3参照)。しかしながら、前述の視線検出原理に留まり、観察者の視線検出を行う際、必ずしも、照明光源に対応したプルキンエ像が得られるわけでは無い点を考慮して、個人差に関するax,bx、ay,byの補正係数を正確に与え、視線検出精度を向上させる点については、述べられていない。
【0045】
そこで、観察者の眼球の前眼部へ投射し、眼球像から特徴点(角膜反射像及び瞳孔の中心)を得るために、y軸方向にも、新たな角膜反射像(虚像;プルキンエ像もしくはP像)を得ることとした照明光源を設けた視線検出手段において、あらゆる観察条件において、観察者の視線検出精度、特にy方向の精度を向上させる提案がなされている。
【0046】
この提案では、第一に、角膜反射像数をカウントする手段と角膜反射像の配置状態を判断する角膜反射像状態判断手段とを設けるとともに角膜反射像状態に応じた個人差補正係数を選択使用する手段を設ける。第二に、前記視線検出手段で得られる眼球の個人差による前記視線検出手段で得られる視線の検出誤差を補正する視線補正手段に、角膜反射像状態に応じて、前記視線補正手段で得られた補正データを演算、記憶する記憶手段を設けている。
【0047】
そして、角膜反射像状態に応じて、前記視線補正手段で得られた補正データを演算、記憶する記憶手段に、いくつかの角膜反射像状態に応じた補正データが無い場合でも、視線検出時において常に全ての角膜反射像状態が得られるように、照明光源を照明することが、おこなわれている。
【0048】
【特許文献1】
特開平1−274736号公報
【特許文献2】
特願平3−11492号公報
【特許文献3】
特開平6−094978号公報
【0049】
【発明が解決しようとする課題】
そこで、観察者の眼球の前眼部へ投射し、眼球像から特徴点(角膜反射像及び瞳孔の中心)を得るために、y軸方向にも、新たな角膜反射像(虚像;プルキンエ像もしくはP像)を得ることとした照明光源を設けた視線検出手段において、あらゆる観察条件において、観察者の視線検出精度、特にy方向の精度を向上させるとともに、視線補正手段で得られた補正データを演算、記憶する記憶手段されている、角膜反射像状態に応じた補正データに応じて、視線検出時、設けられた複数の照明光源において、照明する照明光源を選択することを可能とする必要がある。
【0050】
【課題を解決するための手段】
y軸方向にも、新たな角膜反射像(虚像;プルキンエ像もしくはP像)を得ることとした照明光源を設けた視線検出手段において、
第一に、角膜反射像数をカウントする手段と角膜反射像の配置状態を判断する角膜反射像状態判断手段を設け、角膜反射像状態に応じた個人差補正係数を選択使用する手段を設ける。
第二に、前記視線検出手段で得られる眼球の個人差による前記視線検出手段で得られる視線の検出誤差を補正する視線補正手段に、角膜反射像状態に応じて、前記視線補正手段で得られた補正データを演算、記憶する記憶手段を設ける。
第三に、前記視線補正手段で、角膜反射像状態に応じて、前記視線補正手段で得られた補正データを演算、記憶する前記記憶手段に、どの角膜反射像状態の補正データを演算、記憶されているかを確認する視線補正データの存在状態確認手段を設ける。
第四に、前記視線補正データの存在状態確認手段で、その存在が確認された視線補正データに対応して、角膜反射像状態に為るように、照明状態の切替え手段を設ける。
上記第一の構成によれば、得られた角膜反射像に応じて、最適な個人差補正係数を用いることで、視線検出精度の向上を図ることができる。
上記第二の構成によれば、角膜反射像数に応じた個人差補正係数を、1回の視線補正手段の作動、即ち、1回の眼球の個人差による情報の取得動作で得ることが可能となる。
上記第三、第四の構成によれば、前記視線補正手段で、角膜反射像状態に応じて、前記視線補正手段で得られた補正データを演算、記憶する前記記憶手段に、記憶されている角膜反射像状態の補正データに対応した角膜反射像状態を得る照明光源の照明状態を行うことが可能となる。
【0051】
【発明の実施の形態】
本実施形態のカメラは、撮影者の眼球の光軸の回転角を検出し、この回転角から撮影者の視線を算出する視線検出装置を有するオートフォーカスカメラである。図1には、本実施形態の一眼レフカメラの要部が概略図示されている。
【0052】
図1において、1は撮影レンズであり、図1では便宜上2枚のレンズ1a、1bで示したが、実際は多数のレンズから構成されている。2は主ミラーで、観察状態と撮影状態に応じて撮影光路へ斜設されあるいは退去される。3はサブミラーで、主ミラー2を透過した光束をカメラボデイの下方へ向けて反射する。4はシャッタ、5は感光部材で、銀塩フィルムあるいはCCDやMOS型等の固体撮像素子よりなっている。
【0053】
6は焦点検出装置であり、結像面近傍に配置されたフィールドレンズ6a、反射ミラー6b及び6c、2次結像レンズ6d、絞り6e、複数のCCDからなるラインセンサ6f等から構成されている周知の位相差方式を採用している。同図の焦点検出装置6は、図3に示すようにファインダー観察画面内300の複数の領域(7個の焦点検出点マーク301から307)は、焦点検出領域(以下、焦点検出点)と対応し、焦点検出可能なように構成されている。
【0054】
7は撮影レンズ1の予定結像面に配置されたピント板、8はファインダ光路変更用のペンタプリズムである。9、10は観察画面内の被写体輝度を測定するための結像レンズと測光センサで、結像レンズ9はペンタプリズム8内の反射光路を介してピント板7と測光センサ10とを共役に関係付けている。
【0055】
次に、ペンタプリズム8の射出面後方には光分割器11aを備えた接眼レンズ11が配され、撮影者の眼15によるピント板7の観察に使用される。光分割器11aは、例えば可視光を透過し赤外光及び赤外寄りの可視光(赤色光)を反射するダイクロイックミラーより成っている。12は受光レンズ、14はCCD等の光電素子列を2次元的に配したイメージセンサで受光レンズ12に関して所定の位置にある撮影者眼15の瞳孔近傍と共役になるように配置されている。
【0056】
イメージセンサ14と受光レンズ12は受光手段の一要素を構成している。13a〜13d、13e〜13hは各々撮影者の眼15の照明光源(投光手段)であるところの8個の赤外発光ダイオード(図では、2個のみ図示)で、接眼レンズ11の回りに配置されている。
【0057】
21は、明るい被写体の中でも視認出来る高輝度のスーパーインポーズ用LEDで、発光された光は、投光用プリズム22を介し、主ミラー2で反射してピント板7の表示部に設けた微小プリズムアレー7aで垂直方向に曲げられ、ペンタプリズム8、接眼レンズ11を通って撮影者の眼15に達する。
【0058】
そこで、ピント板7の焦点検出点に対応する複数の位置(焦点検出点マーク部)にこの微小プリズムアレイ7aを枠上に形成し、これを各々に対応した7つのLED21(各々をLED−L1、LED−L2、LED−C、LED−R1、LED−R2、LED−T、LED−Bとする)によって照明する。これにより、図3に示すように、各々の焦点検出点マークである301,302,303,304,305,306,307が、ファインダー視野内で光り、焦点検出点が表示される(以下、これをスーパーインポーズ表示という)。
【0059】
ここで左右上下端の測距点マーク301、305、306,307は、眼球の個人差補正データ(視線補正係数)を採取する(以下この動作をキャリブレーションと称す)際に点灯するものである。本カメラのキャリブレーションは、撮影者がキャリブレーションを行う毎に、このデータが所定回数まで蓄積され、所定の平均化作業によって算出される。
【0060】
23は、ファインダ視野領域を形成する視野マスク、24はファインダ視野外に撮影情報を表示するためのファインダ内LCDで、照明用LED(F−LED)25によって照明され、LCD24を透過した光が三角プリズム26によってファインダ内に導かれ、図3のファインダ視野外308に表示され、これを撮影者は撮影情報として観察している。27は姿勢検知手段でありカメラの姿勢を検知するスイッチである。
【0061】
31は撮影レンズ1内に設けられた絞りで、32は後述する絞り駆動回路111を含む絞り駆動装置である。33はレンズ駆動用モータ、34は駆動ギヤ等からなるレンズ駆動部材、35はフォトカプラでレンズ駆動部材34に連動するパルス板36の回転を検出し、この検出結果をレンズ焦点調節回路37に伝えている。レンズ焦点調節回路37は、この情報とカメラ側からのレンズ駆動量の情報とに基づいてレンズ駆動用モータを所定量駆動させ、撮影レンズ1を合焦位置に移動させる。38は公知のカメラとレンズとのインターフェースとなるマウント接点である。
【0062】
図2(a)、図2(b)は、本発明のカメラ本体外観図で、図1で示した交換可能な撮影レンズ1は図示されていない。図2(a)は、カメラの上面図、図2(b)は、カメラの背面図である。
200はカメラ本体で、201はレリーズボタンである。202は外部モニタ表示装置としてのモニタ用LCDで図8の如く、予め決められたパターンを表示する固定セグメント表示部202aと、可変数値表示用の7セグメント表示部202bとからなっている。
【0063】
203は測光値を保持するAEロック釦で、204a、204b、204cは撮影モード等の選択を行うモード釦である。
モード釦45b、45cの同時押しでは、後述する眼球の個人差補正データ(視線補正係数)を採取する「視線キャリブレーション」モードとなる。
【0064】
205は電子ダイヤルで、回転してクリックパルスを発生させることによってモード釦204a、204b、204cで選択されたモードの中でさらに選択し得るモード、及び設定値を選択するためのものである。
【0065】
例えばモード釦204aを押して電子ダイヤル205にてシャッタ優先の撮影モードを選択すると、ファインダ内LCD24及びモニタ用LCD202には、現在設定されているモードとシャッタスピードが表示される。更に撮影者がモード釦204aを離した後、電子ダイヤル205を回転させるとその回転方向に従って現在設定されているシャッタスピードから順次シャッタスピードが変化していくように構成されている。
【0066】
このようにして撮影者がプログラムAEシャッタ優先AE、絞り優先AE、被写体深度優先AE、マニュアル露出の各撮影モードをモード釦204aを押すことで選択し、電子ダイヤル205を回転させることで撮影内容を設定できる。
【0067】
図8(a)、(b)はモニタ用LCD202とファインダ内LCD24である図3の308の全表示セグメントの内容を示した説明図である。図8(a)において固定表示セグメント部202aには公知の撮影モード表示以外に、カメラのAF動作や撮影モードの選択などの撮影動作を表示する部分を設けている。
【0068】
801は、視線検出モードであることを表示する部分で、視線検出モード時に表示される。視線検出モードにするためには、モード釦204bを押して、電子ダイヤル205を回転操作させ、801を表示させることで設定する。
【0069】
可変数値表示用の7セグメント部202bは、シャッタ秒時を表示する4桁の7セグメント802、絞り値を表示する2桁の7セグメント803と小数点804、フィルム枚数を表示する限定数値表示セグメント805と1桁の7セグメント806で構成されている。
【0070】
図8(b)において811は手ブレ警告マーク、812はAEロックマーク、813、814は、前記のシャッタ秒時表示802と絞り値表示803,804と同一の表示セグメント、815は露出補正設定マーク、816はストロボ充完マーク、817は視線入力状態であることを示す視線入力マークで、視線検出モードであることを表示する部分801と同様。818は撮影レンズ1の合焦状態を示す合焦マークである。
【0071】
206は、測距点選択モード釦で、撮影者がこれを押すことで、所定の焦点検出点を電子ダイヤル205の操作により、点灯表示している焦点検出点から任意の焦点検出点に移動操作可能とする。
ここで、図6(a)でファインダー内の所定の焦点検出点マーク303が、点灯表示されているとすると、電子ダイヤル205を回すと回転方向に同期した形で図6(b)、(c)の如く、焦点検出点マーク304、305に移動することが可能である。そして、移動後の焦点検出点マークが点灯表示され、撮影者が選択した焦点検出点を認識可能としている。
【0072】
更に、同方向に電子ダイヤル205を回すと、図6(d)の如く、測距マーク301、302,303,304,305,306,307が同時に所定時間点灯し、測距点選択モードが、カメラが自動的に、測距点を選択する測距点自動選択モードとなったことを撮影者が認識可能としている。また、測距点選択モード釦206を再度押すと、電子ダイヤル205を回すことでの焦点検出点マークの移動方向が、測距マーク306,307を選択可能な方向に切り替わる。
【0073】
本カメラ200は、前述の撮影者が任意の焦点検出点を選択する事の可能な係る焦点検出点任意選択モード以外に、図3の7個の焦点検出点マークに対応する7個の焦点検出点の焦点検出結果からカメラ自身が所定のアルゴリズムで焦点検出点を抽出、選択する焦点検出点自動選択モードの二つを備えている。
【0074】
また、前述のモード釦204b、電子ダイヤル205の操作で、視線検出モードであることを表示する部分801、817を表示させ、図3の7個の焦点検出点マークから選択するにあたり、撮影者の眼球の光軸の回転角を検出し、該回転角から撮影者の視線を算出する視線検出装置を利用して焦点検出点を選択する視線入力モードを備えている。
【0075】
なお、本実施形態のカメラ200は、視線入力モードに設定されている。
【0076】
207は、カメラの電源スイッチでこれをON状態にすることでカメラが起動する。また、OFF状態にすることでカメラを不作動とするロックポジションになる。点線208は、撮影者がカメラをホールドした状態の右手である。
【0077】
図4は本実施形態のカメラに内蔵された電気回路の要部ブロック図である。同図において図1及び図2と同一のものは同一符号を付けている。カメラ本体に内蔵されたマイクロコンピュータの中央処理装置(以下CPU)100には視線検出回路101、測光回路102、自動焦点検出回路103、信号入力回路104、LCD駆動回路105、バックライトLED駆動回路106、図1、図2の13a〜13gに相当するIRED1〜IRED8の8個のIRED駆動回路107、シャッタ制御回路108、モータ制御回路109が接続されている。 また、撮影レンズ内に配置された焦点調節回路37、絞り駆動回路111とは図1で示したマウント接点38を介して信号の伝達がなされる。
【0078】
CPU100は不図示のRAMを内蔵しており、視線のキャリブレーションデータを該内蔵RAMに記憶する機能を有している。カメラのモードを前述の「視線キャリブレーション」にすると、公知の視線の個人差の補正を行うための視線補正データ(以下キャリブレーションデータと称す)を取得するキャリブレーションモードが選択可能となり、各キャリブレーションデータ、及びキャリブレーション動作「OFF」が電子ダイヤル205にて可能となっている。
【0079】
CPU100に付随したEEPROM100aは記憶手段としての視線の個人差を補正する視線補正データの記憶機能を有している。カメラのモードを前述の「視線キャリブレーション」にすると、視線の個人差の補正を行なうための視線補正データ(以下「キャリブレーションデータ」と称する。)を採取するモードが選択可能となり、各キャリブレーションデータに対応したキャリブレーションナンバーの選択及びキャリブレーション動作のOFFが電子ダイヤル205にて可能となっている。
【0080】
キャリブレーションデータは複数設定可能で、カメラを使用する人物で区別したり、同一の使用者であっても観察の状態が異なる場合(例えば眼鏡を使用する場合とそうでない場合)、あるいは視度補正レンズを使用する場合とそうでない場合とで区別して設定するのに有効である。
【0081】
また、この時選択されたキャリブレーションナンバーは、後述するようにキャリブレーションデータナンバー(1,2,3・・・あるいは0)としてEEPROM100aに記憶される。
本実施形態では、1つのキャリブレーションナンバーに記憶されているキャリブレーションデータには、後述するように、正位置と縦位置でのキャリブレーションデータと、更にその中に角膜の反射像の数とその配置によって、各々キャリブレーションデータが記憶されている。
【0082】
視線検出回路101は、イメージセンサ14(CCD−EYE)からの眼球像の出力をA/D変換しこの像情報をCPUに送信する。CPU100は後述するように、公知の視線検出に必要な眼球像の各特徴点を所定のアルゴリズムに従って抽出し、さらに各特徴点の位置から撮影者の視線を算出する。CPU100と視線検出回路101、そしてイメージセンサ14は視線検出装置の一要素を構成している。
【0083】
測光回路102は測光センサ10からの出力を増幅後、対数圧縮、A/D変換し、各センサの輝度情報としてCPU100に送られる。測光センサ10は図3に示したファインダ画面内の7個の焦点検出点マーク301〜307の各々に対応した領域を測光するSPC−AからSPC−Gの7個のフォトダイオードから構成されている。
【0084】
焦点検出装置6fのラインセンサ116は前述のように画面内の7個の焦点検出点マーク301〜307に対応した7組のラインセンサCCD−C、CCD−R1、CCD−R2、CCD−L1、CCD−L2、CCD−T、CCD−Bから構成される公知のCCDラインセンサで、焦点検出を可能としている。自動焦点検出回路103はこれらラインセンサ116から得た電圧をA/D変換し、CPU100に送る。
【0085】
SW1はレリーズ釦201の第1ストロークでONし、測光、AF、視線検出動作を開始する測光スイッチ、SW2はレリーズ釦201の第2ストロークでONするレリーズスイッチ、ANG−SW1、ANG−SW2は姿勢検出装置27によって検知されるところの姿勢検知スイッチである。
【0086】
SW−AELはAEロック釦203を押すことによってONするAEロックスイッチ、SW−AFSは測距点選択釦206を押すことによってONする測距点選択モードスイッチ、SW−DIAL1とSW−DIAL2は既に説明した電子ダイヤル205内に設けたダイヤルスイッチで信号入力回路104のアップダウンカウンタ118に入力され、電子ダイヤル205の回転クイック量をカウントする。
【0087】
これらスイッチの信号が信号入力回路104に入力されデータバスによってCPU100に送信される。105はファインダー内LCD23、モニタ用LCD202を表示駆動させるための公知のLCD駆動回路で、CPU100からの信号に従い、絞り値、シャッタ秒時、設定した撮影モード等の表示を両方に同時に表示させている。
【0088】
LED駆動回路106は、LED21(各々をLED−L1、LED−L2、LED−C、LED−R1、LED−R2、LED−T、LED−Bとする)を点灯、点滅制御する。更に、点灯時、測光回路102からの信号をCPU100が演算した信号に従い、点灯輝度を変化させ、ファインダー内の明るさに応じて測距点の表示を認識し易くしている。
【0089】
IRED駆動回路107は、撮影者が眼鏡をしない裸眼である場合に行う内周側のIRED13a、IRED13b、IRED13e、IRED13fの4つのIREDを同時点灯制御と、撮影者が眼鏡をしている場合に行う外周側のIRED13c、IRED13d、IRED13g、IRED13hの4つのIREDを同時点灯制御を、CPU100の信号に従い行う。
【0090】
シャッタ制御回路108は通電すると先幕を走行させるマグネットMG−1と、後幕を走行させるマグネットMG−2を制御し、感光部材に所定光量を露光させる。モータ制御回路109はフィルムの巻き上げを行うモーターM1と主ミラー2及びシャッタ4のチャージ、巻き戻しを行うモーターM2を制御している。これらシャッタ制御回路108、モータ制御回路109によって一連のカメラのレリーズシーケンズが動作する。
【0091】
図2の点線208の撮影者がカメラをホールドした右手部分のグリップ兼電池室112は、電池113を内蔵しており、コネクター114のP−GND、VBATの端子とメカ的電気的に接合し、本体電源系115にカメラ電源を供給している。
【0092】
コネクター114のP−GND、VBAT以外の端子とコネクター117の端子は、グリップ兼電池室112装着状態では、グリップ兼電池室112に端子が存在せず、接続状態になく、付属品の装着時に利用される端子である。スイッチ119は、グリップ兼内蔵電池室112,付属品の装着を認識するSWで装着状態でD−GNDと切り離されたことを検知する。
【0093】
次に、本実施形態のカメラの動作を図5のフローチャートにしたがって説明する。図2(b)の電源SW207を回転させてON位置にするとカメラが不作動状態からON状態になる(ステップ100)。なお、以下ステップを「S」と略す。そして、CPU100の状態を確認し、焦点検出点選択モードを確認し(S101)、本実施形態の視線入力モードかどうかを確認する(S102)。
【0094】
視線入力モードでなければ、視線入力禁止として、焦点検出点任意選択モードへ(S101a)進む。焦点検出点任意選択モードで無ければ、焦点検出点自動選択モード(S101b)に入る。ここでは、視線情報を用いずに、図3の7個の焦点検出点マークに対応する全ての焦点検出点の焦点検出結果からカメラ自身が所定のアルゴリズムで焦点検出点を選択するサブルーチンを実行する。
【0095】
S101b、S101cで、LCD駆動回路105はファインダ内LCD24の視線入力マーク818を消灯するので、撮影者はファインダ画面外表示308でカメラが視線検出を行わないことを確認できる(図3,図8(b))。
【0096】
CPU100のEEPROM100aに記憶された視線のキャリブレーションデータ以外の視線検出に使われる変数と、所定のカメラ状態になるように、変数がリセットされる(S103)。そして、カメラはレリーズ釦201が押し込まれてスイッチSW1がONされるまで待機する(S104)。
【0097】
次に、視線検出を行なう際に、どのキャリブレーション(CAL)データを使用するかを視線検出回路101に確認する(S105)。
この時、確認されたキャリブレーションデータナンバーのキャリブレーションデータが初期値のままで変更されていない場合、視線検出はこの初期値で行われる。
【0098】
また、同一キャリブレーションデータナンバーでも、一部キャリブレーションがなされず、初期値である場合、初期値で無いキャリブレーションデータを用いて視線検出が行われる。例えば、カメラ縦位置で、正位置しかキャリブレーションデータが存在しない場合、正位置のキャリブレーションデータが用いられる。
【0099】
次に、前記キャリブレーションデータナンバーに対応した視線のキャリブレーションデータが所定の値に設定されていてそのデータが撮影者により入力されたものであることが認識されると、視線検出回路101は、視線検出を実行し、角膜の反射像の数から選択されたキャリブレーションデータから、視線検出回路101において検出された視線は、撮影者の注視点として、ピント板7上の注視点座標に変換される視線検出が行われる(S106)。
【0100】
この時、LCD駆動回路105はファインダー内LCD24の視線入力マーク817を点灯させ、ファインダー画面外308で撮影者はカメラが視線検出を行なっている状態であることを確認することができるようになっている(図8(b))。
【0101】
また、7セグメント813には設定されたシャッタ秒時が、7セグメント814には設定された絞り値が、表示されている。この注視点座標がどの注視点エリアに存在するかで、図3の7個の焦点検出点マークから対応するものを選択した(S107)後、選択された焦点検出点マークであるフォーカスエリアが焦点検出点となり、点灯表示される(S108)。
【0102】
この対応関係を、図7で説明する。図7(a)で、視線検出装置の一部であるイメージセンサ14は、ピント板7上の位置とピント板7上を観察する図3の観察画面300の位置に対応しており、ピント板7上及び、観察画面300上では、図7の如く、縦にL3,L2,L,C,R1,R2、R3の7列に、横にT,U,C,D,Bの5行で区切られた複数の注視点エリアで構成している。各注視点エリアは、縦列名・横行名で現される。例えば、左上端エリアは、L3・T、右下端エリアは、R3・Bである。
【0103】
図7(b)で、太枠で囲まれた7つの注視点エリア群があって、注視点座標の存在する前記太枠で囲まれた注視点エリア群内に内包される焦点検出点が選択される。注視点座標が前記太枠で囲まれた7つの注視点エリア群に無い場合、視線検出を禁止し、焦点検出点自動選択モード(101b)に移る。
【0104】
撮影者が該撮影者の視線によって選択された焦点検出点が表示されたのを見て、その焦点検出点が正しくないと認識してレリーズ釦201から手を離しスイッチSW1 をOFFすると(S109)、カメラはスイッチSW1 がONされるまで待機する(S104)。
【0105】
撮影者が選択された焦点検出点が点灯表示されたのを見て、レリーズ釦201を押しつづけ、スイッチSW1をON続けたならば(S109)、選択された焦点検出点において自動焦点検出回路103は焦点検出動作を行う(S110)。
【0106】
焦点検出が可能(S111)であり、所定のアルゴリズムで選択された焦点検出点の焦点調節状態が合焦(S112)でなければ、CPU100はレンズ焦点調節回路110に信号を送って所定量撮影レンズ1を駆動させる(S113)。レンズ駆動後自動焦点検出回路103は再度焦点検出を行い(S110)、撮影レンズ1が合焦しているか否かの判定を行う(S112)。
【0107】
焦点検出が不能(S111)であれば、焦点検出NG表示として、図8の合焦マーク818を点滅させる(S111a)。更にSW1がONであれば、点滅を続け、OFFであれば(S111b)、再度、SW1がONされるまで待機する(S102)。
【0108】
所定の焦点検出点において撮影レンズ1が合焦していたならば、CPU100はLCD駆動回路105に信号を送ってファインダ内LCD24の合焦マーク818を点灯させると共に、IRED駆動回路107にも信号を送っての合焦している焦点検出点に合焦表示させる(S114)。
【0109】
合焦した焦点検出点がファインダ内に表示されたのを撮影者が見て、その焦点検出点が正しくないと認識してレリーズ釦41から手を離しスイッチSW1をOFFすると(S115)、引き続きカメラはスイッチSW1がONされるまで待機する(S102)。
【0110】
また、撮影者が合焦表示された焦点検出点を見て、引き続きスイッチSW1をONし続けたならば(S115)、CPU100は測光回路102に信号を送信して測光を行わせる(S116)。この時合焦した焦点検出点を含む測光領域SPC−A〜SPC−Gまでの7領域から選択し、重み付けを行った露出値が演算される。
【0111】
本実施形態の場合、測光領域SPC−A〜SPC−G迄の7つの領域で、図3の選択された焦点検出点マークを含む測光領域を中心として、重み付けされた公知の測光演算を行い、この演算結果として外部表示部202の7セグメント803と小数点804、ファインダー外表示308の814を用いて絞り値(F5.6)を表示する。
【0112】
さらに、レリーズ釦201が押し込まれてスイッチSW2がONされているかどうかの判定を行い(S117)、スイッチSW2がOFF状態であれば再びスイッチSW1の状態の確認を行う(S115)。また、スイッチSW2がONされたならばCPU100はシャッタ制御回路108、モータ制御回路109、絞り駆動回路111にそれぞれ信号を送信する。
【0113】
まず、MG2に通電し、主ミラー2をアップさせ、絞り31を絞り込んだ後、MG1に通電しシャッタ4の先幕を開放する。絞り31の絞り値及びシャッタ4のシャッタスピードは、前記測光回路102にて検知された露出値と感光部材であるフィルム5の感度から決定される。
【0114】
所定のシャッタ秒時(例えば,1/250秒)経過後MG2に通電し、シャッタ4の後幕を閉じる。フィルム5への露光が終了すると、MG2に再度通電し、ミラーダウン、シャッタチャージを行うと共にMG1にも通電し、フィルムのコマ送りを行い、一連のシャッタレリーズシーケンスの動作が終了する(S118)。その後カメラは再びスイッチSW1がONされるまで待機する(S102)。
【0115】
また、図5に示したカメラのシャッターレリーズ動作(S118)以外の一連の動作中にモード釦45b、45cの同時押しすると、眼球の個人差補正データ(視線補正係数)を採取する「視線キャリブレーション」モードに設定されたことを信号入力回路104が検知すると、CPU100はカメラの動作を一時停止し、視線検出回路101に送信して視線のキャリブレーション(S119)が可能な状態に設定する。視線のキャリブレーション方法については後述する。
【0116】
図9は視線検出(S106)のフローチャートである。前述のように視線検出回路101はCPU100より信号を受け取ると視線検出を実行する(S106)。視線検出回路101は、撮影モードの中での視線検出かあるいは視線のキャリブレーションモードの中での視線検出かの判定を行なう(S201)。同時に視線検出回路101はカメラが後述するどのキャリブレーションデータナンバーに設定されているかを認識する。
【0117】
視線検出回路101は、撮影モードでの視線検出の場合はまず最初にカメラがどのような姿勢になっているかを信号入力回路104を介して検知する(S202)。信号入力回路104は、CPU100はカメラ姿勢を姿勢検出回路27に確認する(S104)。図4のANG−SW1、ANG−SW2の出力により、正位置、図2の点線208の撮影者の右手が上にあるグリップ上縦位置、撮影者の右手208が下にあるグリップ下縦位置の3つの姿勢状態のいずれであるかを確認する。続いてCPU100を介して測光回路102から撮影領域の明るさの情報を入手する(S203)。
【0118】
次に、先に検知されたカメラの姿勢情報とキャリブレーションデータに含まれる撮影者の眼鏡情報、後述するP像状態に応じたキャリブレーションデータの有無より赤外発光ダイオード(以下IREDと称す)13a〜13hの選択を行ない、照射される(S204)。S204を図25のフローで説明する。
【0119】
即ちカメラが正位置に構えられ、撮影者が眼鏡をかけていなかったならば、図2(b)に示すようにファインダー光軸よりのIRED13a,13b,13e,13fが選択される。又、カメラが正位置で、撮影者が眼鏡をかけていれば、ファインダー光軸から離れたIRED13c,13d,13g,13hが選択される(S2041)。
【0120】
次に、後述するEEPROM100aのそれぞれのアドレス(図11)に記憶された、3P像以上のキャリブレーションデータ(図15、S503)と2P像キャリブレーションデータ(図15、S504)が、初期値か、否かを確認する。そこで、初期値であるものは、キャリブレーションデータが無いと判断する(図25のS2042)。
【0121】
3P像以上のキャリブレーションデータ(図15、S503)があれば、IREDの選択に変更は無い(S2043)が、3P像以上のキャリブレーションデータが無ければ、前記IREDの選択に変更をかけ、ファインダー光軸より上側の2つのIREDを非選択とし、下側の2つのIREDを選択とする(S2044)。
【0122】
即ち、前記IREDの選択に変更をかけられた場合(S2044)、カメラが正位置に構えられ、撮影者が眼鏡をかけていなかったならば、図2(b)に示すようにファインダー光軸よりのIRED13a,13bが選択される。
【0123】
また、カメラが正位置で、撮影者が眼鏡をかけていれば、ファインダー光軸から離れたIRED13c,13dが選択され、照射される。
このとき撮影者の眼鏡で反射した照明光の一部は、眼球像が投影されるイメージセンサー14上の所定の領域以外に達するため眼球像の解析に支障は生じない。また、カメラが縦位置で構えられていた場合も同様である。
【0124】
次に、イメージセンサー14(以下CCD−EYEと称す。)の蓄積時間及びIREDの照明パワーが前記測光情報及び撮影者の眼鏡情報等に基づいて設定される(S205)。該CCD−EYEの蓄積時間及びIREDの照明パワーは前回の視線検出時に得られた眼球像のコントラスト等から判断された値を基にして設定を行なっても構わない。
【0125】
CCD−EYE蓄積時間及びIREDの照明パワーが設定されると、CPU100はIRED駆動回路107を介してIREDを所定のパワーで点灯させるとともに、視線検出回路101はCCD−EYEの蓄積を開始する(S206)。
【0126】
また、先に設定されたCCD−EYEの蓄積時間にしたがってCCD−EYEは蓄積を終了し、それとともにIREDも消灯される。視線のキャリブレーションモードでなければ(S207)、CCD−EYEの読みだし領域が設定される(S208)。
【0127】
カメラ本体の電源がONされた後の1番最初の視線検出以外はCCD−EYEの読みだし領域は前回の視線検出時のCCD−EYEの読みだし領域を基準にして設定されるが、カメラの姿勢が変化したとき、あるいは眼鏡の有無が変化した場合等はCCD−EYEの読みだし領域は全領域に設定される。
【0128】
CCD−EYEの読みだし領域が設定されると、CCD−EYEの読みだしが実行される(S209)。この時読みだし領域以外の領域は空読みが行なわれ実際上読み飛ばされていく。これは、視線検出を迅速に行う為である。CCD−EYEより読みだされた像出力は視線検出回路101でA/D変換された後にCPU100にメモリーされ、該CPU100において眼球像の各特徴点の抽出のための演算が行なわれる(S210、S212)。
【0129】
即ち、CPU100において、眼球の照明に使用された4つ一組のIREDで、原理的には、図24のIREDの虚像である4つのプルキンエ像P1、P2、P3、P4の位置として、図24のP1(Xe',Ye')、P2(Xd',Yd')、P3(Xe",Ye")、P4(Xd",Yd")が検出される。プルキンエ像は光強度の強い輝点として現われるため、光強度に対する所定のしきい値を設け、該しきい値を超える光強度のものをプルキンエ像とすることにより検出可能である(S210)。
次に、瞳孔の中心位置(Xic′,Yic′) は瞳孔19と虹彩17の境界点を複数検出し、各境界点を基に円の最小二乗近似を行なうことにより算出される。この時瞳孔径rpも算出される。
【0130】
CPU100は眼球像の解析を行なうとともに、眼球像のコントラストを検出してそのコントラストの程度からCCD−EYEの蓄積時間の再設定を行なう。また、プルキンエ像の位置及び瞳孔の位置よりCCD−EYEの読みだし領域を設定する。この時CCD−EYEの読みだし領域は、検出された瞳孔を含み該瞳孔の位置が所定量変化しても瞳孔全体が検出可能な範囲に設定される。そしてその大きさは虹彩の大きさより小さいのはいうまでもない。
【0131】
CCD−EYEの読みだし領域は長方形に設定され該長方形の対角の2点の座標がCCD−EYEの読みだし領域として視線検出回路101に記憶される。さらに眼球像のコントラストあるいは瞳孔の大きさ等から、算出されたプルキンエ像及び瞳孔中心の位置の信頼性が判定される。(S210)
ここで、原理的には、図24のIREDの虚像である4つのプルキンエ像が得られることになっているが、撮影者の視線検出を行う際、観察条件、個人差によって、撮影者の上瞼、睫毛で、照明光源が遮られ、必ずしも、IREDに対応したプルキンエ像が得られるわけでは無いので、プルキンエ像の数とその配置をプルキンエ像状態判別として行う(S211)。
【0132】
本実施形態では、プルキンエ像が得られない場合と1つしか得られない場合は、視線検出不可、または視線検出精度が著しく低下するので視線信頼性が無いと判断し、S201へ戻る。
【0133】
図10で、プルキンエ像の数と配置状態について説明する。P像状態判別、P像数は、プルキンエ像(図中P像)の数に応じて、プルキンエ像が4つ存在するものを4P像状態として、P像無し状態までを示し、P像状態図は、図24の4つのプルキンエ像P1、P2、P3、P4の存在状態を図示し、Xpo、Ypo算出に使用されるP像座標は、P1(Xe',Ye')、P2(Xd',Yd')、P3(Xe",Ye")、P4(Xd",Yd")で、Xpo、Ypo算出に使用されるを示したものである。
【0134】
図10の如く、4つのIREDの撮影者眼球照明に対し、得られるプルキンエ像の配置状態は、得られるプルキンエ像の数と配置状態は、16通りある。本実施形態では、視線検出演算、特にプルキンエ像を他の特徴点と区別して抽出選択の迅速化のため、撮影者が眼鏡をしていない裸眼を例にするとして、下側のIRED13a、13bに対応するプルキンエ像P1(Xe',Ye')、P2(Xd',Yd')を抽出した後、二つのプルキンエ像の位置よりその間隔が算出される(S210)。次に、IRED13aのプルキンエ像P1(Xe',Ye')から、Y軸上にプルキンエ像間隔を元に所定の係数を乗じた値の所定範囲内に存在するプルキンエ像と推定される特徴点を、IRED13eに対応するプルキンエ像P3(Xe",Ye")として検出する。
【0135】
次に、IRED13bに対応するプルキンエ像P2(Xd',Yd')から、Y軸上に同様に、IRED13fに対応するプルキンエ像の位置P4(Xd",Yd")を検出する。即ち、下側のIRED13a、13bに対応するプルキンエ像P1、P2を基準にプルキンエ像P3、P4の検出を行う。
【0136】
これは、4つのプルキンエ像P1、P2、P3、P4の検出を迅速に行う為と、撮影者の観察条件、個人差によって、上瞼、上睫毛で、照明光源のが遮られる可能性がある為、下側のIRED13a、13b(13c、13d)に対応するプルキンエ像P1、P2は、極めて高い確率で得られるのに対して、上側のIRED13e、13f(13g、13h)に対応するプルキンエ像P3、P4は、撮影者や撮影条件により、得られない確率が高いことによる。
【0137】
このように本実施形態では、Y軸上、下側に存在する2つのプルキンエ像の位置を基準として、視線検出に有効な図10の太枠で囲まれた4通りのプルキンエ像の数と配置状態を判断している。図10の太枠で囲まれた4通りのプルキンエ像の数と配置状態で無いと判断すると、視線信頼性が無いと判断し、S201へ戻る。S201へ戻り、再び、S111にて、視線信頼性が無いと判断とした場合は、図5の焦点検出点自動選択モードに入る。
【0138】
尚、図10で、使用キャリブレーションデータは、後述するキャリブレーションで求められたキャリブレーションデータで、本実施形態では、4つのプルキンエ像の数と配置状態に対して、3P像以上キャリブレーションデータと2P像キャリブレーションデータの2つが用いられている。
【0139】
眼球像の解析が終了すると、キャリブレーションデータの確認手段を兼ねた視線検出回路101は算出されたプルキンエ像の間隔と点灯されたIREDの組合せよりキャリブレーションデータの中の眼鏡情報が正しいか否かの判定を行なう(S212)。これはその時々において眼鏡を使用したり使用しなかったりする撮影者に対処するためのものである。
【0140】
即ち、キャリブレーションデータの中の撮影者の眼鏡情報が、例えば眼鏡を使用するように設定されていて、図2(b)に示したIREDの内IRED13c,13d,13g,13hが点灯された場合、プルキンエ像の間隔が所定の大きさより大きければ撮影者は眼鏡装着者と認識され眼鏡情報が正しいと判定される。
【0141】
逆に、プルキンエ像の間隔が所定の大きさより小さければ撮影者は裸眼あるいはコンタクトレンズ装着者と認識され眼鏡情報が誤っていると判定される。眼鏡情報が誤っていると判定されると(S212)、視線検出回路101は眼鏡情報の変更を行なって(S217)再度IREDの選択を行ない(S204)視線検出を実行する。但し眼鏡情報の変更を行なう際、CPU100のEEPROM100aに記憶された眼鏡情報は変更されない。
【0142】
また、眼鏡情報が正しいと判定されると(S212)、プルキンエ像の間隔よりカメラの接眼レンズ11と撮影者の眼球15との距離が算出され、さらには該接眼レンズ11と撮影者の眼球15との距離からCCD−EYEに投影された眼球像の結像倍率βが算出される(S213)。
【0143】
次に、キャリブレーションモードか否かを確認する(S214)。キャリブレーションモードであれば、図14で後述するデータ処理が行われ、キャリブレーションモードで無ければ、眼球の光軸の回転角θx、θyを算出する(S215)。
【0144】
眼球15の光軸の回転角θx、θyは従来の技術で説明した(3)(4)式を修正して
【0145】
【数14】
と表わされる。
【0146】
但し、xp0,yp0は、前述の図10のプルキニエ像の配置状態により、算出方法が異なる。例えば、図10の2P像状態であれば、図22(a)のプルキンエ像P1(Xe',Ye')、P2(Xd',Yd')の中点P0の座標を(xpo,ypo)として用いる。3P像状態であれば、xp0をプルキンエ像P1(Xe',Ye')、P2(Xd',Yd')のX座標の中点とし、yp0をプルキンエ像P2(Xd',Yd')、P4(Xd",Yd")、または、プルキンエ像P1(Xe',Ye'),P3(Xe",Ye")のY座標の中点をとする。4P像状態であれば、プルキンエ像P1(Xe',Ye')、P2(Xd',Yd')、P3(Xe",Ye")、P4(Xd",Yd")の中点P0の座標を(xpo,ypo)として用いる。
【0147】
δx、δyは、(10)、(10)″、(11)式での二つのプルキンエ像の中心位置を補正する補正項である。δxは、(10)式で求めるが、δyは2P像状態であれば(11)式で求め、3P像状態と4P像状態であれば、(10)″式で求める。δyの求め方の差は、δxと同様に扱える、Y方向に直接演算可能なypoが存在するか否かである。
【0148】
例えば、図10の2P像状態であれば、図22(a)のプルキンエ像P1(Xd',Yd')、P2(Xe',Ye')の中点P0の座標を(xpo,ypo)として用いる。3P像状態であれば、プルキンエ像P1(Xd',Yd')、P2(Xe',Ye')のX座標の中点をxp0とし、Y方向はプルキンエ像P1(Xd',Yd')、P3(Xd",Yd")、または、プルキンエ像P2(Xe',Ye')、P4(Xe",Ye")のY座標の中点をxp0とする。4P像状態であれば、プルキンエ像P1(Xd',Yd') ),P2(Xe',Ye'), P3(Xd",Yd"),P4(Xe",Ye")の中点P0の座標を(xpo,ypo) として用いる。このように、眼球の光軸の回転角θx、θyを算出する上でも、プルキンエ像状態判別(S211)が必要であることが判る。
【0149】
撮影者の眼球の回転角θx、θyが求まると、ピント板7上での視線の位置(x,y)は、従来技術で示した(5)(6)式より
【0150】
【数15】
と求まる(S216)。但し、ax,ay,bx,byは視線の個人差を補正するためのパラメータで、ax,ayはキャリブレーションデータである。
【0151】
本実施形態では、図10の如く、前記の眼球の光軸の回転角θx、θyの算出方法に合わせて、3P像以上キャリブレーションデータと2P像キャリブレーションデータの2つが用いられている。ここでも、プルキンエ像状態判別(S211)が必要であることが判る。
ここで、水平方向(x方向)と垂直方向(y方向)の眼球の光軸と視軸との補正量に相当するbx,byは、
【0152】
【数16】
と表わされ、瞳孔径rpの関数である。ここでrxは定数で、kx,ky,b0x,b0yはキャリブレーションデータである。この視線のキャリブレーションデータを求める方法は後述する。
【0153】
また、視線のキャリブレーションデータの信頼性に応じて、(5),(6),(15),(16)式を用いて算出された視線の座標の信頼性が変更される。ピント板7上の視線の座標が求まると視線検出を1度行なったことを示すフラグをたてて(S217)、メインのルーチンに復帰する(S218)。
【0154】
また、図9に示した視線検出のフローチャートは視線のキャリブレーションモードにおいても有効である。S201において、キャリブレーションモードの中での視線検出であると判定すると次に今回の視線検出がキャリブレーションモードの中での最初の視線検出であるか否かの判定を行なう(S220)。
【0155】
今回の視線検出がキャリブレーションモードの中での最初の視線検出であると判定されると、CCD−EYEの蓄積時間およびIREDの照明パワーを設定するために周囲の明るさの測定が行なわれる(S203)。これ以降の動作は前述の通りである。
【0156】
また、今回の視線検出がキャリブレーションモードの中で2回目以上の視線検出であると判定されると(S201)、CCD−EYEの蓄積時間およびIREDの照明パワーは前回の値が採用され直ちにIREDの点灯とCCD−EYEの蓄積が開始される(S206)。
【0157】
また、視線のキャリブレーションモードでかつ視線検出回数が2回目以上の場合は(S207)、CCD−EYEの読みだし領域は前回と同じ領域が用いられるためCCD−EYEの蓄積終了とともに直ちにCCD−EYEの読みだしが実行される(S209)。これ以降の動作は前述の通りである。
【0158】
尚、図9に示した視線検出のフローチャートにおいてメインのルーチンに復帰する際の変数は、通常の視線検出の場合視線のピント板上の座標(x,y)であるが、視線のキャリブレーションモードの中での視線検出の場合は撮影者の眼球光軸の回転角(θx ,θy )である。又、他の変数である検出結果の信頼性、CCD−EYE蓄積時間、CCD−EYE読みだし領域等は共通である。
【0159】
また、本実施形態においてCCD−EYEの蓄積時間およびIREDの照明パワーを設定するために、カメラの測光センサー10にて検出された測光情報を利用している。
【0160】
図12〜図15は視線のキャリブレーションのフローチャート、図17〜図19は視線のキャリブレーション時のファインダー内LCD308とモニター用LCD202の表示状態を示したものである。本実施形態においては、ファインダー視野内の図3の7個の焦点検出点マークの内、4つのの焦点検出点マーク305,301,306,307を視標1、視標2、視標3、視標4として、順次、1回注視してもらい、そのときの視線を検出することにより、視線のキャリブレーションを実行している。以下同図を用いて説明する。
【0161】
図12において、撮影者がモード釦45b、45cの同時押しすると、視線のキャリブレーションモードに設定され、信号入力回路104はCPU100を介してLCD駆動回路105に信号を送信し、ファインダー内LCD308では、図3(b)のシャッター秒時表示部813と絞り表示部814で、モニター用LCD202では、同様にシャッター秒時表示部802と絞り表示部803で、図17の後述する視線のキャリブレーションモードのいずれかに入ったことを示す表示を行なう(S218)。CPU100はEEPROM100aに記憶されたキャリブレーションデータ以外の変数をリセットする(S301)。
【0162】
図11はCPU100のEEPROM100aに記憶されるキャリブレーションデータの種類とその初期値を示したものである。一度もキャリブレーションが行われていないので、全て初期値である。キャリブレーションデータナンバー1〜5に対応したEEPROM100aのアドレス上にはそれぞれに、カメラ姿勢情報、眼鏡情報(眼鏡は「1」、裸眼は「0」)、3P像以上キャリブレーションデータと2P像キャリブレーションデータの2つのax,ay,kx,ky,b0x,b0yが記憶されている。(実施形態においては説明のためにデータを5つ記憶できるようにしているが、もちろんEEPROMの容量によっていかようにも設定できる)。
【0163】
キャリブレーションデータの初期値は標準の眼球パラメータで視線が算出されるような値に設定されている。さらに撮影者が眼鏡を使用するか否か、そしてキャリブレーションデータの信頼性の程度を表わすフラグも有している。眼鏡の有無を表わすフラグの初期値は眼鏡を使用しているように「1」に設定され、またキャリブレーションデータの信頼性のフラグの初期値は信頼性が無いように「0」に設定されている。
【0164】
また、ファインダー内LCD308、モニター用LCD202には図17(a)に示すように現在設定されているキャリブレーションモードを表示する。そのほかの表示部はすべて消灯している(実施形態としてキャリブレーションナンバー1の状態を示し、7セグメント表示部のみを拡大して示している)。
【0165】
この時、設定されたキャリブレーションナンバーのキャリブレーションデータが初期値の場合はモニター用LCD42に表示されたキャリブレーションナンバーが点滅し(図17(b)、一方設定されたキャリブレーションナンバーにおいて既にキャリブレーションが行われ、キョリブレーションナンバーに対応したEEPROMのアドレス上に初期値と異なるキャリブレーションナンバーが入っていればファインダー内LCD308、モニター用LCD202に表示されたキャリブレーションナンバーがフル点灯するようになっている(図17(a))。
【0166】
その結果、撮影者は現在設定されている各々のキャリブレーションナンバーに既にキャリブレーションデータが入っているかどうかを認識できるようになっている。又、図17(a)の様にキャリブレーションデータナンバーの初期値は「1」に設定されている。
【0167】
図12に戻り続いてCPU100に設定されたタイマーがスタートし視線のキャリブレーションを開始する(S302)。タイマースタート後所定の時間中にカメラに対して何の操作もなされなかったならば視線検出回路101は、ファインダー内に視線のキャリブレーション用の視標が点灯していれば消灯(S304)してメインにリターンされる(S338)。
【0168】
撮影者が電子ダイヤル205を回転させると、前述のようにパルス信号によってその回転を検知した信号入力回路104はCPU100を介してLCD駆動回路105に信号を送信する。その結果電子ダイヤル205の回転に同期して、ファインダー内LCD308、モニター用LCD202に表示されたキャリブレーションナンバーが変化する。この様子を図18に示す。
【0169】
まず電子ダイヤル205を時計方向に回転させると「CAL−1」→「CAL−2」→「CAL−3」→「CAL−4」→「CAL−5」と変化し、後述のキャリブレーション操作で撮影者は希望する5つのキャリブレーションナンバーのいずれかにキャリブレーションデータを記憶させることができる。
【0170】
そして図18に示した状態は「CAL−1,2,3」にはすでにキャリブレーションデータが入っており、「CAL−4,5」には入っておらず初期値のままであることを表わしている。反時計方向に回転させた場合は図18の方向と正反対に表示する。
【0171】
このようにしてファインダー内LCD308、モニター用LCD202に表示されるキャリブレーションナンバーを見ながら撮影者が所望のキャリブレーションナンバーを選択したら、視線検出回路101はこれに対応するキャリブレーションデータナンバーの確認を信号入力回路104を介して行なう(S303)。確認されたキャリブレーションデータナンバーはCPU100のEEPROM100aの所定のアドレス上に記憶される。但し、確認されたキャリブレーションデータナンバーが変更されていなければEEPROM100aへのキャリブレーションデータナンバーの記憶は実行されない。
【0172】
続いて視線検出回路101は信号入力回路104を介して撮影モードの確認を行なう(S304)。撮影者が操作部材の操作で、視線のキャリブレーションモード以外の撮影モードに切り換えていることが確認されたら、ファインダー内に視線のキャリブレーション用の視標が点滅していれば、それを消灯させて(S305)メインのルーチンであるカメラの撮影動作に復帰する(S348)。
【0173】
そしてキャリブレーションナンバー「CAL1〜5」が表示されている状態で他の撮影モード(シャッター優先AE)に切り換えれば、そのキャリブレーションナンバーのデータを用いて視線検出を行ない、前述の視線情報を用いた撮影動作が行なえるようになっている。この時、ファインダー内LCD308、モニター用LCD202は、撮影モード表示以外に、図3(a)(b)の視線入力モード表示817、801を点灯させて、視線情報をもとに撮影動作を制御している視線入力モード(視線撮影モード)であることを撮影者に知らせている。
【0174】
ここで再度、撮影者がモード釦45b、45cの同時押しすると、視線のキャリブレーションモードに設定され、前述の視線検出に用いているキャリブレーションナンバーが表示され、キャリブレーション動作がスタートする。
【0175】
視線のキャリブレーションモードに設定されたままであることが確認されると、電子ダイヤル205にて設定されたキャリブレーションデータナンバーの確認を再度行ない(S304)、引続きCPU100は信号入力回路104を介してカメラの姿勢を検知する(S305)。信号入力回路104は姿勢検知装置27の出力信号を処理してカメラが正位置であるか縦位置であるか、又縦位置である場合は例えばグリップが天方向(上)にあるか地面方向(下)にあるかを判断する。
【0176】
カメラの姿勢が正位置であることが検知されると(S306)、視線検出回路101は視線検出回数nを0に設定する(S307)。但し視線検出回数nが40回の時はその回数を保持する。この時ファインダー内LCD308において、「CAL」表示が点滅していたらその点滅を中止する。視線のキャリブレーションはスイッチSW1 をONにすることにより開始されるように設定されている。
【0177】
撮影者が視線のキャリブレーションを行なう準備が整う以前にカメラ側でキャリブレーションを開始するのを防ぐために、視線検出回路101はスイッチSW1の状態の確認を行いスイッチSW1がレリーズ釦201によって押されていてON状態であればスイッチSW1がOFF状態になるまで待機する(S308)。
【0178】
視線検出回路101は信号入力回路104を介してスイッチSW1がOFF状態であることを確認すると(S308)、視線検出回路101はLED駆動回路106に信号を送信して視線のキャリブレーション用の視標1である焦点検出点マーク305を点滅させる(S309、図16(A))。
【0179】
視線のキャリブレーションの開始のトリガー信号であるスイッチSW1のON信号が入ってなければカメラは待機する(S310)。又、点滅を開始した視標1を撮影者が注視しレリーズ釦201を押してスイッチSW1をONしたら(S310)視線検出が実行される(図13、S311)。
【0180】
次に、視線検出回路101は視線検出のサブルーチンからの変数である眼球の回転角θx,θy,瞳孔径rp及び各データの信頼性を記憶する(S312)。視線検出の動作は図11のフローチャートで説明した通りであるが、図9のキャリブレーションモードか否か(S214)の部分で異なり、キャリブレーションモードであれば、図14に示すフローチャートに進み、瞳孔径rp 及び各データの信頼性を記憶する部分は、同様であるが、この眼球の回転角θx ,θyを演算、記憶するフローチャートで通常の視線検出と異なる。
【0181】
ここで、図14のフローチャートを用いて、キャリブレーションモードでの眼球の回転角θx ,θyを演算、記憶(S312)を説明する。図9のキャリブレーションモードが確認される(S214)と、プルキンエ像の数とその配置をプルキンエ像状態判別(S211)の結果であるプルキンエ像(P像)数の確認が行われる(S402)。
【0182】
P像数が4つ、即ち4P像状態であれば、前述の如く、回転角θx,θyは、プルキンエ像P1、P2、P3、P4から、θ4px、θ4pyとして算出され(S406)、θ4px、θ4pyが所定範囲にあるかの確認が行われ(S406a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの4P像状態の視標1に対応する部分のアドレスに記憶される(S407)。
【0183】
θ4px、θ4pyが所定範囲外であれば、視標を注視していないとして、眼球の回転角として、不適切であるとして、EEPROM100aに記憶されない。更に、プルキンエ像P1、P2から、θ2px、θ2pyとして算出され(S410)、θ2px、θ2pyが所定範囲にあるかの確認が行われ(S406a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの2P像状態の視標1に対応する部分のアドレスに記憶される(S411)。所定範囲外であれば、EEPROM100aに記憶されない。
【0184】
P像数が3つ、即ち3P像状態であれば、前述の如く、回転角θx,θyは、プルキンエ像P1、P2、P3、またはP4から、θ3px、θ3pyとして算出され(S408)、θ3px、θ3pyが所定範囲にあるかの確認が行われ(S408a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの3P像状態の視標1に対応する部分のアドレスに記憶される(S409)。更に、プルキンエ像P1、P2から、θ2px、θ2pyとして算出され(S410)、θ2px、θ2pyが所定範囲にあるかの確認が行われ(S406a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの2P像状態の視標1に対応する部分のアドレスに記憶される(S411)。所定範囲外であれば、眼球の回転角として、不適切であるとして、EEPROM100aに記憶されない。
【0185】
このように、キャリブレーションモードでは、P像数が3つ以上、即ち4P像状態、3P像状態であれば、1回の視線検出結果から、2P像状態のキャリブレーションデータをも算出し、記憶している。
P像数が2つ、即ち2P像状態であれば、プルキンエ像P1、P2から、θ2px、θ2pyとして算出され(S410)、θ2px、θ2pyが所定範囲にあるかの確認が行われ(S410a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの2P像状態の視標1に対応する部分のアドレスに記憶される(S411)。
【0186】
ここでは、視標1点滅(S309)の状態であるので、視標1のアドレスに記憶したが、点滅する視標に応じて、記憶されるアドレスが設けてある。
【0187】
再び、図13に戻り、眼球の回転角θx ,θy,瞳孔径rp 及び各データの信頼性を記憶する(S312)と、更に視線検出回数nをカウントアップする(S313)。撮影者の視線は多少ばらつきがあるため正確な視線のキャリブレーションデータを得るためには1点の視標に対して複数回の視線検出を実行してその平均値を利用するのが有効である。
【0188】
本実施形態においては1点の視標に対する視線検出回数は10回と設定されている。視線検出回数nが10回でなければ(S314)視線検出が続行される(S311)。視線検出回数nが10回であれば視標1(焦点検出点マーク305)に対する視線検出を終了し、視標1に対する視線検出が終了したことを撮影者に認識させるために視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を数回鳴らさせる(S315)。
【0189】
同時に視線検出回路101はLED駆動回路106を介して視標1を所定の時間フル点灯させ、撮影者に視標1でのキャリブレーションデータ採取終了を知らせる(S315)。引続き視線検出回路101は信号入力回路104を介してスイッチSW1 がOFF状態になっているかどうかの確認を行なう(S318)。
【0190】
スイッチSW1 がON状態であればOFF状態になるまで待機し、スイッチSW1 がOFF状態であれば視標1が消灯しそれと同時に左端の視標2(焦点検出点マーク301)が点滅を開始する(S317)(図16(b))。
視線検出回路101は再度信号入力回路104を介してスイッチSW1がON状態になっているかどうかの確認を行なう(S318)。スイッチSW1がOFF状態であればONされるまで待機し、スイッチSW1がONされたら視線検出を実行する(S319)。
【0191】
視線検出回路101は視線検出のサブルーチンからの変数である眼球の回転角θx,θy、瞳孔径rp及び各データの信頼性を記憶する(S320)。ここでも図14のフローチャートを用いて行われ、EEPROM100aの視標2のアドレスに記憶される。
【0192】
更に、視線検出回数nをカウントアップする(S321)。更に、視線検出回数nが20回でなければ(S322)視線検出が続行される(S319)。視線検出回数nが20回であれば視標2に対する視線検出を終了するし、視標2に対する視線検出が終了したことを撮影者に認識させるために視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を数回鳴らさせる。
【0193】
同時に視線検出回路101はLED駆動回路106を介して視標2をフル点灯させ、撮影者に視標2でのキャリブレーションデータ採取終了を知らせる(S323)。
【0194】
引続き視線検出回路101は信号入力回路104を介してスイッチSW1がOFF状態になっているかどうかの確認を行なう(S324)。スイッチSW1がON状態であればOFF状態になるまで待機し、スイッチSW1がOFF状態であれば視標2が消灯し、それと同時に上端の視標3(焦点検出点マーク306)が点滅を開始する(S325)(図16(C))。
【0195】
視線検出回路101は再度信号入力回路104を介してスイッチSW1がON状態になっているかどうかの確認を行なう(S326)。スイッチSW1がOFF状態であればONされるまで待機し、スイッチSW1がONされたら視線検出を実行する(S327)。
【0196】
視線検出回路101は視線検出のサブルーチンからの変数である眼球の回転角θx,θy、瞳孔径rp 及び各データの信頼性を記憶する(S328)。ここでも図14のフローチャートを用いて行われ、EEPROM100aの視標3のアドレスに記憶される。
【0197】
更に、視線検出回数nをカウントアップする(S329)。更に、視線検出回数nが30回でなければ(S330)視線検出が続行される(S327)。視線検出回数nが30回であれば視標3に対する視線検出を終了するし、視標3に対する視線検出が終了したことを撮影者に認識させるために視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を数回鳴らさせる。同時に視線検出回路101はLED駆動回路106を介して視標3をフル点灯させ、撮影者に視標3でのキャリブレーションデータ採取終了を知らせる(S331)。
【0198】
引続き視線検出回路101は信号入力回路104を介してスイッチSW1がOFF状態になっているかどうかの確認を行なう(S332)。スイッチSW1がON状態であればOFF状態になるまで待機し、スイッチSW1がOFF状態であれば視標3が消灯し、それと同時に下端の視標4(焦点検出点マーク306)が点滅を開始する(S333)(図16(d))。
【0199】
視線検出回路101は再度信号入力回路104を介してスイッチSW1がON状態になっているかどうかの確認を行なう(S334)。スイッチSW1がOFF状態であればONされるまで待機し、スイッチSW1がONされたら視線検出を実行する(S335)。
【0200】
視線検出回路101は視線検出のサブルーチンからの変数である眼球の回転角θx,θy、瞳孔径rp 及び各データの信頼性を記憶する(S336)。ここでも図14のフローチャートを用いて行われ、EEPROM100aの視標4のアドレスに記憶される。
【0201】
更に、視線検出回数nをカウントアップする(S337)。更に視線検出回数nが40回でなければ(S338)視線検出が続行される(S335)。視線検出回数nが40回であれば視標4に対する視線検出を終了するし、視標4に対する視線検出が終了したことを撮影者に認識させるために視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を数回鳴らさせる。
【0202】
同時に視線検出回路101はLED駆動回路106を介して視標4をフル点灯させ、撮影者に視標4でのキャリブレーションデータ採取終了を知らせる(S339)。これで視標1、視標2、視標3、視標4に対して視線検出が行なわれたなので、視線のキャリブレーションデータを求めるための視線検出は終了する。
【0203】
更に、視線検出回路101に記憶された眼球の回転角θx,θy、瞳孔径rp より視線のキャリブレーションデータが算出される(S345)。視線のキャリブレーションデータの算出方法の概略は、以下の通りである。
【0204】
ピント板7上の視標1、視標2、視標3、視標4の座標をそれぞれ(x1,0),(x2,0),(0,y3),(0,y4)、EEPROM100aに記憶された視標1、視標2、視標3、視標4を注視したときの眼球の回転角(θx,θy)の平均値を(θx1,θy1),(θx2,θy2),(θx3,θy3),(θx4,θy4)とする。また、瞳孔径の平均値をr1,r2,r3,r4とする。
【0205】
X方向のキャリブレーションデータを求めるにあたっては、視標1、視標2のデータを用い、式(6)、(16)より、Y方向のキャリブレーションデータを求めるにあたっては、視標3、視標4のデータを用いる。そこで、瞳孔径の平均値のr1,r2の加重平均をrpx、瞳孔径の平均値のr3,r4の加重平均をrpyとすることで、ax,ay,kx,ky,b0x,b0Yのキャリブレーションデータが求まる。
例えば、rpx, rpy ≧ rpの時、kx, ky = 0 と設定してされており、
【0206】
【数17】
【0207】
前述の如く、(θx1,θy1),(θx2,θy2),(θx3,θy3),(θx4,θy4)、それぞれには、4P像状態での(θ4px,θ4py)の平均値、3P像状態での(θ3px,θ3py)の平均値、2P像状態での(θ2px,θ2py)の平均値が存在し、3P像以上キャリブレーションデータと2P像キャリブレーションデータの2つのキャリブレーション値算出(S340)について、図15のフローチャートで説明する。
【0208】
まず、EEPROM100aに記憶、蓄積された視標1〜4の2P像状態での(θ2px,θ2py)のデータ数を確認する(S501)。10回の視線検出を行って、所定範囲内(410a)にある2P像状態での(θ2px,θ2py)のデータが6以下であれば、キャリブレーションデータを算出しても信頼性が無いとして、再度、キャリブレーションを行う。
(θ2px,θ2py)のデータが7以上であれば、EEPROM100aに記憶、蓄積された視標1〜4の4P像状態での(θ4px,θ4py)のデータ数を確認する(S501)。(θ4px,θ4py)のデータ数が5以上であれば、キャリブレーションデータの信頼性があるとして、3P像以上のキャリブレーションデータの算出が行われる(S503)。 上記のキャリブレーションデータを求める(θx1,θy1),(θx2,θy2),(θx3,θy3),(θx4, θy4)には、それぞれには、4P像状態での(θ4px, θ4py)の平均値、3P像状態での(θ3px,θ3py)の平均値の加重平均値で、前記計算に基づき、ax,ay,kx,ky,b0x,b0Yのキャリブレーションデータが求められる(S503)。
【0209】
4P像状態と3P像状態のキャリブレーションデータをまとめて、3P像以上のキャリブレーションデータとしているのは、眼球回転角のθyであるθ4pyとθ3pyが同一の(4)''式で算出されており、両者の値に差が極めて少ないため、同一キャリブレーションデータとし、データアドレス部の縮小を計った。
【0210】
次に、2P像状態のキャリブレーションデータの算出が行われる(S504)。前記のキャリブレーションデータを求める(θx1,θy1),(θx2,θy2),(θx3,θy3),(θx4, θy4)には、2P像状態での(θ2px, θ2py)の平均値が用いられる。
【0211】
このように、1回のキャリブレーションデータ算出で、3P像以上のキャリブレーションデータと2P像状態のキャリブレーションデータの2つが算出される。(θ4px, θ4py)のデータ数が4以下であれば、3P像以上のキャリブレーションデータの算出の信頼性が無く、2P像状態のキャリブレーションデータの算出のみが行われる(S504)。
【0212】
再び、図13に戻り、視線のキャリブレーションデータ算出(S340)後、あるいは視線検出の終了後にタイマーがリセットされる(S341)。また、キャリブレーションデータの信頼性の判定手段を兼ねた視線検出回路101は算出された視線のキャリブレーションデータが適正かどうかの判定を行なう(S342)。
【0213】
算出された視線のキャリブレーションデータが一般的な個人差の範囲に入っていれば適正と判定し、一方算出された視線のキャリブレーションデータが一般的な個人差の範囲から大きく逸脱していれば算出された視線のキャリブレーションデータは不適性と判定する。
【0214】
算出された視線のキャリブレーションデータが不適性と判定されると(S349)、LED駆動回路106はスーパーインポーズ用LEDへの通電を止めて視標4を消灯する(S349)。更に視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を所定時間鳴らし視線のキャリブレーションが失敗したことを警告する。同時にLCD駆動回路105に信号を送信しファインダー内LCD308及びモニター用LCD202に「CAL」表示を点滅させて警告する(S350)(図17(c))。
【0215】
発音体による警告音とLCD308,202による警告表示を所定時間行なった後キャリブレーションルーチンの初期ステップ(S301)に移行し再度視線のキャリブレーションを実行できる状態に設定される。
【0216】
また、算出された視線のキャリブレーションデータが適正であれば(S342)、視線検出回路101はLCD駆動回路105、LED駆動回路106を介して視線のキャリブレーションの終了表示を行なう(S343)。LCD駆動回路105はファインダー内LCD308及びモニター用LCD202に信号を送信して、「End−キャリブレーションNo」の表示を所定時間実行するようになっている(図19(b))。
【0217】
視線検出回路101は視線検出回数nを1に設定し(S344)、更に算出された視線のキャリブレーションデータを現在設定されているキャリブレーションデータナンバーに相当するEEPROMのアドレス上に記憶する(S345)。この時記憶を行なおうとするEEPROMのアドレス上に既に視線のキャリブレーションデータが記憶されている場合はキャリブレーションデータの更新を行なう。
【0218】
一連の視線のキャリブレーション終了後、カメラは撮影者によって電子ダイヤル205か、あるいはモード釦204a204b、204cが操作されるまで待機する。撮影者が電子ダイヤル205を回転させて他のキャリブレーションナンバーを選択したならば、視線検出回路101は信号入力回路104を介してキャリブレーションナンバーの変更を検知し(S346)、視線のキャリブレーションルーチンの初期ステップ(S301)に移行する。
【0219】
また、撮影者がモード釦204a204b、204cを操作させて、他の撮影モードを選択したならば、視線検出回路101は信号入力回路104を介して撮影モードの変更を検知し(S347)メインのルーチンに復帰する(S348)。
【0220】
尚、本実施形態においては1点の視標を注視しているときの視線検出回数を10回にして視線のキャリブレーションを行なった例を示したが10回以上の回数で行なっても構わない。
【0221】
本実施形態では、視線検出精度を高める為、撮影者の視線検出を行う際、撮影者の眼球を4つのIREDで照明する場合、原理的には、図24のIREDの虚像である4つのプルキンエ像が得られることになっているが、撮影条件、個人差によって、撮影者の上瞼、睫毛で、照明光源が遮られ、IREDに対応したプルキンエ像が得られるわけでは無い場合でも、図10のプルキンエ像の数と配置の状態を判別(図9、S211)して、予め前記状態に応じたキャリブレーションデータである3P像以上のキャリブレーションデータと2P像キャリブレーションデータの2つを用意し、選択使用することで、視線検出精度の向上を可能としている。
【0222】
また、図10の16通りのプルキンエ像の数と配置の状態から、プルキンエ像の存在確率と視線検出演算精度の2つから、下側2つのP像を基準とした4通りの前記状態の判別に簡略化することにより、視線検出演算、即ち視線検出速度のの迅速化をはかっている。
【0223】
これらを撮影者の視線検出での焦点検出点マークの選択で本実施形態の効果を説明する。図3(b)のカメラ正位置で、撮影者が中央の焦点検出点マーク303を注視して視線検出で選択する場合、視線検出結果が注視点エリアC・Cであれば、焦点検出点マーク303を選択するが、注視点エリアC・Cは、他の焦点検出点マークを選択する注視点エリアに対して、y方向の長さが短い。撮影者の意識が焦点検出点マーク303にあったとしてもその注視点はある程度バラツクと考えると、ここで、従来例の説明の如く、視線検出が下側2つのP像P1、P2に演算された場合、y方向の精度がx方向に対して劣る為、上下の焦点検出点マーク306、303を選択する可能性が高い。
【0224】
本実施形態の如く、撮影者の眼球を4つのIREDで照明すると、4つのプルキンエ像が得られることで、y方向の精度は、x方向の精度と同等になることで、撮影者が中央の焦点検出点マーク303が可能となる。
【0225】
ここで、撮影者の上瞼、睫毛で、照明光源が遮られ、IREDに対応したプルキンエ像が得られるわけでは無い場合でも、前記3つのプルキンエ像が得られれば、y方向の精度は、ほぼx方向の精度と同等になることで、撮影者が中央の焦点検出点マーク303が可能としている。
【0226】
更に縦位置では、図3(b)を90度回転させた状態となり、撮影者のy方向には、焦点検出点マーク301、302、303、304、305の5つが並び、正位置以上にy方向の前記精度向上が効果を示す。また、前記下側2つのプルキンエ像しか得られ無い場合でも、2つのプルキンエ像に応じたキャリブレーションデータにて、視線検出を行うので、異なったプルキンエ像状態(4つ、3つのプルキンエ像)のキャリブレーションデータを用いることでの検出精度低下を防いでいる。
【0227】
そして、プルキンエ像の数と配置の状態の簡略化で、焦点検出点マークの選択をより迅速に行うことを可能としている。通常、キャリブレーションデータの取得である4つの視標1〜4を各10回の視線検出で行われるキャリブレーションにおいて、図10のプルキンエ像の数と配置の状態を判別(図9S211)して、図14の如く、眼球光軸の回転角、θx、θyの算出に於いて、プルキンエ像数が4つである場合には、4つのプルキンエ像から(θ4px,θ4py)と下側2つから(θ2px,θ2py)を、3つである場合には、3つのプルキンエ像から(θ3px,θ3py)と下側2つから(θ2px,θ2py)を、2つである場合には、プルキンエ像数が下側2つから(θ2px,θ2py)を、一回の視線検出で得られた情報から、図10のプルキンエ像の数と配置の状態に応じた眼球光軸の回転角θx、θyの算出を同時に行い、それぞれをEEPROM100aのアドレスに記憶する。
【0228】
具体的には、図15の如く、キャリブレーションデータの採取が終わった時点で、それぞれのアドレスに記憶された(θ4px,θ4py)、(θ3px,θ3py)と、(θ2px,θ2py)の平均値から、3P像以上のキャリブレーションデータと2P像キャリブレーションデータの2つを算出している。
【0229】
このことにより、撮影者は、2つのキャリブレーションデータを得るために、新たなキャリブレーションデータ取得動作、操作を行う事無く、従来のキャリブレーション動作と全く同じ1回のキャリブレーションデータ取得動作で、視線検出精度向上のための2つの3P像以上のキャリブレーションデータと2P像キャリブレーションデータを取得可能としている。
【0230】
そして、眼球光軸の回転角、θx、θyの算出が、4P像状態と3P像状態の同一式であることから、4P像状態と3P像状態のキャリブレーションデータを3P像以上のキャリブレーションデータとして一つにまとめることで、演算の簡略化とデータアドレス部の縮小をはかった。
【0231】
図15で、それぞれのアドレスに記憶された(θ4px,θ4py)、(θ3px,θ3py)と、(θ2px,θ2py)のデータ数を確認することで、信頼性の無いキャリブレーションデータを算出しない効果を得ている。しかし、キャリブレーション時、撮影者の上瞼、睫毛で、照明光源が遮られ、IREDに対応したプルキンエ像が得られず、下側2つのプルキンエ像しか得られない場合、前記(θ2px,θ2py)の平均値、即ち、2P像キャリブレーションデータ(図15、S504)しか、EEPROM100aのアドレス(図11)に記憶されていない。
【0232】
ここで、視線検出の際、4つのIREDを照明することで、撮影者の3つ、または、4つのP像を得ることは、それに対応する3P像以上のキャリブレーションデータ(図15、S503)が存在しないので、意味を為さない。即ち、4つのP像を得るために、上側2つ、下側2つのあわせて、4つのIREDを照明することが、意味を為さない。
【0233】
そこで、視線検出時、図9のS203、図25のS2401のキャリブレーションデータ存在確認手段として、EEPROM100aのそれぞれのアドレス(図11)に記憶された、3P像以上のキャリブレーションデータ(図15、S503)と2P像キャリブレーションデータ(図15、S504)が、初期値か、否かを確認する(図25のS2042)が、2P像キャリブレーションデータしか初期値で無いこと、即ち2P像キャリブレーションデータしか存在しないことが確認される。
【0234】
そこで、2P像キャリブレーションデータしかないことが確認されると、照明状態の切替え手段として、カメラ正位置で、撮影者が裸眼であれば、下側かつ内側のIRED13a、13b、眼鏡であれば、下側かつ外側のIRED13c、13d、いずれにしても下側の2つのIREDを照明する。
【0235】
このように存在するキャリブレーションデータの確認を行えば、不必要なIREDを照明する事無く、視線検出を行うことが可能である。
【0236】
【発明の効果】
以上説明したように、観察者の視線検出を行う際、複数の照明光源より、撮影者の眼球の前眼部へ投射し、撮影者の眼球画像の状態である角膜反射像(プルキンエ像、P像)の角膜反射像数とその配置状態に応じたキャリブレーションデータ、即ち視線補正手段で得られた補正データを予め取得し、角膜反射像数とその配置状態を判断手段で判断し、選択使用することで、観察者の視線検出時の角膜反射像数とその配置状態に応じた視線検出精度の向上を可能とした上で、前記異なる複数の、前記角膜反射像の数とその配置状態それぞれに対応する視線補正データの存在を確認することで、視線検出時、存在する視線補正データに対応した前記角膜反射像の数とその配置状態が得られるように、必要最低限の前記複数の照明光源の照明を行うことで、常に無駄の無い、最適な複数の照明光源が行える。
【0237】
また、観察者に新たな視線補正手段の取得動作、操作を行わせる事無く、一回の視線補正手段の取得動作で、角膜反射像数とその配置状態に応じた複数のキャリブレーションデータ、即ち視線補正手段で得られた補正データを取得すること可能とした。
【0238】
さらに、角膜からの反射像の数と配置状態が、1次元か2次元かで、観察者の眼球回転角算出方法が異なることを判断することで、視線検出精度の向上を可能としている。
【0239】
さらにまた、角膜からの反射像の数と配置状態が異なっていても、観察者の眼球回転角算出方法が同一であれば、同一のキャリブレーションデータ、即ち視線補正手段で得られた補正データを用いることで、演算の簡略化とデータ記憶部の縮小を計れる。
【0240】
また、上記視線検出精度の向上が、少なくとも1つの測距点を選択する機能に用いられることが好適である。
【0241】
以上、複数の照明光源より観察画面内を覗く撮影者の眼球の前眼部へ投射し、角膜からの反射像と瞳孔結像位置より、前記撮影者の眼球光軸の回転角を検出し、前記回転角から観察者の視線を検出する視線検出手段において、観察者のあらゆる条件において、視線検出精度の向上がはかれると共に、視線検出を最適な、最小限の照明エネルギーで行える。
【図面の簡単な説明】
【図1】本実施形態のカメラ本体の要部概略図である。
【図2】(a)本実施形態のカメラ本体の外観の上面図である。
(b)本実施形態のカメラ本体の外観の背面図である。
【図3】図1のファインダ視野内の表示状態の説明図である。
【図4】本実施形態の電気回路の要部ブロック図である。
【図5】本実施形態のカメラの作動シーケンスを示した図である。
【図6】本実施形態の焦点検出点選択モード説明図である。
【図7】(a)ファインダ視野内の注視点エリアの説明図である。
(b)焦点検出点選択とファインダ視野内の注視点エリアの関係説明図である。
【図8】(a)本実施形態のカメラ本体の外部表示202の説明図である。
(b)ファインダ視野内の表示部308の説明図である。
【図9】視線検出のフローチャートである。
【図10】プルキンエ像の状態説明図である。
【図11】キャリブレーションデータナンバーとキャリブレーションデータ説明図である。
【図12】キャリブレーションの第1のフローチャートである。
【図13】キャリブレーションの第2のフローチャートである。
【図14】キャリブレーションでのθx、θy算出、データ記憶フローチャートである。
【図15】キャリブレーションデータ算出のフローチャートである。
【図16】(a)(b)(c)(d)キャリブレーションでの視標説明図である。
【図17】キャリブレーションのファインダー内、外部表示の第1の説明図である。
【図18】キャリブレーションのファインダー内、外部表示の第2の説明図である。
【図19】キャリブレーションのファインダー内、外部表示の第3の説明図である。
【図20】従来の(IRED下側2つの)視線検出原理説明図である。
【図21】(a)(b)眼球画像説明図である。
【図22】(a)従来の眼球画像、プルキンエ像配置状態の説明図である。
(b)従来の視線検出原理説明図(x-z平面)である。
(c)従来のIRED下側2つの視線検出原理説明図(y-z平面)である。
【図23】(a)3つのIREDでの眼球画像、プルキンエ像配置状態説明図である。
(b)3つのIREDでの視線検出原理説明図(y-z平面)である。
【図24】4つのIREDでの眼球画像、プルキンエ像配置状態説明図である。
【図25】IRED選択フローチャートである。
【符号の説明】
7:ピント板
7a:この微小プリズムアレイ
12:受光レンズ
13a〜13h:撮影者の眼15の照明光源(投光手段)
14:CCD等の光電素子列を2次元的に配したイメージセンサ
15:撮影者の眼
16:角膜
17:虹彩
101:視線検出回路
301,302,303,304,305,306,307:測距点マーク
200:本カメラ
300:ファインダー観察画面内
L3・T〜R3・B:注視点エリア
S211:プルキンエ像状態判別[0001]
TECHNICAL FIELD OF THE INVENTION
BACKGROUND OF THE
[0002]
[Prior art]
2. Description of the Related Art Conventionally, various devices (for example, eye cameras) for detecting what position on an observation surface the observer is observing, that is, detecting a so-called line of sight (axial axis) have been proposed.
Specifically, a gaze detection device that projects a parallel light beam from a light source to the anterior segment of the observer's eyeball and obtains a visual axis using a corneal reflection image formed by reflected light from the cornea and an imaging position of a pupil is disclosed. It has been proposed (for example, see Patent Document 1).
[0003]
Further, there has been proposed an optical device (camera) having an eye-gaze detecting device configured to perform various types of imaging using an eye-gaze calibration method for correcting individual differences in the gaze of a photographer (for example, Patent Document 2). reference).
[0004]
FIG. 20 is a diagram illustrating the principle of the eye gaze detection method. The names and symbols of each part are the same as those in FIGS.
[0005]
FIG. 21A is a schematic diagram of an eyeball image projected on the
Hereinafter, a method of detecting a line of sight will be described with reference to the above-described drawings.
[0006]
The infrared light emitted from the IRED 13b illuminates the cornea 17b of the user's eyeball 17. At this time, a corneal reflection image d (virtual image; Purkinje image or P image) formed by a part of the infrared light reflected on the surface of the cornea 17b is condensed by the
[0007]
Similarly, the infrared light emitted by the IRED 13a irradiates the cornea 17b of the eyeball 17. At this time, a corneal reflection image e (virtual image; Purkinje image or P image) formed by a part of the infrared light reflected on the surface of the cornea 17b is condensed by the
[0008]
Light beams from the ends a and b of the
[0009]
(Equation 1)
It is expressed as
[0010]
Further, the x coordinate of the midpoint of the corneal reflection images d and e substantially matches the x coordinate xo of the center of curvature o of the cornea 17b. Therefore, if the x-coordinates of the corneal reflection images d and e are xd and xe, and the standard distance between the center of curvature o of the cornea 17b and the center c of the pupil 17d is Loc, the rotation of the optical axis 17a of the eyeball 17 is determined. The angle θx is
[0011]
(Equation 2)
Satisfies the relational expression.
[0012]
Therefore, as shown in FIG. 21A, by detecting the position of each characteristic point (corneal reflection image and the center of the pupil) of the eyeball 17 projected on the
[0013]
From the equation (2), the rotation angle of the optical axis 17a of the eyeball 17 is
[0014]
[Equation 3]
[0015]
Is required. Here, β is an imaging magnification determined by the position of the eyeball 17 with respect to the
[0016]
Θx is the rotation angle of the eyeball optical axis in the zx plane, and θy is the rotation angle of the eyeball optical axis in the yz plane. (xpo, ypo) is the coordinates of the midpoint of the two corneal reflection images on the
[0017]
When the rotation angle (θx, θy) of the user's eyeball optical axis 17a is calculated, the user's gazing point (x, y) on the observation surface is
[0018]
(Equation 4)
[0019]
Is required. Here, the x direction indicates the horizontal direction with respect to the observer, and the y direction indicates the vertical direction with respect to the user. m is a conversion coefficient for converting the rotation angle of the eyeball 17 into coordinates on the observation surface, and ax, bx, ay, by are gaze point calibration coefficients, and the rotation angle of the user's eyeball 17 and the gaze point on the observation surface. Is a correction coefficient for matching.
[0020]
A method of calculating the correction terms δx and δy at the position of the midpoint of the corneal reflection image (Purkinje image) will be described with reference to FIGS. 22 (a), (b) and (c).
The intersection point between the eyepiece lens exit surface and the optical axis (z-axis) of the visual line detection optical system is set as the origin. The coordinates of IRED1 are (-Sxi1, Syi, Szi), the coordinates of IRED2 are (Sxi1, Syi, Szi), and the coordinates of the curvature center O of the cornea of the eyeball of the photographer are (Sxc, Syc, Szc).
[0021]
The midpoint P0 between the Purkinje images d and e is equivalent to the position of the Purkinje image generated by one IRED located at the midpoint between IRED1 and IRED2. Since the line-of-sight calculation formula is based on the coordinates of the midpoint P0 of the two Purkinje images, if the distance between the midpoint (0, Si, Zi) of IRED1 and IRED2 and the center of curvature O of the cornea is L,
[0022]
(Equation 5)
[0023]
From Abbe's invariant, the distance K from the corneal surface to the position where the Purkinje image occurs is
[0024]
(Equation 6)
It is expressed as
[0025]
The shift amount δx (the shift amount in the CCD coordinate system; Δx in the eyeball coordinate system) of the midpoint P0 of the Purkinje images P1 and P2 in the x direction is
[0026]
(Equation 7)
Satisfy the relationship. Expanding the above equation, the shift amount δx becomes
[0027]
(Equation 8)
It becomes.
Similarly, the shift amount Δy in the y direction of the midpoint P0 of the Purkinje images P1 and P2 is
(Equation 9)
[0028]
Here, if the imaging magnification β of the eye-gaze detecting optical system is defined as a quadratic function of the distance Sz from the eyepiece exit surface (origin),
[0029]
(Equation 10)
It becomes.
[0030]
The coefficients b1 to b3 are calculated by obtaining the imaging magnification at a predetermined distance by an optical simulation, and quadratic approximating the values.
The imaging magnification βp of the Purkinje image is, assuming that the distance in the z direction from the vertex of the cornea is Szp,
[0031]
[Equation 11]
It becomes.
[0032]
Hereinafter, in order to obtain Szp and Szc, the calculation routine is executed a plurality of times to converge Szp and Szc. Here, when Expression (9) is compared with Expression (11), in Expression (11), one term of Syi ((βp) / (Pty)) is added. This is a term that is caused by the absence of the Purkinje image because the IRED does not exist with the z-axis sandwiched in the y-axis direction as shown in FIG. That is, the shift amount Δy in the y direction cannot be directly obtained from the midpoint P0 of the Purkinje images P1 and P2.
[0033]
For this reason, the shift amount δy in the y-direction is different from the shift amount δx in the x-direction by the second approximation of the coefficients b1 to b3, other approximate calculation errors in the convergence calculation, and the quantum This method has a drawback that accuracy is inferior due to the addition of a conversion error.
[0034]
Accordingly, in the rotation angle (θx, θy) of the optical axis 17a of the user's eyeball determined by the expression (3) including δx and the expression (4) including δy, θy has a disadvantage that accuracy is inferior to θx. . When the eyeball rotation angles θx and θy of the photographer are calculated from Expression (3) including δx and Expression (4) including δy, ax, bx, and the individual differences from Expressions (5) and (6) are calculated. The correction coefficient of ay, by is given, and the coordinates on the focus plate are calculated.
[0035]
Here, in order to avoid the disadvantage that the accuracy of θy is inferior, as shown in FIG. 2B, the
[0036]
This will be described with reference to FIG. 23 to which irradiation of the light emitting diode 13c is added. FIG. 23 (a) shows the position of each characteristic point (corneal reflection image and center of the pupil) of the eye 17 projected on the
[0037]
Equation (4) is
(Equation 12)
Represented by
Regarding the correction term δy,
(Equation 13)
It can be seen that the shift amount δy in the y direction is the same as the shift amount δx in the x direction in Expression (3).
[0038]
Here, the value of δy in Expression (11) obtained from the corneal reflection images of the conventional
[0039]
Here, when the line of sight of the observer is detected, a Purkinje image corresponding to the illumination light source is not always obtained. In particular, the upper corneal reflection image corresponding to the upper light emitting diode 13e is because the illumination light source is blocked by the upper eyelids and eyelashes of the observer depending on observation conditions and individual differences. Even if the above-mentioned new illumination light source is added, a Purkinje image corresponding thereto is not always obtained. As described above, if the correction coefficients for ax, bx, ay, and by regarding the individual difference are uniformly given without considering the state of the corneal reflection image described above, the problem still remains in the accuracy in the y-axis direction.
[0040]
Therefore, there is a proposal to add light emitting diodes 13e and 13f to the conventional
[0041]
When three light emitting
[0042]
FIG. 24 shows each characteristic point (corneal reflection image and corneal reflection image of the eyeball 17 projected on the
[0043]
When four corneal reflection images corresponding to the
[0044]
As such a conventional proposal, there is a gaze detection apparatus that obtains at least two corneal reflection images from three or more illumination light sources and calculates a gaze (for example, see Patent Document 3). However, when the line of sight of the observer is detected, the Purkinje image corresponding to the illumination light source is not always obtained, and the ax, bx, ay, by There is no description on the point that the correction coefficient is accurately given to improve the gaze detection accuracy.
[0045]
Therefore, a new corneal reflection image (virtual image; Purkinje image or image) is projected in the y-axis direction in order to project a feature point (corneal reflection image and the center of the pupil) from the eyeball image by projecting it to the anterior segment of the observer's eyeball. In a line-of-sight detecting means provided with an illumination light source for obtaining a (P image), a proposal has been made to improve the line-of-sight detection accuracy of the observer, especially in the y-direction, under all observation conditions.
[0046]
In this proposal, first, a means for counting the number of corneal reflection images and a corneal reflection image state determination means for judging the arrangement state of the corneal reflection images are provided, and an individual difference correction coefficient according to the corneal reflection image state is selectively used. A means for performing is provided. Second, the eye-gaze correction means for correcting an error in the detection of the eye gaze obtained by the eye-gaze detection means due to the individual difference of the eyeball obtained by the eye-gaze detection means, according to the corneal reflection image state, obtained by the eye-gaze correction means Storage means for calculating and storing the corrected data.
[0047]
Then, according to the state of the corneal reflection image, the correction data obtained by the line-of-sight correction means is calculated and stored. The illumination light source is illuminated so that all corneal reflection image states can be obtained at all times.
[0048]
[Patent Document 1]
JP-A-1-274736
[Patent Document 2]
Japanese Patent Application No. 3-11492
[Patent Document 3]
JP-A-6-094978
[0049]
[Problems to be solved by the invention]
Therefore, a new corneal reflection image (virtual image; Purkinje image or In the line-of-sight detection means provided with the illumination light source that has obtained the (P image), while improving the line-of-sight detection accuracy of the observer, especially in the y direction, under all observation conditions, the correction data obtained by the line-of-sight correction means It is necessary to be able to select an illumination light source to be illuminated among a plurality of illumination light sources provided at the time of gaze detection, in accordance with correction data corresponding to a corneal reflection image state, which is a storage means for calculating and storing. is there.
[0050]
[Means for Solving the Problems]
Also in the y-axis direction, in a line-of-sight detection unit provided with an illumination light source that obtains a new corneal reflection image (virtual image;
First, a means for counting the number of corneal reflection images and a means for determining a corneal reflection image state for judging an arrangement state of the corneal reflection images are provided, and a means for selecting and using an individual difference correction coefficient according to the state of the corneal reflection images is provided.
Second, the eye-gaze correction means for correcting an error in the detection of the eye gaze obtained by the eye-gaze detection means due to the individual difference of the eyeball obtained by the eye-gaze detection means, according to the corneal reflection image state, obtained by the eye-gaze correction means Storage means for calculating and storing the corrected data.
Third, the eye-gaze correcting means calculates and stores correction data obtained by the eye-gaze correcting means in accordance with the corneal reflection image state, and calculates and stores correction data of any corneal reflection image state in the storage means. There is provided means for confirming the presence state of the eye-gaze correction data for confirming whether the correction has been performed.
Fourthly, an illumination state switching means is provided so that the presence state confirmation means of the visual axis correction data corresponds to the visual axis correction data whose existence has been confirmed so as to achieve a corneal reflection image state.
According to the first configuration, it is possible to improve the gaze detection accuracy by using the optimum individual difference correction coefficient in accordance with the obtained corneal reflection image.
According to the second configuration, the individual difference correction coefficient corresponding to the number of corneal reflection images can be obtained by one operation of the line-of-sight correction means, that is, one operation of acquiring information based on individual differences of the eyeball. It becomes.
According to the third and fourth configurations, the line-of-sight correction unit calculates and stores the correction data obtained by the line-of-sight correction unit in accordance with the corneal reflection image state, and is stored in the storage unit. The illumination state of the illumination light source for obtaining the corneal reflection image state corresponding to the correction data of the corneal reflection image state can be performed.
[0051]
BEST MODE FOR CARRYING OUT THE INVENTION
The camera according to the present embodiment is an autofocus camera having a line-of-sight detection device that detects a rotation angle of an optical axis of a photographer's eyeball and calculates a line of sight of the photographer from the rotation angle. FIG. 1 schematically illustrates a main part of the single-lens reflex camera of the present embodiment.
[0052]
In FIG. 1,
[0053]
[0054]
[0055]
Next, behind the exit surface of the
[0056]
The
[0057]
[0058]
Therefore, the
[0059]
Here, the distance measurement point marks 301, 305, 306, and 307 at the upper, lower, right, and left sides are lit when individual difference correction data (gaze correction coefficient) of the eyeball is collected (hereinafter, this operation is referred to as calibration). . In the calibration of the camera, this data is accumulated up to a predetermined number of times each time the photographer performs calibration, and is calculated by a predetermined averaging operation.
[0060]
[0061]
Reference numeral 31 denotes an aperture provided in the taking
[0062]
FIGS. 2A and 2B are external views of the camera body of the present invention, in which the interchangeable photographing
[0063]
When the mode buttons 45b and 45c are pressed at the same time, the mode becomes a “line-of-sight calibration” mode for collecting personal difference correction data (line-of-sight correction coefficient) of the eyeball described later.
[0064]
Reference numeral 205 denotes an electronic dial for selecting a mode that can be further selected from among the modes selected by the
[0065]
For example, when the
[0066]
In this manner, the photographer selects each of the shooting modes of the program AE shutter priority AE, the aperture priority AE, the depth of field priority AE, and the manual exposure by pressing the
[0067]
FIGS. 8A and 8B are explanatory views showing the contents of all display segments of the
[0068]
Reference numeral 801 denotes a portion that indicates that the mode is the line-of-sight detection mode, and is displayed in the line-of-sight detection mode. To set the line-of-sight detection mode, the user presses the
[0069]
The 7-segment unit 202b for displaying a variable numerical value includes a 4-digit 7-segment 802 for displaying the shutter speed, a 2-digit 7-
[0070]
8B, 811 denotes a camera shake warning mark, 812 denotes an AE lock mark, 813 and 814 denote the same display segments as the shutter time display 802 and the aperture value displays 803 and 804, and 815 denotes an exposure correction setting mark. , 816 is a strobe full mark, and 817 is a line-of-sight input mark indicating that the line of sight is being input.
[0071]
Here, assuming that a predetermined focus
[0072]
Further, when the electronic dial 205 is turned in the same direction, the distance measurement marks 301, 302, 303, 304, 305, 306, and 307 are simultaneously turned on for a predetermined time as shown in FIG. The photographer can recognize that the camera is automatically set to the focus detection point automatic selection mode in which the focus detection point is selected. When the focus detection point
[0073]
In addition to the above-described focus detection point selection mode in which the photographer can select an arbitrary focus detection point, the
[0074]
Also, by operating the
[0075]
Note that the
[0076]
[0077]
FIG. 4 is a main block diagram of an electric circuit built in the camera of the present embodiment. In the figure, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals. A central processing unit (hereinafter referred to as a CPU) 100 of a microcomputer built in the camera body includes a line-of-
[0078]
The
[0079]
The EEPROM 100a attached to the
[0080]
Calibration data can be set multiple times, distinguished by the person who uses the camera, when the same user has different observation conditions (for example, when using glasses and when not using glasses), or diopter correction This is effective for setting a case where a lens is used and a case where a lens is not used.
[0081]
The calibration number selected at this time is stored in the EEPROM 100a as a calibration data number (1, 2, 3,... Or 0) as described later.
In the present embodiment, the calibration data stored in one calibration number includes, as will be described later, the calibration data at the normal position and the vertical position, and further includes the number of reflected images of the cornea and the number thereof. Calibration data is stored for each arrangement.
[0082]
The line-of-sight detection circuit 101 A / D converts the output of the eyeball image from the image sensor 14 (CCD-EYE), and transmits this image information to the CPU. As will be described later, the
[0083]
The
[0084]
As described above, the
[0085]
SW1 is turned on with the first stroke of the
[0086]
SW-AEL is an AE lock switch that is turned on by pressing the
[0087]
The signals of these switches are input to the
[0088]
The
[0089]
The IRED drive circuit 107 controls the simultaneous turning on of the four IREDs of the inner
[0090]
When energized, the
[0091]
The right and left grip / battery chamber 112 of the photographer holding the camera by the dotted
[0092]
The terminals other than the P-GND and VBAT of the
[0093]
Next, the operation of the camera of this embodiment will be described with reference to the flowchart of FIG. When the
[0094]
If the mode is not the line-of-sight input mode, the line-of-sight input is prohibited, and the process proceeds to the focus detection point arbitrary selection mode (S101a). If the mode is not the focus detection point selection mode, the process enters the focus detection point automatic selection mode (S101b). Here, without using the line-of-sight information, the camera itself executes a subroutine of selecting a focus detection point by a predetermined algorithm from the focus detection results of all the focus detection points corresponding to the seven focus detection point marks in FIG. .
[0095]
In steps S101b and S101c, the
[0096]
The variables used for line-of-sight detection other than the line-of-sight calibration data stored in the EEPROM 100a of the
[0097]
Next, when performing gaze detection, the
At this time, if the calibration data of the confirmed calibration data number is unchanged from the initial value, the line of sight detection is performed with this initial value.
[0098]
In addition, even if the calibration data number is the same, if partial calibration is not performed and the calibration data number is the initial value, the gaze detection is performed using the calibration data that is not the initial value. For example, when the calibration data exists only at the correct position in the camera vertical position, the correct position calibration data is used.
[0099]
Next, when it is recognized that the line-of-sight calibration data corresponding to the calibration data number is set to a predetermined value and that the data is input by the photographer, the line-of-
[0100]
At this time, the
[0101]
Further, the set shutter time is displayed in 7 segments 813, and the set aperture value is displayed in 7
[0102]
This correspondence will be described with reference to FIG. In FIG. 7A, the
[0103]
In FIG. 7B, there are seven gazing point groups surrounded by a bold frame, and focus detection points included in the gazing area groups surrounded by the bold frame where the gazing point coordinates exist are selected. Is done. If the coordinates of the gazing point are not in the seven gazing point area groups surrounded by the thick frame, the line-of-sight detection is prohibited, and the mode shifts to the focus detection point automatic selection mode (101b).
[0104]
The photographer observes that the focus detection point selected by the photographer's line of sight is displayed, recognizes that the focus detection point is incorrect, releases the
[0105]
When the photographer observes that the selected focus detection point is lit and displayed, and keeps pressing the
[0106]
If the focus detection is possible (S111) and the focus adjustment state of the focus detection point selected by the predetermined algorithm is not in focus (S112), the
[0107]
If the focus cannot be detected (S111), the
[0108]
If the photographing
[0109]
The photographer observes that the focused focus detection point is displayed in the viewfinder, recognizes that the focus detection point is incorrect, releases the release button 41, and turns off the switch SW1 (S115). Waits until the switch SW1 is turned on (S102).
[0110]
When the photographer sees the focus detection point displayed in focus and continues to turn on the switch SW1 (S115), the
[0111]
In the case of the present embodiment, in the seven photometric areas SPC-A to SPC-G, a known weighted photometric calculation is performed around the photometric area including the selected focus detection point mark in FIG. An aperture value (F5.6) is displayed as a result of this calculation using the seven
[0112]
Further, it is determined whether or not the
[0113]
First, MG2 is energized, the
[0114]
After a lapse of a predetermined shutter time (for example, 1/250 second), the MG2 is energized and the rear curtain of the
[0115]
Further, when the mode buttons 45b and 45c are simultaneously pressed during a series of operations other than the shutter release operation (S118) of the camera shown in FIG. 5, individual difference correction data (eye correction coefficient) of the eyeball is collected. When the
[0116]
FIG. 9 is a flowchart of gaze detection (S106). As described above, upon receiving a signal from the
[0117]
In the case of gaze detection in the photographing mode, the
[0118]
Next, the infrared light emitting diode (hereinafter, referred to as IRED) 13a is determined based on the previously detected posture information of the camera, the eyeglass information of the photographer included in the calibration data, and the presence or absence of calibration data according to a P image state described later. 1313h are selected, and irradiation is performed (S204). S204 will be described with reference to the flow of FIG.
[0119]
That is, if the camera is held in the correct position and the photographer does not wear glasses, the
[0120]
Next, the calibration data (S503 in FIG. 15, FIG. 15) and the 2P image calibration data (S504 in FIG. 15, stored in the respective addresses (FIG. 11) of the EEPROM 100a described later) Check whether or not. Therefore, it is determined that there is no calibration data for the initial value (S2042 in FIG. 25).
[0121]
If there is calibration data of 3P image or more (FIG. 15, S503), there is no change in the selection of the IRED (S2043). If there is no calibration data of 3P image or more, the selection of the IRED is changed and the finder is changed. The two IREDs above the optical axis are not selected, and the two IREDs below the optical axis are selected (S2044).
[0122]
In other words, when the selection of the IRED is changed (S2044), if the camera is held at the correct position and the photographer does not wear glasses, as shown in FIG. IREDs 13a and 13b are selected.
[0123]
If the camera is in the correct position and the photographer wears glasses, the IREDs 13c and 13d far from the viewfinder optical axis are selected and irradiated.
At this time, a part of the illumination light reflected by the eyeglasses of the photographer reaches an area other than a predetermined area on the
[0124]
Next, the storage time of the image sensor 14 (hereinafter referred to as CCD-EYE) and the illumination power of the IRED are set based on the photometric information, the photographer's eyeglass information, and the like (S205). The accumulation time of the CCD-EYE and the illumination power of the IRED may be set based on values determined from the contrast of the eyeball image obtained at the time of the previous line-of-sight detection.
[0125]
When the CCD-EYE accumulation time and the illumination power of the IRED are set, the
[0126]
Further, the CCD-EYE ends the accumulation according to the previously set accumulation time of the CCD-EYE, and at the same time, the IRED is turned off. If the mode is not the line-of-sight calibration mode (S207), a CCD-EYE reading area is set (S208).
[0127]
Except for the first gaze detection after the power of the camera body is turned on, the CCD-EYE reading area is set based on the CCD-EYE reading area at the time of the previous gaze detection. When the posture changes, or when the presence or absence of glasses changes, the reading area of the CCD-EYE is set to the entire area.
[0128]
When the reading area of the CCD-EYE is set, the reading of the CCD-EYE is executed (S209). At this time, an area other than the read area is blank-read, and is actually skipped. This is for the purpose of quick gaze detection. The image output read from the CCD-EYE is A / D-converted by the line-of-
[0129]
That is, in the
Next, the center position (Xic ', Yic') of the pupil is calculated by detecting a plurality of boundary points between the pupil 19 and the iris 17 and performing a least square approximation of a circle based on each boundary point. At this time, the pupil diameter rp is also calculated.
[0130]
The
[0131]
The CCD-EYE reading area is set to a rectangle, and the coordinates of two diagonal points of the rectangle are stored in the eye-
Here, in principle, four Purkinje images, which are virtual images of the IRED in FIG. 24, are to be obtained. However, when the gaze of the photographer is detected, depending on the observation conditions and individual differences, the upper part of the photographer may differ. Since the illumination light source is blocked by the eyelids and eyelashes, and a Purkinje image corresponding to the IRED is not necessarily obtained, the number and arrangement of the Purkinje images are determined as the Purkinje image state determination (S211).
[0132]
In the present embodiment, when the Purkinje image is not obtained or when only one Purkinje image is obtained, it is determined that the line of sight cannot be detected or the line of sight detection accuracy is significantly reduced, so that it is determined that the line of sight is not reliable, and the process returns to S201.
[0133]
FIG. 10 illustrates the number and arrangement of Purkinje images. The P image state discrimination and the number of P images indicate a state in which four Purkinje images exist according to the number of Purkinje images (P images in the figure) as a 4P image state, up to a state without a P image, and a P image state diagram. Shows the existence state of the four Purkinje images P1, P2, P3, and P4 in FIG. 24, and the P image coordinates used for calculating Xpo and Ypo are P1 (Xe ′, Ye ′), P2 (Xd ′, Yd '), P3 (Xe ", Ye"), and P4 (Xd ", Yd") are used to calculate Xpo and Ypo.
[0134]
As shown in FIG. 10, there are 16 possible arrangements of the obtained Purkinje images and 16 arrangements of the obtained Purkinje images with respect to four IRED photographer's eyeball illuminations. In the present embodiment, in order to speed up the selection by distinguishing the line-of-sight detection calculation, in particular, the Purkinje image from other characteristic points, the
[0135]
Next, the position P4 (Xd ", Yd") of the Purkinje image corresponding to the IRED 13f is similarly detected on the Y axis from the Purkinje image P2 (Xd ', Yd') corresponding to the
[0136]
This is because the detection of the four Purkinje images P1, P2, P3, and P4 can be performed quickly, and the illumination light source may be blocked by the upper eyelids and upper eyelashes depending on the photographer's observation conditions and individual differences. Therefore, the Purkinje images P1 and P2 corresponding to the
[0137]
As described above, in the present embodiment, based on the positions of the two Purkinje images existing on the lower side on the Y axis, the number and the arrangement of the four types of Purkinje images surrounded by the thick frame in FIG. Judge the state. If it is determined that the number and arrangement of the four types of Purkinje images surrounded by the thick frame in FIG. 10 are not the same, it is determined that there is no line-of-sight reliability, and the process returns to S201. Returning to S201, if it is determined again that there is no line-of-sight reliability in S111, the process enters the focus detection point automatic selection mode of FIG.
[0138]
In FIG. 10, the used calibration data is calibration data obtained by a calibration described later. In the present embodiment, the number of three Purkinje images and the arrangement state of the four Purkinje images are equal to or more than 3P images. Two pieces of 2P image calibration data are used.
[0139]
When the analysis of the eyeball image is completed, the eye-
[0140]
That is, when the photographer's glasses information in the calibration data is set to use, for example, glasses, and the IREDs 13c, 13d, 13g, and 13h of the IRED shown in FIG. 2B are turned on. If the distance between the Purkinje images is larger than a predetermined size, the photographer is recognized as a spectacle wearer, and the spectacle information is determined to be correct.
[0141]
Conversely, if the distance between the Purkinje images is smaller than a predetermined size, the photographer is recognized as the naked eye or the contact lens wearer, and it is determined that the eyeglasses information is incorrect. If it is determined that the spectacle information is incorrect (S212), the
[0142]
If it is determined that the eyeglass information is correct (S212), the distance between the
[0143]
Next, it is confirmed whether or not the mode is the calibration mode (S214). If it is in the calibration mode, data processing described later with reference to FIG. 14 is performed. If it is not in the calibration mode, the rotation angles θx and θy of the optical axis of the eyeball are calculated (S215).
[0144]
The rotation angles θx and θy of the optical axis of the
[0145]
[Equation 14]
Is represented by
[0146]
However, the calculation method of xp0 and yp0 differs depending on the arrangement state of the Purkinje image in FIG. For example, in the 2P image state shown in FIG. 10, the coordinates of the midpoint P0 of the Purkinje images P1 (Xe ', Ye') and P2 (Xd ', Yd') in FIG. 22A are (xpo, ypo). Used. In the 3P image state, xp0 is the midpoint of the X coordinate of the Purkinje images P1 (Xe ', Ye') and P2 (Xd ', Yd'), and yp0 is the Purkinje images P2 (Xd ', Yd') and P4. (Xd ", Yd") or the midpoint of the Y coordinate of the Purkinje images P1 (Xe ', Ye'), P3 (Xe ", Ye"). In the 4P image state, the coordinates of the midpoint P0 of the Purkinje images P1 (Xe ', Ye'), P2 (Xd ', Yd'), P3 (Xe ", Ye"), and P4 (Xd ", Yd") Is used as (xpo, ypo).
[0147]
δx and δy are correction terms for correcting the center positions of the two Purkinje images in equations (10), (10) ″, and (11). δx is obtained by equation (10), while δy is a 2P image. In the case of the state, it is obtained by the equation (11), and in the case of the 3P image state and the 4P image state, it is obtained by the equation (10) ″. The difference in how to determine δy is whether or not there is a ypo that can be handled in the same way as δx and can be calculated directly in the Y direction.
[0148]
For example, in the 2P image state of FIG. 10, the coordinates of the midpoint P0 of the Purkinje images P1 (Xd ′, Yd ′) and P2 (Xe ′, Ye ′) in FIG. 22A are (xpo, ypo). Used. In the 3P image state, the midpoint of the X coordinate of the Purkinje images P1 (Xd ', Yd') and P2 (Xe ', Ye') is xp0, and the Y direction is the Purkinje image P1 (Xd ', Yd'). Let xp0 be the midpoint of the Y coordinate of P3 (Xd ", Yd") or the Purkinje images P2 (Xe ', Ye') and P4 (Xe ", Ye"). In the 4P image state, the midpoint P0 of the Purkinje images P1 (Xd ', Yd')), P2 (Xe ', Ye'), P3 (Xd ", Yd"), and P4 (Xe ", Ye") Use coordinates as (xpo, ypo). As described above, it can be seen that the Purkinje image state determination (S211) is necessary for calculating the rotation angles θx and θy of the optical axis of the eyeball.
[0149]
When the rotation angles θx and θy of the photographer's eyeball are determined, the position (x, y) of the line of sight on the
[0150]
(Equation 15)
(S216). Here, ax, ay, bx, and by are parameters for correcting individual differences in the line of sight, and ax and ay are calibration data.
[0151]
In the present embodiment, as shown in FIG. 10, two calibration data, ie, 3P image or more calibration data and 2P image calibration data, are used in accordance with the calculation method of the rotation angles θx and θy of the optical axis of the eyeball. Here also, it is found that the Purkinje image state determination (S211) is necessary.
Here, bx and by corresponding to the correction amounts of the optical axis and the visual axis of the eyeball in the horizontal direction (x direction) and the vertical direction (y direction) are:
[0152]
(Equation 16)
And is a function of the pupil diameter rp. Here, rx is a constant, and kx, ky, b0x, and b0y are calibration data. The method of obtaining the line-of-sight calibration data will be described later.
[0153]
In addition, the reliability of the coordinates of the line of sight calculated using the equations (5), (6), (15), and (16) is changed according to the reliability of the line of sight calibration data. When the coordinates of the line of sight on the
[0154]
The line-of-sight detection flowchart shown in FIG. 9 is also effective in the line-of-sight calibration mode. If it is determined in S201 that the gaze detection is in the calibration mode, then it is determined whether or not the current gaze detection is the first gaze detection in the calibration mode (S220).
[0155]
If it is determined that the current line-of-sight detection is the first line-of-sight detection in the calibration mode, ambient brightness is measured to set the CCD-EYE accumulation time and the IRED illumination power ( S203). The subsequent operation is as described above.
[0156]
If it is determined that the current line-of-sight detection is the second or more line-of-sight detection in the calibration mode (S201), the CCD-EYE accumulation time and the IRED illumination power use the previous values, and immediately the IRED. And the accumulation of CCD-EYE is started (S206).
[0157]
In the gaze calibration mode and when the number of gaze detection times is the second or more (S207), the same area as the CCD-EYE reading area is used as the previous area, so that the CCD-EYE is immediately stored as soon as the accumulation of the CCD-EYE is completed. Is executed (S209). The subsequent operation is as described above.
[0158]
In the flow chart of the eye gaze detection shown in FIG. 9, the variable at the time of returning to the main routine is the coordinates (x, y) of the eye gaze on the focus plate in the case of the normal eye gaze detection. In the case of line-of-sight detection in the above, the rotation angle (θx, θy) of the optical axis of the eyeball of the photographer. The other variables such as the reliability of the detection result, the CCD-EYE accumulation time, and the CCD-EYE reading area are common.
[0159]
In the present embodiment, photometric information detected by the
[0160]
12 to 15 are flowcharts of the line-of-sight calibration, and FIGS. 17 to 19 show the display states of the
[0161]
In FIG. 12, when the photographer simultaneously presses the mode buttons 45b and 45c, the mode is set to the line-of-sight calibration mode, the
[0162]
FIG. 11 shows the types of calibration data stored in the EEPROM 100a of the
[0163]
The initial value of the calibration data is set to a value such that the line of sight is calculated using standard eyeball parameters. In addition, it also has a flag indicating whether the photographer uses spectacles and the degree of reliability of the calibration data. The initial value of the flag indicating the presence or absence of spectacles is set to “1” as if the spectacles are used, and the initial value of the reliability flag of the calibration data is set to “0” so as not to be reliable. ing.
[0164]
The currently set calibration mode is displayed on the
[0165]
At this time, if the calibration data of the set calibration number is the initial value, the calibration number displayed on the monitor LCD 42 flashes (FIG. 17B), while the calibration is already performed at the set calibration number. When the calibration number different from the initial value is included in the EEPROM address corresponding to the calibration number, the calibration number displayed on the
[0166]
As a result, the photographer can recognize whether or not each of the currently set calibration numbers already contains calibration data. Also, as shown in FIG. 17A, the initial value of the calibration data number is set to “1”.
[0167]
Returning to FIG. 12, the timer set in the
[0168]
When the photographer rotates the electronic dial 205, the
[0169]
First, when the electronic dial 205 is rotated clockwise, it changes in the order of “CAL-1” → “CAL-2” → “CAL-3” → “CAL-4” → “CAL-5”. The photographer can store the calibration data in any of the five desired calibration numbers.
[0170]
The state shown in FIG. 18 indicates that "CAL-1, 2, 3" already contains calibration data, and "CAL-4, 5" does not contain calibration data, and remains at the initial value. ing. When rotated in the counterclockwise direction, it is displayed in the opposite direction to the direction in FIG.
[0171]
When the photographer selects a desired calibration number while looking at the calibration numbers displayed on the
[0172]
Subsequently, the
[0173]
If the mode is switched to another photographing mode (shutter priority AE) while the calibration numbers “CAL1 to 5” are displayed, the gaze detection is performed using the data of the calibration number, and the aforementioned gaze information is used. You can perform the shooting operation that you have done. At this time, the
[0174]
Here, when the photographer again presses the mode buttons 45b and 45c at the same time, the gaze calibration mode is set, the calibration number used for gaze detection is displayed, and the calibration operation starts.
[0175]
If it is confirmed that the eye-gaze calibration mode is still set, the calibration data number set by the electronic dial 205 is checked again (S304), and the
[0176]
When it is detected that the posture of the camera is at the normal position (S306), the
[0177]
In order to prevent the photographer from starting calibration on the camera side before the photographer is ready to calibrate the gaze, the
[0178]
When the
[0179]
If the ON signal of the switch SW1, which is a trigger signal for starting the line-of-sight calibration, is not input, the camera stands by (S310). When the photographer gazes at the
[0180]
Next, the line-of-
[0181]
Here, the calculation and storage of the rotation angles θx and θy of the eyeball in the calibration mode will be described with reference to the flowchart of FIG. 14 (S312). When the calibration mode of FIG. 9 is confirmed (S214), the number of Purkinje images (P images), which is the result of the Purkinje image state determination (S211) of the number and arrangement of Purkinje images, is confirmed (S402).
[0182]
When the number of P images is four, that is, in the 4P image state, as described above, the rotation angles θx and θy are calculated from the Purkinje images P1, P2, P3, and P4 as θ4px and θ4py (S406), and θ4px and θ4py. Is determined to be within a predetermined range (S406a), and if the value is within the predetermined range, the calibration data in the EEPROM 100a is stored in the address of the portion corresponding to the
[0183]
If θ4px and θ4py are out of the predetermined range, it is determined that the target is not gazing and the rotation angle of the eyeball is inappropriate and is not stored in the EEPROM 100a. Further, θ2px and θ2py are calculated from the Purkinje images P1 and P2 (S410), and it is checked whether θ2px and θ2py are within a predetermined range (S406a). If the values are within the predetermined range, calibration of the EEPROM 100a is performed. The data is stored at the address of the portion corresponding to the
[0184]
When the number of P images is three, that is, in the 3P image state, as described above, the rotation angles θx and θy are calculated as θ3px and θ3py from the Purkinje images P1, P2, P3, or P4 (S408), and θ3px, It is checked whether θ3py is within the predetermined range (S408a). If the value is within the predetermined range, the data is stored in the address of the portion corresponding to the
[0185]
As described above, in the calibration mode, when the number of P images is three or more, that is, in the 4P image state and the 3P image state, the calibration data of the 2P image state is also calculated from the result of one line-of-sight detection and stored. are doing.
If the number of P images is two, that is, 2P image state, θ2px and θ2py are calculated from the Purkinje images P1 and P2 (S410), and it is checked whether θ2px and θ2py are within a predetermined range (S410a). If the value is within the predetermined range, it is stored at the address of the portion corresponding to the
[0186]
Here, since the
[0187]
Returning to FIG. 13 again, when the rotation angles θx and θy of the eyeball, the pupil diameter rp, and the reliability of each data are stored (S312), the number n of gaze detection is further counted up (S313). Since the photographer's line of sight has some variation, it is effective to execute the line of sight detection a plurality of times for a single target and use the average value to obtain accurate line-of-sight calibration data. .
[0188]
In the present embodiment, the number of gaze detections for one target is set to 10 times. If the number n of gaze detections is not 10 (S314), gaze detection is continued (S311). If the number of sight line detections n is 10, the sight
[0189]
At the same time, the visual
[0190]
If the switch SW1 is ON, the process waits until the switch SW1 is OFF. If the switch SW1 is OFF, the
The line-of-
[0191]
The
[0192]
Further, the visual line detection frequency n is counted up (S321). Further, if the number of gaze detection times n is not 20 (S322), the gaze detection is continued (S319). If the number of sight line detections n is 20, the sight line detection for the
[0193]
At the same time, the visual
[0194]
Subsequently, the
[0195]
The
[0196]
The
[0197]
Further, the visual line detection number n is counted up (S329). Further, if the number of times of gaze detection n is not 30 (S330), the gaze detection is continued (S327). If the number of gaze detection times n is 30, the gaze detection for the
[0198]
Subsequently, the
[0199]
The line-of-
[0200]
The
[0201]
Further, the visual line detection number n is counted up (S337). Further, if the number n of gaze detection times is not 40 (S338), gaze detection is continued (S335). If the number of gaze detections n is 40, the
[0202]
At the same time, the visual
[0203]
Further, gaze calibration data is calculated from the eyeball rotation angles θx and θy and the pupil diameter rp stored in the gaze detection circuit 101 (S345). The outline of the method of calculating the line-of-sight calibration data is as follows.
[0204]
The coordinates of the
[0205]
The X-direction calibration data is obtained by using the data of the
For example, when rpx, rpy ≥ rp, kx, ky = 0 is set,
[0206]
[Equation 17]
[0207]
As described above, (θx1, θy1), (θx2, θy2), (θx3, θy3), and (θx4, θy4) respectively represent the average value of (θ4px, θ4py) in the 4P image state and the 3P image state. There is an average value of (θ3px, θ3py) in the 2P image state, and there is an average value of (θ2px, θ2py) in the 2P image state. Calculation of two calibration values of 3P image or more calibration data and 2P image calibration data (S340) This will be described with reference to the flowchart of FIG.
[0208]
First, the number of (θ2px, θ2py) data in the 2P image state of the
If the data of (θ2px, θ2py) is 7 or more, the number of data of (θ4px, θ4py) in the 4P image state of the
[0209]
The reason why the calibration data for the 4P image state and the 3P image state are collectively used as the calibration data for the 3P image or more is that θ4py and θ3py, which are the eyeball rotation angles θy, are calculated by the same equation (4) ″. Since the difference between the two values was extremely small, the same calibration data was used and the data address portion was reduced.
[0210]
Next, the calibration data of the 2P image state is calculated (S504). The average value of (θ2px, θ2py) in the 2P image state is used for (θx1, θy1), (θx2, θy2), (θx3, θy3), and (θx4, θy4) for obtaining the calibration data.
[0211]
As described above, one calibration data calculation calculates two pieces of calibration data of a 3P image or more and calibration data of a 2P image state. If the number of data of (θ4px, θ4py) is 4 or less, there is no reliability in calculating the calibration data of the 3P image or more, and only the calibration data of the 2P image state is calculated (S504).
[0212]
Returning to FIG. 13 again, the timer is reset after the calculation of the gaze calibration data (S340) or after the end of the gaze detection (S341). The
[0213]
If the calculated gaze calibration data falls within the range of general individual differences, it is determined to be appropriate.On the other hand, if the calculated gaze calibration data greatly deviates from the general range of individual differences, The calculated line-of-sight calibration data is determined to be inappropriate.
[0214]
If the calculated line-of-sight calibration data is determined to be inappropriate (S349), the
[0215]
After a warning sound from the sounding body and a warning display on the
[0216]
If the calculated line-of-sight calibration data is appropriate (S342), the line-of-
[0219]
The line-of-
[0218]
After a series of line-of-sight calibration is completed, the camera waits until the photographer operates the electronic dial 205 or the
[0219]
If the photographer operates the
[0220]
In the present embodiment, an example has been described in which the number of times of gaze detection is set to 10 times when gazing at a single target, and the gaze is calibrated. .
[0221]
In the present embodiment, in order to increase the line-of-sight detection accuracy, when the line of sight of the photographer is detected by illuminating the eyeball of the photographer with four IREDs, in principle, four Purkinje, which are virtual images of the IRED in FIG. Although an image is supposed to be obtained, even if the illumination light source is blocked by the upper eyelid and eyelashes of the photographer and the Purkinje image corresponding to the IRED is not obtained due to the photographing conditions and individual differences, FIG. The number and the arrangement state of the Purkinje images are determined (S211 in FIG. 9), and two pieces of calibration data of 3P image or more and 2P image calibration data which are calibration data corresponding to the state are prepared in advance. , The selection and use can improve the line-of-sight detection accuracy.
[0222]
In addition, from the 16 states of the number and the arrangement of the Purkinje images in FIG. 10, four kinds of states are determined based on the lower two P images from two of the existence probability of the Purkinje image and the eye-gaze detection calculation accuracy. In this way, the gaze detection calculation, that is, the gaze detection speed is increased.
[0223]
The effects of the present embodiment will be described with reference to selection of a focus detection point mark in detecting a photographer's line of sight. When the photographer gazes at the center focus
[0224]
When the eyeball of the photographer is illuminated by four IREDs as in the present embodiment, four Purkinje images are obtained, and the accuracy in the y direction becomes equal to the accuracy in the x direction. The focus
[0225]
Here, even if the illumination light source is blocked by the upper eyelids and eyelashes of the photographer and a Purkinje image corresponding to the IRED is not obtained, if the three Purkinje images are obtained, the accuracy in the y direction is almost equal. By making the accuracy equal to the accuracy in the x direction, the photographer can make the focus
[0226]
In the vertical position, FIG. 3B is rotated 90 degrees, and five focus detection point marks 301, 302, 303, 304, and 305 are arranged in the y direction of the photographer, and y The improvement in the accuracy of the direction shows an effect. Further, even when only the lower two Purkinje images are obtained, the line of sight is detected based on the calibration data corresponding to the two Purkinje images, so that different Purkinje image states (four, three Purkinje images) are obtained. Use of the calibration data prevents a decrease in detection accuracy.
[0227]
Further, by simplifying the number and arrangement of the Purkinje images, it is possible to more quickly select a focus detection point mark. Normally, in calibration in which the four
[0228]
Specifically, as shown in FIG. 15, at the time when the collection of the calibration data is completed, the average value of (θ4px, θ4py), (θ3px, θ3py) and (θ2px, θ2py) stored in each address is obtained. And 2P image calibration data and 2P image calibration data.
[0229]
Thus, the photographer can obtain two pieces of calibration data without performing any new calibration data acquisition operation or operation, and in the same calibration data acquisition operation as the conventional calibration operation once. Calibration data of two or more 3P images and 2P image calibration data for improving the visual line detection accuracy can be acquired.
[0230]
Then, since the calculation of the rotation angles of the optical axis of the eyeball, θx, and θy is the same equation for the 4P image state and the 3P image state, the calibration data for the 4P image state and the 3P image state is replaced with the calibration data for the 3P image or more. By simplifying the operation, the data address part was reduced.
[0231]
In FIG. 15, by confirming the number of data of (θ4px, θ4py), (θ3px, θ3py) and (θ2px, θ2py) stored at each address, the effect of not calculating the unreliable calibration data is shown. It has gained. However, at the time of calibration, when the illumination light source is blocked by the upper eyelids and eyelashes of the photographer, a Purkinje image corresponding to the IRED is not obtained, and only the lower two Purkinje images are obtained, the above (θ2px, θ2py) , Ie, only the 2P image calibration data (FIG. 15, S504) is stored in the address (FIG. 11) of the EEPROM 100a.
[0232]
Here, at the time of gaze detection, obtaining three or four P images of the photographer by illuminating the four IREDs means that the corresponding 3P image or more calibration data (FIG. 15, S503) Does not make sense because there is no. That is, it does not make sense to illuminate four IREDs in total, two upper and two lower, in order to obtain four P images.
[0233]
Therefore, when the line of sight is detected, as calibration data existence confirmation means in S203 of FIG. 9 and S2401 of FIG. 25, calibration data of 3P image or more stored in each address (FIG. 11) of the EEPROM 100a (FIG. 15, S503). ) And the 2P image calibration data (FIG. 15, S504) are the initial values or not (S2042 in FIG. 25). However, only the 2P image calibration data is the initial value, that is, the 2P image calibration data. Is confirmed to exist.
[0234]
Therefore, when it is confirmed that there is only the 2P image calibration data, as the illumination state switching means, if the photographer is naked at the camera normal position and the lower and
[0235]
By checking the existing calibration data, it is possible to detect the line of sight without unnecessary illumination of the IRED.
[0236]
【The invention's effect】
As described above, when the line of sight of the observer is detected, a plurality of illumination light sources project light to the anterior segment of the photographer's eyeball, and a corneal reflection image (Purkinje image, P Image), calibration data according to the number of corneal reflection images and the arrangement state thereof, that is, correction data obtained by the line-of-sight correction means, are obtained in advance, and the number of corneal reflection images and the arrangement state are determined by the judgment means, and are selectively used. By doing so, the number of corneal reflection images at the time of gaze detection of the observer and the improvement of gaze detection accuracy according to the arrangement state thereof are enabled, and the plurality of different, the number of the corneal reflection images and the arrangement state respectively By confirming the presence of the eye-gaze correction data corresponding to the number of the corneal reflection images corresponding to the existing gaze-correction data and the arrangement state thereof at the time of gaze detection, the minimum number of the plurality of illuminations is required. Illuminates the light source And at all times without waste, enabling the optimum plurality of illumination light sources.
[0237]
In addition, a plurality of calibration data according to the number of corneal reflection images and the arrangement state, ie, the acquisition operation of the line-of-sight correction unit, without causing the observer to perform the operation of acquiring a new line-of-sight correction unit, without performing an operation. It is possible to acquire the correction data obtained by the line-of-sight correction means.
[0238]
Furthermore, it is possible to improve the eye-gaze detection accuracy by determining that the method of calculating the eyeball rotation angle of the observer differs depending on whether the number and arrangement of the reflected images from the cornea are one-dimensional or two-dimensional.
[0239]
Furthermore, even if the number and arrangement of the reflected images from the cornea are different, if the method of calculating the eyeball rotation angle of the observer is the same, the same calibration data, i.e., the correction data obtained by the line-of-sight correction means, is used. By using this, it is possible to simplify the calculation and reduce the size of the data storage unit.
[0240]
In addition, it is preferable that the improvement in the line-of-sight detection accuracy is used for a function of selecting at least one ranging point.
[0241]
As described above, by projecting to the anterior segment of the eyeball of the photographer who looks into the observation screen from the plurality of illumination light sources, the rotational angle of the optical axis of the photographer's eyeball is detected from the reflection image from the cornea and the pupil imaging position, In the line-of-sight detection means for detecting the line of sight of the observer from the rotation angle, the line-of-sight detection accuracy can be improved under all conditions of the observer, and the line-of-sight detection can be performed with the optimum and minimum illumination energy.
[Brief description of the drawings]
FIG. 1 is a schematic view of a main part of a camera body according to an embodiment.
FIG. 2A is a top view of the appearance of the camera body of the embodiment.
FIG. 2B is a rear view of the appearance of the camera body of the embodiment.
FIG. 3 is an explanatory diagram of a display state in a finder visual field of FIG. 1;
FIG. 4 is a block diagram of a main part of the electric circuit of the present embodiment.
FIG. 5 is a diagram showing an operation sequence of the camera according to the embodiment.
FIG. 6 is an explanatory diagram of a focus detection point selection mode of the embodiment.
FIG. 7A is an explanatory diagram of a gazing point area in a finder visual field;
FIG. 6B is an explanatory diagram showing a relationship between a focus detection point selection and a gazing point area in a finder visual field.
FIG. 8A is an explanatory diagram of an
(B) It is explanatory drawing of the
FIG. 9 is a flowchart of gaze detection.
FIG. 10 is a diagram illustrating the state of a Purkinje image.
FIG. 11 is an explanatory diagram of calibration data numbers and calibration data.
FIG. 12 is a first flowchart of calibration.
FIG. 13 is a second flowchart of the calibration.
FIG. 14 is a flowchart for calculating θx and θy in calibration and storing data.
FIG. 15 is a flowchart of calibration data calculation.
FIG. 16 is an explanatory diagram of a target in (a), (b), (c), and (d) calibration.
FIG. 17 is a first explanatory diagram of the display inside and outside of the viewfinder for calibration.
FIG. 18 is a second explanatory diagram of the display inside and outside of the viewfinder for calibration.
FIG. 19 is a third explanatory view of the display inside and outside the viewfinder for calibration.
FIG. 20 is an explanatory view of a conventional (two lower IRED) gaze detection principles.
FIGS. 21A and 21B are diagrams illustrating an eyeball image.
FIG. 22A is an explanatory diagram of a conventional eyeball image and Purkinje image arrangement state.
(B) It is an explanatory view (xz plane) of the conventional gaze detection principle.
(C) It is explanatory drawing (yz plane) of the principle of two lower visual axis detections of the conventional IRED.
FIG. 23 (a) is an explanatory diagram of an arrangement state of an eyeball image and a Purkinje image in three IREDs.
FIG. 3B is an explanatory diagram (yz plane) of the line of sight detection principle in three IREDs.
FIG. 24 is an explanatory diagram of an eyeball image and a Purkinje image arrangement state in four IREDs.
FIG. 25 is an IRED selection flowchart.
[Explanation of symbols]
7: Focus plate
7a: This micro prism array
12: Light receiving lens
13a to 13h: Illumination light source (light emitting means) for photographer's
14: Image sensor having a two-dimensional array of photoelectric elements such as CCDs
15: Photographer's eye
16: Cornea
17: Iris
101: Eye-gaze detection circuit
301, 302, 303, 304, 305, 306, 307: distance measuring point mark
200: This camera
300: In viewfinder observation screen
L3 · T to R3 · B: Gaze point area
S211: Purkinje image state determination
Claims (14)
眼球の個人差による、前記視線検出手段で得られる視線の検出誤差を補正する視線補正データを取得する視線補正手段とを有し、
前記視線補正手段は、異なる複数の前記角膜反射像の数とこの配置状態それぞれに対応する視線補正データとを算出して、この視線補正データを記憶手段に記憶させる機能を具備し、
前記視線検出手段による視線検出時に、前記角膜からの反射像の数と配置状態を判別する判別手段と、この判別手段の判別結果に応じて前記憶手段に記憶された視線補正データを、視線検出の際の補正データとして選択する選択手段とを具備し、
更に、前記視線補正データの存在状態確認手段を具備し、
視線検出時、前記視線補正データの存在状態確認手段の結果に応じて、照明状態の切替え手段を有することを特徴とする視線検出装置。By projecting from a plurality of illumination light sources to the anterior segment of the eye of the observer looking into the observation screen, the rotational angle of the optical axis of the observer's eye is detected from the reflected image from the cornea and the pupil imaging position. Gaze detection means for detecting the gaze of the observer from the corner,
Eye-gaze correction means for acquiring eye-gaze correction data for correcting a gaze detection error obtained by the gaze detection means due to individual differences in the eyeballs,
The visual axis correction means has a function of calculating the number of different corneal reflection images and visual axis correction data corresponding to each of the arrangement states, and storing the visual axis correction data in the storage means.
A determining means for determining the number and arrangement of the reflected images from the cornea when the gaze is detected by the gaze detecting means; and correcting the gaze correction data stored in the pre-storage means in accordance with a result of the determination by the determining means. Selecting means for selecting as correction data at the time of
Furthermore, the apparatus further comprises means for checking the presence of the eye-gaze correction data,
A gaze detection device comprising: a gaze correction unit that switches an illumination state according to a result of the gaze correction data existence state check unit when the gaze is detected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002361220A JP2004188017A (en) | 2002-12-12 | 2002-12-12 | Gaze tracking system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002361220A JP2004188017A (en) | 2002-12-12 | 2002-12-12 | Gaze tracking system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004188017A true JP2004188017A (en) | 2004-07-08 |
Family
ID=32760054
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002361220A Pending JP2004188017A (en) | 2002-12-12 | 2002-12-12 | Gaze tracking system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004188017A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006123755A1 (en) * | 2005-05-19 | 2006-11-23 | Olympus Corporation | Focus information acquisition device |
KR100820639B1 (en) | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | System and method for 3-dimensional interaction based on gaze and system and method for tracking 3-dimensional gaze |
CN101344919B (en) * | 2008-08-05 | 2012-08-22 | 华南理工大学 | Sight tracing method and disabled assisting system using the same |
-
2002
- 2002-12-12 JP JP2002361220A patent/JP2004188017A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006123755A1 (en) * | 2005-05-19 | 2006-11-23 | Olympus Corporation | Focus information acquisition device |
JP2006323172A (en) * | 2005-05-19 | 2006-11-30 | Olympus Corp | Focusing information obtaining apparatus |
KR100820639B1 (en) | 2006-07-25 | 2008-04-10 | 한국과학기술연구원 | System and method for 3-dimensional interaction based on gaze and system and method for tracking 3-dimensional gaze |
US8032842B2 (en) | 2006-07-25 | 2011-10-04 | Korea Institute Of Science & Technology | System and method for three-dimensional interaction based on gaze and system and method for tracking three-dimensional gaze |
CN101344919B (en) * | 2008-08-05 | 2012-08-22 | 华南理工大学 | Sight tracing method and disabled assisting system using the same |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6456788B1 (en) | Optical apparatus and camera provided with line-of-sight detecting device | |
US6674964B2 (en) | Visual axis detecting apparatus | |
US6507702B2 (en) | Device having sight line detecting function | |
US5983030A (en) | Optical apparatus having a visual axis detector | |
JP2004129927A (en) | Glance detector | |
JP2004188017A (en) | Gaze tracking system | |
JP2004008323A (en) | Optical device with visual axis function | |
JP2005140880A (en) | Optical apparatus and camera | |
JP2002301030A (en) | Equipment to detect sight line | |
JP3184634B2 (en) | Optical device having line-of-sight detection device | |
JP2005249831A (en) | Optical equipment having line-of-sight detector | |
JP3605081B2 (en) | Eye gaze detection device | |
JP3530647B2 (en) | Eye gaze detecting device and optical device | |
JP3219491B2 (en) | Eye gaze detection device | |
JP2003339642A (en) | Visual line detector and optical apparatus having the same | |
JP3391892B2 (en) | Eye gaze detecting device, optical device, and eye gaze detecting method | |
JP3309439B2 (en) | Optical device | |
JPH0634874A (en) | Optical device with glance detecting device | |
JP3372646B2 (en) | Optical device having line-of-sight detection device | |
JP3605080B2 (en) | Eye gaze detection device | |
JP2003084193A (en) | Optical device | |
JP3211427B2 (en) | Eye gaze detection device | |
JP3332581B2 (en) | An optical device, a camera, a line-of-sight detection device, a line-of-sight detection method, and a relative position determination method between an eyepiece and an eyeball position. | |
JP2000039551A (en) | Camera | |
JP2002287011A (en) | Optical device and camera |