JP2004129927A - Glance detector - Google Patents
Glance detector Download PDFInfo
- Publication number
- JP2004129927A JP2004129927A JP2002298919A JP2002298919A JP2004129927A JP 2004129927 A JP2004129927 A JP 2004129927A JP 2002298919 A JP2002298919 A JP 2002298919A JP 2002298919 A JP2002298919 A JP 2002298919A JP 2004129927 A JP2004129927 A JP 2004129927A
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- detection
- observer
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Eye Examination Apparatus (AREA)
- Focusing (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は視線検出手段を有した光学装置に関し、特に撮影系による被写体像が形成されている観察面(ピント面)上のファインダー系を介して観察者(撮影者)が観察している注視点方向の軸、いわゆる視線(視軸)を、観察者の眼球面上を照明したときに得られる眼球の反射像を利用して検出し、各種の撮影操作を行うようにした視線検出手段を有した光学装置に関するものである。
【0002】
【従来の技術】
従来より観察者が観察面上のどの位置を観察しているかを検出する、いわゆる視線(視軸)を検出する装置(例えばアイカメラ)が種々提案されている。
【0003】
例えば特開平1−274736号公報においては、光源からの平行光束を観察者の眼球の前眼部へ投射し、角膜からの反射光による角膜反射像と瞳孔の結像位置を利用して視軸を求めている。
【0004】
ここで、以下に、視線検出方法の原理から、角膜反射像(虚像;プルキンエ像もしくはP像)の配置状態が、1次元に存在する場合と、2次元に存在する場合では、第一に視線検出演算結果がどう異なるか、第二にそれらの個人差に関する補正係数が異なる点を述べる。
【0005】
図20は視線検出方法の原理説明図である。
【0006】
まず、角膜反射像(虚像;プルキンエ像もしくはP像)の配置状態が、1次元に存在する場合について説明する。
【0007】
各部の名称と記号については、図1、図2と同様である。13a、13bは各々ユーザに対して不感の赤外光を放射する発光ダイオードであり、各光源13a、13bは受光レンズ12の光軸に対してx方向にほぼ対称に配置され、さらにユーザの眼球17を下方(y方向にオフセットした位置)から照明するように配置されている。眼球17で反射した照明光の一部は受光レンズ12を介してCCD14に集光する。17bは角膜、17cは虹彩である。
【0008】
図21(a)はCCD14に投影される眼球像の概略図であり、図21(b)はCCD14の出力ラインからの信号の強度分布を示す図である。
【0009】
以下、上記の各図を用いて視線の検出方法について説明する。
【0010】
IRED13bより放射された赤外光はユーザの眼球17の角膜17bを照射する。このとき角膜17bの表面で反射した赤外光の一部により形成される角膜反射像d(虚像;プルキンエ像もしくはP像)は受光レンズ12により集光され、CCD14上の位置d′に結像する。同様にIRED13aにより放射された赤外光は、眼球17の角膜17bを照射する。このとき、角膜17bの表面で反射した赤外光の一部により形成された角膜反射像e(虚像;プルキンエ像もしくはP像)は受光レンズ12により集光され、CCD14上の位置e′に結像する。
【0011】
また、虹彩17cの端部a、bからの光束は、受光レンズ12を介してCCD14上の位置a′、b′に端部a、bの像を結像する。受光レンズ12の光軸に対する眼球17の光軸の回転角θが小さい場合、虹彩17cの端部a、bのx座標をxa、xbとすると、瞳孔17dの中心位置cの座標xは、
xc≒(xa+xb)/2…(1)
と表される。
【0012】
また、角膜反射像d及びeの中点のx座標と角膜17bの曲率中心oのx座標xoとはほぼ一致する。このため角膜反射像の発生位置d、eのx座標をxd、xe、角膜17bの曲率中心oと瞳孔17dの中心cまでの標準的な距離をLocとすると、眼球17の光軸17aの回転角θxは、
Loc×sinθx≒(xd+xe)/2‐xc…(2)
の関係式を満足する。このため、図21(a)に示した様に、CCD14上に投影された眼球17の各特徴点(角膜反射像及び瞳孔の中心)の位置を検出することにより、眼球17の光軸17aの回転角θを求めることができる。
【0013】
眼球17の光軸17aの回転角は(2)式より、
β×Loc×sinθx≒{(xp0−δx)−xic}×Ptx…(3)
β×Loc×sinθy≒{(yp0−δy)−yic}×Pty…(4)
と求められる。ここで、βは受光レンズ12に対する眼球17の位置により決まる結像倍率で、実質的には2個の角膜反射像(プルキンエ像)の間隔|xd′−xe′|の関数として求められる。
【0014】
また、θxはz‐x平面内での眼球光軸の回転角、θyはy‐z平面内での眼球光軸の回転角である。(xpo,ypo)はCCD14上の2個の角膜反射像の中点の座標、(xic,yic)はCCD14上の瞳孔中心の座標である。Ptx,PtyはCCD14のx方向およびy方向の画素ピッチである。δx,δyは角膜反射像の中点の座標を補正する補正項であり、ユーザの眼球を平行光ではなく発散光にて照明していることにより生じる誤差を補正する補正項、及び、δyに関しては、ユーザの眼球を下まぶたの方から発散光にて照明していることにより生じるオフセット成分を補正する補正項も含まれている。
【0015】
ユーザの眼球光軸17aの回転角(θx,θy)が算出されると、ユーザの観察面上の注視点(x,y)は、
x[mm]=m×ax×(θx+bx)…(5)
y[mm]=m×ay×(θy+by)…(6)
と求められる。ここで、x方向は観察者に対して水平方向、y方向はユーザに対して垂直方向を示している。mは眼球17の回転角から観察面上の座標に変換する変換係数であり、ax,bx、ay,byは注視点キャリブレーション係数で、ユーザの眼球17の回転角と観察面上の注視点を一致させるための補正係数である。
【0016】
角膜反射像(プルキンエ像)の中点の位置の補正項δx、δyの算出方法を図22(a)、(b),(c)を用いて説明する。
【0017】
接眼レンズ射出面と視線検出光学系の光軸(z軸)との交点を原点に設定する。IRED1の座標を(−Sxi1,Syi,Szi)、IRED2の座標を(Sxi1,Syi,Szi)、撮影者の眼球の角膜の曲率中心Oの座標を(Sxc,Syc,Szc)とする。
【0018】
プルキンエ像dとeの中点P0は、IRED1,2の中点に配置された1個のIREDによって発生するプルキンエ像の位置と等価である。視線算出式は2つのプルキンエ像の中点P0の座標に基づいているため、以降IRED1とIRED2の中点(0,Si,Zi)と角膜の曲率中心Oとの距離をLとすると、
【外1】
【0019】
アッベの不変量より、角膜表面からプルキンエ像の発生する位置までの距離Kは、
【外2】
【0020】
と表される。また、プルキンエ像P1,P2の中点P0のx方向のシフト量δx(CCD座標系でのシフト量;眼球座標系でのΔx)は、
【外3】
【0021】
の関係を満足する。上式を展開するとシフト量δxは、
【外4】
【0022】
となる。同様にプルキンエ像P1,P2の中点P0のy方向のシフト量δyは、
【外5】
【0023】
ここで、視線検出光学系の結像倍率βを、接眼レンズ射出面(原点)からの距離Szの2次関数として定義すると、
β=b1・Sz2+b2・Sz+b3…(12)
となる。係数b1〜b3は、所定距離における結像倍率を光学シミュレーションにて求め、それらの値を2次近似することにより算出される。
【0024】
プルキンエ像の結像倍率βpは、角膜の頂点からのz方向の距離をSzpとすると、
βp=b1(−Szp−Szc)2+b2(−Szp−Szc)+b3…(13)
となる。
【0025】
以下、Szp、Szcを求めるため、算出ルーチンを複数回実行し、Szp、Szcを収束させる。
【0026】
ここで、式(9)と式(11)を比較した場合、式(11)では、
【外6】
【0027】
の1項が加えられている。
【0028】
これは、図22(b)に対して、図22(c)のごとく、y軸方向にz軸を挟んで、IREDが存在しないため、2次元に、プルキンエ像が無いことで生じている項である。即ち、y方向のシフト量δyは、プルキンエ像P1,P2の中点P0から、直接的に求めることが出来ない。
【0029】
このため、y方向のシフト量δyは、x方向のシフト量δxに対して、前述の係数b1〜b3の2次近似近似をはじめとして、収束計算での他の近似計算誤差、マイコン上の量子化誤差などが加わるため、精度が劣るという欠点を有する。
【0030】
したがって、δxを含む式(3)、δyを含む式(4)で求められるユーザの眼球光軸17aの回転角(θx,θy)において、θxに対して、θyは精度が劣るという欠点を有する。
【0031】
δxを含む式(3)、δyを含む式(4)から、撮影者の眼球回転角θx、θyが算出されると、式(5)、式(6)からの個人差に関するax,bx、ay,byの補正係数を与え、ピント板上の座標が算出される。
【0032】
ここで、θyの精度が劣るという欠点を回避するために、図2(b)のごとく、発光ダイオード13a、13bに対して、y軸方向にz軸を挟んで、13eまたは、13fを更に照明することで、新たな角膜反射像(虚像;プルキンエ像もしくはP像)を得ることで、即ち、2次元にプルキンエ像が配置された状態を得ることで、δyをδxと同様に、求めることで、θyを、θxと同様の精度にする必要がある。
【0033】
これを、発光ダイオード13cの照射を追加した図23で説明する。図23(a)は、図21(a)と同様に、CCD14上に投影された眼球17の各特徴点(角膜反射像及び瞳孔の中心)の位置を示したもので、発光ダイオード13cに対応する新たな角膜反射像P3が、座標(Xe″,Ye″)に、発光ダイオード13a、13bに対応する従来の角膜反射像P1、P2の座標(Xe′,Ye′)、(Xd′,Yd′)のy座標から構成されるy方向P像中心が座標(xp1,yp1)にある。図23(b)は、図22(c)と同じy−z平面眼球座標図で表したものである。
【0034】
式(4)は、
β×Loc×sinθy≒{(yp1−δy)−yic}×Pty…(4)″
で表され、補正項δyに関しては、
【外7】
で表され、y方向のシフト量δyが、式(3)のx方向のシフト量δxと同様の式であることが判る。
【0035】
ここで、従来の発光ダイオード13a、13bでの角膜反射像で得られる式(11)のδyと、新たな角膜反射像を得ることで算出される式(10)″のδyの値は、当然異なるため、得られるθyの値も異なる。
【0036】
これは、観察者が同一注視点を観察した場合、角膜反射像の配置状態が、1次元である場合と、2次元である場合では、得られるθyの値も異なり、前述の如く、発光ダイオード13cの照射を追加して2次元にプルキンエ像が配置された状態で得られるθyの方が精度が良いことを示す。
【0037】
次に、眼球回転角θx、θyから、算出される式(5)、式(6)で与える個人差に関するax,bx、ay,byの補正係数も、同一個人であっても、発光ダイオード13a、13bで得られる角膜反射像から得られるax,bx、ay,byに対して、13eまたは、13fを更に照明し、新たな角膜反射像を加えて得られるay,byが異なる。
【0038】
以上が、視線検出原理である。
【0039】
この原理に対して、実際の視線検出において、観察者の観察条件、個人差からの2つの要因が加わり、次の3つの問題がある。
【0040】
一つは、観察者が同一点の注視を複数回行うと、本来視線検出結果は、同一となるが、実際には、結果にバラツキを生じる。これは、生理的な固視微動(意識としては、一点を注視していても、実際の注視点は、微動している)、光学装置の保持方法等に起因する個人差である。
【0041】
ここで、眼球回転角θx、θyから、算出される式(5)、式(6)で与える個人差に関するax,bx、ay,byの補正係数の取得は、同一個人の同一点の注視の複数回の視線検出から所定の演算で行われるが、補正係数同様に、同一点の注視を行っても、その視線検出結果のバラツキの大小もまた、観察者の個人差を有する。
【0042】
即ち、第1の問題として、現状、複数回の視線検出から所定の演算で、式(5)、式(6)で与える個人差に関するax,bx、ay,byの補正係数の取得は可能であっても、個人差によるその値のバラツキを考慮されていない。
【0043】
二つ目は、観察者の視線検出を行う際、必ずしも、照明光源に対応したプルキンエ像が得られるわけでは無い。特に、上側の発光ダイオード13eに対応する上側の角膜反射像は、観察条件、個人差によって、観察者の上瞼、睫毛で、照明光源が遮られることに起因する。前述の新たな照明光源を追加したとしてもそれに対応したプルキンエ像が得られるとは限らない。
【0044】
そこで、第2の問題として、観察者が同一注視点を観察し、視線検出を行った場合、前述の新たな照明光源を追加に対応したプルキンエ像が得られないと、得られるθyの値が異なり、注視点位置の演算結果のy方向精度が低下する。
【0045】
また、第3の問題として、前述のごとく、個人差に関するax,bx、ay,byの補正係数も、前述の角膜反射像の状態を考慮せず、一様に与えれば、y軸方向に関しての精度に問題が残る。
【0046】
そこで、従来の発光ダイオード13a、13bに対し、発光ダイオード13e、13fを追加して、照明に用いる提案がある。この様に行えば、観察条件、個人差によって、観察者の上瞼、睫毛で、照明光源が遮られたとしても、少なくとも発光ダイオード13e、13fに対応する角膜反射像のいずれかを得られる確率を増したものである。
【0047】
発光ダイオード13a、13b、13e、13fに対応して、3つの角膜反射像が得られた場合、前述のごとく、個人差に関するax,bx、ay,byの補正係数を正しく与えれば、眼球回転角θx、θyの精度は、同等となる。
【0048】
図24は、図21(a)、図23(a)と同様に、この時の4つの角膜反射像が得られた場合のCCD14上に投影された眼球17の各特徴点(角膜反射像及び瞳孔の中心)の位置を示したものである。
【0049】
発光ダイオード13a、13b、13e、13fに対応する4つの角膜反射像が得られた場合、図21、図23に対して、x方向、y方向のP像中心位置は、各々2つの角膜反射像の座標でなく、4つの角膜反射像の座標から算出される為、個人差に関するax,bx、ay,byの補正係数を正しく与えれば、眼球回転角θx、θyの精度は、θyばかりで無く、θxも更に向上する。
【0050】
前述の第2、3の問題に対しては、従来提案として、特開平xx−xxxxx(キヤノン、大谷本人提案、整理番号4310030)にて、1回の個人差補正係数の取得動作で、角膜反射像の数、配置状態に応じたax,bx、ay,byの補正係数を取得し、観察者の視線検出時、角膜反射像の数、配置状態を判別し、対応した前記補正係数を与え、精度向上を図っている。
【0051】
しかし、第1の問題である観察者がある点を注視した場合、その視線検出結果に対して、バラツキの個人差を考慮した従来提案は無い。
また、特開平8−152552号公報(オリンパス)では、各々のフォーカスエリアに対し、視線検出情報からの注視点情報とその視線情報の信頼性から、更に、測距情報から、重み付けを行い、各々の総和から最も得点の高いフォーカスエリアを測距点として選択し、焦点調節を行っている。
【0052】
しかしながら、前段の視線検出において、「視線検出情報からの注視点情報と視線情報の信頼性」では、角膜反射像の数、配置状態が考慮されていない点と、個人差のバラツキが考慮されていない点から、第1、第2、第3の問題に対しての提案では無い。
【0053】
【発明が解決しようとする課題】
そこで、観察者の眼球の前眼部へ投射し、眼球像から特徴点(角膜反射像及び瞳孔の中心)を得るために、y軸方向にも、新たな角膜反射像(虚像;プルキンエ像もしくはP像)を得ることとした照明光源を設けた視線検出手段において、観察者の視線検出精度に、観察者の視線検出結果に個人差を考慮し、観察者の意図した注視点領域を決定可能とすることが課題である。
【0054】
次に、前記観察者の視線である注視点領域から、観察画面上、2次元に配置された複数のフォーカスエリアから、少なくとも1つのフォーカスエリアを選択可能とすることが課題である。
【0055】
【課題を解決するための手段】
複数の焦点検出点を選択するにあたって、y軸方向にも、新たな角膜反射像(虚像;プルキンエ像もしくはP像)を得ることとした照明光源を設けた視線検出手段において、視線検出時、第1に、角膜反射像数をカウントする手段と角膜反射像の配置状態を判断する角膜反射像状態判断手段を設けた。
【0056】
第2に、視線補正手段(キャリブレーション)で、公知の特開平xx−xxxxx(キヤノン、大谷本人提案、整理番号4310030)の角膜反射像数をカウントする手段と角膜反射像の配置状態を判断する角膜反射像状態に応じた個人差に関するax,bx、ay,byの補正係数の取得にあたって、その補正係数のバラツキを同時に、取得する手段を設けた。
【0057】
第3に、前記角膜反射像状態判断手段の結果、即ち、角膜反射像の配置状態から、視線検出演算の結果である注視点位置を算出した上で、前記視線補正手段(キャリブレーション)で、取得した補正係数のバラツキを観察者の視線の注視点位置が、どの程度バラツクかの個人差を加味した注視点領域を決定する手段を設ける。
【0058】
第4に、前記注視点領域に含まれる複数の焦点検出点から少なくとも1つのフォーカスエリアを選択する手段を設けた。
【0059】
その作用として、第1、第2の手段とで、観察者の視線検出で、得られた角膜反射像状態に応じ、かつ、観察者の個人差を考慮して、観察者の視線の注視点位置を精度良く、求めることが可能である。
【0060】
第2、第3の手段から、精度良く求められた前記観察者の視線の注視点位置に対して、個人差に起因する視線検出のバラツキを考慮した注視点領域を求めることが可能となる。
【0061】
第4の手段から、観察者の意図したフォーカスエリアを選択可能となる。
【0062】
【発明の実施の形態】
本実施例のカメラは、撮影者の眼球の光軸の回転角を検出し、該回転角から撮影者の視線を算出する視線検出装置を有するオートフォーカスカメラである。
【0063】
図1は本発明にかかる一眼レフカメラの要部概略図である。
【0064】
図1において、図中1は撮影レンズであり、図1では便宜上2枚のレンズ1a、1bで示したが、実際は多数のレンズから構成されている。2は主ミラーで、観察状態と撮影状態に応じて撮影光路へ斜設されあるいは退去される。3はサブミラーで、主ミラー2を透過した光束をカメラボデイの下方へ向けて反射する。4はシャッタ、5は感光部材で、銀塩フィルムあるいはCCDやMOS型等の固体撮像素子よりなっている。
【0065】
6は焦点検出装置であり、結像面近傍に配置されたフィールドレンズ6a、反射ミラー6b及び6c、2次結像レンズ6d、絞り6e、複数のCCDからなるラインセンサ6f等から構成されている周知の位相差方式を採用している。同図の焦点検出装置6は、図3に示すようにファインダー観察画面内300の複数の領域(7個の焦点検出点マーク301から307)は、焦点検出領域(以下、焦点検出点)と対応し、焦点検出可能なように構成されている。
【0066】
7は撮影レンズ1の予定結像面に配置されたピント板、8はファインダ光路変更用のペンタプリズム、9、10は観察画面内の被写体輝度を測定するための結像レンズと測光センサで、結像レンズはペンタプリズム8内の反射光路を介してピント板7と測光センサを共役に関係付けている。
【0067】
次に、ペンタプリズム8の射出面後方には光分割器11aを備えた接眼レンズ11が配され、撮影者の眼15によるピント板7の観察に使用される。光分割器11aは、例えば可視光を透過し赤外光及び赤外寄りの可視光(赤色光)を反射するダイクロイックミラーより成っている。12は受光レンズ、14はCCD等の光電素子列を2次元的に配したイメージセンサで受光レンズ12に関して所定の位置にある撮影者眼15の瞳孔近傍と共役になるように配置されている。
【0068】
イメージセンサ14と受光レンズ12は受光手段の一要素を構成している。13a〜13d、13e〜13hは各々撮影者の眼15の照明光源(投光手段)であるところの8個の赤外発光ダイオード(図では、2個のみ図示)で、接眼レンズ11の回りに配置されている。
【0069】
21は、明るい被写体の中でも視認出来る高輝度のスーパーインポーズ用LEDで、発光された光は、投光用プリズム22を介し、主ミラー2で反射してピント板7の表示部に設けた微小プリズムアレー7aで垂直方向に曲げられ、ペンタプリズム8、接眼レンズ11を通って撮影者の眼15に達する。
【0070】
そこで、ピント板7の焦点検出点に対応する複数の位置(焦点検出点マーク部)にこの微小プリズムアレイ7aを枠上に形成し、これを各々に対応した7つのLED21(各々をLED−L1、LED−L2、LED−C、LED−R1、LED−R2、LED−T、LED−Bとする)によって照明する。
【0071】
これによって、図3に示すように、各々の焦点検出点マークである301,302,303,304,305,306,307が、ファインダー視野内で光り、焦点検出点であることを表示させることが出来るものである(以下、これをスーパーインポーズ表示という)。
【0072】
ここで左右上下端の測距点マーク301、305、306,307は、眼球の個人差補正データ(視線補正係数)を採取する(以下この動作をキャリブレーションと称す)際に点灯するものである。本カメラのキャリブレーションは、撮影者がキャリブレーションを行う毎に、そのデータが所定回数まで蓄積され、所定の平均化作業によって算出される。
【0073】
23はファインダ視野領域を形成する視野マスク、24はファインダ視野外に撮影情報を表示するためのファインダ内LCDで、照明用LED(F−LED)25によって照明され、LCD24を透過した光が三角プリズム26によってファインダ内に導かれ、図3のファインダ視野外308に表示され、撮影者は該撮影情報を観察している。27は姿勢検知手段でありカメラの姿勢を検知するスイッチである。
【0074】
31は撮影レンズ1内に設けた絞り、32は後述する絞り駆動回路111を含む絞り駆動装置、33はレンズ駆動用モータ、34は駆動ギヤ等からなるレンズ駆動部材、35はフォトカプラでレンズ駆動部材34に連動するパルス板36の回転を検知してレンズ焦点調節回路37に伝えている。レンズ焦点調節回路37は、この情報とカメラ側からのレンズ駆動量の情報に基づいてレンズ駆動用モータを所定量駆動させ、撮影レンズ1を合焦位置に移動させるようになっている。38は公知のカメラとレンズとのインターフェースとなるマウント接点である。
【0075】
図2(a)、図2(b)は、本発明のカメラ本体外観図で、図1での交換可能な撮影レンズ1は、不図示。図2(a)は、上面図、図2(b)は、背面図。
【0076】
200は、カメラ本体、201はレリーズボタン、202は外部モニタ表示装置としてのモニタ用LCDで図8の如く、予め決められたパターンを表示する固定セグメント表示部202aと、可変数値表示用の7セグメント表示部202b図2(a)、図2(b)において、カメラ本体200は、図1の交換可能なレンズ部は不図示であるが、とからなっている。
【0077】
203は測光値を保持するAEロック釦、204a、204b、204cはモード釦で撮影モード等の選択を行っている。
【0078】
モード釦45b、45cの同時押しでは、後述する眼球の個人差補正データ(視線補正係数)を採取する「視線キャリブレーション」モードとなる。
【0079】
205は電子ダイヤルで、回転してクリックパルスを発生させることによってモード釦204a、204b、204cで選択されたモードの中でさらに選択し得るモード、及び設定値を選択するためのものである。例えばモード釦204aを押して電子ダイヤル205にてシャッタ優先の撮影モードを選択すると、ファインダ内LCD24及びモニタ用LCD202には、現在設定されているモードとシャッタスピードが表示される。更に撮影者がモード釦204aを離した後、電子ダイヤル205を回転させるとその回転方向に従って現在設定されているシャッタスピードから順次シャッタスピードが変化していくように構成されている。この様にして撮影者がプログラムAEシャッタ優先AE、絞り優先AE、被写体深度優先AE、マニュアル露出の各撮影モードをモード釦204aを押すことで選択し、電子ダイヤル205を回転させることで撮影内容を設定できる。
【0080】
図8(a)、図8(b)はモニタ用LCD202とファインダ内LCD24である図3の308の全表示セグメントの内容を示した説明図である。図8(a)において固定表示セグメント部202aには公知の撮影モード表示以外に、カメラのAF動作や撮影モードの選択などの撮影動作を表示する部分を設けている。
【0081】
801は、視線検出モードであることを表示する部分で、視線検出モード時、表示される。視線検出モードにするためには、モード釦204bを押して、電子ダイヤル205を回転操作させ、801を表示させることで設定する。
【0082】
可変数値表示用の7セグメント部202bは、シャッタ秒時を表示する4桁の7セグメント802、絞り値を表示する2桁の7セグメント803と小数点804、フィルム枚数を表示する限定数値表示セグメント805と1桁の7セグメント806で構成されている。
【0083】
図8(b)において811は手ブレ警告マーク、812はAEロックマーク、813、814は、前記のシャッタ秒時表示802と絞り値表示803,804と同一の表示セグメント、815は露出補正設定マーク、816はストロボ充完マーク、817は視線入力状態であることを示す視線入力マークで、視線検出モードであることを表示する部分801と同様。818は撮影レンズ1の合焦状態を示す合焦マークである。
【0084】
206は、測距点選択モード釦で、撮影者がこれを押すことで、所定の焦点検出点を電子ダイヤル205の操作により、点灯表示している焦点検出点から任意の焦点検出点に移動操作可能とする。
【0085】
ここで、図6(a)でファインダー内の所定の焦点検出点マーク303が、点灯表示されているとすると、電子ダイヤル205を回すと回転方向に同期した形で図6(b)、図6(c)の如く、焦点検出点マーク304、305に移動することが可能である。そして、移動後の焦点検出点マークが点灯表示され、撮影者が選択した焦点検出点を認識可能としている。
【0086】
更に、同方向に電子ダイヤル205を回すと、図6(d)の如く、測距マーク301、302,303,304,305,306,307が同時に所定時間点灯し、測距点選択モードが、カメラが自動的に、測距点を選択する測距点自動選択モードとなったことを撮影者が認識可能としている。
【0087】
また、測距点選択モード釦206を再度押すと、電子ダイヤル205を回すことでの焦点検出点マークの移動方向が、測距マーク306,307を選択可能な方向に切り替わる。
【0088】
本カメラ200は、前述の撮影者が任意の焦点検出点を選択する事の可能な係る焦点検出点任意選択モード以外に、図3の7個の焦点検出点マークに対応する7個の焦点検出点の焦点検出結果からカメラ自身が所定のアルゴリズムで焦点検出点を抽出、選択する焦点検出点自動選択モードの二つを備えている。また、前述のモード釦204b、電子ダイヤル205の操作で、視線検出モードであることを表示する部分801、817を表示させ、図3の7個の焦点検出点マークから選択するにあたり、撮影者の眼球の光軸の回転角を検出し、該回転角から撮影者の視線を算出する視線検出装置を利用して焦点検出点を選択する視線入力モードを備えている。
【0089】
本実施例では、カメラ200は、前記視線入力モードに設定されている。
【0090】
207は、カメラの電源スイッチでこれをON状態にすることでカメラが起動する。又OFFでカメラを不作動とするロックポジションとなる。
【0091】
点線208は、撮影者がカメラをホールドした状態の右手である。
【0092】
図4は本発明のカメラに内蔵された電気回路の要部ブロック図である。図4において図1及び図2と同一のものは同一符号を付けている。
【0093】
カメラ本体に内蔵されたマイクロコンピュータの中央処理装置(以下CPU)100には視線検出回路101、測光回路102、自動焦点検出回路103、信号入力回路104、LCD駆動回路105、バックライトLED駆動回路106、図1、図2の13a〜13gに相当するIRED1〜IRED8の8個のIRED駆動回路107、シャッタ制御回路108、モータ制御回路109が接続されている。また撮影レンズ内に配置された焦点調節回路37、絞り駆動回路111とは図1で示したマウント接点38を介して信号の伝達がなされる。
【0094】
CPU100は不図示のRAMを内蔵しており、視線のキャリブレーションデータを該内蔵RAMに記憶する機能を有している。カメラのモードを前述の「視線キャリブレーション」にすると、公知の視線の個人差の補正を行うための視線補正データ(以下キャリブレーションデータと称す)を取得するキャリブレーションモードが選択可能となり、各キャリブレーションデータ、及びキャリブレーション動作「OFF」が電子ダイヤル205にて可能となっている。
【0095】
CPU100に付随したEEPROM100aは記憶手段としての視線の個人差を補正する視線補正データの記憶機能を有している。カメラのモードを前述の「視線キャリブレーション」にすると、視線の個人差の補正を行なうための視線補正データ(以下「キャリブレーションデータ」と称する。)を採取するモードが選択可能となり、各キャリブレーションデータに対応したキャリブレーションナンバーの選択及びキャリブレーション動作のOFFが電子ダイヤル205にて可能となっている。
【0096】
キャリブレーションデータは複数設定可能で、カメラを使用する人物で区別したり、同一の使用者であっても観察の状態が異なる場合例えば眼鏡を使用する場合とそうでない場合、あるいは視度補正レンズを使用する場合とそうでない場合とで区別して設定するのに有効である。
【0097】
又、この時選択されたキャリブレーションナンバーは、後述するようにキャリブレーションデータナンバー(1,2,3・・・あるいは0)としてEEPROM100aに記憶される。
【0098】
本実施例では、1つのキャリブレーションナンバーに記憶されているキャリブレーションデータには、図10で、後述するように、正位置と縦位置でのキャリブレーションデータには、眼球回転角のバラツキも含まれている。、更にその中に角膜の反射像の数とその配置によって、各々キャリブレーションデータが記憶されている。
【0099】
視線検出回路101は、イメージセンサ14(CCD−EYE)からの眼球像の出力をA/D変換しこの像情報をCPUに送信する。CPU100は後述するように、公知の視線検出に必要な眼球像の各特徴点を所定のアルゴリズムに従って抽出し、さらに各特徴点の位置から撮影者の視線を算出する。CPU100と視線検出回路101、そしてイメージセンサ14は視線検出装置の一要素を構成している。
【0100】
測光回路102は測光センサ10からの出力を増幅後、対数圧縮、A/D変換し、各センサの輝度情報としてCPU100に送られる。測光センサ10は図3に示したファインダ画面内の7個の焦点検出点マーク301〜307の各々に対応した領域を測光するSPC−AからSPC−Gの7個のフォトダイオードから構成されている。
【0101】
焦点検出装置6fのラインセンサ116は前述のように画面内の7個の焦点検出点マーク301〜307に対応した7組のラインセンサCCD−C、CCD−R1、CCD−R2、CCD−L1、CCD−L2、CCD−T、CCD−Bから構成される公知のCCDラインセンサで、焦点検出を可能としている。自動焦点検出回路103はこれらラインセンサ116から得た電圧をA/D変換し、CPU100に送る。
【0102】
SW1はレリーズ釦201の第1ストロークでONし、測光、AF、視線検出動作を開始する測光スイッチ、SW2はレリーズ釦201の第2ストロークでONするレリーズスイッチ、ANG−SW1、ANG−SW2は姿勢検出装置27によって検知されるところの姿勢検知スイッチ、SW−AELはAEロック釦203を押すことによってONするAEロックスイッチ、SW−AFSは測距点選択釦206を押すことによってONする測距点選択モードスイッチ、SW−DIAL1とSW−DIAL2は既に説明した電子ダイヤル205内に設けたダイヤルスイッチで信号入力回路104のアップダウンカウンタ118に入力され、電子ダイヤル205の回転クイック量をカウントする。
【0103】
モード釦44a、44b、44cは、不図示。
【0104】
これらスイッチの信号が信号入力回路104に入力されデータバスによってCPU100に送信される。
【0105】
105はファインダー内LCD23、モニタ用LCD202を表示駆動させるための公知のLCD駆動回路で、CPU100からの信号に従い、絞り値、シャッタ秒時、設定した撮影モード等の表示を両方に同時に表示させている。
【0106】
LED駆動回路106は、LED21(各々をLED−L1、LED−L2、LED−C、LED−R1、LED−R2、LED−T、LED−Bとする)を点灯、点滅制御する。更に点灯時、測光回路102からの信号をCPU100が演算した信号に従い、点灯輝度を変化させ、ファインダー内の明るさに応じて測距点の表示を認識し易くしている。
【0107】
IRED駆動回路107は、撮影者が眼鏡をしない裸眼である場合に行う内周側のIRED13a、IRED13b、IRED13e、IRED13fの4つのIREDを同時点灯制御と、撮影者が眼鏡をしている場合に行う外周側のIRED13c、IRED13d、IRED13g、IRED13hの4つのIREDを同時点灯制御を、CPU100の信号に従い行う。
【0108】
シャッタ制御回路108は通電すると先幕を走行させるマグネットMG−1と、後幕を走行させるマグネットMG−2を制御し、感光部材に所定光量を露光させる。
【0109】
モータ制御回路109はフィルムの巻き上げを行うモーターM1と主ミラー2及びシャッタ4のチャージ、巻き戻しを行うモーターM2を制御している。これらシャッタ制御回路108、モータ制御回路109によって一連のカメラのレリーズシーケンズが動作する。
【0110】
図2の点線208の撮影者がカメラをホールドした右手部分のグリップ兼電池室112は、電池113を内蔵しており、コネクター114のP−GND、VBATの端子とメカ的電気的に接合し、本体電源系115にカメラ電源を供給している。
【0111】
コネクター114のP−GND、VBAT以外の端子とコネクター117の端子は、グリップ兼電池室112装着状態では、グリップ兼電池室112に端子が存在せず、接続状態になく、付属品の装着時に利用される端子である。
【0112】
スイッチ119は、グリップ兼内蔵電池室112,付属品の装着を認識するSWで装着状態でD−GNDと切り離されたことを検知する。
【0113】
次に図5で、本実施例のカメラの作動フローチャートを説明する。
【0114】
図2(b)の電源SW207を回転させてON位置にするとカメラを不作動状態からカメラの電源がONされる(S100)。
【0115】
次にCPU100の状態を確認し、焦点検出点選択モードを確認し(S101)、本実施例の視線入力モードかどうかを確認する(S102)。
【0116】
視線入力モードでなければ、視線入力禁止として、焦点検出点任意選択モードへ(S101a)。
【0117】
焦点検出点任意選択モードで無ければ、焦点検出点自動選択モード(S101b)に入る。ここでは、視線情報を用いずに、図3の7個の焦点検出点マークに対応する全ての焦点検出点の焦点検出結果からカメラ自身が所定のアルゴリズムで焦点検出点を選択するサブルーチンを実行する。
【0118】
S101a、S101bで、LCD駆動回路105はファインダ内LCD24の視線入力マーク818を消灯するので、撮影者はファインダ画面外表示308でカメラが視線検出を行わないことを確認できる(図3,図8(b))。
【0119】
CPU100のEEPROM100aに記憶された視線のキャリブレーションデータ以外の視線検出に使われる変数と、所定のカメラ状態になるように、変数がリセットされる(S103)。
【0120】
そして、カメラはレリーズ釦201が押し込まれてスイッチSW1がONされるまで待機する(S104)。
【0121】
次に、視線検出を行なう際に、どのキャリブレーション(CAL)データを使用するかを視線検出回路101に確認する(S105)。
【0122】
この時、確認されたキャリブレーションデータナンバーのキャリブレーションデータが初期値のままで変更されていない場合、視線検出はこの初期値で行われる。また、同一キャリブレーションデータナンバーでも、一部キャリブレーションがなされず、初期値である場合、初期値で無いキャリブレーションデータを用いて視線検出が行われる。例えば、カメラ縦位置で、正位置しかキャリブレーションデータが存在しない場合、正位置のキャリブレーションデータが用いられる。
【0123】
次に、前記キャリブレーションデータナンバーに対応した視線のキャリブレーションデータが所定の値に設定されていてそのデータが撮影者により入力されたものであることが認識されると、視線検出回路101は、視線検出を実行し、角膜の反射像の数から選択されたキャリブレーションデータから、視線検出回路101において検出された視線は、撮影者の注視点として、ピント板7上の注視点座標に変換される視線検出が行われ、眼球回転角のバラツキを考慮した注視点領域が決定される(S106)。
【0124】
この時、LCD駆動回路105はファインダー内LCD24の視線入力マーク817を点灯させ、ファインダー画面外308で撮影者はカメラが視線検出を行なっている状態であることを確認することができるようになっている(図8(b))。
【0125】
また、7セグメント813には設定されたシャッタ秒時が、7セグメント814には設定された絞り値が、表示されている。
【0126】
この前記注視点領域が、どの注視点エリア群に内包され、前記注視点エリア群に、図3の7個の焦点検出点マークから対応するものを選択した(S107)後、選択された焦点検出点マークであるフォーカスエリアが焦点検出点となり、点灯表示される(S108)。
【0127】
図7(a)で、視線検出装置の一部であるイメージセンサ14は、ピント板7上の位置とピント板7上を観察する図3の観察画面300の位置に対応しており、ピント板7上及び、観察画面300上では、図7の如く、縦にL3,L2,L,C,R1,R2、R3の7列に、横にT,U,C,D,Bの5行で区切られた複数の注視点エリアで構成している。各注視点エリアは、縦列名・横行名で現される。 例えば、左上端エリアは、L3・T、右下端エリアは、R3・Bである。
【0128】
図7(a)で、注視点を座標(x、y)とすると、眼球回転角のバラツキを考慮した前記注視点領域309は、注視点エリア群である注視点エリアR1・D、R1・B、R2・D、R2・Bに内包される。ここで、前記注視点エリア群に、7つの焦点検出点が無い場合、視線検出を禁止し、焦点検出点自動選択モード(101b)に移る。
【0129】
撮影者が該撮影者の視線によって選択された焦点検出点が表示されたのを見て、その焦点検出点が正しくないと認識してレリーズ釦201から手を離しスイッチSW1をOFFすると(S109)、カメラはスイッチSW1がONされるまで待機する(S104)。
【0130】
撮影者が選択された焦点検出点が点灯表示されたのを見て、レリーズ釦201を押しつづけ、スイッチSW1をON続けたならば(S109)、選択された焦点検出点において自動焦点検出回路103は焦点検出動作を行う(S110)。
【0131】
焦点検出が可能(S111)であり、所定のアルゴリズムで選択された焦点検出点の焦点調節状態が合焦(S112)でなければ、CPU100はレンズ焦点調節回路110に信号を送って所定量撮影レンズ1を駆動させる(S113)。レンズ駆動後自動焦点検出回路103は再度焦点検出を行い(S110)、撮影レンズ1が合焦しているか否かの判定を行う(S112)。
【0132】
焦点検出が不能(S111)であれば、焦点検出NG表示として、図8の合焦マーク818を点滅させる(S111a)。更にSW1がONであれば、点滅を続け、OFFであれば(S111b)、再度、SW1がONされるまで待機する(S102)。
【0133】
所定の焦点検出点において撮影レンズ1が合焦していたならば、CPU100はLCD駆動回路105に信号を送ってファインダ内LCD24の合焦マーク818を点灯させると共に、IRED駆動回路107にも信号を送っての合焦している焦点検出点に合焦表示させる(S114)。
【0134】
合焦した焦点検出点がファインダ内に表示されたのを撮影者が見て、その焦点検出点が正しくないと認識してレリーズ釦41から手を離しスイッチSW1をOFFすると(S115)、引き続きカメラはスイッチSW1がONされるまで待機する(S102)。
【0135】
また、撮影者が合焦表示された焦点検出点を見て、引き続きスイッチSW1をONし続けたならば(S115)、CPU100は測光回路102に信号を送信して測光を行わせる(S116)。この時合焦した焦点検出点を含む測光領域SPC−A〜SPC−Gまでの7領域から選択し、重み付けを行った露出値が演算される。
【0136】
本実施例の場合、測光領域SPC−A〜SPC−G迄の7つの領域で、図3の選択された焦点検出点マークを含む測光領域を中心として、重み付けされた公知の測光演算を行い、この演算結果として外部表示部202の7セグメント803と小数点804、ファインダー外表示308の814を用いて絞り値(F5.6)を表示する。
【0137】
さらに、レリーズ釦201が押し込まれてスイッチSW2がONされているかどうかの判定を行い(S117)、スイッチSW2がOFF状態であれば再びスイッチSW1の状態の確認を行う(S115)。また、スイッチSW2がONされたならばCPU100はシャッタ制御回路108、モータ制御回路109、絞り駆動回路111にそれぞれ信号を送信する。
【0138】
まずMG2に通電し、主ミラー2をアップさせ、絞り31を絞り込んだ後、MG1に通電しシャッタ4の先幕を開放する。絞り31の絞り値及びシャッタ4のシャッタスピードは、前記測光回路102にて検知された露出値と感光部材であるフィルム5の感度から決定される。所定のシャッタ秒時(例えば,1/250秒)経過後MG2に通電し、シャッタ4の後幕を閉じる。フィルム5への露光が終了すると、MG2に再度通電し、ミラーダウン、シャッタチャージを行うと共にMG1にも通電し、フィルムのコマ送りを行い、一連のシャッタレリーズシーケンスの動作が終了する(S118)。その後カメラは再びスイッチSW1がONされるまで待機する(S102)。
【0139】
又、図5に示したカメラのシャッターレリーズ動作(S118)以外の一連の動作中にモード釦45b、45cの同時押しすると、眼球の個人差補正データ(視線補正係数)を採取する「視線キャリブレーション」モードに設定されたことを信号入力回路104が検知すると、CPU100はカメラの動作を一時停止し、視線検出回路101に送信して視線のキャリブレーション(S119)が可能な状態に設定する。視線のキャリブレーション方法については後述する。
【0140】
図9は視線検出(S106)のフローチャートである。前述のように視線検出回路101はCPU100より信号を受け取ると視線検出を実行する(S106)。視線検出回路101は、撮影モードの中での視線検出かあるいは視線のキャリブレーションモードの中での視線検出かの判定を行なう(S201)。同時に視線検出回路101はカメラが後述するどのキャリブレーションデータナンバーに設定されているかを認識する。
【0141】
視線検出回路101は、撮影モードでの視線検出の場合はまず最初にカメラがどのような姿勢になっているかを信号入力回路104を介して検知する(S202)。信号入力回路104は、CPU100はカメラ姿勢を姿勢検出回路27に確認する(S104)。図4のANG−SW1、ANG−SW2の出力により、正位置、図2の点線208の撮影者の右手が上にあるグリップ上縦位置、撮影者の右手208が下にあるグリップ下縦位置の3つの姿勢状態のいずれであるかを確認する。続いてCPU100を介して測光回路102から撮影領域の明るさの情報を入手する(S203)。
【0142】
次に先に検知されたカメラの姿勢情報とキャリブレーションデータに含まれる撮影者の眼鏡情報、後述するP像状態に応じたキャリブレーションデータの有無より赤外発光ダイオード(以下IREDと称す)13a〜13hの選択を行ない、照射される(S204)。
【0143】
S204を図25のフローで説明する。
【0144】
即ちカメラが正位置に構えられ、撮影者が眼鏡をかけていなかったならば、図2(b)に示すようにファインダー光軸よりのIRED13a,13b,13e,13fが選択される。又、カメラが正位置で、撮影者が眼鏡をかけていれば、ファインダー光軸から離れたIRED13c,13d,13g,13hが選択される(S2041)。
【0145】
このとき撮影者の眼鏡で反射した照明光の一部は、眼球像が投影されるイメージセンサー14上の所定の領域以外に達するため眼球像の解析に支障は生じない。また、カメラが縦位置で構えられていた場合も同様である。
【0146】
次に、後述するEEPROM100aのそれぞれのアドレス(図11)に記憶された、3P像以上のキャリブレーションデータ(図15、S503a、S503b)と2P像キャリブレーションデータ(図15、S503c)が、初期値か、否かを確認する。そこで、初期値であるものは、キャリブレーションデータが無いと判断する。
【0147】
次にイメージセンサー14(以下CCD−EYEと称す。)の蓄積時間及びIREDの照明パワーが前記測光情報及び撮影者の眼鏡情報等に基づいて設定される(S205)。該CCD−EYEの蓄積時間及びIREDの照明パワーは前回の視線検出時に得られた眼球像のコントラスト等から判断された値を基にして設定を行なっても構わない。
【0148】
CCD−EYE蓄積時間及びIREDの照明パワーが設定されると、CPU100はIRED駆動回路107を介してIREDを所定のパワーで点灯させるとともに、視線検出回路101はCCD−EYEの蓄積を開始する(S206)。
【0149】
又、先に設定されたCCD−EYEの蓄積時間にしたがってCCD−EYEは蓄積を終了し、それとともにIREDも消灯される。視線のキャリブレーションモードでなければ(S207)、CCD−EYEの読みだし領域が設定される(S208)。
【0150】
カメラ本体の電源がONされた後の1番最初の視線検出以外はCCD−EYEの読みだし領域は前回の視線検出時のCCD−EYEの読みだし領域を基準にして設定されるが、カメラの姿勢が変化したとき、あるいは眼鏡の有無が変化した場合等はCCD−EYEの読みだし領域は全領域に設定される。
【0151】
CCD−EYEの読みだし領域が設定されると、CCD−EYEの読みだしが実行される(S209)。この時読みだし領域以外の領域は空読みが行なわれ実際上読み飛ばされていく。これは、視線検出を迅速に行う為である。CCD−EYEより読みだされた像出力は視線検出回路101でA/D変換された後にCPU100にメモリーされ、該CPU100において眼球像の各特徴点の抽出のための演算が行なわれる(S210、S212)。
【0152】
即ち、CPU100において、眼球の照明に使用された4つ一組のIREDで、原理的には、図24のIREDの虚像である4つのプルキンエ像P1、P2、P3、P4の位置として、図24のP1(Xe′,Ye′)、P2(Xd′,Yd′)、P3(Xe″,Ye″)、P4(Xd″,Yd″)が検出される。プルキンエ像は光強度の強い輝点として現われるため、光強度に対する所定のしきい値を設け、該しきい値を超える光強度のものをプルキンエ像とすることにより検出可能である(S210)。
【0153】
次に、瞳孔の中心位置(Xic′,Yic′)は瞳孔19と虹彩17の境界点を複数検出し、各境界点を基に円の最小二乗近似を行なうことにより算出される。この時瞳孔径rpも算出される。
【0154】
CPU100は眼球像の解析を行なうとともに、眼球像のコントラストを検出してそのコントラストの程度からCCD−EYEの蓄積時間の再設定を行なう。
【0155】
又、プルキンエ像の位置及び瞳孔の位置よりCCD−EYEの読みだし領域を設定する。この時CCD−EYEの読みだし領域は、検出された瞳孔を含み該瞳孔の位置が所定量変化しても瞳孔全体が検出可能な範囲に設定される。そしてその大きさは虹彩の大きさより小さいのはいうまでもない。
【0156】
CCD−EYEの読みだし領域は長方形に設定され該長方形の対角の2点の座標がCCD−EYEの読みだし領域として視線検出回路101に記憶される。さらに眼球像のコントラストあるいは瞳孔の大きさ等から、算出されたプルキンエ像及び瞳孔中心の位置の信頼性が判定される(S210)。
【0157】
ここで、原理的には、図24のIREDの虚像である4つのプルキンエ像が得られることになっているが、撮影者の視線検出を行う際、観察条件、個人差によって、撮影者の上瞼、睫毛で、照明光源が遮られ、必ずしも、IREDに対応したプルキンエ像が得られるわけでは無いので、プルキンエ像の数とその配置をプルキンエ像状態判別として行う(S211)。
【0158】
本実施例では、プルキンエ像が得られない場合と1つしか得られない場合は、視線検出不可、または視線検出精度が著しく低下するので視線信頼性が無いと判断し、S201へ戻る。
【0159】
図10で、プルキンエ像の数と配置状態について説明する。P像状態判別、P像数は、プルキンエ像(図中P像)の数に応じて、プルキンエ像が4つ存在するものを4P像状態として、P像無し状態までを示し、P像状態図は、図24の4つのプルキンエ像P1、P2、P3、P4の存在状態を図示し、Xpo、Ypo算出に使用されるP像座標は、P1(Xe′,Ye′)、P2(Xd′,Yd′)、P3(Xe″,Ye″)、P4(Xd″,Yd″)で、Xpo、Ypo算出に使用されるを示したものである。
【0160】
図10の如く、4つのIREDの撮影者眼球照明に対し、得られるプルキンエ像の配置状態は、得られるプルキンエ像の数と配置状態は、16通りある。
【0161】
本実施例では、視線検出演算、特にプルキンエ像を他の特徴点と区別して抽出選択の迅速化のため、撮影者が眼鏡をしていない裸眼を例にするとして、下側のIRED13a、13bに対応するプルキンエ像P1(Xe′,Ye′)、P2(Xd′,Yd′)を抽出した後、二つのプルキンエ像の位置よりその間隔が算出される(S210)。次にIRED13aのプルキンエ像P1(Xe′,Ye′)から、Y軸上に前記のプルキンエ像間隔を元に所定の係数を乗じた値の所定範囲内に存在するプルキンエ像と推定される特徴点を、IRED13eに対応するプルキンエ像P3(Xe″,Ye″)として検出する。
【0162】
次にIRED13bに対応するプルキンエ像P2(Xd′,Yd′)から、Y軸上に同様に、IRED13fに対応するプルキンエ像の位置P4(Xd″,Yd″)を検出する。
【0163】
即ち、下側のIRED13a、13bに対応するプルキンエ像P1、P2を基準にプルキンエ像P3、P4の検出を行う。
【0164】
これは、4つのプルキンエ像P1、P2、P3、P4の検出を迅速に行う為と、撮影者の観察条件、個人差によって、上瞼、上睫毛で、照明光源のが遮られる可能性がある為、下側のIRED13a、13b(13c、13d)に対応するプルキンエ像P1、P2は、極めて高い確率で得られるのに対して、上側のIRED13e、13f(13g、13h)に対応するプルキンエ像P3、P4は、撮影者や撮影条件により、得られない確率が高いことによる。
【0165】
この様に本実施例では、Y軸上、下側に存在する2つのプルキンエ像の位置を基準として、視線検出に有効な図10の太枠で囲まれた4通りのプルキンエ像の数と配置状態を判断している。
【0166】
図10の太枠で囲まれた4通りのプルキンエ像の数と配置状態で無いと判断すると、視線信頼性が無いと判断し、S201へ戻る。S201へ戻り、再び、S211にて、視線信頼性が無いと判断とした場合は、図5の焦点検出点自動選択モード(S101b)に入る。
【0167】
尚、図10で、使用キャリブレーションデータは、後述するキャリブレーションで求められたキャリブレーションデータで、本実施例では、4つのプルキンエ像の数と配置状態に対して、4P像キャリブレーションデータと3P像キャリブレーションデータと2P像キャリブレーションデータの3つが用いられている。また、使用キャリブレーションデータには、後述する2方向(X方向、Y方向の)眼球回転角のバラツキであるσθx、σθyと、それをピント板7の座標に換算したσx、σyも含まれている。
【0168】
眼球像の解析が終了すると、キャリブレーションデータの確認手段を兼ねた視線検出回路101は算出されたプルキンエ像の間隔と点灯されたIREDの組合せよりキャリブレーションデータの中の眼鏡情報が正しいか否かの判定を行なう(S212)。これはその時々において眼鏡を使用したり使用しなかったりする撮影者に対処するためのものである。
【0169】
即ち、キャリブレーションデータの中の撮影者の眼鏡情報が、例えば眼鏡を使用するように設定されていて、図2(b)に示したIREDの内IRED13c,13d,13g,13hが点灯された場合、プルキンエ像の間隔が所定の大きさより大きければ撮影者は眼鏡装着者と認識され眼鏡情報が正しいと判定される。
【0170】
逆にプルキンエ像の間隔が所定の大きさより小さければ撮影者は裸眼あるいはコンタクトレンズ装着者と認識され眼鏡情報が誤っていると判定される。眼鏡情報が誤っていると判定されると(S212)、視線検出回路101は眼鏡情報の変更を行なって(S217)再度IREDの選択を行ない(S204)視線検出を実行する。但し眼鏡情報の変更を行なう際、CPU100のEEPROM100aに記憶された眼鏡情報は変更されない。
【0171】
又、眼鏡情報が正しいと判定されると(S212)、プルキンエ像の間隔よりカメラの接眼レンズ11と撮影者の眼球15との距離が算出され、さらには該接眼レンズ11と撮影者の眼球15との距離からCCD−EYEに投影された眼球像の結像倍率βが算出される(S213)。
【0172】
次にキャリブレーションモードか否かを確認する(S214)。キャリブレーションモードであれば、図14で後述するデータ処理が行われ、キャリブレーションモードで無ければ、眼球の光軸の回転角θx、θyを算出する(S215)。
【0173】
眼球15の光軸の回転角θx、θyは(3)(4)式を修正して
θx≒ARCSIN{((xp0−δx)−xic)/β/Loc}・・(6)
θy≒ARCSIN{((yp0−δy)−yic)/β/Loc}・・(7)
と表わされる。
【0174】
但し、xp0,yp0は、前述の図10のプルキニエ像の配置状態により、算出方法が異なる。
【0175】
例えば、図10の2P像状態であれば、図22(a)のプルキンエ像P1(Xe′,Ye′)、P2(Xd′,Yd′)の中点P0の座標を(xpo,ypo)として用いる。3P像状態であれば、xp0をプルキンエ像P1(Xe′,Ye′)、P2(Xd′,Yd′)のX座標の中点とし、yp0をプルキンエ像P2(Xd′,Yd′)、P4(Xd″,Yd″)、または、プルキンエ像P1(Xe′,Ye′),P3(Xe″,Ye″)のY座標の中点をとする。4P像状態であれば、プルキンエ像P1(Xe′,Ye′)、P2(Xd′,Yd′)、P3(Xe″,Ye″)、P4(Xd″,Yd″)の中点P0の座標を(xpo,ypo)として用いる。
【0176】
δx、δyは、(10)、(10)″、(11)式での二つのプルキンエ像の中心位置を補正する補正項である。
【0177】
δxは、(10)式で求めるが、δyは2P像状態であれば(11)式で求め、3P像状態と4P像状態であれば、(10)″式で求める。δyの求め方の差は、δxと同様に扱える、Y方向に直接演算可能なypoが存在するか否かである。
【0178】
例えば、図10の2P像状態であれば、図22(a)のプルキンエ像P1(Xd′,Yd′)、P2(Xe′,Ye′)の中点P0の座標を(xpo,ypo)として用いる。
【0179】
3P像状態であれば、プルキンエ像P1(Xd′,Yd′)、P2(Xe′,Ye′)のX座標の中点をxp0とし、Y方向はプルキンエ像P1(Xd′,Yd′)、P3(Xd″,Yd″)、または、プルキンエ像P2(Xe′,Ye′)、P4(Xe″,Ye″)のY座標の中点をxp0とする。4P像状態であれば、プルキンエ像P1(Xd′,Yd′)),P2(Xe′,Ye′),P3(Xd″,Yd″),P4(Xe″,Ye″)の中点P0の座標を(xpo,ypo)として用いる。
【0180】
この様に、眼球の光軸の回転角θx、θyを算出する上でも、プルキンエ像状態判別(S211)が必要であることが判る。
【0181】
撮影者の眼球の回転角θx、θyが求まると、ピント板7上での視線の位置(x,y)は、(5)(6)式より
x[mm]=m×ax×(θx+bx)・・・・(5)
y[mm]=m×ay×(θy+by)・・・・(6)
と求まる(S216)。但し、ax,ay,bx,byは視線の個人差を補正するためのパラメータで、ax,ayはキャリブレーションデータである。
【0182】
本実施例では、図10の如く、前記の眼球の光軸の回転角θx、θyの算出方法に合わせて、3P像以上キャリブレーションデータと2P像キャリブレーションデータの2つが用いられている。ここでも、プルキンエ像状態判別(S211)が必要であることが判る。
【0183】
ここで水平方向(x方向)と垂直方向(y方向)の眼球の光軸と視軸との補正量に相当するbx,byは、
bx=kx×(rp−rx)+b0x・・・・(15)
by=ky×(rp−rx)+b0y・・・・(16)
と表わされ、瞳孔径rpの関数である。ここでrxは定数で、kx,ky,b0x,b0yはキャリブレーションデータである。
【0184】
ピント板7上での視線の位置(x,y)が求められる(S216a)と、次に、図15で後述するキャリブレーションデータにある眼球回転角のバラツキである(σθx、σθy)より、ピント板7上座標に変換した(σx、σy)から、ピント板7上での視線の位置(x,y)を中心とした注視点領域が求められる(S216b)。
【0185】
まず、(5)(6)式を用いたバラツキ範囲σx、σyを下式より求める。
σx[mm]=m×ax×(σθx+bx)・・・・(5)′
σy[mm]=m×ay×(σθy+by)・・・・(6)′
次に、ピント板7上での視線の位置(x,y)を中心として、短軸、長軸半径をσx、σyとした楕円領域を決定する。この領域を注視点領域とする(S216b)。
【0186】
ここでも例えば、短軸、長軸半径をσx、σyは、視線検出時、図10の2P像状態であれば、σx2p、σy2pを、3P像状態であれば、σx3p、σy3pを、4P像状態であれば、σx4p、σy4pを用いる。
【0187】
この様に、注視点領域を算出する上でも、プルキンエ像状態判別(S211)が必要であることが判る。
【0188】
この視線のキャリブレーションデータを求める方法は後述する。
【0189】
ピント板7上の視線の座標と注視点領域が求まると、視線検出を1度行なったことを示すフラグをたてて(S217)、メインのルーチンに復帰する(S218)。
【0190】
又、図9に示した視線検出のフローチャートは視線のキャリブレーションモードにおいても有効である。S201において、キャリブレーションモードの中での視線検出であると判定すると次に今回の視線検出がキャリブレーションモードの中での最初の視線検出であるか否かの判定を行なう(S220)。
【0191】
今回の視線検出がキャリブレーションモードの中での最初の視線検出であると判定されると、CCD−EYEの蓄積時間およびIREDの照明パワーを設定するために周囲の明るさの測定が行なわれる(S203)。これ以降の動作は前述の通りである。
【0192】
又、今回の視線検出がキャリブレーションモードの中で2回目以上の視線検出であると判定されると(S201)、CCD−EYEの蓄積時間およびIREDの照明パワーは前回の値が採用され直ちにIREDの点灯とCCD−EYEの蓄積が開始される(S206)。
【0193】
又、視線のキャリブレーションモードでかつ視線検出回数が2回目以上の場合は(S207)、CCD−EYEの読みだし領域は前回と同じ領域が用いられるためCCD−EYEの蓄積終了とともに直ちにCCD−EYEの読みだしが実行される(S209)。これ以降の動作は前述の通りである。
【0194】
尚、図9に示した視線検出のフローチャートにおいてメインのルーチンに復帰する際の変数は、通常の視線検出の場合視線のピント板上の座標(x,y)と、これを中心とする前記注視点領域であるが、視線のキャリブレーションモードの中での視線検出の場合は撮影者の眼球光軸の回転角(θx,θy)である。又、他の変数である検出結果の信頼性、CCD−EYE蓄積時間、CCD−EYE読みだし領域等は共通である。
【0195】
又、本実施例においてCCD−EYEの蓄積時間およびIREDの照明パワーを設定するために、カメラの測光センサー10にて検出された測光情報を利用している。
【0196】
図12〜図15は視線のキャリブレーションのフローチャート、図17〜図19は視線のキャリブレーション時のファインダー内LCD308とモニター用LCD202の表示状態を示したものである。
【0197】
本実施例においては、ファインダー視野内の図3の7個の焦点検出点マークの内、4つのの焦点検出点マーク305,301,306,307を視標1、視標2、視標3、視標4として、順次、1回注視してもらい、そのときの視線を検出することにより、視線のキャリブレーションを実行している。以下同図を用いて説明する。
【0198】
図12において、撮影者がモード釦45b、45cの同時押しすると、視線のキャリブレーションモードに設定され、信号入力回路104はCPU100を介してLCD駆動回路105に信号を送信し、ファインダー内LCD308では、図3(b)のシャッター秒時表示部813と絞り表示部814で、モニター用LCD202では、同様にシャッター秒時表示部802と絞り表示部803で、図17の後述する視線のキャリブレーションモードのいずれかに入ったことを示す表示を行なう(S218)。
【0199】
CPU100はEEPROM100aに記憶されたキャリブレーションデータ以外の変数をリセットする(S301)。
【0200】
図11はCPU100のEEPROM100aに記憶されるキャリブレーションデータの種類とその初期値を示したものである。一度もキャリブレーションが行われていないので、全て初期値である。キャリブレーションデータナンバー1〜5に対応したEEPROM100aのアドレス上にはそれぞれに、カメラ姿勢情報、眼鏡情報(眼鏡は「1」、裸眼は「0」)、3P像以上キャリブレーションデータと2P像キャリブレーションデータの2つのax,ay,kx,ky,b0x,b0yが記憶されている。(実施例においては説明のためにデータを5つ記憶できるようにしているが、もちろんEEPROMの容量によっていかようにも設定できる)。
【0201】
キャリブレーションデータの初期値は標準の眼球パラメータで視線が算出されるような値に設定されている。さらに撮影者が眼鏡を使用するか否か、そしてキャリブレーションデータの信頼性の程度を表わすフラグも有している。眼鏡の有無を表わすフラグの初期値は眼鏡を使用しているように「1」に設定され、又キャリブレーションデータの信頼性のフラグの初期値は信頼性が無いように「0」に設定されている。
【0202】
又、ファインダー内LCD308、モニター用LCD202には図17(a)に示すように現在設定されているキャリブレーションモードを表示する。そのほかの表示部はすべて消灯している(実施例としてキャリブレーションナンバー1の状態を示し、7セグメント表示部のみを拡大して示している)。
【0203】
この時、設定されたキャリブレーションナンバーのキャリブレーションデータが初期値の場合はモニター用LCD42に表示されたキャリブレーションナンバーが点滅し(図17(b)、一方設定されたキャリブレーションナンバーにおいて既にキャリブレーションが行われ、キョリブレーションナンバーに対応したEEPROMのアドレス上に初期値と異なるキャリブレーションナンバーが入っていればファインダー内LCD308、モニター用LCD202に表示されたキャリブレーションナンバーがフル点灯するようになっている(図17(a))。
【0204】
その結果、撮影者は現在設定されている各々のキャリブレーションナンバーに既にキャリブレーションデータが入っているかどうかを認識できるようになっている。又、図17(a)の様にキャリブレーションデータナンバーの初期値は「1」に設定されている。
【0205】
図12に戻り続いてCPU100に設定されたタイマーがスタートし視線のキャリブレーションを開始する(S302)。タイマースタート後所定の時間中にカメラに対して何の操作もなされなかったならば視線検出回路101は、ファインダー内に視線のキャリブレーション用の視標が点灯していれば消灯(S304)してメインにリターンされる(S338)。
【0206】
撮影者が電子ダイヤル205を回転させると、前述のようにパルス信号によってその回転を検知した信号入力回路104はCPU100を介してLCD駆動回路105に信号を送信する。その結果電子ダイヤル205の回転に同期して、ファインダー内LCD308、モニター用LCD202に表示されたキャリブレーションナンバーが変化する。この様子を図18に示す。
【0207】
まず電子ダイヤル205を時計方向に回転させると「CAL−1」→「CAL−2」→「CAL−3」→「CAL−4」→「CAL−5」と変化し、後述のキャリブレーション操作で撮影者は希望する5つのキャリブレーションナンバーのいずれかにキャリブレーションデータを記憶させることができる。
【0208】
そして図18に示した状態は「CAL−1,2,3」にはすでにキャリブレーションデータが入っており、「CAL−4,5」には入っておらず初期値のままであることを表わしている。反時計方向に回転させた場合は図18の方向と正反対に表示する。
【0209】
このようにしてファインダー内LCD308、モニター用LCD202に表示されるキャリブレーションナンバーを見ながら撮影者が所望のキャリブレーションナンバーを選択したら、視線検出回路101はこれに対応するキャリブレーションデータナンバーの確認を信号入力回路104を介して行なう(S303)。確認されたキャリブレーションデータナンバーはCPU100のEEPROM100aの所定のアドレス上に記憶される。
【0210】
但し、確認されたキャリブレーションデータナンバーが変更されていなければEEPROM100aへのキャリブレーションデータナンバーの記憶は実行されない。
【0211】
続いて視線検出回路101は信号入力回路104を介して撮影モードの確認を行なう(S304)。撮影者が操作部材の操作で、視線のキャリブレーションモード以外の撮影モードに切り換えていることが確認されたら、ファインダー内に視線のキャリブレーション用の視標が点滅していれば、それを消灯させて(S305)メインのルーチンであるカメラの撮影動作に復帰する(S348)。そしてキャリブレーションナンバー「CAL1〜5」が表示されている状態で他の撮影モード(シャッター優先AE)に切り換えれば、そのキャリブレーションナンバーのデータを用いて視線検出を行ない、前述の視線情報を用いた撮影動作が行なえるようになっている。この時、ファインダー内LCD308、モニター用LCD202は、撮影モード表示以外に、図3(a)(b)の視線入力モード表示817、801を点灯させて、視線情報をもとに撮影動作を制御している視線入力モード(視線撮影モード)であることを撮影者に知らせている。
【0212】
ここで再度、撮影者がモード釦45b、45cの同時押しすると、視線のキャリブレーションモードに設定され、前述の視線検出に用いているキャリブレーションナンバーが表示され、キャリブレーション動作がスタートする。
【0213】
視線のキャリブレーションモードに設定されたままであることが確認されると、電子ダイヤル205にて設定されたキャリブレーションデータナンバーの確認を再度行ない(S304)、引続きCPU100は信号入力回路104を介してカメラの姿勢を検知する(S305)。信号入力回路104は姿勢検知装置27の出力信号を処理してカメラが正位置であるか縦位置であるか、又縦位置である場合は例えばグリップが天方向(上)にあるか地面方向(下)にあるかを判断する。
【0214】
カメラの姿勢が正位置であることが検知されると(S306)、視線検出回路101は視線検出回数nを0に設定する(S307)。但し視線検出回数nが40回の時はその回数を保持する。この時ファインダー内LCD308において、「CAL」表示が点滅していたらその点滅を中止する。視線のキャリブレーションはスイッチSW1をONにすることにより開始されるように設定されている。
【0215】
撮影者が視線のキャリブレーションを行なう準備が整う以前にカメラ側でキャリブレーションを開始するのを防ぐために、視線検出回路101はスイッチSW1の状態の確認を行いスイッチSW1がレリーズ釦201によって押されていてON状態であればスイッチSW1がOFF状態になるまで待機する(S308)。
【0216】
視線検出回路101は信号入力回路104を介してスイッチSW1がOFF状態であることを確認すると(S308)、視線検出回路101はLED駆動回路106に信号を送信して視線のキャリブレーション用の視標1である焦点検出点マーク305を点滅させる(S309)。(図16(A))。
【0217】
視線のキャリブレーションの開始のトリガー信号であるスイッチSW1のON信号が入ってなければカメラは待機する(S310)。又、点滅を開始した視標1を撮影者が注視しレリーズ釦201を押してスイッチSW1をONしたら(S310)視線検出が実行される(図13、S311)。
【0218】
次に視線検出回路101は視線検出のサブルーチンからの変数である眼球の回転角θx,θy,瞳孔径rp及び各データの信頼性を記憶する(S312)。
【0219】
視線検出の動作は図11のフローチャートで説明した通りであるが、図9のキャリブレーションモードか否か(S214)の部分で異なり、キャリブレーションモードであれば、図14に示すフローチャートに進み、瞳孔径rp及び各データの信頼性を記憶する部分は、同様であるが、この眼球の回転角θx,θyを演算、記憶するフローチャートで通常の視線検出と異なる。
【0220】
ここで、図14のフローチャートを用いて、キャリブレーションモードでの眼球の回転角θx,θyを演算、記憶(S312)を説明する。
【0221】
図9のキャリブレーションモードが確認される(S214)と、プルキンエ像の数とその配置をプルキンエ像状態判別(S211)の結果であるプルキンエ像(P像)数の確認が行われる(S402)。
【0222】
P像数が4つ、即ち4P像状態であれば、前述の如く、回転角θx,θyは、プルキンエ像P1、P2、P3、P4から、θ4px、θ4pyとして算出され(S406)、θ4px、θ4pyが所定範囲にあるかの確認が行われ(S406a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの4P像状態の視標1に対応する部分のアドレスに記憶される(S407)。θ4px、θ4pyが所定範囲外であれば、視標を注視していないとして、眼球の回転角として、不適切であるとして、EEPROM100aに記憶されない。更に、プルキンエ像P1、P2から、θ2px、θ2pyとして算出され(S410)、θ2px、θ2pyが所定範囲にあるかの確認が行われ(S406a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの2P像状態の視標1に対応する部分のアドレスに記憶される(S411)。所定範囲外であれば、EEPROM100aに記憶されない。
【0223】
P像数が3つ、即ち3P像状態であれば、前述の如く、回転角θx,θyは、プルキンエ像P1、P2、P3、またはP4から、θ3px、θ3pyとして算出され(S408)、θ3px、θ3pyが所定範囲にあるかの確認が行われ(S408a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの3P像状態の視標1に対応する部分のアドレスに記憶される(S409)。更に、プルキンエ像P1、P2から、θ2px、θ2pyとして算出され(S410)、θ2px、θ2pyが所定範囲にあるかの確認が行われ(S406a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの2P像状態の視標1に対応する部分のアドレスに記憶される(S411)。所定範囲外であれば、眼球の回転角として、不適切であるとして、EEPROM100aに記憶されない。
【0224】
このように、キャリブレーションモードでは、P像数が3つ以上、即ち4P像状態、3P像状態であれば、1回の視線検出結果から、2P像状態のキャリブレーションデータをも算出し、記憶している。
【0225】
P像数が2つ、即ち2P像状態であれば、プルキンエ像P1、P2から、θ2px、θ2pyとして算出され(S410)、θ2px、θ2pyが所定範囲にあるかの確認が行われ(S410a)、所定範囲内の値であれば、EEPROM100aのキャリブレーションデータの2P像状態の視標1に対応する部分のアドレスに記憶される(S411)。
【0226】
ここでは、視標1点滅(S309)の状態であるので、視標1のアドレスに記憶したが、点滅する視標に応じて、記憶されるアドレスが設けてある。
【0227】
再び、図13に戻り、眼球の回転角θx,θy,瞳孔径rp及び各データの信頼性を記憶する(S312)と、更に視線検出回数nをカウントアップする(S313)。撮影者の視線は多少ばらつきがあるため正確な視線のキャリブレーションデータを得るためには1点の視標に対して複数回の視線検出を実行してその平均値を利用するのが有効である。
【0228】
本実施例においては1点の視標に対する視線検出回数は10回と設定されている。視線検出回数nが10回でなければ(S314)視線検出が続行される(S311)。
【0229】
視線検出回数nが10回であれば視標1(焦点検出点マーク305)に対する視線検出を終了し、視標1に対する視線検出が終了したことを撮影者に認識させるために視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を数回鳴らさせる(S315)。同時に視線検出回路101はLED駆動回路106を介して視標1を所定の時間フル点灯させ、撮影者に視標1でのキャリブレーションデータ採取終了を知らせる(S315)。
【0230】
引続き視線検出回路101は信号入力回路104を介してスイッチSW1がOFF状態になっているかどうかの確認を行なう(S318)。スイッチSW1がON状態であればOFF状態になるまで待機し、スイッチSW1がOFF状態であれば視標1が消灯しそれと同時に左端の視標2(焦点検出点マーク301)が点滅を開始する(S317)(図16(b))。
【0231】
視線検出回路101は再度信号入力回路104を介してスイッチSW1がON状態になっているかどうかの確認を行なう(S318)。スイッチSW1がOFF状態であればONされるまで待機し、スイッチSW1がONされたら視線検出を実行する(S319)。
【0232】
視線検出回路101は視線検出のサブルーチンからの変数である眼球の回転角θx,θy、瞳孔径rp及び各データの信頼性を記憶する(S320)。ここでも図14のフローチャートを用いて行われ、EEPROM100aの視標2のアドレスに記憶される。
【0233】
更に視線検出回数nをカウントアップする(S321)。更に視線検出回数nが20回でなければ(S322)視線検出が続行される(S319)。視線検出回数nが20回であれば視標2に対する視線検出を終了するし、視標2に対する視線検出が終了したことを撮影者に認識させるために視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を数回鳴らさせる。同時に視線検出回路101はLED駆動回路106を介して視標2をフル点灯させ、撮影者に視標2でのキャリブレーションデータ採取終了を知らせる(S323)。
【0234】
引続き視線検出回路101は信号入力回路104を介してスイッチSW1がOFF状態になっているかどうかの確認を行なう(S324)。スイッチSW1がON状態であればOFF状態になるまで待機し、スイッチSW1がOFF状態であれば視標2が消灯し、それと同時に上端の視標3(焦点検出点マーク306)が点滅を開始する(S325)(図16(C))。
【0235】
視線検出回路101は再度信号入力回路104を介してスイッチSW1がON状態になっているかどうかの確認を行なう(S326)。スイッチSW1がOFF状態であればONされるまで待機し、スイッチSW1がONされたら視線検出を実行する(S327)。
【0236】
視線検出回路101は視線検出のサブルーチンからの変数である眼球の回転角θx,θy、瞳孔径rp及び各データの信頼性を記憶する(S328)。ここでも図14のフローチャートを用いて行われ、EEPROM100aの視標3のアドレスに記憶される。
【0237】
更に視線検出回数nをカウントアップする(S329)。更に視線検出回数nが30回でなければ(S330)視線検出が続行される(S327)。視線検出回数nが30回であれば視標3に対する視線検出を終了するし、視標3に対する視線検出が終了したことを撮影者に認識させるために視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を数回鳴らさせる。同時に視線検出回路101はLED駆動回路106を介して視標3をフル点灯させ、撮影者に視標3でのキャリブレーションデータ採取終了を知らせる(S331)。
【0238】
引続き視線検出回路101は信号入力回路104を介してスイッチSW1がOFF状態になっているかどうかの確認を行なう(S332)。スイッチSW1がON状態であればOFF状態になるまで待機し、スイッチSW1がOFF状態であれば視標3が消灯し、それと同時に下端の視標4(焦点検出点マーク306)が点滅を開始する(S333)(図16(d))。
【0239】
視線検出回路101は再度信号入力回路104を介してスイッチSW1がON状態になっているかどうかの確認を行なう(S334)。スイッチSW1がOFF状態であればONされるまで待機し、スイッチSW1がONされたら視線検出を実行する(S335)。
【0240】
視線検出回路101は視線検出のサブルーチンからの変数である眼球の回転角θx,θy、瞳孔径rp及び各データの信頼性を記憶する(S336)。ここでも図14のフローチャートを用いて行われ、EEPROM100aの視標4のアドレスに記憶される。
【0241】
更に視線検出回数nをカウントアップする(S337)。更に視線検出回数nが40回でなければ(S338)視線検出が続行される(S335)。視線検出回数nが40回であれば視標4に対する視線検出を終了するし、視標4に対する視線検出が終了したことを撮影者に認識させるために視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を数回鳴らさせる。同時に視線検出回路101はLED駆動回路106を介して視標4をフル点灯させ、撮影者に視標4でのキャリブレーションデータ採取終了を知らせる(S339)。これで視標1、視標2、視標3、視標4に対して視線検出が行なわれたなので、視線のキャリブレーションデータを求めるための視線検出は終了する。
【0242】
更に視線検出回路101に記憶された眼球の回転角θx,θy、瞳孔径rpより視線のキャリブレーションデータが算出される(S345)。視線のキャリブレーションデータの算出方法の概略は、以下の通りである。
【0243】
ピント板7上の視標1、視標2、視標3、視標4の座標をそれぞれ(x1,0),(x2,0),(0,y3),(0,y4)、EEPROM100aに記憶された視標1、視標2、視標3、視標4を注視したときの眼球の回転角(θx,θy)の平均値を(θx1,θy1),(θx2,θy2),(θx3,θy3),(θx4,θy4)とする。また、瞳孔径の平均値をr1,r2,r3,r4とする。
【0244】
X方向のキャリブレーションデータを求めるにあたっては、視標1、視標2のデータを用い、式(6)、(16)より、Y方向のキャリブレーションデータを求めるにあたっては、視標3、視標4のデータを用いる。
【0245】
そこで、瞳孔径の平均値のr1,r2の加重平均をrpx、瞳孔径の平均値のr3,r4の加重平均をrpyとすることで、ax,ay,kx,ky,b0x,b0Yのキャリブレーションデータが求まる。
【0246】
例えば、rpx,rpy≧rpの時、kx,ky=0と設定してされており、
・ax=(x1−x2)/m/(θx1−θx2)
・b0x=−(θx1+θx2)/2
・ay=(y3−y4)/m/(θy3−θy4)
・b0y=−(θy3+θy4)/2
前述の如く、(θx1,θy1),(θx2,θy2),(θx3,θy3),(θx4,θy4)それぞれには、4P像状態での(θ4px,θ4py)の平均値、3P像状態での(θ3px,θ3py)の平均値、2P像状態での(θ2px,θ2py)の平均値が存在し、4P像キャリブレーションデータと3P像キャリブレーションデータと2P像キャリブレーションデータの3つのキャリブレーション値算出(S340)について、図15のフローチャートで説明する。
【0247】
まず、EEPROM100aに記憶、蓄積された視標1〜4の2P像状態での(θ2px,θ2py)のデータ数を確認する(S501)。10回の視線検出を行って、所定範囲内(410a)にある2P像状態での(θ2px,θ2py)のデータが6以下であれば、キャリブレーションデータを算出しても信頼性が無いとして、再度、キャリブレーションを行う。(θ2px,θ2py)のデータが7以上であれば、キャリブレーションデータの信頼性があるとして、2P像のキャリブレーションデータの算出が行われる(S504c)。
【0248】
次に、(θ2px,θ2py)のデータから、観察者の個人特性でもある眼球回転角のバラツキとして、標準偏差(σθ2px,σθ2py)を求め、前記のax,ay,kx,ky,b0x,b0Yより、ピント板7の座標に換算した(σx2px,σy2py)を求め、EEPROM100aの所定のアドレスに記憶する(S505c)。
【0249】
次に、EEPROM100aに記憶、蓄積された視標1〜4の3P像状態での(θ3px,θ3py)のデータ数を確認する(S502)。(θ3px,θ3py)のデータ数が5以上であれば、キャリブレーションデータの信頼性があるとして、3P像のキャリブレーションデータの算出が行われる(S504b)。
【0250】
次に、(θ3px,θ3py)のデータから、観察者の個人特性でもある眼球回転角のバラツキとして、標準偏差(σθ3px,σθ3py)を求め、前記計算からのax,ay,kx,ky,b0x,b0Yより、ピント板7の座標に換算した(σx3px,σy3py)を求め、EEPROM100aの所定のアドレスに記憶する(S505b)。
【0251】
(θ3px,θ3py)のデータ数が4以下であれば、3P像のキャリブレーションデータの算出の信頼性が無く、2P像状態のキャリブレーションデータの算出のみが行われる(S504c)。
【0252】
次にEEPROM100aに記憶、蓄積された視標1〜4の4P像状態での(θ4px,θ4py)のデータ数を確認する(S503)。(θ4px,θ4py)のデータ数が3以上であれば、キャリブレーションデータの信頼性があるとして、4P像のキャリブレーションデータの算出が行われる(S504a)。
【0253】
次に、(θ4px,θ4py)のデータから、観察者の個人特性でもある眼球回転角のバラツキとして、標準偏差(σθ4px,σθ4py)を求め、前記計算からのax,ay,kx,ky,b0x,b0Yより、ピント板7の座標に換算した(σx4px,σy4py)を求め、EEPROM100aの所定のアドレスに記憶する(S505a)。
【0254】
(θ4px,θ4py)のデータ数が2以下であれば、4P像のキャリブレーションデータの算出の信頼性が無く、3P像状態、2P像状態のキャリブレーションデータの算出のみが行われる(S504b、S504c)。
【0255】
ここで、(θx1,θy1),(θx2,θy2),(θx3,θy3),(θx4,θy4)から、前記のキャリブレーションデータを求める際、4P像状態での(θ4px,θ4py)の平均値、3P像状態での(θ3px,θ3py)の平均値から、前記計算に基づき、ax,ay,kx,ky,b0x,b0Yのキャリブレーションデータが求められる(S503a、S503b、S503c)。
【0256】
また、眼球回転角のバラツキとして、各P像数状態の標準偏差(σθx,σθy)は、絶対値及び、σθxとσθyとの量的関係は、観察者の個人差があるが、同一観察者では、次の一般的傾向がある。
【0257】
x方向のσθxについては、σθ4px:θ3px:σθ2px≒1.0:1.1:1.1
y方向のσθyについては、σθ4py:θ3py:σθ2py≒1.0:1.2:1.6
ここで、y方向のσθ2pyが大きいのは、y方向のP像が得られない為である。
【0258】
この様に、1回のキャリブレーションデータ算出で、観察者の個人の眼球回転角のバラツキを含んだ、4P像のキャリブレーションデータ、3P像のキャリブレーションデータと2P像状態のキャリブレーションデータの3つが算出される。
【0259】
再び、図13に戻り、視線のキャリブレーションデータ算出(S340)後、あるいは視線検出の終了後にタイマーがリセットされる(S341)。
【0260】
又、キャリブレーションデータの信頼性の判定手段を兼ねた視線検出回路101は算出された視線のキャリブレーションデータが適正かどうかの判定を行なう(S342)。
【0261】
算出された視線のキャリブレーションデータが一般的な個人差の範囲に入っていれば適正と判定し、一方算出された視線のキャリブレーションデータが一般的な個人差の範囲から大きく逸脱していれば算出された視線のキャリブレーションデータは不適性と判定する。
【0262】
算出された視線のキャリブレーションデータが不適性と判定されると(S349)、LED駆動回路106はスーパーインポーズ用LEDへの通電を止めて視標4を消灯する(S349)。更に視線検出回路101はCPU100を介して図示されていない発音体を用いて電子音を所定時間鳴らし視線のキャリブレーションが失敗したことを警告する。同時にLCD駆動回路105に信号を送信しファインダー内LCD308及びモニター用LCD202に「CAL」表示を点滅させて警告する(S350)(図17(c))。
【0263】
発音体による警告音とLCD308,202による警告表示を所定時間行なった後キャリブレーションルーチンの初期ステップ(S301)に移行し再度視線のキャリブレーションを実行できる状態に設定される。
【0264】
又、算出された視線のキャリブレーションデータが適正であれば(S342)、視線検出回路101はLCD駆動回路105、LED駆動回路106を介して視線のキャリブレーションの終了表示を行なう(S343)。LCD駆動回路105はファインダー内LCD308及びモニター用LCD202に信号を送信して、「End−キャリブレーションNo」の表示を所定時間実行するようになっている(図19(b))。
【0265】
視線検出回路101は視線検出回数nを1に設定し(S344)、更に算出された視線のキャリブレーションデータを現在設定されているキャリブレーションデータナンバーに相当するEEPROMのアドレス上に記憶する(S345)。この時記憶を行なおうとするEEPROMのアドレス上に既に視線のキャリブレーションデータが記憶されている場合はキャリブレーションデータの更新を行なう。
【0266】
一連の視線のキャリブレーション終了後、カメラは撮影者によって電子ダイヤル205か、あるいはモード釦204a204b、204cが操作されるまで待機する。撮影者が電子ダイヤル205を回転させて他のキャリブレーションナンバーを選択したならば、視線検出回路101は信号入力回路104を介してキャリブレーションナンバーの変更を検知し(S346)、視線のキャリブレーションルーチンの初期ステップ(S301)に移行する。
【0267】
又、撮影者がモード釦204a204b、204cを操作させて、他の撮影モードを選択したならば、視線検出回路101は信号入力回路104を介して撮影モードの変更を検知し(S347)メインのルーチンに復帰する(S348)。尚、本実施例においては1点の視標を注視しているときの視線検出回数を10回にして視線のキャリブレーションを行なった例を示したが10回以上の回数で行なっても構わない。
【0268】
図7(b)、図7(c)、図7(d)で、図5の焦点検出点選択(S107)について、視線検出(S106)で求められた注視点座標(x、y)と注視点領域309を用いて説明する。
【0269】
いずれも、注視点座標(x、y)を(0,0)の中央点とする。
【0270】
図7(b)は、視線検出時、4P像状態の説明図である。
【0271】
撮影者の眼球を4つのIREDで照明すると、4つのプルキンエ像が得られることで、y方向の精度は、x方向の精度と同等になることで、注視点を(0,0)が決定される。
【0272】
前記の同一観察者の一般的傾向から、注視点を(0,0)を中心として、最も量的に小さいσx4p、σy4pを、短軸、長軸半径として、注視点領域309aが決定される。注視点領域309aを内包する注視点エリアC・Cに含まれる焦点検出点303のみにて、焦点検出点303が選択され(S107)、表示される(S108)。
【0273】
図7(c)は、視線検出時、3P像状態の説明図である。
【0274】
撮影者の上瞼、睫毛で、照明光源が遮られ、IREDに対応したプルキンエ像が得られるわけでは無い場合でも、前記3つのプルキンエ像が得られれば、y方向の精度は、ほぼx方向の精度と同等になることで、注視点を(0,0)が決定される。
【0275】
注視点を(0,0)を中心として、短軸、長軸半径をσx3p、σy3pとして、注視点領域309bが決定される。前記の同一観察者の一般的傾向から、量的には共にσx3p、σy3pは、σx4p、σy4pより大きく、注視点領域309bを内包する注視点エリアは、注視点エリアC・U、注視点エリアC・C、注視点エリアC・Dと成る。前記注視点エリア群に含まれる焦点検出点は、焦点検出点303、306、307の3つとなり、焦点検出点303、306、307の焦点検出情報から、被写体が近距離優先で少なくとも1つが選択され(S107)、表示される(S108)。
【0276】
図7(d)は、視線検出時、2P像状態の説明図である。
【0277】
下側2つのプルキンエ像しか得られ無い場合でも、2つのプルキンエ像に応じたキャリブレーションデータにて、注視点を(0,0)が決定される。
【0278】
注視点を(0,0)を中心として、短軸、長軸半径をσx2p、σy2pとして、注視点領域309dが決定される。σx2p、σy2pは、σx4p、σy4pより大きく、特にσy2pは、個人差に依らず、y方向のP像が得られない為、精度が得られないので、大きい。注視点領域309bを内包する注視点エリアは、注視点エリアC・U、注視点エリアC・C、注視点エリアC・Dと変わらず、前記注視点エリア群に含まれる焦点検出点は、焦点検出点303、306、307の3つとなり、焦点検出点303、306、307の焦点検出情報から、被写体が近距離優先で少なくとも1つが選択され(S107)、表示される(S108)。
【0279】
図7(e)は、本実施例の変形で、視線検出時、3P像状態の説明図である。
【0280】
注視点を(0,0)を中心として、短軸、長軸半径をσx3p、σy3pとして、注視点領域309bが決定される部分は、前記実施例と変わらないが、前記実施例の注視点エリアは存在せず、選択される焦点検出点は、注視点領域309bに焦点検出点の座標が含まれるか否かで決定される。注視点領域309aに内包される焦点検出点は、焦点検出点303のみにて、焦点検出点303が選択され(S107)、表示される(S108)。注視点エリアを用いない為、焦点検出点の選択がより迅速となる。
【0281】
本実施例と本実施例の変形において、各P像数状態の標準偏差(σθx,σθy)に所定の係数をかけ、注視点領域の範囲を調整することも可能である。
【0282】
(実施例の特有の効果)
本実施例では、特開平xx−xxxxxで公知の視線検出精度を高める為、撮影者の視線検出を行う際、撮影者の眼球を4つのIREDで照明する場合、原理的には、図24のIREDの虚像である4つのプルキンエ像が得られることになっているが、観察条件、個人差によって、観察者の上瞼、睫毛で、照明光源が遮られ、IREDに対応したプルキンエ像が得られるわけでは無い場合でも、図10のプルキンエ像の数と配置の状態を判別(図9 S211)して、予め前記状態に応じたキャリブレーションデータである4P像キャリブレーションデータと3P像キャリブレーションデータと2P像キャリブレーションデータの3つを用意し、選択使用することで、視線検出精度の向上を可能としている(図9 S215、S216a)。
【0283】
更に、前記視線検出結果である注視点位置を中心として、同様に図10のプルキンエ像の数と配置の状態を判別(図9 S211)を利用して、各P像数状態に対応した眼球回転角のバラツキとしての標準偏差(σθx,σθy)を、ピント板7の座標に変換した(σx,σy)を短軸、長軸とした楕円領域を注視点領域として求めること(図9 S216b)で、4つのプルキンエ像が得られる場合はもとより、観察条件、個人差によって、観察者の上瞼、睫毛で、照明光源が遮られ、IREDに対応したプルキンエ像が得られるわけでは無い場合でも、観察者が注視しているであろう注視点領域に反映させることを可能とした。
【0284】
前記観察者が注視しているであろう注視点領域に関連する焦点検出点(図7b303、図7c、図d 303、306、307)、実施例の変形では、注視点領域に含まれる焦点検出点(図7e 303)が選択され、所定のデフォーカス処理がされて、少なくとも1つの焦点検出点が選択され、焦点検出(図5 S110)され、レンズ駆動(S113)をふくめた合焦動作が行われることで、観察者が注視している焦点検出点を選択可能としている。
【0285】
また、図10の16通りのプルキンエ像の数と配置の状態から、プルキンエ像の存在確率と視線検出演算精度の2つから、下側2つのP像を基準とした4通りの前記状態の判別に簡略化することにより、視線検出演算、即ち視線検出速度のの迅速化を計っている。
【0286】
次に、キャリブレーションデータの取得である4つの視標1〜4を各10回の視線検出で行われるキャリブレーションにおいても、図10のプルキンエ像の数と配置の状態を判別(図9 S211)して、図14の如く、眼球光軸の回転角、θx、θyの算出に於いて、プルキンエ像数が4つである場合には、4つのプルキンエ像から(θ4px,θ4py)と下側2つから(θ2px,θ2py)を、3つである場合には、3つのプルキンエ像から(θ3px,θ3py)と下側2つから(θ2px,θ2py)を、2つである場合には、プルキンエ像数が下側2つから(θ2px,θ2py)を、一回の視線検出で得られた情報から、図10のプルキンエ像の数と配置の状態に応じた眼球光軸の回転角θx、θyの算出を同時に行い、それぞれをEEPROM100aのアドレスに記憶し、
図15の如く、キャリブレーションデータの採取が終わった時点で、それぞれのアドレスに記憶された(θ4px,θ4py)、(θ3px,θ3py)と、(θ2px,θ2py)の平均値から、個人の眼球回転角の補正係数ax,ay,kx,ky,b0x,b0Yを、4P像のキャリブレーションデータ、3P像のキャリブレーションデータと2P像キャリブレーションデータの3つを算出している(S504a、S504b、S504c)。その後、観察者の個人特性でもある眼球回転角のバラツキとして、標準偏差(σθx,σθy)から(σx,σy)を求めている。具体的には、同様に、(σx4p,σy4p)、(σx3p,σy3p)、(σx2p,σy2p)の4P像のキャリブレーションデータ、3P像のキャリブレーションデータと2P像キャリブレーションデータの3つを算出している(S505a、S505b、S505c)。
【0287】
このことにより、観察者は、個人の眼球回転角の補正係数ax,ay,kx,ky,b0x,b0Yと、眼球回転角のバラツキとしての(σx,σy)の2つのキャリブレーションデータを得るために、新たなキャリブレーションデータ取得動作、操作を行う事無く、従来のキャリブレーション動作と全く同じ1回のキャリブレーションデータ取得動作で、視線検出精度向上のためのキャリブレーションデータと眼球回転角のバラツキのキャリブレーションデータの2つを、4P像、3P像、2P像の3つのP像状態毎で、取得可能としている。
【0288】
図15で、それぞれのアドレスに記憶された(θ4px,θ4py)、(θ3px,θ3py)と、(θ2px,θ2py)のデータ数を確認することで、信頼性の無いキャリブレーションデータを算出しない効果を得ている。
【0289】
以上の効果を、観察者が、キャリブレーションさえを行えば、どの観察者にも与えること可能とした。
【0290】
【発明の効果】
請求項1においては、観察者の視線検出を行う際、視線補正手段で得られた補正データと観察者の眼球回転角のバラツキを予め取得し、観察者の視線検出をした上で、それを中心とする前記観察者の観察しているであろうとする注視点領域を決定することを可能としている。
【0291】
これは、観察者の眼球回転角のバラツキを含んだ個人特性を考慮した注視点領域を決定可能としている。
【0292】
そして、観察者が選択しようとしている焦点検出点の選択を可能としている。
【0293】
請求項2においては、観察者の視線検出を行う際、複数の照明光源より、撮影者の眼球の前眼部へ投射し、撮影者の眼球画像の状態である角膜反射像(プルキンエ像、P像)の角膜反射像数とその配置状態に応じたキャリブレーションデータ、即ち視線補正手段で得られた補正データと観察者の眼球回転角のバラツキを予め取得し、角膜反射像数とその配置状態を判断手段で判断し、前記補正データと観察者の眼球回転角のバラツキデータを選択使用することで、観察者の視線検出時の角膜反射像数とその配置状態に応じた視線検出精度の向上を可能とした上で、それを中心とする前記観察者の観察しているであろうとする注視点領域を決定することを可能としている。
【0294】
これは、観察条件、観察者の眼球回転角のバラツキを含んだ個人特性を考慮した注視点領域を決定可能としている。
【0295】
そして、観察者が選択しようとしている焦点検出点の選択を可能としている。
【0296】
請求項1、2においては、焦点検出点の選択動作で、注視点領域に関連した焦点検出点のみに、デフォーカス量を計算するので、迅速に行うことが可能。
【0297】
請求項3においては、観察者の眼球回転角のバラツキを、通常のキャリブレーション取得動作1回で、補正データと同時に行え、あらためて、取得動作を行う必要が無い。
【0298】
請求項4においては、観察者に新たな視線補正手段の取得動作、操作を行わせる事無く、一回の視線補正手段の取得動作で、角膜反射像数とその配置状態に応じた複数のキャリブレーションデータ、即ち視線補正手段で得られた補正データを取得すること可能とした。
【0299】
以上、特に、請求項2においては、複数の照明光源より観察画面内を覗く撮影者の眼球の前眼部へ投射し、角膜からの反射像と瞳孔結像位置より、前記撮影者の眼球光軸の回転角を検出し、前記回転角から観察者の視線を検出する視線検出手段において、視線検出精度の向上が計れる上に、観察者のあらゆる条件において、観察者の意図する焦点検出点の選択を迅速に行い、かつ、あらゆる観察者に、この効果を提供することを可能とした。
【図面の簡単な説明】
【図1】実施例のカメラ本体の要部概略図。
【図2】実施例のカメラ本体の外観図。
(a)実施例のカメラ本体の外観の上面図
(b)実施例のカメラ本体の外観の背面図
【図3】図1のファインダ視野内の表示状態の説明図である。
【図4】実施例の電気回路の要部ブロック図である。
【図5】実施例のカメラの作動シーケンス。
【図6】実施例の焦点検出点選択モード説明図。
【図7】(a)ファインダ視野内の注視点エリアの説明図である。
(b)焦点検出点選択とファインダ視野内の注視点エリアの関係説明図である。
(c)焦点検出点選択とファインダ視野内の注視点エリアと注視点領域の関係説明図。
(d)焦点検出点選択とファインダ視野内の注視点エリアと注視点領域の関係説明図。
(e)実施例の変形で、焦点検出点選択とファインダ視野内の注視点領域の関係説明図。
【図8】(a)実施例のカメラ本体の外部表示202の説明図である。
(b)ファインダ視野内の表示部308の説明図。
【図9】視線検出のフローチャート。
【図10】プルキンエ像の状態説明図。
【図11】キャリブレーションデータナンバーとキャリブレーションデータ説明図。
【図12】キャリブレーションのフローチャートその1。
【図13】キャリブレーションのフローチャートその2。
【図14】キャリブレーションでのθx、θy算出、データ記憶フローチャート。
【図15】キャリブレーションデータ算出のフローチャート。
【図16】(a)(b)(c)(d)キャリブレーションでの視標説明図。
【図17】キャリブレーションのファインダー内、外部表示説明その1。
【図18】キャリブレーションのファインダー内、外部表示説明その2。
【図19】キャリブレーションのファインダー内、外部表示説明その3。
【図20】従来の(IRED下側2つの)視線検出原理説明図。
【図21】(a)(b)眼球画像説明図。
【図22】(a)従来の眼球画像、プルキンエ像配置状態説明図。
(b)従来の視線検出原理説明図(x−z平面)。
(c)従来のIRED下側2つの視線検出原理説明図(y−z平面)。
【図23】(a)3つのIREDでの眼球画像、プルキンエ像配置状態説明図。
(b)3つのIREDでの視線検出原理説明図(y−z平面)。
【図24】4つのIREDでの眼球画像、プルキンエ像配置状態説明図。
【符号の説明】
7 ピント板
7a この微小プリズムアレイ
12 受光レンズ
13a〜13h 撮影者の眼15の照明光源(投光手段)
14 CCD等の光電素子列を2次元的に配したイメージセンサ
15 撮影者の眼
16 角膜
17 虹彩
101 視線検出回路
301,302,303,304,305,306,307 測距点マーク
200 本カメラ
300 ファインダー観察画面内
S211 プルキンエ像状態判別
S216b 注視点領域算出
S505a、S505b、S505c バラツキデータ算出
L3・T〜R3・B 注視点エリア[0001]
TECHNICAL FIELD OF THE INVENTION
BACKGROUND OF THE
[0002]
[Prior art]
2. Description of the Related Art Conventionally, various devices (for example, eye cameras) for detecting what position on an observation surface the observer is observing, that is, detecting a so-called line of sight (axial axis) have been proposed.
[0003]
For example, in Japanese Patent Application Laid-Open No. 1-274736, a parallel light beam from a light source is projected to the anterior segment of an eyeball of an observer, and a visual axis is formed by utilizing a corneal reflection image formed by reflected light from the cornea and an imaging position of a pupil. Seeking.
[0004]
Here, based on the principle of the line-of-sight detection method, when the arrangement state of the corneal reflection image (virtual image; Purkinje image or P image) is one-dimensionally and two-dimensionally, firstly the line-of-sight Secondly, it will be described how the detection calculation results are different, and secondly, the correction coefficients regarding the individual differences are different.
[0005]
FIG. 20 is a diagram illustrating the principle of the eye gaze detection method.
[0006]
First, the case where the arrangement state of the corneal reflection image (virtual image; Purkinje image or P image) is one-dimensionally described.
[0007]
The names and symbols of each part are the same as those in FIGS.
[0008]
FIG. 21A is a schematic diagram of an eyeball image projected on the
[0009]
Hereinafter, a method of detecting a line of sight will be described with reference to the above-described drawings.
[0010]
The infrared light emitted from the IRED 13b irradiates the cornea 17b of the user's
[0011]
Light beams from the ends a and b of the iris 17c form images of the ends a and b at positions a 'and b' on the
xc ≒ (xa + xb) / 2 (1)
It is expressed as
[0012]
Further, the x coordinate of the midpoint between the corneal reflection images d and e substantially matches the x coordinate xo of the center of curvature o of the cornea 17b. Therefore, if the x-coordinates of the corneal reflection image generation positions d and e are xd and xe, and the standard distance between the center of curvature o of the cornea 17b and the center c of the pupil 17d is Loc, the rotation of the optical axis 17a of the
Loc × sin θx ≒ (xd + xe) / 2-xc (2)
Satisfies the relational expression. Therefore, as shown in FIG. 21A, by detecting the position of each characteristic point (corneal reflection image and the center of the pupil) of the
[0013]
From the equation (2), the rotation angle of the optical axis 17a of the
β × Loc × sin θx ≒ {(xp0−δx) -xic} × Ptx (3)
β × Loc × sin θy {(yp0−δy) −yic} × Pty (4)
Is required. Here, β is an imaging magnification determined by the position of the
[0014]
Θx is the rotation angle of the eyeball optical axis in the zx plane, and θy is the rotation angle of the eyeball optical axis in the yz plane. (Xpo, ypo) is the coordinates of the midpoint of the two corneal reflection images on the
[0015]
When the rotation angle (θx, θy) of the user's eyeball optical axis 17a is calculated, the gazing point (x, y) on the observation surface of the user is:
x [mm] = m × ax × (θx + bx) (5)
y [mm] = m × ay × (θy + by) (6)
Is required. Here, the x direction indicates the horizontal direction with respect to the observer, and the y direction indicates the vertical direction with respect to the user. m is a conversion coefficient for converting the rotation angle of the
[0016]
A method of calculating the correction terms δx and δy of the position of the midpoint of the corneal reflection image (Purkinje image) will be described with reference to FIGS.
[0017]
An intersection point between the eyepiece lens exit surface and the optical axis (z-axis) of the visual line detection optical system is set as the origin. The coordinates of IRED1 are (-Sxi1, Syi, Szi), the coordinates of IRED2 are (Sxi1, Syi, Szi), and the coordinates of the center of curvature O of the cornea of the eyeball of the photographer are (Sxc, Syc, Szc).
[0018]
The midpoint P0 between the Purkinje images d and e is equivalent to the position of the Purkinje image generated by one IRED located at the midpoint between the
[Outside 1]
[0019]
From Abbe's invariant, the distance K from the corneal surface to the position where the Purkinje image occurs is:
[Outside 2]
[0020]
It is expressed as The shift amount δx (the shift amount in the CCD coordinate system; Δx in the eyeball coordinate system) of the midpoint P0 of the Purkinje images P1 and P2 in the x direction is:
[Outside 3]
[0021]
Satisfy the relationship. Expanding the above equation, the shift amount δx becomes
[Outside 4]
[0022]
It becomes. Similarly, the shift amount δy in the y direction of the midpoint P0 of the Purkinje images P1 and P2 is
[Outside 5]
[0023]
Here, if the imaging magnification β of the visual line detection optical system is defined as a quadratic function of the distance Sz from the eyepiece exit surface (origin),
β = b1 · Sz 2 + B2 · Sz + b3 (12)
It becomes. The coefficients b1 to b3 are calculated by obtaining the imaging magnification at a predetermined distance by an optical simulation, and quadratic approximating the values.
[0024]
The imaging magnification βp of the Purkinje image is represented by Szp where the distance in the z direction from the vertex of the cornea is Szp.
βp = b1 (−Szp−Szc) 2 + B2 (-Szp-Szc) + b3 (13)
It becomes.
[0025]
Hereinafter, in order to obtain Szp and Szc, the calculation routine is executed a plurality of times to converge Szp and Szc.
[0026]
Here, when Expression (9) and Expression (11) are compared, in Expression (11),
[Outside 6]
[0027]
Is added.
[0028]
This is due to the absence of the Purkinje image in two dimensions because the IRED does not exist in the y-axis direction with respect to the z-axis as shown in FIG. It is. That is, the shift amount δy in the y direction cannot be directly obtained from the midpoint P0 of the Purkinje images P1 and P2.
[0029]
For this reason, the shift amount δy in the y direction is different from the shift amount δx in the x direction by other approximation calculation errors in the convergence calculation, such as the above-described second-order approximation of the coefficients b1 to b3, This method has a drawback that accuracy is inferior due to the addition of a conversion error.
[0030]
Therefore, in the rotation angle (θx, θy) of the optical axis 17a of the user's eyeball obtained by Expression (3) including δx and Expression (4) including δy, θy has a disadvantage that accuracy is inferior to θx. .
[0031]
When the eyeball rotation angles θx and θy of the photographer are calculated from Expressions (3) including δx and Expression (4) including δy, ax, bx, and the individual differences from Expressions (5) and (6) are calculated. The correction coefficients of ay and by are given, and the coordinates on the focus plate are calculated.
[0032]
Here, in order to avoid the disadvantage that the accuracy of θy is inferior, as shown in FIG. 2B, the
[0033]
This will be described with reference to FIG. 23 to which irradiation of the
[0034]
Equation (4) is
β × Loc × sin θy {(yp1-δy) −yic} × Pty (4) ″
And for the correction term δy,
[Outside 7]
It can be seen that the shift amount δy in the y direction is the same as the shift amount δx in the x direction in Expression (3).
[0035]
Here, the value of δy in the formula (11) obtained from the corneal reflection images of the conventional
[0036]
This is because when the observer observes the same gazing point, the obtained value of θy is different between the case where the arrangement state of the corneal reflection image is one-dimensional and the case where the arrangement state of the corneal reflection image is two-dimensional. This shows that θy obtained in a state where the Purkinje image is arranged two-dimensionally by adding the irradiation of 13c is more accurate.
[0037]
Next, even if the correction coefficients of ax, bx, ay, and by regarding the individual differences given by Expressions (5) and (6) calculated from the eyeball rotation angles θx and θy are the same, the
[0038]
The above is the gaze detection principle.
[0039]
In contrast to this principle, two factors from the observer's observation conditions and individual differences are added to actual gaze detection, and there are the following three problems.
[0040]
One is that when the observer gazes at the same point a plurality of times, the gaze detection result is originally the same, but actually, the result varies. This is an individual difference due to physiological fixation tremor (the conscious point is gazing at one point, but the actual gazing point is slightly moving), an optical device holding method, and the like.
[0041]
Here, acquisition of the correction coefficients of ax, bx, ay, and by regarding the individual difference given by the equations (5) and (6) calculated from the eyeball rotation angles θx and θy is performed by gazing at the same point of the same individual. This is performed by a predetermined calculation from a plurality of gaze detections. Like the correction coefficient, even if the gaze of the same point is performed, the variation in the gaze detection result also has individual differences among observers.
[0042]
That is, as the first problem, at present, it is possible to obtain correction coefficients of ax, bx, ay, and by regarding the individual difference given by Expressions (5) and (6) by a predetermined calculation from a plurality of gaze detections. Even so, the variation in the value due to individual differences is not taken into account.
[0043]
Second, when a viewer's line of sight is detected, a Purkinje image corresponding to the illumination light source is not necessarily obtained. In particular, the upper corneal reflection image corresponding to the upper light emitting diode 13e is caused by that the illumination light source is blocked by the upper eyelids and eyelashes of the observer depending on the observation conditions and individual differences. Even if the above-mentioned new illumination light source is added, a Purkinje image corresponding thereto is not always obtained.
[0044]
Therefore, as a second problem, when the observer observes the same gazing point and detects the line of sight, if the Purkinje image corresponding to the addition of the above-mentioned new illumination light source cannot be obtained, the obtained value of θy becomes In contrast, the accuracy in the y direction of the calculation result of the gazing point position decreases.
[0045]
As a third problem, as described above, if the correction coefficients of ax, bx, ay, and by regarding the individual difference are uniformly given without considering the state of the corneal reflection image described above, the correction coefficients in the y-axis direction can be obtained. Problems remain in accuracy.
[0046]
Therefore, there is a proposal that light emitting
[0047]
When three corneal reflection images are obtained corresponding to the
[0048]
FIG. 24 shows each characteristic point (corneal reflection image and corneal reflection image) of the
[0049]
When four corneal reflection images corresponding to the
[0050]
For the second and third problems described above, as a conventional proposal, Japanese Patent Application Laid-Open No. xx-xxxxxx (Canon, Otani Honto, reference number 431030) uses one operation of acquiring the individual difference correction coefficient to perform corneal reflection. Acquisition of ax, bx, ay, and by the correction coefficient corresponding to the number of images and the arrangement state, determining the number of corneal reflection images and the arrangement state at the time of gaze detection of an observer, and providing the corresponding correction coefficient, Improving accuracy.
[0051]
However, when the observer gazing at a certain point, which is the first problem, there is no conventional proposal that takes into account the individual differences in the sight line detection results.
In Japanese Patent Application Laid-Open No. 8-152552 (Olympus), each focus area is weighted based on the fixation point information from the line-of-sight detection information and the reliability of the line-of-sight information, and further from the distance measurement information. The focus area with the highest score is selected as the distance measurement point from the sum of the above, and the focus is adjusted.
[0052]
However, in the gaze detection in the previous stage, “the reliability of gaze point information and gaze information from gaze detection information” does not take into account the number and arrangement of corneal reflection images, and also takes into account variations in individual differences. This is not a proposal for the first, second, and third problems.
[0053]
[Problems to be solved by the invention]
Therefore, in order to project the image to the anterior segment of the eyeball of the observer and obtain feature points (corneal reflection image and center of the pupil) from the eyeball image, a new corneal reflection image (virtual image; Purkinje image or The gaze detection means provided with the illumination light source to obtain the P image) can determine the gaze point area intended by the observer in consideration of the individual difference in the gaze detection accuracy of the observer and the gaze detection result of the observer. Is a problem.
[0054]
Next, an object is to make it possible to select at least one focus area from a plurality of focus areas arranged two-dimensionally on an observation screen from a fixation area which is the line of sight of the observer.
[0055]
[Means for Solving the Problems]
In selecting a plurality of focus detection points, a line-of-sight detecting means provided with an illumination light source that obtains a new corneal reflection image (virtual image; Purkinje image or P image) also in the y-axis direction, 1, a means for counting the number of corneal reflection images and a means for judging a corneal reflection image state for judging an arrangement state of the corneal reflection images are provided.
[0056]
Secondly, the gaze correction unit (calibration) determines the arrangement of the corneal reflection image and the unit for counting the number of corneal reflection images in the known Japanese Patent Laid-Open No. xx-xxxxxx (Canon, proposed by Otani Honto, serial number 431030). When acquiring the correction coefficients of ax, bx, ay, and by regarding the individual difference according to the corneal reflection image state, means for simultaneously acquiring the variation of the correction coefficients is provided.
[0057]
Third, after calculating a gazing point position which is a result of a gaze detection calculation from the result of the corneal reflection image state determination means, that is, the arrangement state of the corneal reflection image, the gaze correction means (calibration) Means is provided for determining a gazing point area in consideration of individual differences in how much the gazing point position of the observer's line of sight varies with the variation of the acquired correction coefficient.
[0058]
Fourthly, there is provided means for selecting at least one focus area from a plurality of focus detection points included in the gazing point area.
[0059]
As an operation thereof, the gaze point of the gaze of the observer is determined by the first and second means in accordance with the state of the obtained corneal reflection image in the gaze detection of the observer and in consideration of individual differences of the observer. The position can be obtained with high accuracy.
[0060]
From the second and third means, it is possible to obtain a gazing point area in consideration of the gazing point position of the gazing point of the observer obtained with high accuracy and the variability of the gazing point detection caused by the individual difference.
[0061]
From the fourth means, the focus area intended by the observer can be selected.
[0062]
BEST MODE FOR CARRYING OUT THE INVENTION
The camera of the present embodiment is an autofocus camera having a line-of-sight detection device that detects the rotation angle of the optical axis of the eyeball of the photographer and calculates the line of sight of the photographer from the rotation angle.
[0063]
FIG. 1 is a schematic view of a main part of a single-lens reflex camera according to the present invention.
[0064]
In FIG. 1,
[0065]
[0066]
Reference numeral 7 denotes a focusing plate arranged on a predetermined imaging plane of the photographing
[0067]
Next, behind the exit surface of the
[0068]
The
[0069]
[0070]
Therefore, the micro prism array 7a is formed on a frame at a plurality of positions (focus detection point mark portions) corresponding to the focus detection points of the focus plate 7, and the micro prism array 7a is formed on each of the seven LEDs 21 (each LED-L1). , LED-L2, LED-C, LED-R1, LED-R2, LED-T, LED-B).
[0071]
As a result, as shown in FIG. 3, each of the focus detection point marks 301, 302, 303, 304, 305, 306, and 307 shines in the viewfinder field to indicate that they are focus detection points. It is possible (hereinafter referred to as superimposed display).
[0072]
Here, the distance measurement point marks 301, 305, 306, and 307 at the upper, lower, right, and left sides are lit when individual difference correction data (gaze correction coefficient) of the eyeball is collected (hereinafter, this operation is referred to as calibration). . In the calibration of the camera, the data is accumulated up to a predetermined number of times each time the photographer performs the calibration, and is calculated by a predetermined averaging operation.
[0073]
[0074]
[0075]
2A and 2B are external views of the camera body of the present invention, and the interchangeable photographing
[0076]
200 is a camera body, 201 is a release button, 202 is a monitor LCD as an external monitor display device, as shown in FIG. 8, a fixed
[0077]
[0078]
When the mode buttons 45b and 45c are pressed at the same time, the mode becomes a “line-of-sight calibration” mode for collecting personal difference correction data (line-of-sight correction coefficient) of the eyeball described later.
[0079]
[0080]
FIGS. 8A and 8B are explanatory diagrams showing the contents of all display segments of the
[0081]
[0082]
The 7-
[0083]
8B, 811 denotes a camera shake warning mark, 812 denotes an AE lock mark, 813 and 814 denote the same display segments as the
[0084]
[0085]
Here, assuming that a predetermined focus
[0086]
Further, when the
[0087]
When the focus detection point
[0088]
In addition to the above-described focus detection point selection mode in which the photographer can select an arbitrary focus detection point, the
[0089]
In the present embodiment, the
[0090]
[0091]
[0092]
FIG. 4 is a main block diagram of an electric circuit built in the camera of the present invention. 4, the same components as those in FIGS. 1 and 2 are denoted by the same reference numerals.
[0093]
A central processing unit (hereinafter referred to as a CPU) 100 of a microcomputer built in the camera body includes a line-of-
[0094]
The
[0095]
The EEPROM 100a attached to the
[0096]
Calibration data can be set multiple times, can be distinguished by the person who uses the camera, when the same user has different observation conditions, for example, when using glasses or not, or when using a diopter correction lens This is effective for setting up a case where it is used and a case where it is not.
[0097]
The calibration number selected at this time is stored in the EEPROM 100a as a calibration data number (1, 2, 3,... Or 0) as described later.
[0098]
In the present embodiment, the calibration data stored in one calibration number includes the variation in the eyeball rotation angle in the calibration data at the normal position and the vertical position as described later with reference to FIG. Have been. In addition, calibration data is stored therein according to the number and arrangement of the reflected images of the cornea.
[0099]
The line-of-sight detection circuit 101 A / D converts the output of the eyeball image from the image sensor 14 (CCD-EYE), and transmits this image information to the CPU. As will be described later, the
[0100]
The
[0101]
As described above, the
[0102]
SW1 is turned on with the first stroke of the
[0103]
The mode buttons 44a, 44b, 44c are not shown.
[0104]
The signals of these switches are input to the
[0105]
[0106]
The
[0107]
The
[0108]
When energized, the
[0109]
The
[0110]
The right and left grip /
[0111]
The terminals other than the P-GND and VBAT of the
[0112]
The
[0113]
Next, an operation flowchart of the camera of this embodiment will be described with reference to FIG.
[0114]
When the
[0115]
Next, the state of the
[0116]
If the mode is not the line-of-sight input mode, the line-of-sight input is prohibited and the mode is changed to the focus detection point arbitrary selection mode (S101a).
[0117]
If the mode is not the focus detection point selection mode, the process enters the focus detection point automatic selection mode (S101b). Here, without using the line-of-sight information, the camera itself executes a subroutine of selecting a focus detection point by a predetermined algorithm from the focus detection results of all the focus detection points corresponding to the seven focus detection point marks in FIG. .
[0118]
In steps S101a and S101b, the
[0119]
The variables used for line-of-sight detection other than the line-of-sight calibration data stored in the EEPROM 100a of the
[0120]
Then, the camera waits until the
[0121]
Next, when performing gaze detection, the
[0122]
At this time, if the calibration data of the confirmed calibration data number is unchanged from the initial value, the line of sight detection is performed with this initial value. In addition, even if the calibration data number is the same, if partial calibration is not performed and the calibration data number is the initial value, the gaze detection is performed using the calibration data that is not the initial value. For example, when the calibration data exists only at the correct position in the camera vertical position, the correct position calibration data is used.
[0123]
Next, when it is recognized that the calibration data of the line of sight corresponding to the calibration data number is set to a predetermined value and the data is input by the photographer, the line of
[0124]
At this time, the
[0125]
Further, the set shutter time is displayed in 7
[0126]
The gazing point area is included in any gazing point group, and after selecting the corresponding gazing point area group from the seven focus detection point marks in FIG. 3 (S107), the selected focus detection is performed. The focus area, which is a point mark, becomes a focus detection point and is lit and displayed (S108).
[0127]
In FIG. 7A, the
[0128]
In FIG. 7A, assuming that the gazing point is coordinates (x, y), the
[0129]
The photographer sees that the focus detection point selected by the photographer's line of sight is displayed, recognizes that the focus detection point is incorrect, releases the
[0130]
When the photographer observes that the selected focus detection point is lit and displayed, and keeps pressing the
[0131]
If the focus detection is possible (S111) and the focus adjustment state of the focus detection point selected by the predetermined algorithm is not in focus (S112), the
[0132]
If the focus cannot be detected (S111), the
[0133]
If the photographing
[0134]
The photographer observes that the focused focus detection point is displayed in the viewfinder, recognizes that the focus detection point is incorrect, releases the release button 41, and turns off the switch SW1 (S115). Waits until the switch SW1 is turned on (S102).
[0135]
When the photographer sees the focus detection point displayed in focus and continues to turn on the switch SW1 (S115), the
[0136]
In the case of the present embodiment, in the seven photometric areas SPC-A to SPC-G, a known weighted photometric calculation is performed centering on the photometric area including the selected focus detection point mark in FIG. An aperture value (F5.6) is displayed as a result of this calculation using the seven
[0137]
Further, it is determined whether or not the
[0138]
First, power is supplied to MG2, the
[0139]
Further, when the mode buttons 45b and 45c are simultaneously pressed during a series of operations other than the shutter release operation (S118) of the camera shown in FIG. 5, individual difference correction data (eye correction coefficient) of the eyeball is collected. When the
[0140]
FIG. 9 is a flowchart of gaze detection (S106). As described above, the line-of-
[0141]
In the case of gaze detection in the photographing mode, the
[0142]
Next, infrared light emitting diodes (hereinafter referred to as IREDs) 13a to 13D are determined based on presence / absence of the photographer's spectacle information included in the previously detected posture information of the camera and the calibration data, and the presence or absence of calibration data corresponding to a P image state described later. 13h is selected, and irradiation is performed (S204).
[0143]
S204 will be described with reference to the flow of FIG.
[0144]
That is, if the camera is held in the correct position and the photographer does not wear glasses, the
[0145]
At this time, a part of the illumination light reflected by the eyeglasses of the photographer reaches an area other than a predetermined area on the
[0146]
Next, the calibration data (FIG. 15, S503a, S503b) and the 2P image calibration data (FIG. 15, S503c) of the 3P image or more stored in the respective addresses (FIG. 11) of the EEPROM 100a to be described later are initialized to the initial values. Or not. Therefore, it is determined that there is no calibration data for the initial value.
[0147]
Next, the storage time of the image sensor 14 (hereinafter referred to as CCD-EYE) and the illumination power of the IRED are set based on the photometric information, the photographer's eyeglass information, and the like (S205). The accumulation time of the CCD-EYE and the illumination power of the IRED may be set based on values determined from the contrast of the eyeball image obtained at the time of the previous line-of-sight detection.
[0148]
When the CCD-EYE accumulation time and the illumination power of the IRED are set, the
[0149]
Further, the CCD-EYE ends the accumulation according to the previously set accumulation time of the CCD-EYE, and at the same time, the IRED is turned off. If it is not in the line-of-sight calibration mode (S207), a CCD-EYE reading area is set (S208).
[0150]
Except for the first gaze detection after the power of the camera body is turned on, the CCD-EYE reading area is set based on the CCD-EYE reading area at the time of the previous gaze detection. When the posture changes, or when the presence or absence of glasses changes, the reading area of the CCD-EYE is set to the entire area.
[0151]
When the reading area of the CCD-EYE is set, the reading of the CCD-EYE is executed (S209). At this time, an area other than the read area is blank-read, and is actually skipped. This is for the purpose of quick gaze detection. The image output read from the CCD-EYE is A / D converted by the eye-
[0152]
That is, in the
[0153]
Next, the center position (Xic ', Yic') of the pupil is calculated by detecting a plurality of boundary points between the
[0154]
The
[0155]
Also, a CCD-EYE reading area is set based on the position of the Purkinje image and the position of the pupil. At this time, the reading area of the CCD-EYE is set to a range including the detected pupil and detecting the entire pupil even if the position of the pupil changes by a predetermined amount. And it goes without saying that the size is smaller than the size of the iris.
[0156]
The CCD-EYE reading area is set to a rectangle, and the coordinates of two diagonal points of the rectangle are stored in the eye-
[0157]
Here, in principle, four Purkinje images, which are virtual images of the IRED in FIG. 24, are to be obtained. However, when the gaze of the photographer is detected, depending on the observation conditions and individual differences, the upper part of the photographer may differ. Since the illumination light source is blocked by the eyelids and eyelashes, and a Purkinje image corresponding to the IRED is not necessarily obtained, the number and arrangement of the Purkinje images are determined as the Purkinje image state determination (S211).
[0158]
In the present embodiment, when the Purkinje image is not obtained or when only one Purkinje image is obtained, it is determined that the line of sight cannot be detected or the line of sight detection accuracy is significantly reduced, so that it is determined that there is no line of sight reliability and the process returns to S201.
[0159]
FIG. 10 illustrates the number and arrangement of Purkinje images. The P image state discrimination and the number of P images indicate a state in which four Purkinje images exist according to the number of Purkinje images (P images in the figure) as a 4P image state, up to a state without a P image, and a P image state diagram. Shows the existence state of the four Purkinje images P1, P2, P3, and P4 in FIG. 24, and the P image coordinates used for calculating Xpo and Ypo are P1 (Xe ', Ye'), P2 (Xd ', Yd '), P3 (Xe ", Ye"), and P4 (Xd ", Yd") are used to calculate Xpo and Ypo.
[0160]
As shown in FIG. 10, there are 16 possible arrangements of the obtained Purkinje images and 16 arrangements of the obtained Purkinje images with respect to four IRED photographer's eyeball illuminations.
[0161]
In this embodiment, in order to speed up the selection by distinguishing the line-of-sight detection calculation, in particular, the Purkinje image from other characteristic points, the
[0162]
Next, the position P4 (Xd ", Yd") of the Purkinje image corresponding to the
[0163]
That is, the Purkinje images P3 and P4 are detected based on the Purkinje images P1 and P2 corresponding to the
[0164]
This is because the detection of the four Purkinje images P1, P2, P3, and P4 can be performed quickly, and the illumination light source may be blocked by the upper eyelids and upper eyelashes depending on the photographer's observation conditions and individual differences. Therefore, the Purkinje images P1 and P2 corresponding to the
[0165]
As described above, in the present embodiment, based on the positions of the two Purkinje images existing on the lower side on the Y axis, the number and arrangement of the four types of Purkinje images surrounded by the thick frame in FIG. Judge the state.
[0166]
If it is determined that the number and arrangement of the four types of Purkinje images surrounded by the thick frame in FIG. 10 are not the same, it is determined that there is no line-of-sight reliability, and the process returns to S201. Returning to S201, if it is determined again that there is no line-of-sight reliability in S211, the process enters the focus detection point automatic selection mode (S101b) in FIG.
[0167]
In FIG. 10, the used calibration data is calibration data obtained by a calibration described later. In this embodiment, the 4P image calibration data and the 3P image calibration data are used for the number and arrangement of the four Purkinje images. Three pieces of image calibration data and 2P image calibration data are used. The use calibration data also includes σθx and σθy, which are variations in the eyeball rotation angle in two directions (X direction and Y direction) described later, and σx and σy obtained by converting the values into coordinates of the focus plate 7. I have.
[0168]
When the analysis of the eyeball image is completed, the eye-
[0169]
That is, when the photographer's glasses information in the calibration data is set to use, for example, glasses, and the IREDs 13c, 13d, 13g, and 13h of the IRED shown in FIG. 2B are turned on. If the distance between the Purkinje images is larger than a predetermined size, the photographer is recognized as a spectacle wearer, and the spectacle information is determined to be correct.
[0170]
Conversely, if the distance between the Purkinje images is smaller than a predetermined size, the photographer is recognized as the naked eye or the contact lens wearer, and it is determined that the eyeglass information is incorrect. If it is determined that the eyeglass information is incorrect (S212), the eye
[0171]
If it is determined that the eyeglass information is correct (S212), the distance between the
[0172]
Next, it is confirmed whether or not the mode is the calibration mode (S214). If it is in the calibration mode, data processing described later with reference to FIG. 14 is performed. If it is not in the calibration mode, the rotation angles θx and θy of the optical axis of the eyeball are calculated (S215).
[0173]
The rotation angles θx and θy of the optical axis of the
θx {ARCSIN} ((xp0−δx) −xic) / β / Loc} (6)
θy {ARCSIN} ((yp0-δy) -yic) / β / Loc} (7)
Is represented by
[0174]
However, the calculation method of xp0 and yp0 differs depending on the arrangement state of the Purkinje image in FIG.
[0175]
For example, in the 2P image state of FIG. 10, the coordinates of the midpoint P0 of the Purkinje images P1 (Xe ', Ye') and P2 (Xd ', Yd') in FIG. 22A are (xpo, ypo). Used. In the 3P image state, xp0 is set as the midpoint of the X coordinate of the Purkinje images P1 (Xe ', Ye') and P2 (Xd ', Yd'), and yp0 is the Purkinje images P2 (Xd ', Yd'), P4. (Xd ″, Yd ″) or the midpoint of the Y coordinate of the Purkinje images P1 (Xe ′, Ye ′) and P3 (Xe ″, Ye ″). In the 4P image state, the coordinates of the midpoint P0 of the Purkinje images P1 (Xe ', Ye'), P2 (Xd ', Yd'), P3 (Xe ", Ye"), and P4 (Xd ", Yd"). Is used as (xpo, ypo).
[0176]
δx and δy are correction terms for correcting the center positions of the two Purkinje images in equations (10), (10) ″, and (11).
[0177]
δx is obtained by equation (10), but δy is obtained by equation (11) when the image is in the 2P image state, and is obtained by equation (10) ″ when the image is in the 3P and 4P image states. The difference is whether or not there is a ypo that can be handled in the same way as δx and can be directly calculated in the Y direction.
[0178]
For example, in the 2P image state of FIG. 10, the coordinates of the midpoint P0 of the Purkinje images P1 (Xd ′, Yd ′) and P2 (Xe ′, Ye ′) in FIG. 22A are (xpo, ypo). Used.
[0179]
In the 3P image state, the midpoint of the X coordinate of the Purkinje images P1 (Xd ', Yd') and P2 (Xe ', Ye') is xp0, and the Purkinje images P1 (Xd ', Yd') in the Y direction. The midpoint of the Y coordinate of P3 (Xd ", Yd") or the Purkinje images P2 (Xe ', Ye') and P4 (Xe ", Ye") is xp0. In the 4P image state, the midpoint P0 of the Purkinje images P1 (Xd ', Yd')), P2 (Xe ', Ye'), P3 (Xd ", Yd"), and P4 (Xe ", Ye") is obtained. The coordinates are used as (xpo, ypo).
[0180]
Thus, it can be seen that the Purkinje image state determination (S211) is also necessary for calculating the rotation angles θx and θy of the optical axis of the eyeball.
[0181]
When the rotation angles θx and θy of the photographer's eyeball are determined, the position (x, y) of the line of sight on the focus plate 7 is obtained from the equations (5) and (6).
x [mm] = m × ax × (θx + bx) (5)
y [mm] = m × ay × (θy + by) (6)
(S216). However, ax, ay, bx, and by are parameters for correcting individual differences in the line of sight, and ax and ay are calibration data.
[0182]
In this embodiment, as shown in FIG. 10, two or more 3P image calibration data and 2P image calibration data are used in accordance with the method of calculating the rotation angles θx and θy of the optical axis of the eyeball. Here also, it is found that the Purkinje image state determination (S211) is necessary.
[0183]
Here, bx and by corresponding to the correction amounts of the optical axis and the visual axis of the eyeball in the horizontal direction (x direction) and the vertical direction (y direction) are:
bx = kx × (rp−rx) + b0x (15)
by = ky × (rp−rx) + b0y (16)
And is a function of the pupil diameter rp. Here, rx is a constant, and kx, ky, b0x, and b0y are calibration data.
[0184]
When the position (x, y) of the line of sight on the focus plate 7 is obtained (S216a), the focus is then obtained from the variation (σθx, σθy) of the eyeball rotation angle in the calibration data described later with reference to FIG. From the coordinates (σx, σy) converted to the coordinates on the plate 7, a gazing point area centered on the position (x, y) of the line of sight on the focus plate 7 is obtained (S216b).
[0185]
First, the variation ranges σx and σy using the equations (5) and (6) are obtained from the following equations.
σx [mm] = m × ax × (σθx + bx) (5) ′
σy [mm] = m × ay × (σθy + by) (6) ′
Next, an elliptical area having the short-axis and long-axis radii as σx and σy with respect to the line of sight (x, y) on the focus plate 7 is determined. This region is set as the gazing point region (S216b).
[0186]
Here, for example, the short-axis and long-axis radii are σx and σy, respectively. At the time of gaze detection, σx2p and σy2p in the 2P image state in FIG. 10, σx3p and σy3p in the 3P image state, and Then, σx4p and σy4p are used.
[0187]
Thus, it can be seen that the Purkinje image state discrimination (S211) is necessary also in calculating the gazing point area.
[0188]
The method of obtaining the line-of-sight calibration data will be described later.
[0189]
When the coordinates of the line of sight on the focus plate 7 and the gazing point area are obtained, a flag indicating that the line of sight has been detected is set (S217), and the process returns to the main routine (S218).
[0190]
The line-of-sight detection flowchart shown in FIG. 9 is also effective in the line-of-sight calibration mode. In S201, if it is determined that the gaze detection is in the calibration mode, then it is determined whether or not the current gaze detection is the first gaze detection in the calibration mode (S220).
[0191]
When it is determined that the current line-of-sight detection is the first line-of-sight detection in the calibration mode, the ambient brightness is measured to set the accumulation time of the CCD-EYE and the illumination power of the IRED ( S203). The subsequent operation is as described above.
[0192]
If it is determined that the current line-of-sight detection is the second or more line-of-sight detection in the calibration mode (S201), the CCD-EYE accumulation time and the IRED illumination power adopt the previous values, and immediately the IRED. And the accumulation of CCD-EYE is started (S206).
[0193]
If the gaze calibration mode is set and the number of gaze detections is the second or more (S207), the same area as the CCD-EYE read area is used as the previous area, so that the CCD-EYE is immediately stored as soon as the CCD-EYE accumulation is completed. Is read out (S209). The subsequent operation is as described above.
[0194]
In the visual axis detection flowchart shown in FIG. 9, the variables at the time of returning to the main routine are the coordinates (x, y) of the visual axis on the focus plate in the case of the normal visual axis detection, and In the viewpoint area, in the case of gaze detection in the gaze calibration mode, the rotation angle (θx, θy) of the optical axis of the eyeball of the photographer. The other variables such as the reliability of the detection result, the CCD-EYE accumulation time, and the CCD-EYE reading area are common.
[0195]
In this embodiment, the photometric information detected by the
[0196]
12 to 15 are flowcharts of the line-of-sight calibration, and FIGS. 17 to 19 show the display states of the
[0197]
In the present embodiment, four focus detection point marks 305, 301, 306, and 307 of the seven focus detection point marks 305, 301, 306, and 307 in FIG. The gaze is calibrated once by sequentially gazing once as the
[0198]
In FIG. 12, when the photographer simultaneously presses the mode buttons 45b and 45c, the mode is set to the line-of-sight calibration mode, the
[0199]
The
[0200]
FIG. 11 shows the types of calibration data stored in the EEPROM 100a of the
[0201]
The initial value of the calibration data is set to a value such that the line of sight is calculated using standard eyeball parameters. In addition, it also has a flag indicating whether the photographer uses spectacles and the degree of reliability of the calibration data. The initial value of the flag indicating the presence or absence of spectacles is set to “1” as if the spectacles are used, and the initial value of the reliability flag of the calibration data is set to “0” so as not to be reliable. ing.
[0202]
The currently set calibration mode is displayed on the
[0203]
At this time, if the calibration data of the set calibration number is the initial value, the calibration number displayed on the
[0204]
As a result, the photographer can recognize whether or not each of the currently set calibration numbers already contains calibration data. Also, as shown in FIG. 17A, the initial value of the calibration data number is set to “1”.
[0205]
Returning to FIG. 12, the timer set in the
[0206]
When the photographer rotates the
[0207]
First, when the
[0208]
The state shown in FIG. 18 indicates that "CAL-1, 2, 3" already contains calibration data, and "CAL-4, 5" does not contain calibration data, and remains at the initial value. ing. When rotated in the counterclockwise direction, it is displayed in the opposite direction to the direction in FIG.
[0209]
When the photographer selects a desired calibration number while looking at the calibration numbers displayed on the
[0210]
However, the storage of the calibration data number in the EEPROM 100a is not executed unless the confirmed calibration data number has been changed.
[0211]
Subsequently, the line-of-
[0212]
Here, when the photographer again presses the mode buttons 45b and 45c at the same time, the gaze calibration mode is set, the calibration number used for gaze detection is displayed, and the calibration operation starts.
[0213]
If it is confirmed that the eye-gaze calibration mode is still set, the calibration data number set with the
[0214]
When it is detected that the posture of the camera is at the normal position (S306), the
[0215]
In order to prevent the photographer from starting calibration on the camera side before the photographer is ready to calibrate the gaze, the
[0216]
When the
[0217]
If the ON signal of the switch SW1, which is a trigger signal for starting the line-of-sight calibration, is not input, the camera stands by (S310). When the photographer gazes at the
[0218]
Next, the
[0219]
The gaze detection operation is the same as that described with reference to the flowchart of FIG. 11, but differs in whether or not the mode is the calibration mode in FIG. 9 (S214). If the mode is the calibration mode, the process proceeds to the flowchart shown in FIG. The part storing the diameter rp and the reliability of each data is the same, but differs from the normal line-of-sight detection in the flowchart for calculating and storing the rotation angles θx and θy of the eyeball.
[0220]
Here, the calculation and storage of the rotation angles θx and θy of the eyeball in the calibration mode will be described with reference to the flowchart of FIG. 14 (S312).
[0221]
When the calibration mode of FIG. 9 is confirmed (S214), the number of Purkinje images (P images), which is the result of the Purkinje image state determination (S211) of the number and arrangement of Purkinje images, is confirmed (S402).
[0222]
If the number of P images is four, that is, a 4P image state, as described above, the rotation angles θx and θy are calculated from the Purkinje images P1, P2, P3, and P4 as θ4px and θ4py (S406), and θ4px and θ4py. Is determined to be within a predetermined range (S406a), and if the value is within the predetermined range, the calibration data in the EEPROM 100a is stored in the address of the portion corresponding to the
[0223]
When the number of P images is three, that is, in the 3P image state, as described above, the rotation angles θx, θy are calculated from the Purkinje images P1, P2, P3, or P4 as θ3px, θ3py (S408), and θ3px, It is confirmed whether θ3py is within the predetermined range (S408a). If the value is within the predetermined range, it is stored in the address of the portion corresponding to the
[0224]
As described above, in the calibration mode, when the number of P images is three or more, that is, in the 4P image state and the 3P image state, the calibration data of the 2P image state is also calculated from the result of one line-of-sight detection and stored. are doing.
[0225]
When the number of P images is two, that is, in the 2P image state, θ2px and θ2py are calculated from the Purkinje images P1 and P2 (S410), and it is confirmed whether θ2px and θ2py are within a predetermined range (S410a). If the value is within the predetermined range, it is stored at the address of the portion corresponding to the
[0226]
Here, since the
[0227]
Returning to FIG. 13 again, when the rotation angles θx and θy of the eyeball, the pupil diameter rp, and the reliability of each data are stored (S312), the number n of gaze detection times is further counted up (S313). Since the photographer's line of sight has some variation, it is effective to execute the line of sight detection a plurality of times for a single target and use the average value to obtain accurate line-of-sight calibration data. .
[0228]
In this embodiment, the number of gaze detections for one target is set to ten. If the number n of gaze detections is not 10 (S314), gaze detection is continued (S311).
[0229]
If the number of sight line detections n is 10, the sight
[0230]
Subsequently, the visual
[0231]
The
[0232]
The
[0233]
Further, the number of gaze detection times n is counted up (S321). Further, if the number of gaze detection times n is not 20 (S322), gaze detection is continued (S319). If the number of sight line detections n is 20, the sight line detection for the
[0234]
Subsequently, the
[0235]
The line-of-
[0236]
The
[0237]
Further, the number of gaze detection times n is counted up (S329). Further, if the number n of gaze detection times is not 30 (S330), gaze detection is continued (S327). If the number of gaze detection times n is 30, the gaze detection for the
[0238]
Subsequently, the
[0239]
The line-of-
[0240]
The
[0241]
Further, the line-of-sight detection number n is counted up (S337). Further, if the number of gaze detection times n is not 40 (S338), gaze detection is continued (S335). If the number of gaze detections n is 40, the
[0242]
Further, gaze calibration data is calculated from the eyeball rotation angles θx and θy and the pupil diameter rp stored in the gaze detection circuit 101 (S345). The outline of the method of calculating the line-of-sight calibration data is as follows.
[0243]
The coordinates of the
[0244]
The X-direction calibration data is obtained by using the data of the
[0245]
Therefore, by setting the weighted average of the average pupil diameters r1 and r2 as rpx and the weighted average of the average pupil diameters r3 and r4 as rpy, calibration of ax, ay, kx, ky, b0x, and b0Y is performed. Data is determined.
[0246]
For example, when rpx, rpy ≧ rp, kx, ky = 0 is set,
Ax = (x1-x2) / m / (θx1-θx2)
B0x =-(θx1 + θx2) / 2
Ay = (y3-y4) / m / (θy3-θy4)
B0y =-(θy3 + θy4) / 2
As described above, each of (θx1, θy1), (θx2, θy2), (θx3, θy3), and (θx4, θy4) has the average value of (θ4px, θ4py) in the 4P image state and the 3P image state. There is an average value of (θ3px, θ3py), an average value of (θ2px, θ2py) in the 2P image state, and calculation of three calibration values of 4P image calibration data, 3P image calibration data, and 2P image calibration data. (S340) will be described with reference to the flowchart in FIG.
[0247]
First, the number of (θ2px, θ2py) data in the 2P image state of the
[0248]
Next, from the data of (θ2px, θ2py), a standard deviation (σθ2px, σθ2py) is obtained as a variation of the eyeball rotation angle which is also an individual characteristic of the observer, and the ax, ay, kx, ky, b0x, b0Y Then, (.sigma.x2px, .sigma.y2py) converted to the coordinates of the focus plate 7 is obtained and stored at a predetermined address of the EEPROM 100a (S505c).
[0249]
Next, the number of (θ3px, θ3py) data in the 3P image state of the
[0250]
Next, from the data of (θ3px, θ3py), a standard deviation (σθ3px, σθ3py) is obtained as a variation of an eyeball rotation angle which is also an individual characteristic of the observer, and ax, ay, kx, ky, b0x, From b0Y, (σx3px, σy3py) converted to the coordinates of the focus plate 7 is obtained and stored at a predetermined address of the EEPROM 100a (S505b).
[0251]
If the number of data of (θ3px, θ3py) is 4 or less, there is no reliability in calculating the calibration data of the 3P image, and only the calibration data of the 2P image state is calculated (S504c).
[0252]
Next, the number of (θ4px, θ4py) data in the 4P image state of the
[0253]
Next, from the data of (θ4px, θ4py), a standard deviation (σθ4px, σθ4py) is obtained as a variation of the eyeball rotation angle which is also an individual characteristic of the observer, and ax, ay, kx, ky, b0x, b0x, From b0Y, (σx4px, σy4py) converted to the coordinates of the focus plate 7 is obtained and stored at a predetermined address of the EEPROM 100a (S505a).
[0254]
If the number of data of (θ4px, θ4py) is 2 or less, the calculation of the calibration data of the 4P image is not reliable, and only the calculation of the calibration data of the 3P image state and the 2P image state is performed (S504b, S504c). ).
[0255]
Here, when the above calibration data is obtained from (θx1, θy1), (θx2, θy2), (θx3, θy3), (θx4, θy4), the average value of (θ4px, θ4py) in the 4P image state From the average value of (θ3px, θ3py) in the 3P image state, calibration data of ax, ay, kx, ky, b0x, b0Y is obtained based on the above calculation (S503a, S503b, S503c).
[0256]
The standard deviations (σθx, σθy) of the number of P images as absolute values and the quantitative relationship between σθx and σθy are individual differences among observers as variations in the eyeball rotation angle. Then, there is the following general tendency.
[0257]
For σθx in the x direction, σθ4px: θ3px: σθ2px ≒ 1.0: 1.1: 1.1
For σθy in the y direction, σθ4py: θ3py: σθ2pyp1.0: 1.2: 1.6.
Here, the reason why σθ2py in the y direction is large is that a P image in the y direction cannot be obtained.
[0258]
As described above, in one calculation of the calibration data, the calibration data of the 4P image, the calibration data of the 3P image, and the calibration data of the 2P image state including the variation of the eyeball rotation angle of the observer's individual are included. One is calculated.
[0259]
Returning to FIG. 13 again, the timer is reset after the calculation of the gaze calibration data (S340) or after the end of the gaze detection (S341).
[0260]
The
[0261]
If the calculated gaze calibration data falls within the range of general individual differences, it is determined to be appropriate.On the other hand, if the calculated gaze calibration data greatly deviates from the general range of individual differences, The calculated line-of-sight calibration data is determined to be inappropriate.
[0262]
When the calculated line-of-sight calibration data is determined to be inappropriate (S349), the
[0263]
After a warning sound from the sounding body and a warning display on the
[0264]
If the calculated line-of-sight calibration data is appropriate (S342), the line-of-
[0265]
The line-of-
[0266]
After a series of line-of-sight calibration is completed, the camera waits until the photographer operates the
[0267]
If the photographer operates the
[0268]
7 (b), 7 (c) and 7 (d), regarding the focus detection point selection (S107) of FIG. 5, the gazing point coordinates (x, y) and the gazing point obtained by the sight line detection (S106). This will be described using the
[0269]
In each case, the gazing point coordinates (x, y) are set to the center point of (0, 0).
[0270]
FIG. 7B is an explanatory diagram of a 4P image state at the time of gaze detection.
[0271]
When the photographer's eye is illuminated with four IREDs, four Purkinje images are obtained, and the accuracy in the y direction is equivalent to the accuracy in the x direction, so that the gazing point is determined at (0, 0). You.
[0272]
From the general tendency of the same observer, the gazing point area 309a is determined with the gazing point as the center (0, 0) and the smallest quantitative values of σx4p and σy4p as the short-axis and long-axis radii. The
[0273]
FIG. 7C is an explanatory diagram of a 3P image state at the time of gaze detection.
[0274]
Even when the illumination light source is blocked by the upper eyelids and eyelashes of the photographer and a Purkinje image corresponding to the IRED is not obtained, if the three Purkinje images are obtained, the accuracy in the y-direction is almost equal to that in the x-direction. The point of regard is determined as (0, 0) by being equivalent to the precision.
[0275]
The gazing point area 309b is determined with the gazing point at (0, 0) as the center and the short-axis and long-axis radii as σx3p and σy3p. From the general tendency of the same observer, σx3p and σy3p are both larger than σx4p and σy4p in terms of quantity, and the fixation areas including the fixation area 309b are fixation areas C and U and fixation area C C, fixation areas C and D The focus detection points included in the gazing point area group are three focus detection points 303, 306, and 307, and at least one of the subjects is selected from the focus detection information of the focus detection points 303, 306, and 307 with priority to a short distance. Is performed (S107) and displayed (S108).
[0276]
FIG. 7D is an explanatory diagram of a 2P image state at the time of gaze detection.
[0277]
Even when only the lower two Purkinje images are obtained, the point of interest is determined at (0, 0) based on the calibration data corresponding to the two Purkinje images.
[0278]
The gazing point area 309d is determined by setting the gazing point at (0, 0) as the center and setting the minor axis and major axis radii to σx2p and σy2p. σx2p and σy2p are larger than σx4p and σy4p. In particular, σy2p is large because a P image in the y direction cannot be obtained irrespective of individual differences, and therefore, accuracy cannot be obtained. The fixation area including the fixation area 309b is the same as the fixation areas C and U, the fixation areas C and C, and the fixation areas C and D, and the focus detection points included in the fixation area group are the focus detection points. There are three
[0279]
FIG. 7E is a modification of the present embodiment, and is an explanatory diagram of a 3P image state at the time of gaze detection.
[0280]
The portion where the fixation area 309b is determined with the fixation point at (0, 0) as the center and the minor axis and major axis radii as σx3p and σy3p is the same as that of the above embodiment, but the fixation area of the embodiment. Does not exist, and the focus detection point to be selected is determined by whether or not the fixation point area 309b includes the coordinates of the focus detection point. As the focus detection points included in the gazing point area 309a, only the
[0281]
In the present embodiment and the modification of the present embodiment, it is also possible to adjust the standard deviation (σθx, σθy) of each P image number state by a predetermined coefficient to adjust the range of the gazing point area.
[0282]
(Specific effects of the embodiment)
In the present embodiment, in order to improve the line-of-sight detection accuracy known in Japanese Patent Application Laid-Open No. xx-xxxxxx, when the line of sight of the photographer is detected, when the eyeball of the photographer is illuminated by four IREDs, in principle, FIG. Four Purkinje images, which are virtual images of the IRED, are to be obtained. However, depending on the observation conditions and individual differences, the illumination light source is blocked by the upper eyelids and eyelashes of the observer, and a Purkinje image corresponding to the IRED is obtained. Even in this case, the number and arrangement of the Purkinje images in FIG. 10 are determined (S211 in FIG. 9), and 4P image calibration data and 3P image calibration data, which are calibration data corresponding to the states, are determined in advance. By preparing three pieces of 2P image calibration data and selecting and using them, it is possible to improve the line-of-sight detection accuracy (FIG. 9, S215, S216a).
[0283]
In addition, similarly, the number of the Purkinje images and the state of the arrangement of the Purkinje images in FIG. 10 are discriminated (S211 in FIG. 9) around the gazing point position which is the result of the line of sight detection. The standard deviation ([sigma] [theta] x, [sigma] [theta] y) as the angle variation is converted into the coordinates of the focus plate 7 ([sigma] x, [sigma] y). In addition to the case where four Purkinje images can be obtained, even if the illumination light source is blocked by the observer's upper eyelids and eyelashes due to the observation conditions and individual differences, and the Purkinje image corresponding to the IRED is not obtained, It is possible to reflect on the point of gaze where the person may be watching.
[0284]
Focus detection points (FIGS. 7
[0285]
In addition, from the 16 states of the number and the arrangement of the Purkinje images in FIG. 10, four kinds of states are determined based on the lower two P images from two of the existence probability of the Purkinje image and the eye-gaze detection calculation accuracy. In this way, the gaze detection calculation, that is, the gaze detection speed is increased.
[0286]
Next, in the calibration in which the four
As shown in FIG. 15, when the collection of the calibration data is completed, the eye rotation of the individual is determined from the average value of (θ4px, θ4py), (θ3px, θ3py) and (θ2px, θ2py) stored in the respective addresses. The angle correction coefficients ax, ay, kx, ky, b0x, and b0Y are calculated for calibration data of a 4P image, calibration data of a 3P image, and calibration data of a 2P image (S504a, S504b, and S504c). ). Thereafter, (σx, σy) is obtained from the standard deviation (σθx, σθy) as the variation of the eyeball rotation angle which is also an individual characteristic of the observer. More specifically, similarly, calibration data of a 4P image of (σx4p, σy4p), (σx3p, σy3p), (σx2p, σy2p) are calculated, that is, calibration data of a 3P image and calibration data of a 2P image. (S505a, S505b, S505c).
[0287]
Thus, the observer can obtain two calibration data of the correction coefficients ax, ay, kx, ky, b0x, b0Y of the individual eyeball rotation angle and (σx, σy) as the variation of the eyeball rotation angle. In addition, a new calibration data acquisition operation and a single operation of the same calibration data acquisition operation as the conventional calibration operation can be performed without performing a new operation. Can be obtained for each of the three P image states of the 4P image, the 3P image, and the 2P image.
[0288]
In FIG. 15, by checking the number of data of (θ4px, θ4py), (θ3px, θ3py) and (θ2px, θ2py) stored at the respective addresses, the effect of not calculating calibration data without reliability can be obtained. It has gained.
[0289]
The above effects can be given to any observer if the observer performs only the calibration.
[0290]
【The invention's effect】
In
[0291]
This makes it possible to determine the gazing point area in consideration of personal characteristics including the variation in the rotation angle of the eyeball of the observer.
[0292]
Then, it is possible to select the focus detection point that the observer is going to select.
[0293]
According to the second aspect, when the line of sight of the observer is detected, a plurality of illumination light sources project onto the anterior segment of the photographer's eyeball, and the corneal reflection image (Purkinje image, P Image) and the calibration data corresponding to the arrangement state of the corneal reflection images, that is, the correction data obtained by the line-of-sight correction means and the variation in the rotation angle of the eyeball of the observer are obtained in advance, and the number of the corneal reflection images and the arrangement state thereof Is determined by the determining means, and the correction data and the variation data of the eyeball rotation angle of the observer are selected and used, thereby improving the gaze detection accuracy according to the number of corneal reflection images at the time of gaze detection of the observer and the arrangement state thereof. Then, it is possible to determine a gazing point area about which the observer will observe.
[0294]
This makes it possible to determine a gazing point area in consideration of observation conditions and individual characteristics including variations in the eyeball rotation angle of the observer.
[0295]
Then, it is possible to select the focus detection point that the observer is going to select.
[0296]
In the first and second aspects, the defocus amount is calculated only for the focus detection points related to the gazing point area in the focus detection point selection operation, so that the operation can be performed quickly.
[0297]
According to the third aspect, the fluctuation of the eyeball rotation angle of the observer can be performed simultaneously with the correction data by one normal calibration acquisition operation, and there is no need to perform the acquisition operation again.
[0298]
According to the fourth aspect, a plurality of calibrations according to the number of corneal reflection images and the arrangement state thereof can be performed by a single operation of acquiring the line-of-sight correction means without causing the observer to perform an operation of acquiring a new line-of-sight correction means. , The correction data obtained by the line-of-sight correction means.
[0299]
As described above, in particular, in
[Brief description of the drawings]
FIG. 1 is a schematic view of a main part of a camera body according to an embodiment.
FIG. 2 is an external view of a camera body according to the embodiment.
(A) Top view of appearance of camera body of embodiment
(B) Rear view of the appearance of the camera body of the embodiment
FIG. 3 is an explanatory diagram of a display state in a finder visual field of FIG. 1;
FIG. 4 is a main block diagram of an electric circuit according to the embodiment.
FIG. 5 is an operation sequence of the camera according to the embodiment.
FIG. 6 is an explanatory diagram of a focus detection point selection mode according to the embodiment.
FIG. 7A is an explanatory diagram of a gazing point area in a finder visual field;
FIG. 6B is an explanatory diagram showing a relationship between a focus detection point selection and a gazing point area in a finder visual field.
(C) Explanatory diagram showing the relationship between the focus detection point selection and the gazing point area within the finder field of view.
(D) Explanatory drawing of the relationship between the focus detection point selection and the gazing point area in the finder visual field and the gazing point area.
(E) In a modification of the embodiment, an explanatory diagram showing the relationship between the focus detection point selection and the gazing point area in the finder visual field.
FIG. 8A is an explanatory diagram of an
(B) Explanatory drawing of the
FIG. 9 is a flowchart of gaze detection.
FIG. 10 is a diagram illustrating the state of a Purkinje image.
FIG. 11 is a diagram illustrating calibration data numbers and calibration data.
FIG. 12 is a
FIG. 13 is a second flowchart of the calibration.
FIG. 14 is a flowchart for calculating θx and θy in calibration and storing data.
FIG. 15 is a flowchart of calibration data calculation.
16A, 16B, 16C, and 16D are explanatory diagrams of a target in calibration.
FIG. 17 is a view showing an internal display and an external display of a calibration finder, FIG.
FIG. 18 is a view for explaining the display inside and outside the viewfinder of calibration,
FIG. 19 is a view for explaining the display inside and outside the viewfinder of the
FIG. 20 is an explanatory view of a conventional (two lower IRED) gaze detection principles.
FIGS. 21A and 21B are diagrams illustrating an eyeball image.
FIG. 22 (a) is an explanatory view of a conventional eyeball image and Purkinje image arrangement state.
(B) Explanation drawing of the conventional gaze detection principle (xz plane).
(C) An explanatory view (yz plane) of the principle of detecting the lower two lines of sight of the conventional IRED.
FIG. 23 (a) is an explanatory diagram of an eyeball image and a Purkinje image arrangement state in three IREDs.
(B) Illustration of the principle of gaze detection by three IREDs (yz plane).
FIG. 24 is an explanatory diagram of an eyeball image and a Purkinje image arrangement state in four IREDs.
[Explanation of symbols]
7 Focus board
7a This small prism array
12 Receiving lens
13a to 13h Illumination light source (light emitting means) for photographer's
14. Image sensor with two-dimensional array of photoelectric elements such as CCD
15 Photographer's Eye
16 Cornea
17 Iris
101 Eye-gaze detection circuit
301, 302, 303, 304, 305, 306, 307 Ranging point mark
200 cameras
300 Viewfinder observation screen
S211 Purkinje image state determination
S216b gazing point area calculation
S505a, S505b, S505c Calculation of variation data
L3 ・ T ~ R3 ・ B Point of interest area
Claims (17)
予め前記使用者の眼球特性の個人差を補正する為に取得する視線補正手段(以下、キャリブレーション)と、
前記視線補正手段(キャリブレーション)からの前記観察者の眼球回転角を補正する補正係数の情報を得る手段と
前記視線補正手段(キャリブレーション)からの前記観察者の眼球回転角の偏差の情報を得る手段と、
前記観察者の視線を検出する際、
前記補正係数の情報から観察者の視線を検出し、前記視線検出位置を中心として、前記眼球回転角の偏差の情報から、前記観察者の視線検出領域を決定する手段と、
前記決定手段での視線検出領域に関連、または、含まれる前記複数の焦点検出点から得られる複数のデフォーカス量を基に所定の焦点検出点の選択処理を行い、少なくとも一つの焦点検出点を選択する焦点検出点選択手段とを有することを特徴とする光学装置。A defocus amount detecting means for detecting a defocus amount at each of a plurality of focus detection points; From an image position, the rotation angle of the optical axis of the eyeball of the observer is detected, and a visual axis detection unit that detects the visual axis of the observer from the rotational angle,
Gaze correction means (hereinafter, calibration) which is acquired in advance to correct individual differences in the eyeball characteristics of the user;
Means for obtaining information on a correction coefficient for correcting the eyeball rotation angle of the observer from the visual axis correction means (calibration) and information on deviation of the eyeball rotation angle of the observer from the visual axis correction means (calibration) Means to obtain,
When detecting the line of sight of the observer,
Detecting the line of sight of the observer from the information of the correction coefficient, the center of the line of sight detection position, from the information of the deviation of the eyeball rotation angle, means for determining the line of sight detection of the observer,
A predetermined focus detection point is selected based on a plurality of defocus amounts obtained from the plurality of focus detection points included in or related to the line of sight detection area in the determination means, and at least one focus detection point is determined. An optical device comprising: a focus detection point selecting unit for selecting.
複数の照明光源より観察画面内を覗く観察者の眼球の前眼部へ投射し、角膜からの反射像と瞳孔結像位置より、前記観察者の眼球光軸の回転角を検出し、前記回転角から観察者の視線を検出する視線検出手段とを有する光学装置において、
予め前記使用者の眼球特性の個人差を補正する為に取得する視線補正手段(以下、キャリブレーション)と、
前記視線検出手段による視線検出時に、前記角膜からの反射像の数と配置状態を判別する判別手段と、
前記視線補正手段(キャリブレーション)は、前記前記角膜からの反射像の数と配置状態を判別する判別手段からの情報に応じて、
前記視線補正手段(キャリブレーション)からの前記観察者の眼球回転角を補正する補正係数の情報を得る手段と
前記視線補正手段(キャリブレーション)からの前記観察者の眼球回転角の偏差の情報を得る手段と、
観察者の視線を検出する際、前記前記角膜からの反射像の数と配置状態を判別する判別手段からの情報に基づいて、
前記補正係数の情報から観察者の視線を検出し、前記視線検出位置を中心として、前記眼球回転角の偏差の情報から、前記観察者の視線検出領域を決定する手段と、
前記決定手段での視線検出領域に関連、または、含まれる前記複数の焦点検出点から得られる複数のデフォーカス量を基に所定の焦点検出点の選択処理を行い、少なくとも一つの焦点検出点を選択する焦点検出点選択手段とを有することを特徴とする光学装置。Defocus amount detection means for detecting the amount of defocus at each of a plurality of focus detection points, and projection from the plurality of illumination light sources to the anterior segment of the observer's eyeball looking into the observation screen, reflection images from the cornea and pupil imaging From the position, the rotation angle of the optical axis of the eyeball of the observer is detected, and a visual line detection unit that detects the visual line of the observer from the rotation angle,
Gaze correction means (hereinafter, calibration) which is acquired in advance to correct individual differences in the eyeball characteristics of the user;
At the time of line of sight detection by the line of sight detection unit, a determination unit that determines the number and arrangement state of the reflected images from the cornea,
The line-of-sight correction unit (calibration) is configured to determine the number of reflected images from the cornea and information from a determination unit that determines an arrangement state,
Means for obtaining information on a correction coefficient for correcting the eyeball rotation angle of the observer from the visual axis correction means (calibration) and information on deviation of the eyeball rotation angle of the observer from the visual axis correction means (calibration) Means to obtain,
When detecting the line of sight of the observer, based on information from the determination means for determining the number and arrangement state of the reflected images from the cornea,
Detecting the line of sight of the observer from the information of the correction coefficient, the center of the line of sight detection position, from the information of the deviation of the eyeball rotation angle, means for determining the line of sight detection of the observer,
A predetermined focus detection point is selected based on a plurality of defocus amounts obtained from the plurality of focus detection points included in or related to the line of sight detection area in the determination means, and at least one focus detection point is determined. An optical device comprising: a focus detection point selecting unit for selecting.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002298919A JP2004129927A (en) | 2002-10-11 | 2002-10-11 | Glance detector |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002298919A JP2004129927A (en) | 2002-10-11 | 2002-10-11 | Glance detector |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004129927A true JP2004129927A (en) | 2004-04-30 |
Family
ID=32288197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002298919A Withdrawn JP2004129927A (en) | 2002-10-11 | 2002-10-11 | Glance detector |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004129927A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016098406A1 (en) * | 2014-12-17 | 2016-06-23 | ソニー株式会社 | Information processing apparatus, information processing method and program |
US9900500B2 (en) | 2013-05-30 | 2018-02-20 | Samsung Electronics Co., Ltd. | Method and apparatus for auto-focusing of an photographing device |
CN113438305A (en) * | 2021-06-23 | 2021-09-24 | 鹤壁国立光电科技股份有限公司 | Ubiquitous data acquisition system |
WO2022196093A1 (en) * | 2021-03-17 | 2022-09-22 | ソニーグループ株式会社 | Information processing device, line-of-sight detection method, and program |
-
2002
- 2002-10-11 JP JP2002298919A patent/JP2004129927A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9900500B2 (en) | 2013-05-30 | 2018-02-20 | Samsung Electronics Co., Ltd. | Method and apparatus for auto-focusing of an photographing device |
WO2016098406A1 (en) * | 2014-12-17 | 2016-06-23 | ソニー株式会社 | Information processing apparatus, information processing method and program |
US10452137B2 (en) | 2014-12-17 | 2019-10-22 | Sony Corporation | Information processing apparatus and information processing method |
CN111493809A (en) * | 2014-12-17 | 2020-08-07 | 索尼公司 | Information processing apparatus and method, glasses-type terminal, and storage medium |
US11635806B2 (en) | 2014-12-17 | 2023-04-25 | Sony Corporation | Information processing apparatus and information processing method |
WO2022196093A1 (en) * | 2021-03-17 | 2022-09-22 | ソニーグループ株式会社 | Information processing device, line-of-sight detection method, and program |
CN113438305A (en) * | 2021-06-23 | 2021-09-24 | 鹤壁国立光电科技股份有限公司 | Ubiquitous data acquisition system |
CN113438305B (en) * | 2021-06-23 | 2022-10-18 | 鹤壁国立光电科技股份有限公司 | Ubiquitous data acquisition system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6456788B1 (en) | Optical apparatus and camera provided with line-of-sight detecting device | |
US6674964B2 (en) | Visual axis detecting apparatus | |
US5983030A (en) | Optical apparatus having a visual axis detector | |
US6507702B2 (en) | Device having sight line detecting function | |
JP2004129927A (en) | Glance detector | |
JP2004008323A (en) | Optical device with visual axis function | |
JP2004188017A (en) | Gaze tracking system | |
JP2002301030A (en) | Equipment to detect sight line | |
JP2005140880A (en) | Optical apparatus and camera | |
JP3184634B2 (en) | Optical device having line-of-sight detection device | |
JP3219491B2 (en) | Eye gaze detection device | |
JP3530647B2 (en) | Eye gaze detecting device and optical device | |
JP3391892B2 (en) | Eye gaze detecting device, optical device, and eye gaze detecting method | |
JP3372646B2 (en) | Optical device having line-of-sight detection device | |
JP2003339642A (en) | Visual line detector and optical apparatus having the same | |
JP3605081B2 (en) | Eye gaze detection device | |
JPH0634874A (en) | Optical device with glance detecting device | |
JP3605080B2 (en) | Eye gaze detection device | |
JP3211427B2 (en) | Eye gaze detection device | |
JP3309439B2 (en) | Optical device | |
JP2003084193A (en) | Optical device | |
JP2002287011A (en) | Optical device and camera | |
JP3332581B2 (en) | An optical device, a camera, a line-of-sight detection device, a line-of-sight detection method, and a relative position determination method between an eyepiece and an eyeball position. | |
JPH0634873A (en) | Optical device provided with device for detecting line of sight | |
JP2000039551A (en) | Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060110 |