JP2023084503A - 撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラム - Google Patents

撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラム Download PDF

Info

Publication number
JP2023084503A
JP2023084503A JP2021198715A JP2021198715A JP2023084503A JP 2023084503 A JP2023084503 A JP 2023084503A JP 2021198715 A JP2021198715 A JP 2021198715A JP 2021198715 A JP2021198715 A JP 2021198715A JP 2023084503 A JP2023084503 A JP 2023084503A
Authority
JP
Japan
Prior art keywords
eyepiece
correction
user
calibration
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021198715A
Other languages
English (en)
Inventor
知宇 立石
Tomotaka Tateishi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021198715A priority Critical patent/JP2023084503A/ja
Priority to US18/061,122 priority patent/US20230179854A1/en
Priority to CN202211560612.7A priority patent/CN116248994A/zh
Publication of JP2023084503A publication Critical patent/JP2023084503A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

【課題】接眼毎に生じる注視点の位置ズレを迅速かつ容易に低減することができ、撮像時の利便性が向上する撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラムを提供することを目的とする。【解決手段】カメラ1は、ユーザの注視点に対応する位置を推定する推定手段(CPU3)と、表示素子10に表示された指標の位置と当該位置に対するユーザの注視点に対応する位置とに基づいて、ユーザの注視点に対応する位置を補正する補正手段(CPU3)とを備える。補正手段は、第1の数の指標(第1指標)の位置に基づいて補正を行う第1のモードと、第1の数よりも少ない第2の数の指標(第2指標)に基づいて補正を行う第2のモードとを有する。【選択図】図9

Description

本発明は、撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラムに関する。
近年では、カメラの自動化やインテリジェント化が進んでいる。特許文献1には、手動で被写体位置を入力せずとも、ファインダを覗く撮影者の視線位置の情報に基づいて、撮影者が意図する被写体を認識し、焦点制御が可能なカメラ制御装置が開示されている。また、カメラが上記のように撮影者の視線位置を検出する際に、撮影者の意図した視線位置と、カメラが認識する撮影者の視線位置との間にズレが生じ、撮影者の意図する被写体に焦点を合わせることができない場合がある。これに対し、特許文献1に記載の装置では、撮影前にファインダ内に指標を表示して、撮影者にその指標を注視するよう指示を出す。撮影者が指標を注視した状態で、撮影者の視線位置(注視点)を検出して、指標位置とのズレ量が検出される。そして、このズレ量だけ、撮影時にカメラが認識する撮影者の視線検出位置を補正すること(キャリブレーション)によって、撮影者の意図どおりの視線位置として検出することが可能となる。また、特許文献2に記載の装置では、注視点位置を、表示素子上で撮影者が変更して調整可能となっている。
特開2004-8323号公報 特開2020-106552号公報
特許文献1に記載の装置では、撮影者の意図する注視点位置とカメラが検出する注視点位置との間にズレがある場合に、前述したキャリブレーションによる補正を行っている。しかしながら、撮影者がカメラのファインダに接眼するごとにその接眼位置は微妙に異なるため、接眼位置に応じて、カメラが検出する注視点位置も変化する。この場合、接眼のたびに、頻繁にキャリブレーションを行わねばならず、結果、キャリブレーションが煩雑となるという問題が生じる。また、特許文献2に記載の装置では、キャリブレーションによる補正精度を考慮すると、キャリブレーション時の注視点の位置は、変更可能となっているよりも、固定されている方が好ましい。
本発明は、接眼毎に生じる注視点の位置ズレを迅速かつ容易に低減することができ、撮像時の利便性が向上する撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラムを提供することを目的とする。
上記目的を達成するために、本発明の撮像装置は、ユーザの注視点に対応する位置を推定する推定手段と、表示部に表示された指標の位置と当該位置に対する前記ユーザの注視点に対応する位置とに基づいて、前記ユーザの注視点に対応する位置の補正を行う補正手段と、を備え、補正手段は、第1の数の指標の位置に基づいて補正を行う第1のモードと、第1の数よりも少ない第2の数の指標に基づいて補正を行う第2のモードと、を有することを特徴とする。
本発明によれば、接眼毎に生じる注視点の位置ズレを迅速かつ容易に低減することができ、撮像時の利便性が向上する。
デジタルスチルカメラの外観構成を示す概略図である。 デジタルスチルカメラの内部構成を示す概略図である。 デジタルスチルカメラのブロック図である。 ファインダ内視野(表示素子の画像表示状態)を示す図である。 光源から眼球に赤外線が照射されている状態を示す模式図である。 図5に示す状態の下で視線の位置(視線)を検出する原理を説明するための図である。 視線検出プログラムのフローチャートである。 ファインダ内視野(表示素子の画像表示状態)を示す図である。 第1実施形態における第1補正と第2補正との切替プログラムのフローチャートである。 第2実施形態における第1補正と第2補正との切替プログラムのフローチャートである。 第3実施形態における第1補正と第2補正との切替プログラムのフローチャートである。 第4実施形態における第1補正と第2補正との切替プログラムのフローチャートである。
以下、本発明の各実施形態について図面を参照しながら詳細に説明する。しかしながら、以下の各実施形態に記載されている構成はあくまで例示に過ぎず、本発明の範囲は各実施形態に記載されている構成によって限定されることはない。
<<第1実施形態>>
以下、図1~図9を参照して、第1実施形態について説明する。
<構成の説明>
図1は、デジタルスチルカメラの外観構成を示す概略図であり、図1(a)は正面斜視図、図1(b)は背面斜視図であり、図1(b)はデジタルスチルカメラが有する操作レバーの操作状態を示す斜視図である。図1(a)に示すように、撮像装置であるデジタルスチルカメラ1(以下「カメラ1」と言う)は、撮影レンズ1A、カメラ本体の筐体部1Bを有する。筐体部1Bの上側には、ユーザ(撮影者)からの撮像操作を受けるレリーズボタン5が配置されている。また、図1(b)に示すように、筐体部1Bの背面側には、カメラ1の内部の表示素子をユーザが覗きこむための接眼レンズ12と、カメラ操作に使用される操作部材41~43と、が配置されている。操作部材41は、操作部材α(タッチパネル対応液晶)であり、操作部材42は、操作部材β(レバー式操作部材)であり、操作部材43は、操作部材γ(ボタン式十字キー)である。
図2は、デジタルスチルカメラの内部構成を示す概略図である。図2に示すように、撮影レンズ1Aは、レンズ101、レンズ102を有する。なお、レンズの枚数は、本実施形態では2枚であるが、これに限定されず、例えば、3枚以上であってもよい。また、撮影レンズ1Aは、絞り111、絞り駆動装置112、レンズ駆動用モータ113、レンズ駆動部材114、フォトカプラ115、パルス板116、マウント接点117、レンズ焦点調節回路118を有する。レンズ駆動部材114は、駆動ギヤ等で構成される。フォトカプラ115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、レンズ焦点調節回路118に伝える。レンズ焦点調節回路118は、この回転情報とカメラ本体側からのレンズ駆動量の情報とに基づいて、レンズ駆動用モータ113を所定量駆動させる。これにより、レンズ101を合焦点位置に移動させることができる。マウント接点117は、カメラ本体とのインタフェースとなる。
筐体部1Bには、撮像素子(撮像部)2、CPU3、メモリ部4、表示素子(表示部)10、表示素子駆動回路11、接眼レンズ12が配置されている。また、筐体部1Bには、光源(照明光源)13a、光源(照明光源)13b、光分割器15、受光レンズ16、眼球用撮像素子(眼球用撮像部)17が配置されている。撮像素子2は、カメラ1の撮影レンズ1Aの予定結像面に配置されており、被写体を撮像することができる。CPU3は、カメラ本体に内蔵されたマイクロコンピュータの中央処理装置(制御装置)であり、カメラ全体の制御(制御工程;制御方法)を行う制御手段として機能する。また、メモリ部4と異なる、不図示のメモリ部には、カメラ1の各部や各手段の作動(撮像装置の制御方法)をCPU3に実行させるためのプログラムが予め記憶されている。メモリ部4は、撮像素子2で撮像された画像を記録する。表示素子10は、矩形をなす表示画面を構成する液晶等で構成され、表示素子駆動回路11からの駆動制御により、撮像素子2で撮像された被写体の画像等を表示することができる。接眼レンズ12は、表示素子10に表示された被写体像をユーザが観察する(視認する)際に接眼する接眼部である。光源13aおよび光源13bは、眼球像と、角膜反射による反射像との関係に基づいて視線方向を検出するために、ユーザの眼球14を照明するための光源であり、例えば、赤外発光ダイオードで構成される。光源13aおよび光源13bは、接眼レンズ12の周りに配置されている。眼球像と反射像とは、接眼レンズ12を透過し、光分割器15で反射されて、受光レンズ16によって眼球用撮像素子17上に結像される。受光レンズ16は、ユーザの眼球14の瞳孔と眼球用撮像素子17とを共役な結像関係に位置付けている。眼球用撮像素子17は、CCD等の光電素子を2次元的(行列状)に配した素子であり、ユーザの眼球14を撮像する。カメラ1では、眼球用撮像素子17上に結像された眼球14と反射像との位置関係に基づいて、後述する所定のアルゴリズム(プログラム)で視線方向を検出することができる。なお、メモリ部4は、撮像素子2および眼球用撮像素子17からの撮像信号の記憶機能、後述する視線の個人差を補正する視線補正データの記憶機能を有する。
図3は、デジタルスチルカメラのブロック図である。図3に示すように、CPU3には、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、照明光源駆動回路205、表示素子駆動回路11が電気的に接続されている。視線検出回路201は、眼球用撮像素子17からの眼球像が結像することによる出力をA/D変換し、この像情報をCPU3に送信する。CPU3は、視線検出に必要な眼球像の各特徴点を後述する所定のアルゴリズムに従って抽出し、さらに各特徴点の位置からユーザの視線を算出する。測光回路202は、測光センサの役割も兼ねる撮像素子2から得られる信号を元に、被写界の明るさに対応した輝度信号出力を増幅後、対数圧縮、A/D変換し、被写界輝度情報として、CPU3に送る。自動焦点検出回路203は、撮像素子2(CCD)の中に含まれる、位相差検出のために使用される複数の画素からの信号電圧をA/D変換し、CPU3に送る。CPU3は、前記複数の画素の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは、撮像面位相差AFとして知られる公知の技術である。本実施形態では、一例として、図4に示すように、180か所の焦点検出ポイントがあるとする。信号入力回路204には、レリーズボタン5の第1ストロークでONするスイッチSW1と、レリーズボタンの第2ストロークでONするスイッチSW2と、が接続される。スイッチSW1のON状態で、カメラの測光、測距、視線検出動作等が開始される。スイッチSW2のON状態で、レリーズ動作が開始される。そして、レリーズボタン5を操作することによる信号は、信号入力回路204を介して、CPU3に送信される。照明光源駆動回路205は、光源13aおよび光源13bの駆動、すなわち、ON/OFFを制御する。また、撮影レンズ内に配置されたレンズ焦点調節回路118と、絞り駆動装置112に含まれる絞り制御回路206とは、マウント接点117を介して、カメラ本体との間での信号の伝達がなされる。
図4は、ファインダ内視野(表示素子の画像表示状態)を示す図である。図4(a)に示すように、ファインダ内視野では、視野マスク300と、焦点検出領域400と、表示素子10に表示されたスルー画像に重ねて表示された180個の測距点指標4001~4180とが観察可能である。測距点指標4001~4180は、それぞれ、撮像素子2の撮像面上の複数の焦点検出ポイントに対応する位置に配置される。また、測距点指標4001~4180のうち、現在の推定注視点位置に対応する指標を推定注視点Aで表示させる。推定注視点Aの形状としては、本実施形態では枠形状であるが、これに限定されず、例えば、ドット形状等であってもよい。
<視線検出動作の説明>
図5は、光源から眼球に赤外線が照射されている状態を示す模式図である。図6は、図5に示す状態の下で視線の位置(視線)を検出する原理を説明するための図であり、図6(a)は、眼球用撮像素子に投影される眼球像の概略図であり、図6(b)は、眼球像の輝度分布を示した図である。また、図5および図6では、それぞれ、X軸方向が水平方向、Y軸方向が鉛直方向となっており、Z軸方向がX軸方向およびY軸方向と直交する方向(受光レンズ16の光軸方向)となっている。
図5に示すように、光源13aと光源13bとは、受光レンズ16の光軸を対称の軸として、線対称に配置されている。なお、この配置構成は、視線検出原理の理解を容易にするために、図1に示す配置構成とは異なっている。光源13aおよび光源13bからは、それぞれ、ユーザの眼球14に向かって赤外線IFが照射されている。そして、眼球14の角膜142で反射した赤外線IFの一部は、受光レンズ16で集光されて、眼球用撮像素子17で結像する。具体的には、角膜142の表面で反射した赤外線IFの一部によって形成される角膜反射像Pd、角膜反射像Peは、それぞれ、受光レンズ16で集光されて、眼球用撮像素子17上に像Pd’、像Pe’として結像する。また、これと同様に、瞳孔141の端部(瞳孔端)a、端部(瞳孔端)bからの光束も眼球用撮像素子17上に像a’、像b’として結像する。
図6(a)、図6(b)に示すように、領域αには、像Pd’、像Pe’、像a’像b’が含まれており、像Pd’のX軸方向の座標をXdとし、像Pe’のX軸方向の座標をXeとする。また、像a’のX軸方向の座標をXaとし、像b’のX軸方向の座標をXbとする。図6(b)に示すように、座標Xdおよび座標Xeでは、極端に強いレベルの輝度が得られている。また、瞳孔141の領域に相当する、座標XaからXbの間の領域では、座標Xdおよび座標Xeでの輝度を除き、極端に低いレベルの輝度が得られる。また、瞳孔141の外側の光彩143の領域に相当する、座標Xaおよりも小さいX軸方向の領域と、座標Xbよりも大きいX軸方向の領域とでは、中間のレベルの輝度が得られる。そして、これらの輝度レベルに基づいて、座標Xd、座標Xe、座標Xa、座標Xbを求めることができる。また、眼球用撮像素子17上に結像する瞳孔中心cの像c’のX軸方向の座標をXcとする。受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合、Xc≒(Xa+Xb)/2と表すことができる。以上のように、座標Xc、座標Xd、座標Xeを求めることができる。
図7は、視線検出プログラムのフローチャートである。
ステップS001では、CPU3は、照明光源駆動回路205を作動させて、光源13a、13bからユーザの眼球14に向けて赤外光を照射させる。これにより、ユーザの眼球像が、受光レンズ16を通して眼球用撮像素子17上に結像する。そして、眼球用撮像素子17では、光電変換がなされて、眼球像が電気信号として処理が可能となる。ステップS002では、視線検出回路201が、眼球用撮像素子17で得られた眼球画像信号をCPU3に送る。ステップS003では、CPU3は、ステップS002で得られた眼球画像信号に基づいて、前述したように、座標Xc、座標Xd、座標Xeを求める。ステップS004では、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率であり、実質的には、像Pd’、像Pe’の間隔(Xd-Xe)の関数として求められる。
ステップS005では、CPU3は、眼球14のY軸回りの回転角θxと、X軸回りの回転角θyとを求める。ここで、角膜反射像Pdおよび角膜反射像Peの中点のX座標と、角膜142の曲率中心OのX座標とはほぼ一致する。そのため、角膜142の曲率中心Oと瞳孔141の中心cとの間の標準的な距離をOcとすると、回転角θは、下記式(1)で求めることができる。なお、回転角θyについても、同様に求めることができる。
β×Oc×SINθ≒((Xd+Xe)/2)-Xc・・・(1)
ステップS006では、CPU3は、メモリ部4に記憶されている視線補正係数Ax、視線補正係数Bx、視線補正係数Ay、視線補正係数Byを読み込む。視線補正係数Ax~視線補正係数Byは、それぞれ、ユーザの視線の個人差を補正する係数であり、後述するキャリブレーション(補正)により取得される。
ステップS007では、CPU3は、回転角θx、回転角θyを用いて、表示素子10上でユーザの視線の位置、すなわち、ユーザが注視している点の位置(以下「注視点」と言う)を推定する(求める)。注視点を表示素子10上での瞳孔141の中心cに対応する座標(Hx,Hy)であるとして、座標Hxは、下記式(2)で表され、座標Hyは、下記式(3)で表される。
Hx=m×(Ax×θx+Bx)・・・(2)
Hy=m×(Ay×θy+By)・・・(3)
なお、係数mは、カメラ1のファインダ光学系の構成で定まる定数であり、回転角θx、回転角θyを表示素子10上での瞳孔141の中心cに対応する位置座標に変換する変換係数である。係数mは、メモリ部4に予め記憶されている。また、前述したように、視線補正係数Ax、視線補正係数Bx、視線補正係数Ay、視線補正係数Byは、ユーザの視線の個人差を補正する視線補正係数であり、キャリブレーションにより取得される。視線補正係数Ax~視線補正係数Byは、視線検出が開始されるよりも以前にメモリ部4に記憶されているものとする。ステップS008では、CPU3は、座標(Hx,Hy)をメモリ部4に記憶させる。
以上のように、本実施形態では、CPU3は、眼球用撮像素子17で撮像された眼球14の画像に基づいて、表示素子10上でのユーザの注視点に対応する位置の推定(推定工程)を行う注視点位置推定手段(推定手段)として機能する。なお、カメラ1では、CPU3とは別に、注視点位置推定手段として機能するCPUを設けることもできる。
<キャリブレーションの説明>
前述したように、視線検出プログラム(視線検出ルーチン)では、眼球画像から眼球14の回転角θx、回転角θyを取得し、瞳孔中心cの位置を表示素子10上において対応する位置に座標変換する演算を行って、注視点の位置を推定している。また、眼球14の形状には個人差があり、例えばこのような要因等がある場合、視線補正係数Ax、視線補正係数Ay、視線補正係数Bx、視線補正係数Byの値をユーザによって適切な値に調整しなければ、図4(b)に示す状態となるおそれがある。図4(b)に示す状態では、ユーザが実際に注視している注視点(実注視点)Bと、推定注視点Cとの間に、ズレが生じている。この場合、注視点Bの人物に注視したいのに、背景が注視されているとカメラ1側が誤って推定しており、適切な焦点検出および調整が不十分となる。そこで、カメラ1によって撮像を行う前に、適切な補正係数の値を取得するキャリブレーションを行うのが好ましい。
キャリブレーションでは、まず、ユーザに視認させるための複数(第1の数)の第1指標を表示素子10に表示させる。そして、第1指標を1つずつ視認する(注視する)ごとに注視点推定が行われる。CPU3は、表示素子10上での各第1指標と、各第1指標に対する視認時に推定された推定注視点との位置関係に基づいて、視線補正係数Ax~視線補正係数Byを得る。例えば、図4(c)に示すように、表示素子10には、第1指標(c)-L、第1指標(c)-R、第1指標(c)-T、第1指標(c)-Bが表示される。第1指標(c)-Lは、表示素子10(表示画面)の左縁部側に偏在し、縦方向(上下方向)の中央部に配置される。第1指標(c)-Rは、表示素子10の右縁部側に偏在し、縦方向の中央部に配置される。第1指標(c)-Tは、表示素子10の上縁部側に偏在し、横方向(左右方向)の中央部に配置される。第1指標(c)-Bは、表示素子10の下縁部側に偏在し、横方向の中央部に配置される。ユーザが第1指標(c)-Lを視認した際に、第1指標(c)-Lに対する推定注視点が検出され、第1指標(c)-Rを視認した際に、第1指標(c)-Rに対する推定注視点が検出される。そして、この検出結果から、視線補正係数Ax、視線補正係数Bxを求める。
具体的には、表示素子10上における第1指標(c)-LのX座標をHx1、第1指標(c)-RのX座標をHx2、第1指標(c)-L注視時の眼球14の回転角をθx1、第1指標(c)-R注視時の眼球14の回転角をθx2とする。なお、回転角θx1、回転角θx2は、複数回の回転角取得結果の平均値や中央値等、ばらつきやノイズの影響を考慮した値であることが好ましい。Hx1は、下記式(4)で表され、Hx2は、下記式(5)で表される。
Hx1=m×(Ax×θx1+Bx)・・・(4)
Hx2=m×(Ax×θx2+Bx)・・・(5)
式(4)および式(5)により、視線補正係数Ax、視線補正係数Bxを求めることができる。また、これと同様に、第1指標(c)-T、第1指標(c)-Bを用いて、視線補正係数Ay、視線補正係数Byも求めることができる。視線補正係数Ax~視線補正係数Byは、第1補正情報として、メモリ部4に記憶される。カメラ1では、第1補正情報を用いた第1のキャリブレーション、すなわち、第1補正(第1のモード)を行うことにより、ユーザが実際に注視している注視点Bと、推定注視点Cとが一致することとなる、すなわち、表示素子10上でのユーザの注視点位置を正確に推定することができる。なお、第1指標の表示数は、本実施形態では4つであるが、これに限定されず、例えば、2~8が好ましく、4~5がより好ましい。これにより、第1補正情報としての各視線補正係数を正確に求めることができる。第1指標の形状としては、本実施形態では枠形状であるが、これに限定されず、例えば、ドット形状等であってもよい。また、本実施形態では、CPU3は、表示素子10上での注視点に対応する位置の補正(補正工程)を行う補正手段としても機能する。この補正は、表示素子10に表示された指標の位置と、当該位置に対する前記ユーザの注視点に対応する位置とに基づいて行われる。なお、カメラ1では、CPU3とは別に、補正手段として機能するCPUを設けることもできる。
<接眼毎キャリブレーションの説明>
前述したように、第1補正情報を用いた第1補正を行うことにより、表示素子10上でのユーザの注視点位置を正確に推定することができる。しかしながら、例えばユーザの体勢が変わる等して、接眼レンズ12に対するユーザの接眼位置が変化した場合、その変化後の視線検出に、第1補正情報をそのまま用いることができないことがある。例えば、接眼位置として、第1補正情報を得る(第1補正情報を用いた第1補正が行われる)際に接眼した第1接眼位置と、第1接眼位置と異なる第2接眼位置とがある場合を考えてみる。第1補正情報は、第1接眼位置で得られた情報であるため、第2接眼位置での視線検出に第1補正情報をそのまま用いても、正確な視線検出が困難となるおそれがある。そのため、接眼位置が変化するたびに撮影を中止して、接眼位置毎にキャリブレーションを行って補正情報を得なければ、注視点位置の推定精度が不十分となると考えられる。この場合、キャリブレーション(以下「通常キャリブレーション」と言う)を頻繁に行うこととなり、CPU3での制御が煩雑となる。カメラ1では、この制御の煩雑さを低減するキャリブレーション(以下「接眼毎キャリブレーション」と言う))が可能に構成されている。以下、この構成および作用について説明する。
カメラ1では、眼球用撮像素子17での眼球画像の有無に応じて、接眼レンズ12に対する接眼が検出される。従って、眼球用撮像素子17は、接眼レンズ12に対する接眼を検出する接眼検出手段としても機能する。そして、CPU3は、接眼レンズ12に対する接眼が検出された場合、接眼毎キャリブレーションによる補正(後述する第2補正情報を用いた第2補正)を行う。また、カメラ1では、眼球用撮像素子17での眼球画像の位置に応じて、接眼レンズ12に対するユーザの接眼位置を検出することもできる。従って、眼球用撮像素子17は、第1接眼位置と第2接眼位置とを検出可能な接眼位置検出手段としても機能する。そして、CPU3は、第1接眼位置と異なる第2接眼位置が検出された場合には、接眼毎キャリブレーションによる補正を行うことができる。
接眼位置の変化に由来する注視点位置の変化と、前述の注視点位置の算出方式との関係性を考えるために、式(2)を下記式(6)のように変形し、式(3)を下記式(7)のように変形する。
Hx/m=Ax×θx+Bx・・・(6)
Hy/m=Ay×θy+By・・・(7)
ここで、Hx/mは、補正後の回転角θxであり、検出された回転角θxを変数、視線補正係数Axを傾き、視線補正係数Bxを切片とした1次関数として算出していることが分かる。また、視線補正係数Axは、傾きであるから、下記式(8)で表される。
Ax=δ(Hx/m)/δθx・・・(8)
式(6)、式(8)からは、視線補正係数Axは、検出された回転角θxの変位量(単位変化量)に対する補正係数であり、視線補正係数Bxは、検出された回転角θxの相対位置に対する補正係数であることが分かる。また、視線補正係数Ay、視線補正係数Byについても、同様に考えることができる。
ところで、接眼位置の変化に由来する注視点位置の変化とは、検出された回転角θx、回転角θyの相対位置の変化である。上述した各視線補正係数の意味と合わせると、接眼毎キャリブレーションでは、視線補正係数Bx、視線補正係数Byのみを求めれば(算出すれば)よいことが分かる。すなわち、接眼位置が変化しても、回転角θx、θyは、ほぼ変わらない(無視することができる)ため、視線補正係数Ax、Ayをあらためて求めるのが不要となるが、接眼位置の変化分については、視線補正係数Bx、視線補正係数Byで調整すればよい。従って、接眼毎キャリブレーションで求める視線補正係数は、視線補正係数Bx、視線補正係数Byのみでよい。これにより、接眼毎キャリブレーションでは、視線補正係数Ax、Ayについては、通常キャリブレーションで求められた視線補正係数をそのまま用いることができ、視線補正係数Bx、Byについては、新たに求めた視線補正係数を用いることとなる。
前述したように、接眼毎キャリブレーションでは、視線補正係数Bx、視線補正係数Byのみを算出するため、予め通常キャリブレーションが実施済みであることが好ましい。ここでは、通常キャリブレーションを実施した後に、接眼毎キャリブレーションを実施する一例について、説明する。図8は、ファインダ内視野(表示素子の画像表示状態)を示す図である。
接眼毎キャリブレーションでは、まず、ユーザに視認させるための第2指標を表示素子10に表示させる。第2指標の表示数(第2の数)は、第1指標の表示数(第1の数)よりも少なくてよい。例えば、図8(a)に示すように、表示素子10には、第2指標(a)-Cが表示される。第2指標(a)-Cは、表示素子10(表示画面)の中央部に配置される。そして、ユーザが第2指標(a)-Cを視認した際に、第2指標(a)-Cに対する推定注視点が検出される。この検出では、視線補正係数Bx、視線補正係数Byについては、メモリ部4に記憶された値を使用せず、値「0」を代入することが好ましいが、これに限定されない。例えば、後述する接眼毎キャリブレーションで算出された視線補正係数と、メモリ部4に記憶された値とを合成した値を使用してもよい。そして、第2指標(a)-Cに対する推定注視点の位置(座標)から、視線補正係数Bx、視線補正係数Byを求める。
具体的には、表示素子10上における第2指標(a)-Cの座標を(Hx3、Hy3)、第2指標(a)-C注視時の眼球14の回転角を(θx3、θy3)とする。なお、回転角(θx3、θy3)は、複数回の回転角取得結果の平均値や中央値等、ばらつきやノイズの影響を考慮した値であることが好ましい。Hx3は、下記式(9)で表され、Hy3は、記式(10)で表される。
Hx3=m×(Ax×θx3+Bx)・・・(9)
Hy3=m×(Ay×θy3+By)・・・(10)
視線補正係数Ax、視線補正係数Ayは、通常キャリブレーションによって算出済みであるから、式(9)および式(10)により、視線補正係数Bx、視線補正係数Byを求めることができる。視線補正係数Bx、視線補正係数Byは、第2補正情報として、メモリ部4に記憶される。カメラ1では、接眼位置が変化したとしても、接眼ごとに第2補正情報を用いた第2のキャリブレーション、すなわち、第2補正(第2のモード)を行うことにより、表示素子10(表示手段)上でのユーザの注視点位置を正確に推定することができる。なお、撮像装置2では、前記第1補正、第2補正の順に行われる。また、接眼毎キャリブレーションでは、求める視線補正係数の数が、通常キャリブレーションで求める視線補正係数の数よりも少なくて済み、CPU3での制御の煩雑さを低減することができる。
以上のように、第2補正情報は、表示素子10上での第2指標と、第2指標に対する視認時にCPU3で推定された注視点との位置関係に基づいて得られた情報(視線補正係数Bx、視線補正係数By)を、第1補正情報に反映させたものとなっている。そして、カメラ1では、注視点の位置の補正を行う際、CPU3が、第1補正情報を用いて第1補正を行うか、または、第2補正情報を用いて第2補正を行うかを選択可能である。これにより、接眼毎に生じる注視点の位置ズレを迅速かつ容易に低減することができる。また、第1補正を行うか、または、第2補正情報を用いて第2補正を行うかの選択は、ユーザによる手動操作ではなく、CPU3で行われる。これにより、撮像時の利便性が向上する。
なお、第2指標の表示数は、本実施形態では1つであるが、第1指標の表示数よりも少なければよく、例えば、1~4が好ましく、1~2がより好ましい。これにより、第2補正情報としての各視線補正係数を正確に求めることができる。また、第2指標の表示数が複数の場合も、第2指標の表示数が1つの場合と同様に、表示素子10の中央部側に寄って配置されるのが好ましい。
<撮影中の接眼毎キャリブレーションの説明>
図8(b)に示すように、表示素子10には、撮像素子2からのスルー画像に重畳して、接眼毎キャリブレーション用の第2指標(b)-Cが表示されている。これにより、撮影中にあっても、撮影の停止や中断を行わずに、接眼毎キャリブレーションの実施が可能となり、撮像時の利便性が向上する。また、カメラ1では、さらに、接眼毎キャリブレーションの開始・中断を指示可能なショートカット機能を、例えば操作部材42(図1(c)参照)等に割り当ててもよい。この場合、例えば、操作部材42を左側に倒せば(図1(c)の真ん中の図参照)、接眼毎キャリブレーションの開始となり、操作部材42を右側に倒せば(図1(c)の左側の図参照)、接眼毎キャリブレーションの中断となる。これにより、必要に応じて、接眼毎キャリブレーションを迅速に開始したり、中断したりすることができる。また、レリーズボタン5の操作によっても、接眼毎キャリブレーションの中断が可能となっていてもよい。これにより、撮影中の接眼毎キャリブレーション中にシャッタチャンスが訪れた場合、レリーズボタン5を押下することで接眼毎キャリブレーションを迅速に中断するとともに、レリーズ動作を開始することが可能となる。
<撮影中に接眼毎キャリブレーション可能なカメラの動作の説明>
図9は、第1実施形態における第1補正と第2補正との切替プログラムのフローチャートである。カメラ1の電源がON状態となって、処理が開始されると、ステップS101では、CPU3が、撮像素子2にスルー画像の取得を開始させて、そのスルー画像の画像信号をCPU3に送信させる。また、CPU3は、撮像素子2からのスルー画像を表示素子10に表示させる。ユーザは、表示素子10に表示されたスルー画像中の被写体の視認することができる。ステップS102では、CPU3は、電源がOFF状態となったか否かを判断する。ステップS102での判断の結果、CPU3が、電源がOFF状態となったと判断した場合には、処理は終了する。一方、ステップS102での判断の結果、CPU3が、電源がOFF状態となっていないと判断した場合には、処理はステップS103に進む。ステップS103では、CPU3が、眼球用撮像素子17を作動させて、ステップS101で被写体を視認し始めたユーザの眼球画像を取得させる。この取得後、CPU3は、前述した視線検出を行う。本実施形態では、図7に示すフローチャートに基づいて、表示素子10上での推定注視点の座標(Hx,Hy)を取得する。ステップS104では、CPU3が、表示素子10を作動させて、ステップS103で取得された座標(Hx,Hy)に推定注視点を前記スルー画像に重畳させた画像を表示させる。このときユーザは、例えば図4(b)に示す状態の画像をファインダ内で視認しているとする。そして、カメラ1からは、スルー画像に重ねて表示された現在の推定注視点Cがユーザに報知される。ステップS105では、CPU3が所定時間待機する。
ステップS106では、CPU3が、ユーザからの接眼毎キャリブレーション開始の指示があったか否かを判断する。ステップS106での判断の結果、CPU3が、接眼毎キャリブレーション開始の指示があったと判断した場合には、処理はステップS107に進む。一方、ステップS106での判断の結果、CPU3が、接眼毎キャリブレーション開始の指示がないと判断した場合には、処理はステップS200に進む。前述したように、接眼毎キャリブレーション開始の指示は、操作部材42を操作することにより可能である。ステップS107では、CPU3が、通常キャリブレーションが実施済みか否かを判断する。ステップS107での判断の結果、CPU3が、通常キャリブレーションが実施済みと判断した場合には、処理はステップS110に進む。一方、ステップS107での判断の結果、CPU3が、通常キャリブレーションが実施済みではないと判断した場合には、接眼毎キャリブレーションを開始せず、処理はステップS108に進む。ステップS108では、CPU3が、例えば表示素子10に、通常キャリブレーションの実施を促すメッセージを表示させる。ステップS108実施後、処理はステップS200に進む。
ステップS110では、CPU3が、表示素子10上に表示されている推定注視点Cを非表示にさせるとともに、図8(b)に示すような接眼毎キャリブレーション用の第2指標(b)-Cを表示素子10のスルー画像に重畳表示する。ステップS111では、CPU3が、メモリ部4に記憶されているユーザごとの視線補正係数Ax~視線補正係数Byを読み出し、視線補正係数Bx、視線補正係数Byに「0」を代入して更新したものをメモリ部4に記憶させる。ステップS112では、CPU3が、ユーザからの接眼毎キャリブレーション中止の指示があったか否かを判断する。ステップS112での判断の結果、CPU3が、接眼毎キャリブレーション中止の指示があったと判断した場合には、処理はステップS113に進む。一方、ステップS112での判断の結果、CPU3が、接眼毎キャリブレーション中止の指がないと判断した場合には、処理はステップS120に進む。前述したように、接眼毎キャリブレーション中止の指示は、操作部材42の操作やレリーズボタン5の押下により可能である。ステップS113では、CPU3が、ステップS111で更新される前の視線補正係数Ax、視線補正係数Bx、視線補正係数Ay、視線補正係数Byをメモリ部4に記憶させて、処理はステップS200に進む。
ステップS120では、CPU3が、ステップS130での視線検出が所定回数完了したか否かを判断する。ステップS120での判断の結果、CPU3が、視線検出が所定回数完了したと判断した場合には、処理はステップS121に進む。一方、ステップS120での判断の結果、CPU3が、視線検出が所定回数完了していないと判断した場合には、処理はステップS130に進む。ステップS130では、CPU3が、ステップS101で表示させた第2指標(b)-Cを注視するユーザの眼球画像を、眼球用撮像素子17に取得させる。この取得後、CPU3は、前述した視線検出を行う。本実施形態では、図7に示すフローチャートに基づいて、表示素子10上での推定注視点の座標(Hx,Hy)を取得する。ステップS130実行後、処理はステップS112に戻る。ステップS121では、CPU3が、所定回数分の視線検出で取得した推定注視点の座標(Hx,Hy)の平均を取得する。ステップS122では、CPU3が、ステップS121で取得した平均の推定注視点の座標(Hx,Hy)と、ステップS111で取得した視線補正係数Axおよび視線補正係数Ayを用いて、接眼毎キャリブレーションを行う。これにより、接眼毎キャリブレーションでの視線補正係数Bx、視線補正係数Byが算出される。ステップS123では、CPU3が、ステップS111でメモリ部4から読み出した視線補正係数Axおよび視線補正係数Ayと、ステップS122で算出した視線補正係数Bxおよび視線補正係数Byをメモリ部4に記憶させる。ステップS123実行後、処理はステップS200に進む。
ステップS200では、CPU3が、ユーザによってレリーズボタン5が押されてSW1がON状態となったか否かを判断する。ユーザは、表示素子10上に表示された推定注視点の位置で合焦を行うことに同意した場合にレリーズボタン5を押下して、SW1をON状態にすることができる。ステップS200での判断の結果、CPU3が、SW1がON状態となったと判断した場合には、処理はステップS201に進む。一方、ステップS200での判断の結果、CPU3が、SW1がON状態ではないと判断した場合には、処理はステップS103に戻って、視線検出を再度行う。ステップS201では、CPU3が、現在の推定注視点の位置で測距動作を実行させて、当該測距動作実行の旨の情報を表示素子10のスルー画像上に表示する。これにより、ユーザは、測距動作が実行されていることを把握することができる。なお、測距動作実行情報の表示は、例えば、推定注視点の色を変更すること等により可能である。ステップS202では、CPU3が、レンズ焦点調節回路118を介してレンズ駆動部材114を作動させて、ステップS201で取得した測距結果に対応する合焦点位置にレンズ101を移動する。ステップS203では、CPU3が、ユーザによってレリーズボタン5がさらに押し込まれて、SW2がON状態となったか否かを判断する。ユーザは、表示素子10上に表示された推定注視点の位置で合焦を行うことに同意した場合に、レリーズボタン5をさらに押し込む。これにより、ステップS203では、CPU3がSW1をON状態にすることができる。ステップS203での判断の結果、CPU3が、SW2がON状態となったと判断した場合には、処理はステップS204に進む。一方、ステップS203での判断の結果、CPU3が、SW2がON状態ではないと判断した場合には、処理はステップS200に戻り、以降のステップを順次実行する。ステップS204では、CPU3が、撮像素子2を作動させて、撮像を行う。これにより、撮像素子2では、画像信号が取得される。また、この画像信号は、CPU3に送信されて、メモリ部4に記憶される。ステップS204実行後、処理はステップS205に進む。ステップS205では、CPU3が、取得画像を、例えば表示素子10に所定時間表示させて、処理はステップS102に戻り、以降のステップを順次実行する。
以上のように、カメラ1では、接眼毎に生じ得る注視点位置のズレに対し、ユーザが煩雑な操作を行うことなく、当該ズレの補正が可能となっている。これにより、ユーザが実際に注視している注視点と、推定注視点とが一致した状態となり、当該注視点の位置で合焦して、撮像が行われる。これにより、撮像時のユーザの利便性が向上する。
<<第2実施形態>>
以下、図10を参照して、第2実施形態について説明する。前記第1実施形態では、通常キャリブレーションを実施したときとは異なる接眼位置で接眼して撮像を行っても、接眼毎キャリブレーションを実施することにより、当該撮影時の接眼位置における適切な視線補正係数を求めて、注視点を推定することができる。ところで、通常キャリブレーション実施時の(第1接眼位置での)第1接眼距離と、接眼毎キャリブレーション実施時の(第2接眼位置での)第2接眼距離とが大きく異なる場合においては、通常キャリブレーションを再度実施した方がよい場合がある。
<接眼距離の検出についての説明>
本実施形態の「接眼距離」とは、受光レンズ16と眼球14との距離(実距離)のことである。この接眼距離と第1実施形態で説明した結像倍率βとは、一般的に反比例の関係にあるため、接眼距離は、結像倍率βの関数として求めることができる。また、第1実施形態で説明したように、結像倍率βは、角膜反射像Pd‘、結像倍率Pe’の間隔(Xd-Xe)の関数として求めることができるため、接眼距離も同様に間隔(Xd-Xe)の関数として求めることができる。
<接眼毎キャリブレーションの実施可否判断についての説明>
本実施形態では、カメラ1にユーザが接眼レンズ12に接眼した状態での接眼距離を検出する接眼距離検出手段が設けられている。接眼距離検出手段としては、特に限定されず、例えば、赤外線距離センサ等を用いることができる。接眼距離検出手段が赤外線距離センサで構成されている場合、赤外線距離センサは、例えば、光源13aと光源13bとの間に配置されるのが好ましい。そして、接眼距離検出手段は、第1接眼距離と第2接眼距離とを検出することができる。
カメラ1では、CPU3が第1接眼距離と第2接眼距離との差分(差)を算出し、その差分が所定値よりも大きい場合、通常キャリブレーションを再度実施すべき判断する。そして、通常キャリブレーションにより第1補正情報が再度取得されて、第2補正をせずに、当該第1補正情報を用いた第1補正が行われる。なお、所定値は、次のように決定される。カメラ1の設計時において、接眼距離の差分と推定注視点位置の意思一致率との関係性を測定して、意思一致率が一定以上となるように所定値を決定する。そして、この所定値をメモリ部4に予め記憶しておく。なお、所定値は、一意に決定されるものに限定されず、諸条件に応じて適切に決定されることが好ましい。また、メモリ部4には、大きさが異なる複数の所定値が記憶されていてもよい。これにより、接眼距離の差分の大きさに応じて、キャリブレーションを異ならせることができる。例えば、第1所定値と、第1所定値よりも小さい第2所定値とがある場合、接眼距離の差分が第1所定値以上であれば、通常キャリブレーションを再度実施するべきと判断する。また、接眼距離の差分が第1所定値未満(所定値以下)であり、かつ、第2所定値以上である場合には、接眼毎キャリブレーションを実施して、当該接眼毎キャリブレーションによる第2補正を行うべきと判断する。また、接眼距離の差分が第2所定値未満である場合には、キャリブレーションの実施は不要と判断し、メモリ部4に記憶された視線補正係数をそのまま使用する。
<カメラ動作の説明>
図10は、第2実施形態における第1補正と第2補正との切替プログラムのフローチャートである。図10は、図9に示すフローチャートに対し、ステップS300~ステップS302を追加したフローチャートであり、それ以外のステップについては、図9に示すフローチャートと同様である。以下、ステップS300~ステップS303と、それに関連するステップS107について説明し、同様の事項はその説明を省略する。
ステップS107では、CPU3が、通常キャリブレーションが実施済みか否かを判断する。ステップS107での判断の結果、CPU3が、通常キャリブレーションが実施済みと判断した場合には、処理はステップS300に進む。一方、ステップS107での判断の結果、CPU3が、通常キャリブレーションが実施済みではないと判断した場合には、接眼毎キャリブレーションを開始せず、処理はステップS108に進む。
ステップS300では、CPU3が、メモリ部4に記憶されている接眼距離情報としての第1接眼距離を読み出す。ステップS301では、CPU3が、ステップ103で取得した現在の接眼距離としての第2接眼距離と、ステップS300で取得した第1接眼距離との差分を算出する。ステップS302では、CPU3が、差分が第1所定値以上であるか否かを判断する。ステップS302での判断の結果、CPU3が、差分が第1所定値以上であると判断した場合には、処理はステップS108に進む。一方、ステップS302での判断の結果、CPU3が、差分が第1所定値以上ではないと判断した場合には、処理はステップS303に進む。ステップS303では、CPU3が、差分が第2所定値未満であるか否かを判断する。ステップS303での判断の結果、CPU3が、差分が第2所定値未満であると判断した場合には、処理はステップS200に進む。一方、ステップS303での判断の結果、CPU3が、差分が第2所定値未満ではないと判断した場合には、処理はステップS110に進む。
以上のような構成により、接眼距離の大小に応じて、通常キャリブレーションと接眼毎キャリブレーションとを適切に選択することができ、よって、撮像時の利便性が向上する。
<<第3実施形態>>
以下、図11を参照して、第3実施形態について説明する。前記第2実施形態では、接眼毎によって接眼距離が異なる場合、その接眼距離の大小に応じて、通常キャリブレーションを実施したり、接眼毎キャリブレーションを実施したりして、適切な視線補正係数を求めて、注視点を推定することができる。ところで、適切なキャリブレーションを選択して、視線補正係数を算出し直す処理を開始するには、ユーザ操作必要があり煩雑となるおそれがある。カメラ1は、ユーザの接眼を検出可能(検知可能)構成に構成されている。本実施形態では、接眼を検出した場合には、第2実施形態で述べたように適切なキャリブレーションを選択して、視線補正係数を算出し直す処理を自動的に開始することができる。
<接眼の検出についての説明>
本実施形態では、非接眼時においても定期的に視線検出を実行して、注視点を検出することができた場合に接眼状態であると判断し、注視点が検出されない場合に非接眼状態が継続されていると判断する。また、接眼検出構成は、一意に決定されるものに限定されず、諸条件に応じて適切に決定されることが好ましい。例えば、近接センサ等を用いて接眼検出を行ってもよい。
<カメラ動作の説明>
図11は、第3実施形態における第1補正と第2補正との切替プログラムのフローチャートである。図11に示すフローチャートは、図10に示すフローチャートに対し、ステップS400、ステップS401を追加し、ステップS106をステップS410に置き換えたフローチャートである。なお、それ以外のステップについては、図10に示すフローチャートと同様である。以下、ステップS400、ステップS401およびステップS410と、それに関連するステップS103~ステップS105について説明し、同様の事項はその説明を省略する。
ステップS103では、CPU3が、眼球用撮像素子17を作動させて、ステップS101で被写体を視認し始めたユーザの眼球画像を取得させる。この取得後、CPU3は、前述した視線検出を行う。本実施形態では、図7に示すフローチャートに基づいて、表示素子10上での推定注視点の座標(Hx,Hy)を取得する。ステップS103実施後、処理はステップS400に進む。
ステップS400では、CPU3が、ステップS103で推定注視点の座標(Hx,Hy)を取得することができたか否かを判断する。ステップS400での判断の結果、CPU3が座標(Hx,Hy)を取得することができたと判断した場合には、処理はステップS104に進む。一方、ステップS400での判断の結果、CPU3が座標(Hx,Hy)を取得することができなかったと判断した場合には、非接眼状態であるとして、処理はステップS401に進む。ステップS401では、CPU3が所定時間待機する。ステップS401実施後、処理はステップS103に戻り、以降のステップを順次実行する。ステップS104およびステップS105では、図10に示すフローチャートのステップS104およびステップS105と同様の処理を行う。ステップS105実行後、処理はステップS410に進む。ステップS410では、CPU3が接眼毎キャリブレーションを自動的に開始するために、処理はステップS107に進む。
以上のような構成により、接眼を検出した場合には、適切なキャリブレーションを選択して、視線補正係数を算出し直す処理を自動的に開始することができる。
<<第4実施形態>>
以下、図12を参照して、第4実施形態について説明する。前記第3実施形態では、接眼を検知した場合に自動的にキャリブレーションを行って、視線補正係数を算出することができる。ところで、第1実施形態で説明したように、キャリブレーションの目的は、ユーザの個人差を補正することである。ここで、キャリブレーションを実施したユーザ(以下「第1ユーザ」と言う)と、第1ユーザは異なるユーザ(以下「第2ユーザ」と言う)とが共通のカメラ1を用いる場合を考えてみる。この場合、第3実施形態の構成では、第2ユーザに対しても、自動的にキャリブレーションを行ってしまう。
そこで、本実施形態のカメラ1には、ユーザの虹彩に関する虹彩情報を取得する虹彩情報取得手段と、虹彩情報取得手段での取得結果に基づいて、複数の虹彩情報同士の一致度の程度を検出する一致度検出手段とが設けられている。なお、本実施形態では、眼球用撮像素子17が虹彩情報取得手段として機能し、CPU3が一致度検出手段として機能する。
<虹彩情報によるユーザの個人性を判別する構成>
本実施形態では、キャリブレーションを実施した際に、視線補正係数や接眼距離情報とともに、虹彩情報もメモリ部4に記憶する。虹彩情報としては、本実施形態では、第1虹彩情報と、第1虹彩情報と異なる第2虹彩情報とがあり、いずれも、前述の視線検出によって得られた眼球画像から、虹彩部を抽出した虹彩画像である。なお、虹彩情報は、一意に決定されるものではなく、諸条件に応じて適切に決定されることが好ましい。虹彩情報としては、例えば、畳み込み積分によって伸縮された画像や、デジタルフィルタを掛けた画像、領域分割された特徴量等であってもよい。
また、一致度検出手段により、上述した方法によって得られた2つの虹彩情報、すなわち、第1虹彩情報と第2虹彩情報との一致度を算出する。一致度の算出方法としては、特に限定されず、例えば、SAD(Sum Of Absolute Difference)方式等を用いることができる。SAD方式は、差分の絶対値の和であるため、2つの虹彩情報の一致度が高いほど評価値は小さくなり、最小値は0、最大値はいずれかの虹彩情報の総和と等しくなる。なお、一致度の算出方法については、一意に決定されるものではなく、例えば、虹彩情報の形態や、眼球画像の撮影方法等の各種の諸条件によって決定されることが好ましい。そして、第1虹彩情報と第2虹彩情報との評価値が、メモリ部4に予め記憶された所定値よりも小さい場合には、2つの虹彩は同一人物の虹彩であると判断することができる。なお、所定値については、十分な虹彩のサンプル数、具体的には人数や眼球角度、虹彩の色、眼球画像撮影時の明るさ等の各種の諸条件下で得らえた虹彩情報に基づいて決定されることが好ましい。
<カメラ動作の説明>
図12は、第4実施形態における第1補正と第2補正との切替プログラムのフローチャートである。図12に示すフローチャートは、図11に示すフローチャートに対し、ステップS500~ステップS502を追加したフローチャートであり、それ以外のステップについては、図11に示すフローチャートと同様である。以下、ステップS500~ステップS502と、それに関連するステップS107について説明し、同様の事項はその説明を省略する。
ステップS107では、CPU3が、通常キャリブレーションが実施済みか否かを判断する。ステップS107での判断の結果、CPU3が、通常キャリブレーションが実施済みと判断した場合には、処理はステップS500に進む。一方、ステップS107での判断の結果、CPU3が、通常キャリブレーションが実施済みではないと判断した場合には、接眼毎キャリブレーションを開始せず、処理はステップS108に進む。
ステップS500では、CPU3が、メモリ部4に記憶されている虹彩情報を読み出す。虹彩情報は、上述したように通常キャリブレーション実施時の虹彩情報である。ステップS501では、CPU3が、ステップ103で取得した現在の虹彩情報と、ステップ500で取得した虹彩情報との一致度を算出する。一致度の算出に上述したSAD方式をもしいた場合、評価値が小さいほど2つの虹彩情報の一致度が高くなる。ステップS502では、CPU3が、評価値が所定値以下、すなわち、第1虹彩情報と第2虹彩情報との一致度の程度が所定以上であるか否かを判断する。ステップS502での判断の結果、CPU3が、評価値が所定値以下であると判断した場合には、処理はステップS300に進む。一方、ステップS502での判断の結果、CPU3が、評価値が所定値以下ではないと判断した場合には、処理はステップS108に戻り、以降のステップを順次実行する。
以上のような構成により、キャリブレーションが実施されたユーザと、その後接眼したユーザとが同一人物である場合は、第3実施形態に記載された処理を自動的に開始することができる。また、本実施形態では、第1虹彩情報と第2虹彩情報との一致度の程度が所定以上であると検出された場合、第2補正を行い、所定未満であると検出された場合、第2補正をせずに、第1補正を行うことができる。これにより、ユーザに応じたキャリブレーションの切替を適切に行うことができ、正確な注視点の推定に寄与する。
以上、本発明の好ましい実施形態について説明したが、本発明は上述した各実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。本発明は、上述の各実施形態の1以上の機能を実現するプログラムを、ネットワークや記憶媒体を介してシステムや装置に供給し、そのシステムまたは装置のコンピュータの1つ以上のプロセッサがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、視線検出のキャリブレーションは、前述したカメラの他に、例えば、ヘッドマウントディスプレイやシースルーグラス、車載カメラにも適用可能である。
1 デジタルスチルカメラ(カメラ)
2 撮像素子(撮像部)
3 CPU
4 メモリ部
10 表示素子(表示部)
17 眼球用撮像素子(眼球用撮像部)
201 視線検出回路
A 推定注視点
B 注視点(実注視点)
C 推定注視点

Claims (16)

  1. ユーザの注視点に対応する位置を推定する推定手段と、
    表示部に表示された指標の位置と当該位置に対する前記ユーザの注視点に対応する位置とに基づいて、前記ユーザの注視点に対応する位置の補正を行う補正手段と、を備え、
    前記補正手段は、第1の数の指標の位置に基づいて前記補正を行う第1のモードと、前記第1の数よりも少ない第2の数の指標に基づいて前記補正を行う第2のモードと、を有することを特徴とする撮像装置。
  2. 前記補正手段では、前記第1のモード、前記第2のモードの順に行われることを特徴とする請求項1に記載の撮像装置。
  3. 前記ユーザが前記表示部を視認する際に接眼する接眼部と、
    前記接眼部に対する接眼を検出する接眼検出手段と、を備え、
    前記補正手段は、前記接眼検出手段で前記接眼が検出された場合、前記補正を行うことを特徴とする請求項1または2に記載の撮像装置。
  4. 前記第1のモードでは、前記第1の数の指標を前記表示部に表示させて、前記表示部上での前記各第1の数の指標と、該各第1の数の指標に対する視認時に前記推定手段で推定された前記注視点に対応する位置との位置関係に基づいて得られた第1補正情報を用い、
    前記第2のモードでは、前記第2の数の指標を前記表示部に表示させて、前記表示部上での前記各第2の数の指標と、該各第2の数の指標に対する視認時に前記推定手段で推定された前記注視点に対応する位置との位置関係に基づいて得られた情報を、前記第1補正情報に反映させた第2補正情報を用いることを特徴とする請求項1乃至3のうちの何れか1項に記載の撮像装置。
  5. 前記ユーザが前記表示部を視認する際に接眼する接眼部と、
    前記接眼部に対する前記ユーザの接眼位置を検出する接眼位置検出手段と、を備え、
    前記接眼位置検出手段は、前記接眼位置として、前記第1補正情報を用いた第1補正が行われる際に接眼した第1接眼位置と、該第1接眼位置と異なる第2接眼位置と、を検出可能であり、
    前記補正手段は、前記接眼位置検出手段で前記第2接眼位置が検出された場合には、前記第2補正情報を用いた第2補正を行うことを特徴とする請求項4に記載の撮像装置。
  6. 前記ユーザが前記接眼部に接眼した状態での接眼距離を検出する接眼距離検出手段を備え、
    前記接眼距離検出手段は、前記第1接眼位置での第1接眼距離と、前記第2接眼位置での第2接眼距離と、を検出可能であり、
    前記補正手段は、前記第1接眼距離と前記第2接眼距離との差が所定値よりも大きいの場合、前記第2補正をせずに、前記第1補正を行う請求項5に記載の撮像装置。
  7. 前記補正手段は、前記第1接眼距離と前記第2接眼距離との差が所定値よりも大きいの場合に前記第1補正を行う際、前記第1補正情報を再度取得して、該第1補正情報を用いる請求項5に記載の撮像装置。
  8. 前記補正手段は、前記第1接眼距離と前記第2接眼距離との差が所定値以下の場合、前記第2補正を行う請求項6また7に記載の撮像装置。
  9. 前記ユーザの虹彩に関する虹彩情報を取得する虹彩情報取得手段と、
    複数の前記虹彩情報同士の一致度の程度を検出する一致度検出手段と、を備え、
    前記虹彩情報取得手段は、前記虹彩情報として、第1虹彩情報と、該第1虹彩情報と異なる第2虹彩情報と、を検出可能であり、
    前記補正手段は、前記一致度検出手段で前記第1虹彩情報と前記第2虹彩情報との一致度の程度が所定以上であると検出された場合、前記第2補正を行い、所定未満であると検出された場合、前記第2補正をせずに、前記第1補正を行うことを特徴とする請求5乃至8のうちの何れか1項に記載の撮像装置。
  10. 前記表示部は、矩形をなす表示画面を有し、
    前記各第1の数の指標は、前記表示画面の縁部側に偏在して配置され、
    前記第2の数の指標は、前記表示画面の中央部に配置されることを特徴とする請求項1乃至9のうちの何れか1項に記載の撮像装置。
  11. 前記第1の数は、2~8であり、
    前記第2の数は、1~4であることを特徴とする請求項1乃至10のうちの何れか1項に記載の撮像装置。
  12. 前記表示部と、
    被写体を撮像する撮像部と、
    ユーザの眼球を撮像する眼球用撮像部と、を備えることを特徴とする請求項1乃至11のうちの何れか1項に記載の撮像装置。
  13. ユーザの注視点の検出のためのキャリブレーションに用いられる指標を表示する表示手段における表示を制御する制御手段を有し、
    前記制御手段は、第1のキャリブレーションにおいては第1の数の指標が前記表示手段に表示され、前記第1のキャリブレーションより後に実行される第2のキャリブレーションにおいては前記第1の数よりも少ない第2の数の指標が表示される制御を実行することを特徴とする制御装置。
  14. ユーザの注視点に対応する位置を推定する推定工程と、
    表示部に表示された指標の位置と当該位置に対する前記ユーザの注視点に対応する位置とに基づいて、前記ユーザの注視点に対応する位置の補正を行う補正工程と、を備え、
    前記補正工程では、第1の数の指標の位置に基づいて前記補正を行う第1のモードと、前記第1の数よりも少ない第2の数の位置に基づいて前記補正を行う第2のモードと、を行うことを特徴とする撮像装置の制御方法。
  15. ユーザの注視点の検出のためのキャリブレーションに用いられる指標を表示する表示手段における表示を制御する制御工程を有し、
    前記制御工程では、第1のキャリブレーションにおいては、第1の数の指標が前記表示手段に表示され、前記第1のキャリブレーションより後に実行される第2のキャリブレーションにおいては、前記第1の数よりも少ない第2の数の指標が表示される制御を実行することを特徴とする制御方法。
  16. 請求項1乃至13の何れか1項に記載の装置の各手段をコンピュータに実行させるためのプログラム。
JP2021198715A 2021-12-07 2021-12-07 撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラム Pending JP2023084503A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021198715A JP2023084503A (ja) 2021-12-07 2021-12-07 撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラム
US18/061,122 US20230179854A1 (en) 2021-12-07 2022-12-02 Control apparatus, method of controlling control apparatus, control method, and storage medium
CN202211560612.7A CN116248994A (zh) 2021-12-07 2022-12-07 控制设备、控制设备的控制方法、控制方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021198715A JP2023084503A (ja) 2021-12-07 2021-12-07 撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2023084503A true JP2023084503A (ja) 2023-06-19

Family

ID=86607177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021198715A Pending JP2023084503A (ja) 2021-12-07 2021-12-07 撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラム

Country Status (3)

Country Link
US (1) US20230179854A1 (ja)
JP (1) JP2023084503A (ja)
CN (1) CN116248994A (ja)

Also Published As

Publication number Publication date
US20230179854A1 (en) 2023-06-08
CN116248994A (zh) 2023-06-09

Similar Documents

Publication Publication Date Title
JP7358530B2 (ja) 被写体認識装置及び被写体認識装置の制御方法
US20220197111A1 (en) Gaze detection apparatus, gaze detection method, and non-transitory computer readable medium
JP2020106552A (ja) 被写体認識装置
JP7567012B2 (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
JP2023084503A (ja) 撮像装置、制御装置、撮像装置の制御方法、制御方法およびプログラム
CN114947732A (zh) 检测装置和用于控制检测装置的控制方法
JP2024053967A (ja) 視線検出装置、撮像装置、視線検出方法、およびプログラム
US11632496B2 (en) Image pickup apparatus for detecting line-of-sight position, control method therefor, and storage medium
US12118747B2 (en) Gaze detection apparatus
JP2002301030A (ja) 視線検出機能付き機器
JP3559622B2 (ja) 視線検出装置および視線検出装置を有する光学機器
US20240085979A1 (en) Recording device, image-capturing apparatus, control method, and recording system
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
JP2023006629A (ja) 制御装置およびその制御方法
JP3391892B2 (ja) 視線検出装置、光学装置及び視線検出方法
JP3548222B2 (ja) 視線検出装置を備えたビデオカメラ
JP2023074878A (ja) 視線検出装置、視線検出装置の制御方法およびプログラム
CN116095452A (zh) 电子装置及其控制方法和存储介质
JP2023083695A (ja) 電子機器
JP3624030B2 (ja) 視線検出装置及び光学装置
JP3492324B2 (ja) 光学装置
JPH0943494A (ja) 視線検出手段を有する光学機器
JPH0735966A (ja) 視線検出装置およびこれが搭載されたカメラ
JPH1099274A (ja) 視線検出装置及び光学機器
JP2002238854A (ja) 視線検出装置及び視線検出装置を備えた光学装置