JP2022183552A - 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体 - Google Patents

視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体 Download PDF

Info

Publication number
JP2022183552A
JP2022183552A JP2021090920A JP2021090920A JP2022183552A JP 2022183552 A JP2022183552 A JP 2022183552A JP 2021090920 A JP2021090920 A JP 2021090920A JP 2021090920 A JP2021090920 A JP 2021090920A JP 2022183552 A JP2022183552 A JP 2022183552A
Authority
JP
Japan
Prior art keywords
line
sight
sight information
image
eye movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021090920A
Other languages
English (en)
Inventor
和広 並木
Kazuhiro Namiki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021090920A priority Critical patent/JP2022183552A/ja
Publication of JP2022183552A publication Critical patent/JP2022183552A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Abstract

【課題】固視微動による視線情報の変化を好適に低減することのできる技術を提供する。【解決手段】本発明の視線情報取得装置は、撮像された画像を見る眼の視線の情報である視線情報を取得する第1取得手段と、固視微動による前記視線情報の変化を低減する低減手段とを有し、前記低減手段は、前記画像を撮像する際の焦点距離が短い場合に、前記焦点距離が長い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減することを特徴とする。【選択図】図9

Description

本発明は、視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体に関する。
近年、撮像装置の自動化・インテリジェント化が進み、手動で位置が入力されずとも、ファインダーを覗く撮影者の視線の情報(視線情報)に基づいて、撮影者が見ている方向の空間内の位置や、画面上の位置などを選択する装置が提案されている。
視線検出の誤差要因の1つとして人間の生理的眼球運動がある。例えば、人間の眼球は、一点を見ているつもりでも、不随意的に細かく揺(振)れる。このような不随意運動は固視微動などと呼ばれる。
特許文献1では、所定時間内における瞳孔中心位置の移動距離に基づいて、操作者の眼球の動きが、固視微動であるか、随意運動・跳躍運動であるかを判断する構成が提案されている。さらに、特許文献1では、その判断結果に基づき、瞳孔中心位置のデータ数を変更して、瞳孔中心位置の平均値を計算し、この計算結果に基づき視線方向を検出する構成が提案されている。
特開平11-282617号公報
しかしながら、特許文献1の構成では、操作者が見ている物体の大きさや移動量が動的に変化する場合に、固視微動により、視線検出の精度が低下し、視線情報に意図せぬ変化が生じてしまう。
本発明は、固視微動による視線情報の変化を好適に低減することのできる技術を提供することを目的とする。
本発明の第1の態様は、撮像された画像を見る眼の視線の情報である視線情報を取得する第1取得手段と、固視微動による前記視線情報の変化を低減する低減手段とを有し、前記低減手段は、前記画像を撮像する際の焦点距離が短い場合に、前記焦点距離が長い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減することを特徴とする視線情報取得装置である。
本発明の第2の態様は、画像を見る眼の視線の情報である視線情報を取得する第1取得手段と、固視微動による前記視線情報の変化を低減する低減手段とを有し、前記低減手段は、前記画像における物体までの奥行きである物体距離が長い場合に、前記物体距離が短い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減することを特徴とする視線情報取得装置である。
本発明の第3の態様は、撮像手段と、上述した視線情報取得装置とを有し、前記視線情
報取得装置は、前記撮像手段により撮像された前記画像を表示部に表示するように制御し、前記画像を見る眼の視線を検出することを特徴とする撮像装置である。
本発明の第4の態様は、撮像された画像を見る眼の視線の情報である視線情報を取得する取得ステップと、固視微動による前記視線情報の変化を低減する低減ステップとを有し、前記低減ステップでは、前記画像を撮像する際の焦点距離が短い場合に、前記焦点距離が長い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減することを特徴とする視線情報取得方法である。
本発明の第5の態様は、画像を見る眼の視線の情報である視線情報を取得する取得ステップと、固視微動による前記視線情報の変化を低減する低減ステップとを有し、前記低減ステップでは、前記画像における物体までの奥行きである物体距離が長い場合に、前記物体距離が短い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減することを特徴とする視線情報取得方法である。
本発明の第6の態様は、コンピュータを、上述した視線情報取得装置の各手段として機能させるためのプログラムである。本発明の第7の態様は、コンピュータを、上述した視線情報取得装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体である。
本発明によれば、固視微動による視線情報の変化を好適に低減することができる。
カメラの外観図である。 カメラの断面図である。 カメラのブロック図である。 ファインダー内視野を示す図である。 視線検出方法の原理を説明するための図である。 眼画像を示す図である。 視線検出動作のフローチャートである。 検出された視点の時間変化を示すグラフである。 焦点距離とカットオフ周波数の関係を示すグラフである。 事後推定値は事前推定値と観測値の関係を示す図である。 固視微動低減処理の制御を示すフローチャートである。 焦点距離と物体距離とカットオフ周波数の関係を示すグラフである。 他の電子機器の外観図である。
<<実施形態1>>
以下、添付の図面を参照して本発明の実施形態1について説明する。
<構成の説明>
図1(A),1(B)は、実施形態1に係るカメラ1(デジタルスチルカメラ;レンズ交換式カメラ)の外観を示す。図1(A)は正面斜視図であり、図1(B)は背面斜視図である。図1(A)に示すように、カメラ1は、撮影レンズユニット1A及びカメラ筐体1Bを有する。カメラ筐体1Bには、ユーザー(撮影者)からの撮影操作を受け付ける操作部材であるレリーズボタン5が配置されている。図1(B)に示すように、カメラ筐体1Bの背面には、カメラ筐体1B内に含まれている後述の表示デバイス10(表示パネル)をユーザーが覗き込むための接眼レンズ12(接眼光学系)が配置されている。なお、
接眼光学系には複数枚のレンズが含まれていてもよい。カメラ筐体1Bの背面には、ユーザーからの各種操作を受け付ける操作部材41~43も配置されている。例えば、操作部材41はタッチ操作を受け付けるタッチパネルであり、操作部材42は各方向に押し倒し可能な操作レバーであり、操作部材43は4方向のそれぞれに押し込み可能な4方向キーである。操作部材41(タッチパネル)は、液晶パネルなどの表示パネルを備えており、表示パネルで画像を表示する機能を有する。
図2は、図1(A)に示したY軸とZ軸が成すYZ平面でカメラ1を切断した断面図であり、カメラ1の大まかな内部構成を示す。
撮影レンズユニット1A内には、2枚のレンズ101,102、絞り111、絞り駆動部112、レンズ駆動モーター113、レンズ駆動部材114、フォトカプラー115、パルス板116、マウント接点117、焦点調節回路118などが含まれている。レンズ駆動部材114は駆動ギヤなどからなり、フォトカプラー115は、レンズ駆動部材114に連動するパルス板116の回転を検知して、焦点調節回路118に伝える。焦点調節回路118は、フォトカプラー115からの情報と、カメラ筐体1Bからの情報(レンズ駆動量の情報)とに基づいてレンズ駆動モーター113を駆動し、レンズ101を移動させて合焦位置を変更する。マウント接点117は、撮影レンズユニット1Aとカメラ筐体1Bとのインターフェイスである。なお、簡単のために2枚のレンズ101,102を示したが、実際は2枚より多くのレンズが撮影レンズユニット1A内に含まれている。
カメラ筐体1B内には、撮像素子2、CPU3、メモリ部4、表示デバイス10、表示デバイス駆動回路11などが含まれている。撮像素子2は、撮影レンズユニット1Aの予定結像面に配置されている。CPU3は、マイクロコンピュータの中央処理部であり、カメラ1全体を制御する。メモリ部4は、撮像素子2により撮像された画像などを記憶する。表示デバイス10は、液晶などで構成されており、撮像された画像(被写体像)などを表示デバイス10の表示面に表示する。表示デバイス駆動回路11は、表示デバイス10を駆動する。ユーザーは、接眼レンズ12を通して、表示デバイス10の表示面に表示された画像(撮像素子2により撮像された画像など)を見ることができる。
カメラ筐体1B内には、光源13a,13b、光分割器15、受光レンズ16、眼用撮像素子17なども含まれている。光源13a,13bは、ユーザーの眼球14を照明するための光源である。光源13a,13bは、光の角膜反射による反射像(角膜反射像;プルキニエ像)と瞳孔の関係から視線方向(視線の方向;ユーザーが見ている方向)を検出するために従来から一眼レフカメラなどで用いられている。具体的には、光源13a,13bは、ユーザーに対して不感の赤外光を発する赤外発光ダイオードなどであり、接眼レンズ12の周りに配置されている。照明された眼球14の光学像(眼球像;光源13a,13bから発せられて眼球14で反射した反射光による像)は、接眼レンズ12を透過し、光分割器15で反射される。そして、眼球像は、受光レンズ16によって、CCDやCMOSなどの光電素子列を2次元的に配した眼用撮像素子17上に結像される。受光レンズ16は、眼球14の瞳孔と眼用撮像素子17を共役な結像関係に位置付けている。後述する所定のアルゴリズムにより、眼用撮像素子17上に結像された眼球像における角膜反射像の位置から、眼球14の視線方向が検出される。
図3は、カメラ1内の電気的構成を示すブロック図である。CPU3には、視線検出回路201、測光回路202、自動焦点検出回路203、信号入力回路204、表示デバイス駆動回路11、光源駆動回路205などが接続されている。また、CPU3は、撮影レンズユニット1A内に配置された焦点調節回路118と、撮影レンズユニット1A内の絞り駆動部112に含まれた絞り制御回路206とに、マウント接点117を介して信号を伝達する。CPU3に付随したメモリ部4は、撮像素子2および眼用撮像素子17からの
撮像信号の記憶機能と、後述する視線の個人差を補正する視線補正パラメータの記憶機能とを有する。
視線検出回路201は、眼用撮像素子17上に眼球像が結像した状態での眼用撮像素子17の出力(眼を撮像した眼画像)をA/D変換し、その結果をCPU3に送信する。CPU3は、後述する所定のアルゴリズムに従って眼画像から視線検出に必要な特徴点を抽出し、特徴点の位置から、表示デバイス10の表示面におけるユーザーの視点(視線位置;視線が注がれている位置;ユーザーが見ている位置)を算出する。
測光回路202は、測光センサの役割を兼ねた撮像素子2から得られる信号、具体的には被写界の明るさに対応した輝度信号の増幅、対数圧縮、A/D変換などを行い、その結果を被写界輝度情報としてCPU3に送る。
自動焦点検出回路203は、撮像素子2の中に含まれる、位相差検出のために使用される複数の検出素子(複数の画素)からの信号電圧をA/D変換し、CPU3に送る。CPU3は、複数の検出素子の信号から、各焦点検出ポイントに対応する被写体までの距離を演算する。これは撮像面位相差AFとして知られる公知の技術である。実施形態1では、一例として、図4(A)のファインダー内視野(ファインダーを覗いたときの視野)、具体的には表示デバイス10の表示面に示した180か所に対応する撮像面上の180か所のそれぞれに、焦点検出ポイントがあるとする。
信号入力回路204には、スイッチSW1とスイッチSW2とが接続されている。スイッチSW1は、レリーズボタン5の第1ストロークでONし、カメラ1の測光、測距、視線検出動作などを開始するためのスイッチである。スイッチSW2は、レリーズボタン5の第2ストロークでONし、撮影動作を開始するためのスイッチである。スイッチSW1,SW2からのON信号が信号入力回路204に入力され、CPU3に送信される。
図4(A)は、ファインダー内視野を示す図であり、表示デバイス10が動作した状態(画像を表示した状態)を示す。図4(A)に示すように、ファインダー内視野には、焦点検出領域400、180個の測距点指標401、視野マスク402などがある。180個の測距点指標401のそれぞれは、撮像面上における焦点検出ポイントに対応する位置に表示されるように、表示デバイス10に表示されたスルー画像(ライブビュー画像)に重ねて表示される。また、180個の測距点指標401のうち、現在の視点A(推定位置)に対応する測距点指標401は、枠などで強調されて表示される。
なお、現在の視点(推定位置)を示すアイテムとして、当該視点に対応する測距点指標を強調する枠などを表示する例を説明したが、これに限られない。例えば、図4(D)に示すように、現在の視点を示すアイテムは、当該視点に対応する測距点指標を識別可能に示すアイテムでなく、当該視点のみを示すアイテム(視線ポインタ)であってもよい。その場合には、現在の視点を示すアイテムの表示と、当該視点に対応する測距点指標や各種ボタンなどの強調表示との両方が行われてもよい。現在の視点を示すアイテムの表示位置は、連続的に変化するものであってもよいし、段階的に変化するものであってもよい。
<視線検出動作の説明>
図5,6(A),6(B),7を用いて、視線検出方法について説明する。図5は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図5に示すように、光源13a,13bは受光レンズ16の光軸に対して略対称に配置され、ユーザーの眼球14を照らす。光源13a,13bから発せられて眼球14で反射した光の一部は、受光レンズ16によって、眼用撮像素子17に集光する。図6(A)は、眼用撮像素子17で撮像された眼画像(眼用撮像素子17に投影された眼球像)の概
略図であり、図6(B)は眼用撮像素子17におけるCMOSの出力強度を示す図である。図7は、視線検出動作のフローチャートである。
視線検出動作が開始すると、図7のステップS701で、光源13a,13bは、ユーザーの眼球14に向けて赤外光を発する。赤外光によって照明されたユーザーの眼球像は、受光レンズ16を通して眼用撮像素子17上に結像され、眼用撮像素子17により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
ステップS702では、視線検出回路201は、眼用撮像素子17から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU3に送る。
ステップS703では、CPU3は、ステップS702で得られた眼画像から、光源13a,13bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。
光源13a,13bより発せられた赤外光は、ユーザーの眼球14の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ16により集光され、眼用撮像素子17上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子17上に結像して、眼画像における瞳孔端像a’,b’となる。
図6(B)は、図6(A)の眼画像における領域αの輝度情報(輝度分布)を示す。図6(B)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。実施形態1では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図6(B)に示すように、角膜反射像Pd’,Pe’のX座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子17上に結像して得られる瞳孔像の領域)に相当する、X座標XaからX座標Xbまでの領域では、X座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光束が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)がX座標Xaより小さい領域と、X座標がX座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
図6(B)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbとを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ16の光軸に対する眼球14の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子17上に結像して得られる瞳孔中心像c’(瞳孔像の中心)のX座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’のX座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
ステップS704では、CPU3は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ16に対する眼球14の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて求めることができる。
ステップS705では、CPU3は、眼球14の視線方向の情報として、受光レンズ16の光軸に対する眼球14の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜1
42の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球14の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球14の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。

β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
ステップS706では、CPU3は、ステップS705で算出した回転角θx,θyを用いて、表示デバイス10の表示面におけるユーザーの視点を求める(推定する)。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。

Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
式2,3のパラメータmは、カメラ1のファインダー光学系(受光レンズ16など)の構成で定まる定数であり、回転角θx,θyを表示デバイス10の表示面における瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ部4に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、後述するキャリブレーション作業を行うことで取得される。パラメータAx,Bx,Ay,Byは、視線検出動作が開始する前にメモリ部4に格納されるとする。
ステップS707では、CPU3は、視点の座標(Hx,Hy)をメモリ部4に格納し、視線検出動作を終える。
なお、角膜反射像を利用する例を説明したが、視線検出の方法はこれに限られず、眼画像に基づいて視線を検出する如何なる方法であってもよい。また、視線検出の結果(最終結果)として視点の座標(Hx,Hy)を得る例を説明したが、回転角θx,θyなど、視線に関する情報(視線情報)であれば、どのような情報が視線検出の結果として得られてもよい。
<キャリブレーション作業の説明>
上述した視線検出動作により視線を推定することができるが、人間の眼球の形状の個人差などの要因により、視線を高精度に推定できないことがある。具体的には、視線補正パラメータAx,Ay,Bx,Byをユーザーに適した値に調整しなければ、図4(B)に示すように、実際の視点Bと推定された視点Cとのずれが生じてしまう。図4(B)では、ユーザーは人物を注視しているが、カメラ1は背景が注視されていると誤って推定しており、適切な焦点検出及び調整ができない状態に陥ってしまっている。
そこで、カメラ1が撮像を行う前に、キャリブレーション作業を行い、ユーザーに適した視線補正パラメータを取得し、カメラ1に格納する必要がある。
従来より、キャリブレーション作業は、撮像前に図4(C)のような位置の異なる複数の指標を表示デバイス10の表示面に強調表示し、ユーザーにその指標を見てもらうことで行われている。そして、各指標の注視時に視線検出動作を行い、算出された複数の視点(推定位置)と、各指標の座標とから、ユーザーに適した視線補正パラメータを求める技術が、公知の技術として知られている。なお、ユーザーの見るべき位置が示唆されれば、
指標の表示方法は特に限定されず、指標であるグラフィックが表示されてもよいし、画像(撮像された画像など)の輝度や色の変更で指標が表示されてもよい。
<人間の生理的眼球運動の説明>
視線検出の誤差要因の1つとして人間の生理的眼球運動がある。例えば、人間の眼球は、一点を見ているつもりでも、不随意的に細かく揺(振)れる。このような不随意運動は固視微動などと呼ばれる。固視微動による視線の変化はユーザーの意図するものではないため、固視微動は視線検出の誤差要因となる。
そこで、実施形態1では、固視微動による視線情報(検出された視線)の変化を低減する(固視微動低減処理)。固視微動低減処理は、例えば、CPU3により行われる。固視微動低減処理は特に限定されないが、実施形態1では、検出された視線の変化における特定周波数帯域(カットオフ周波数よりも高い周波数帯域)の成分を減衰させるローパスフィルタ処理であるとする。
図8(A),8(B)は、検出された視点のX座標の時間変化を示すグラフである。図8(A),8(B)の縦軸は、検出された視点のX座標を示し、図8(A),8(B)の横軸は時間を示す。図8(A)は、固視微動低減処理であるローパスフィルタ処理前の状態を示し、図8(B)は、ローパスフィルタ処理後の状態を示す。図8(A)から、ローパスフィルタ処理前では、検出された視点のX座標が激しく(細かく)変動することがわかる。図8(B)に示すように、ローパスフィルタ処理を行うことで、検出された視点の変動(図8(A)の変動)の高周波成分が減衰され、検出された視点のX座標の変動が低減される。
しかしながら、固視微動による視線情報(検出された視線)の変化は、常に同じ低減度合いで低減すればよいというわけではない。つまり、固視微動低減処理は、常に同じ処理強度で行えばよいというわけではない。人間の生理的な眼球運動は固視微動だけではなく、人間は、移動速度が遅い物体を眼で追いかける際には視線を滑らかに動かす眼球運動(随意運動の一種)を行い、移動速度が速い物体を眼で追いかける際には視線を急激に変える跳躍運動を行う傾向にある。固視微動低減処理を行うと、実際の視線の変化(眼の動き)に対して、検出された視線(視線情報)の変化が鈍くなる。つまり、物体に対する検出された視線の追従性が低くなる。そのため、固視微動低減処理の処理強度が強いと(固視微動低減処理による低減度合いが大きいと)、視線情報が随意運動や跳躍運動などを正確に表現しなくなってしまう。
そこで、実施形態1では、CPU3は、固視微動による視線情報の変化を好適に低減するように、固視微動低減処理の強度(固視微動低減処理による低減度合い)を変更する。その詳細は後述する。視線ポインタなどは、固視微動低減処理後の視点を示すように表示される。
<固視微動低減処理の制御の説明>
実施形態1では、CPU3は、焦点距離(カメラ1のズーム倍率)に応じて、固視微動低減処理の強度(固視微動低減処理による低減度合い)を変更する。撮影レンズユニット1Aが変更されるなどして焦点距離が変更されると、焦点距離が変更されたことの情報や、焦点距離の情報(値)などが、撮影レンズユニット1A内の焦点調節回路118から、カメラ筐体1B内のCPU3に送信される。ただし、これに限られず、例えば、撮影レンズユニット1Aと焦点距離の対応関係が1対1である場合には、カメラ筐体1B内のメモリ部4が、撮影レンズユニット1Aの識別情報(型番など)と焦点距離の対応関係を記憶していてもよい。その場合には、撮影レンズユニット1AからCPU3に撮影レンズユニット1Aの識別情報を送信し、CPU3が、受信した識別情報と、メモリ部4に格納され
た情報(識別情報と焦点距離の対応関係)とから現在の焦点距離の情報を判別してもよい。
焦点距離が短い場合(ズーム倍率が低い場合)は、画角(撮像範囲)が広いため、画角に対する物体(被写体)の相対的なサイズが小さくなりやすい。つまり、撮像された画像において物体が小さくなりやすい。そして、撮像された画像において物体が小さい場合には、物体のサイズに対する固視微動の相対的な大きさ(揺れ量)は大きくなる。
以上の観点から、焦点距離が短い場合は、固視微動低減処理の強度を強くする。換言すれば、固視微動低減処理による低減度合いを大きくする。具体的には、固視微動低減処理であるローパスフィルタ処理のカットオフ周波数を下げる(低周波側にシフトする)。これにより、視線情報(検出された視線)を安定させることができる。
こうすると、実際の視線の変化(眼の動き)に対して、検出された視線(視線情報)の変化は鈍くなる。しかし、撮像された画像において物体が小さければ、画角に対する物体の相対的な動き量は小さくなりやすく、検出された視線で物体を捉え続けることができるため、問題はない。
一方で、焦点距離が長い場合(ズーム倍率が高い場合)は、画角が狭いため、画角に対する物体(被写体)の相対的なサイズが大きくなりやすい。つまり、撮像された画像において物体が大きくなりやすい。そして、撮像された画像において物体が大きい場合には、画角に対する物体の相対的な動き量は大きくなりやすい。
以上の観点から、焦点距離が長い場合は、固視微動低減処理の強度を弱くする。換言すれば、固視微動低減処理による低減度合いを小さくする。具体的には、固視微動低減処理であるローパスフィルタ処理のカットオフ周波数を上げる(高周波側にシフトする)。これにより、実際の視線の変化(眼の動き)に対する、検出された視線(視線情報)の変化の応答性が高くなり、物体に対する検出された視線の追従性が向上する。
こうすると、視線情報(検出された視線)の安定性は低くなる。しかし、撮像された画像において物体が大きれば、検出された視線が多少ぶれても、当該視線で物体を捉え続けることができる(検出された視点を物体の領域内に保つことができる)ため、問題はない。
実施形態1では、上述した制御を実現するために、焦点距離とカットオフ周波数の対応関係を示す情報(関数やテーブルなど)をメモリ部4に予め保存する。図9は、焦点距離とカットオフ周波数の対応関係を示すグラフである。図9の縦軸はカットオフ周波数を示し、図9の横軸は焦点距離を示す。図9の対応関係によれば、固視微動低減処理であるローパスフィルタ処理のカットオフ周波数は、焦点距離が短いほど低くなる。したがって、固視微動低減処理による低減度合いは、焦点距離が短いほど大きくなる。
なお、図9では、焦点距離の増加に対して、カットオフ周波数が線形に増加しているが、焦点距離の増加に対して、カットオフ周波数が非線形に増加してもよい。焦点距離の連続的な増加に対して、カットオフ周波数が段階的に(不連続に)増加してもよい。同様に、固視微動低減処理による低減度合いは、焦点距離の増加に対して線形に低下してもよいし、非線形に低下してもよい。焦点距離の連続的な増加に対して、固視微動低減処理による低減度合いが段階的に(不連続に)低下してもよい。
なお、固視微動低減処理はローパスフィルタ処理に限られない。例えば、固視微動低減処理は、バンドパスフィルタ処理など、特定周波数帯域の成分を減衰させる別のフィルタ
処理であってもよい。固視微動低減処理は、逐次ベイズフィルタ処理であるカルマンフィルタ処理であってもよい。例えば、カルマンフィルタ処理では、事後推定値は、以下の式4を用いて算出される。事後推定値は、今回の固視微動低減処理後の視線情報に相当し、事前推定値は、前回の固視微動低減処理後の視線情報に相当し、観測値は、今回の固視微動低減処理前の視線情報に相当する。
Figure 2022183552000002
図10に示すように、事後推定値は事前推定値と観測値の内分点に対応し、内分比はk:1-k(0<k<1)となる。観測の不確かさを大きくする、つまりkを小さくすると、事後推定値は事前推定値に近づく。上述したように、事前推定値は、前回の固視微動低減処理後の視線情報に相当する。そのため、観測の不確かさを大きくすることで、固視微動による視線情報(検出された視線)の変化を大幅に低減することができる。このことから、焦点距離が短い場合に観測の不確かさを大きくすることで、撮像された画像における小さな物体が視線で捉えられるように、視線情報を安定させることができる。
一方で、予測の不確かさが大きくする、つまりkを大きくすると、事後推定値は観測値に近づく。上述したように、観測値は、今回の固視微動低減処理前の視線情報に相当する。そのため、予測の不確かさを大きくすることで、固視微動による視線情報(検出された視線)の変化を大幅に低減することはできないが、実際の視線の変化(眼の動き)に対する、検出された視線の変化の応答性を高くすることができる。このことから、焦点距離が長い場合に予測の不確かさを大きくすることで、撮像された画像における動き量の大きな物体に対する検出された視線の追従性を向上することができる。
<まとめ>
以上述べたように、実施形態1では、焦点距離に応じて、固視微動低減処理による低減度合いが変更される。これにより、固視微動による視線情報の変化を好適に低減することができる。
<<実施形態2>>
以下、本発明の実施形態2について説明する。なお、以下では、実施形態1と同じ点(構成や処理など)についての説明は省略し、実施形態1と異なる点について説明する。実施形態2では、焦点距離に加え、撮像された画像における物体(被写体)までの奥行き(物体距離;被写体距離)を考慮して、固視微動低減処理を制御する。なお、焦点距離と物体距離の両方を考慮する例を説明するが、物体距離のみを考慮してもよい。
図11は、実施形態2の制御を示すフローチャートである。
ステップS1101では、カメラ筐体1B内のCPU3は、焦点距離の情報(値)を、撮影レンズユニット1A内の焦点調節回路118から取得する。
ステップS1102では、CPU3は、カメラ1(撮像位置)から物体までの距離であ
る物体距離の情報(値)を取得する。例えば、CPU3は、撮像素子2を用いて位相差やコントラストを検出して焦点位置を求め、焦点位置に基づいて物体距離を求める。なお、物体距離の情報を取得する方法はこれに限られず、例えば、測距センサを用いて物体距離の情報が取得されてもよい。
ステップS1103では、CPU3は、ステップS1101,S1102で取得した情報(焦点距離と物体距離)に応じて、カットオフ周波数を決定する。
ステップS1104では、CPU3は、固視微動低減処理であるローパスフィルタ処理のカットオフ周波数を、ステップS1103で決定したカットオフ周波数に変更する。
物体距離以外の条件(例えば焦点距離)が一定であるとすると、物体距離が短い場合には物体距離が長い場合に比べ、撮像された画像における物体のサイズは大きくなる。このような観点をさらに考慮して、焦点距離が一定であるときに、物体距離が長ければ固視微動低減処理による低減度合いを大きくし、物体距離が短ければ固視微動低減処理による低減度合いを小さくする。
実施形態2では、上述した制御を実現するために、焦点距離と物体距離とカットオフ周波数の対応関係を示す情報(関数やテーブルなど)をメモリ部4に予め保存する。図12は、焦点距離と物体距離とカットオフ周波数の対応関係を示すグラフである。図12の縦軸はカットオフ周波数を示し、図12の横軸は物体距離を示す。図12では、焦点距離ごとに、物体距離とカットオフ周波数の対応関係が示されている。各対応関係では、カットオフ周波数は、物体距離が長いほど低くなる。したがって、焦点距離が一定であるときに、固視微動低減処理による低減度合いは、物体距離が長いほど大きくなる。
なお、図12では、物体距離の増加に対して、カットオフ周波数が線形に低下しているが、物体距離の増加に対して、カットオフ周波数が非線形に低下してもよい。物体距離の連続的な増加に対して、カットオフ周波数が段階的に(不連続に)低下してもよい。同様に、固視微動低減処理による低減度合いは、物体距離の増加に対して線形に低下してもよいし、非線形に低下してもよい。物体距離の連続的な増加に対して、固視微動低減処理による低減度合いが段階的に(不連続に)低下してもよい。
なお、実施形態2でも、固視微動低減処理はローパスフィルタ処理に限られず、バンドパスフィルタ処理やカルマンフィルタ処理などであってもよい。カルマンフィルタ処理の場合には、焦点距離が一定であるときに、物体距離が短ければ予測の不確かさを大きくし、物体距離が長ければ観測の不確かさを大きくすればよい。つまり、焦点距離が一定であるときに、物体距離が短ければkを大きくし、物体距離が長ければkを小さくすればよい。
以上述べたように、実施形態2では、物体距離を考慮して、固視微動低減処理による低減度合いが変更される。これにより、固視微動による視線情報の変化を好適に低減することができる。また、焦点距離と物体距離の両方を考慮することで、一方を考慮する場合よりも好適に、固視微動による視線情報の変化を低減することができる。
なお、実施形態1,2はあくまで一例であり、本発明の要旨の範囲内で実施形態1,2の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施形態1,2の構成を適宜組み合わせて得られる構成も、本発明に含まれる。
例えば、撮像装置(カメラ)に本発明を適用する例を説明したが、これに限られない。つまり、本発明の視線情報取得装置は、撮像部を有する撮像装置とは別体の装置であって
もよい。ユーザーが見る画像を表示する表示部は、視線情報取得装置とは別体の装置であってもよく、視線情報取得装置の制御部(CPU)が、外部装置である表示部に画像やアイテムなどを表示するように制御してもよい。ユーザーが見る画像は、3次元のコンピュータグラフィックなど、撮像された画像とは異なる画像であってもよい。本発明の視線情報取得装置は、視線情報を取得する機能と、固視微動低減処理を行う機能と、固視微動低減処理による低減度合いを変更する機能とを最低限有していればよい。また、固視微動低減処理が、固視微動による視線情報の変化が低減するように、取得した視線情報を補正(調整;変更)する処理である例を説明したが、これに限られない。例えば、固視微動低減処理は、固視微動による視線情報の変化が低減するように視線情報の取得方法を変更する処理であってもよい。
<<他の電子機器への適用例>>
図13(A)は、本発明を適用したノート型パーソナルコンピュータ1310(ノートPC)の外観図である。図13(A)では、ノートPC1310の表示部1311を見るユーザーを撮像する撮像ユニット1315がノートPC1310に接続されており、ノートPC1310は撮像ユニット1315から撮像結果を取得する。そして、ノートPC1310は、撮像結果に基づいてユーザーの視線を検出し、表示部1311に表示した画像に対応する焦点距離や物体距離に応じて、固視微動低減処理による低減度合いを変更する。なお、本発明を適用した電子機器は、視線検出の結果(視線情報)を視線入力として受け付けるインターフェースを有していればよく、外部機器で視線検出が行われてもよい。つまり、撮像ユニット1315が視線検出を行い、ノートPC1310が撮像ユニット1315から視線検出の結果を取得してもよい。
図13(B)は、本発明を適用したスマートフォン1320の外観図である。図13(B)では、スマートフォン1320は、インカメラ1321(フロントカメラ)の撮像結果に基づいてユーザーの視線を検知し、表示部1322に表示した画像に対応する焦点距離や物体距離に応じて、固視微動低減処理による低減度合いを変更する。
図13(C)は、本発明を適用したゲーム機1330の外観図である。図13(C)では、ゲームのVR(Virtual Reality)画像を表示するヘッドマウントディスプレイ1335(HMD)が、ゲーム機1330に接続されている。HMD1335は、HMD1335を装着したユーザーの眼を撮像するカメラ1337を有しており、ゲーム機1330は、HMD1335から撮像結果を取得する。そして、ゲーム機1330は、撮像結果に基づいてユーザーの視線を検知し、HMD1335の表示部1336に表示したVR画像における物体までの奥行き(物体距離)に応じて、固視微動低減処理による低減度合いを変更する。ここで、VR画像における物体は、例えば、ユーザーの視線方向に最も近い方向に存在する物体である。HMDに表示したVR画像を見る場合に本発明が適用可能であるのと同様に、眼鏡型のウェアラブル端末のレンズ部分などに表示したAR(Augmented Reality)画像を見る場合にも本発明は適用可能である。VR技術やAR技術に本発明が適用可能であるのと同様に、MR(Mixed Reality)技術やSR(Substitutional Reality)技術などの別のxR技術にも本発明は適用可能である。
なお、図13(A)の撮像ユニット1315や、図13(C)のHMD1335などが、固視微動低減処理による低減度合いを変更し、固視微動低減処理を行ってもよい。つまり、本発明は、図13(A)の撮像ユニット1315や、図13(C)のHMD1335などにも適用可能である。
<<その他の実施形態>>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は
記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
1:カメラ 3:CPU 201:視線検出回路
1310:ノート型パーソナルコンピュータ 1320:スマートフォン
1330:ゲーム機 1335:ヘッドマウントディスプレイ

Claims (16)

  1. 撮像された画像を見る眼の視線の情報である視線情報を取得する第1取得手段と、
    固視微動による前記視線情報の変化を低減する低減手段と
    を有し、
    前記低減手段は、前記画像を撮像する際の焦点距離が短い場合に、前記焦点距離が長い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減する
    ことを特徴とする視線情報取得装置。
  2. 画像を見る眼の視線の情報である視線情報を取得する第1取得手段と、
    固視微動による前記視線情報の変化を低減する低減手段と
    を有し、
    前記低減手段は、前記画像における物体までの奥行きである物体距離が長い場合に、前記物体距離が短い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減する
    ことを特徴とする視線情報取得装置。
  3. 前記低減手段は、前記焦点距離が短いほど大きい低減度合いで、前記固視微動による前記視線情報の変化を低減する
    ことを特徴とする請求項1に記載の視線情報取得装置。
  4. 前記焦点距離の情報を取得する第2取得手段をさらに有する
    ことを特徴とする請求項1または3に記載の視線情報取得装置。
  5. 前記低減手段は、前記物体距離が長いほど大きい低減度合いで、前記固視微動による前記視線情報の変化を低減する
    ことを特徴とする請求項2に記載の視線情報取得装置。
  6. 前記低減手段は、前記焦点距離が一定であるとき、前記画像における物体までの奥行きである物体距離が長い場合に、前記物体距離が短い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減する
    ことを特徴とする請求項1,3,4のいずれか1項に記載の視線情報取得装置。
  7. 前記物体距離の情報を取得する第3取得手段をさらに有する
    ことを特徴とする請求項2,5,6のいずれか1項に記載の視線情報取得装置。
  8. 前記固視微動による前記視線情報の変化を低減する処理は、前記視線の変化における特定周波数帯域の成分を減衰させる処理である
    ことを特徴とする請求項1~7のいずれか1項に記載の視線情報取得装置。
  9. 前記固視微動による前記視線情報の変化を低減する処理は、前記視線の変化における、カットオフ周波数よりも高い前記特定周波数帯域の成分を減衰させるローパスフィルタ処理であり、
    前記低減手段は、前記カットオフ周波数を下げることで、前記低減度合いを上げる
    ことを特徴とする請求項8に記載の視線情報取得装置。
  10. 前記画像を表示する表示部をさらに有する
    ことを特徴とする請求項1~9のいずれか1項に記載の視線情報取得装置。
  11. 前記画像を表示する表示部に、前記固視微動による変化が低減された後の視線が注がれ
    ている位置を示すアイテムを表示するように制御する制御手段
    をさらに有する
    ことを特徴とする請求項1~10のいずれか1項に記載の視線情報取得装置。
  12. 撮像手段と、
    請求項1~11のいずれか1項に記載の視線情報取得装置と
    を有し、
    前記視線情報取得装置は、前記撮像手段により撮像された前記画像を表示部に表示するように制御し、前記画像を見る眼の視線を検出する
    ことを特徴とする撮像装置。
  13. 撮像された画像を見る眼の視線の情報である視線情報を取得する取得ステップと、
    固視微動による前記視線情報の変化を低減する低減ステップと
    を有し、
    前記低減ステップでは、前記画像を撮像する際の焦点距離が短い場合に、前記焦点距離が長い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減する
    ことを特徴とする視線情報取得方法。
  14. 画像を見る眼の視線の情報である視線情報を取得する取得ステップと、
    固視微動による前記視線情報の変化を低減する低減ステップと
    を有し、
    前記低減ステップでは、前記画像における物体までの奥行きである物体距離が長い場合に、前記物体距離が短い場合よりも大きい低減度合いで、前記固視微動による前記視線情報の変化を低減する
    ことを特徴とする視線情報取得方法。
  15. コンピュータを、請求項1~11のいずれか1項に記載の視線情報取得装置の各手段として機能させるためのプログラム。
  16. コンピュータを、請求項1~11のいずれか1項に記載の視線情報取得装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2021090920A 2021-05-31 2021-05-31 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体 Pending JP2022183552A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021090920A JP2022183552A (ja) 2021-05-31 2021-05-31 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021090920A JP2022183552A (ja) 2021-05-31 2021-05-31 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体

Publications (1)

Publication Number Publication Date
JP2022183552A true JP2022183552A (ja) 2022-12-13

Family

ID=84437805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021090920A Pending JP2022183552A (ja) 2021-05-31 2021-05-31 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体

Country Status (1)

Country Link
JP (1) JP2022183552A (ja)

Similar Documents

Publication Publication Date Title
WO2015051605A1 (zh) 图像采集定位方法及图像采集定位装置
KR20140118608A (ko) 자동 초점 설정 방법 및 이를 위한 장치
JP7358530B2 (ja) 被写体認識装置及び被写体認識装置の制御方法
EP3771967A2 (en) Electronic device, control method, and computer readable medium
JP2024003037A (ja) 電子機器、電子機器の制御方法、プログラムおよび記憶媒体
KR101817436B1 (ko) 안구 전위 센서를 이용한 영상 표시 장치 및 제어 방법
JP2016051317A (ja) 視線検出装置
US20230142934A1 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JP2022183552A (ja) 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体
CN114650350A (zh) 注视检测设备、注视检测方法和计算机可读存储介质
JP2023063023A (ja) 電子機器及び電子機器の制御方法
JP2021125867A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法、およびプログラム
JP7358130B2 (ja) 電子機器およびその制御方法
US20240231482A1 (en) Display control apparatus and control method for display apparatus
JP2022171084A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2023087377A (ja) 視線検出装置
JP2023083695A (ja) 電子機器
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
JP2024003432A (ja) 電子機器
JP2022165239A (ja) 撮像装置及びその制御方法、並びにプログラム
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
US20240085979A1 (en) Recording device, image-capturing apparatus, control method, and recording system
JP2023063760A (ja) 識別装置
JP2022185313A (ja) 撮像装置
JP2021064928A (ja) 電子機器

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240528