JP2022117239A - 視線検出装置 - Google Patents

視線検出装置 Download PDF

Info

Publication number
JP2022117239A
JP2022117239A JP2021013827A JP2021013827A JP2022117239A JP 2022117239 A JP2022117239 A JP 2022117239A JP 2021013827 A JP2021013827 A JP 2021013827A JP 2021013827 A JP2021013827 A JP 2021013827A JP 2022117239 A JP2022117239 A JP 2022117239A
Authority
JP
Japan
Prior art keywords
line
sight
eye
point
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021013827A
Other languages
English (en)
Other versions
JP2022117239A5 (ja
Inventor
潤 山本
Jun Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021013827A priority Critical patent/JP2022117239A/ja
Priority to PCT/JP2021/048575 priority patent/WO2022163283A1/ja
Publication of JP2022117239A publication Critical patent/JP2022117239A/ja
Publication of JP2022117239A5 publication Critical patent/JP2022117239A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • General Physics & Mathematics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】注視点に基づく処理を好適に行うことのできる技術を提供する。【解決手段】本発明の視線検出装置は、ユーザの右眼と左眼の視線をそれぞれ検出する視線検出手段と、前記右眼と前記左眼とのうち少なくとも利き眼の視線に基づいて注視点を検出する注視点検出手段と、前記右眼と前記左眼とのうち少なくとも非利き眼の視線の変動量に基づいて、前記注視点に基づく処理を制御する制御手段とを有することを特徴とする。【選択図】図1

Description

本発明は視線検出装置に関する。
視線(視線方向;視線位置)を検出(推定)し、注視点(注視位置)に基づく処理を行う様々な技術が提案されている。例えば、特許文献1では、ファインダを覗く撮影者の視線位置の情報に基づいて被写体を特定(撮影者が意図する被写体を認識)し、当該被写体への焦点制御を行う技術が提案されている。
注視点に基づく処理を行う技術は、カメラ制御の他、例えば、xR(仮想現実(VR)や拡張現実(AR)、複合現実(MR)、代替現実(SR)など)などにおいても利用されている。例えば、特許文献2では、ヘッドマウントディスプレイ(HMD)において、ユーザが映像のどこを注視しているかを判別し、注視点付近では映像を鮮明にし、注視点から離れた領域では映像をぼかす技術が提案されている。この処理は、注視点を基準として被写界深度を疑似的に制御(変更)する処理であり、当該処理により、ユーザの没入感を高め、より快適なVR体験を提供することができる。
HMDなどでの視線検出として、両眼を使った視線検出が提案されている。例えば、右眼と左眼のそれぞれの視線検出を行う方法や、利き眼と非利き眼を判別して利き眼を重視して注視点を検出する方法などが提案されている。特許文献3では、ユーザの利き眼を判定し、利き眼の情報に基づいて映像の位置を調整する技術が提案されている。
特開2004-8323号公報 特表2020-504959号公報 特開2007-34628号公報
利き眼の視線情報を用いて注視点を判別する方法が提案されているが、従来技術では、注視点に基づく処理として、ユーザの意図(注視点の見方など)に依らない処理が行われるため、行われた処理がユーザにとって好ましくないことがある。例えば、特許文献2に開示の技術(注視点を基準とした被写界深度の制御)では、高い没入感を得たいユーザにとって好ましい制御が行われるが、この制御は、没入せずに映像全体を捉えたいユーザにとっては好ましくない。
本発明は、注視点に基づく処理を好適に行うことのできる技術を提供することを目的とする。
本発明の第1の態様は、ユーザの右眼と左眼の視線をそれぞれ検出する視線検出手段と、前記右眼と前記左眼とのうち少なくとも利き眼の視線に基づいて注視点を検出する注視点検出手段と、前記右眼と前記左眼とのうち少なくとも非利き眼の視線の変動量に基づいて、前記注視点に基づく処理を制御する制御手段とを有することを特徴とする視線検出装置である。
本発明の第2の態様は、ユーザの右眼と左眼の視線をそれぞれ検出するステップと、前記右眼と前記左眼とのうち少なくとも利き眼の視線に基づいて注視点を検出するステップと、前記右眼と前記左眼とのうち少なくとも非利き眼の視線の変動量に基づいて、前記注視点に基づく処理を制御するステップとを有することを特徴とする制御方法である。
本発明の第3の態様は、コンピュータを、上述した視線検出装置の各手段として機能させるためのプログラムである。本発明の第4の態様は、コンピュータを、上述した視線検出装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体である。
本発明によれば、注視点に基づく処理を好適に行うことができる。
実施例1に係るHMDの構成を示す図である。 実施例1に係るHMDの構成を示す図である。 実施例1に係る視線検出方法の原理を説明するための図である。 実施例1に係る眼画像を示す図である。 実施例1に係る視線検出動作のフローチャートである。 実施例1に係る注視点処理の制御動作のフローチャートである。 実施例1に係る注視点処理を説明するための図である。 実施例2に係る注視点処理を説明するための図である。
<<実施例1>>
以下、図1~7を参照して、本発明の実施例1について説明する。
<構成の説明>
図1は、実施例1に係る視線検出装置を有する表示装置の一例としてのヘッドマウントディスプレイ(HMD)100の構成の概略図である。HMD100は、ユーザの頭部に装着して使用する表示装置である。図1は、左側に、HMD100を装着したユーザの頭頂部の側から見たHMD100を構成を示す構成図を含み、右側に、視線検出装置の機能構成を示すブロック図を含む。なお、HMD100は、表示部を有する視線検出装置の一例と捉えることもできる。
ユーザはHMD100の筐体103を装着して、左ディスプレイ106に表示された映像を左接眼レンズ104を介して左眼101で見ることができ、右ディスプレイ107に表示された映像を右接眼レンズ105を介して右眼102で見ることができる。HMD100の装着には、例えば、非透過装着と透過装着がある。非透過装着時には、ディスプレイ(左ディスプレイ106と右ディスプレイ107)に、例えばHMD100の内部に保存された映像や、HMD100が外部から取得した映像など、具体的には過去に撮影された映像や、ゲーム映像などが表示される。透過装着時には、左カメラ108で撮像されたライブ映像(ほぼリアルタイムの映像)が左ディスプレイ106に表示され、右カメラ109で撮像されたライブ映像が右ディスプレイ107に表示される。ライブ映像と他の映像とを融合させた(組み合わせた)映像をディスプレイに表示してもよいし、ライブ映像と他の映像とを適宜切り替えてディスプレイに表示してもよい。左視線検出器110は、HMD100を装着しているユーザの左眼101の視線(視線方向;視線位置)を検出(推定)し、右視線検出器111は、当該ユーザの右眼102の視線を検出する。視線の検出方法については後述する。
次に、視線検出装置の各機能部について説明する。視線検出部112は、ユーザの左眼101と右眼102の視線をそれぞれ検出する。具体的には、視線検出部112は、左視線検出器110と右視線検出器111のそれぞれから、視線の検出結果(視線情報)を取得する。利き眼判別部113は、左眼101と右眼102のどちらが利き眼で、どちらが非利き眼であるか(左眼101の視線情報と右眼102の視線情報とのどちらが利き眼の視線情報で、どちらが非利き眼の視線情報であるか)を判別する。
注視点検出部114は、左眼101と右眼102とのうち少なくとも利き眼の視線情報に基づいて、注視点(注視位置)を検出する。集中度検出部115は、左眼101と右眼102とのうち少なくとも非利き眼の視線情報に基づいてユーザの視線の変動量を検出(判断)し、当該変動量に応じてユーザの集中度を検出(判断)する。
処理制御部116は、注視点検出部114で検出された注視点に基づく処理を行う。その際、処理制御部116は、集中度検出部115で検出された集中度(視線の変動量)に基づいて、注視点に基づく処理を制御する。例えば、処理制御部116は、集中度に基づいて、ディスプレイ(左ディスプレイ106と右ディスプレイ107)に作用する特定の機能の制御量を調整する。
注視点に対するユーザの見方は様々であり、ユーザが注視点を漫然と見ている場合もあれば、何か意図をもって注視点を集中して見ている場合もある。そのような見方の違いを自動で判別し、判別結果に応じて処理(注視点に基づく処理)を自動で制御できれば、注視点に基づく処理を好適に行うことができる。例えば、高い没入感を得たいユーザは注視点を集中して見る傾向があるため、ユーザの集中度が高い場合に限って没入感を高めるための処理を行うことで、没入感を好適に高めることができる。GUIに対する操作(ボタンアイコンの押下など)を行いたいユーザも、注視点を集中して見る傾向がある。そのため、ユーザの集中度が高い場合に限ってGUIに対する操作を補助する補助機能を有効にすれば、利便性を向上することができる(補助が不要なユーザに対して補助機能が提供されることによる利便性の低下を抑制することができる)。また、ユーザによる設定(注視点に基づく処理の切り替えなど)は不要となるため、没入感をより高めたり、利便性をより向上したりすることができる。
従来、対象物を漫然と見ている場合には、利き眼の視線のみが正確に対象物の方向に向き、非利き眼の視線は比較的大きく変動する(ぶれる)ということが、報告がされている。また、奥行き情報の必要な作業(例えば、ボタンアイコンの押下)をユーザが行う場合など、ユーザが対象物を集中して見る場合には、非利き眼も、視線の変動量が小さくなり、対象物の方向を向くということが、報告されている。
そこで、実施例1では、少なくとも利き眼の視線情報に基づいて注視点を検出し、少なくとも非利き眼の視線情報に基づいてユーザの視線の変動量(集中度)を検出する。そして、検出した変動量(集中度)に基づいて、注視点に基づく処理を制御する。こうすることで、上述したように、注視点に基づく処理を好適に行うことができる。
図2は、図1で示したY軸とZ軸が成すYZ平面でHMD100を切断した断面図であり、HMD100の構成の概略図である。図2では、HMD100の構成が図1よりも詳細に示されている。図2は、HMD100を装着したユーザの左眼側から見た断面を示するため、右接眼レンズ105、右ディスプレイ107、右カメラ109、及び、右視線検出器111は省略されている。右接眼レンズ105が左接眼レンズ104と同じ構成を有し、右ディスプレイ107は左ディスプレイ106と同様の構成を有し、右カメラ109は左カメラ108と同様の構成を有し、右視線検出器111は左視線検出器110と同様の構成を有する。
HMD100において、CPU128は、HMD100の全体(各部)を制御する。メモリ129は、ディスプレイ(左ディスプレイ106と右ディスプレイ107)に表示する映像(映像情報)や、CPU128が実行するプログラムなどを記憶する。例えば、CPU128が、メモリ129に格納されたプログラムを実行することにより、視線検出部112、利き眼判別部113、注視点検出部114、集中度検出部115、及び、処理制御部116の機能が実現される。
左ディスプレイ106、映像を表示する表示部であり、例えば液晶パネルとバックライトの組み合わせや、有機ELパネルなどである。ディスプレイ駆動回路124は、左ディスプレイ106(及び右ディスプレイ107)を駆動する。左接眼レンズ104は、左ディスプレイ106に表示された映像を観察するための接眼レンズである。
左カメラ108は、HMD100の透過装着時に外部を撮像するカメラであり、カメラ用撮像素子125、絞り機構126、及び、フォーカス機構127を有する。メモリ129は、カメラ用撮像素子125からの撮像信号(撮像された画像)を記憶する機能を有する。
左視線検出器110は、光源120、光分割器121、受光レンズ122、及び、眼用撮像素子123を有する。光源120は、視線検出のために左眼101を照明する光源である。例えば、光源120は、ユーザに対して不感の赤外光を発する赤外発光ダイオードであり、左接眼レンズ104の周りに配置されている。光源120の数は特に限定されない。照明された左眼101の光学像(眼球像;光源120から発せられて左眼101で反射した反射光による像)は、左接眼レンズ104を透過し、光分割器121で反射される。そして、眼球像は、受光レンズ122によって、CMOS等の光電素子列を2次元的に配した眼用撮像素子123上に結像される。眼球像には、光源120からの光の角膜反射による反射像(角膜反射像;プルキニエ像)が含まれている。受光レンズ122は、左眼101の瞳孔と眼用撮像素子123を共役な結像関係に位置付けている。後述する所定のアルゴリズムにより、眼用撮像素子123上に結像された眼球像における瞳孔(瞳孔像)と角膜反射像の位置関係から、左眼101の視線が検出される。メモリ129は、眼用撮像素子123からの撮像信号を記憶する機能と、視線補正データを記憶する機能とを有する。
<視線検出動作の説明>
図3,4(A),4(B),5を用いて、視線検出方法について説明する。左眼101の視線も右眼102の視線も、以下の方法で検出される。図3は、視線検出方法の原理を説明するための図であり、視線検出を行うための光学系の概略図である。図3に示すように、光源120a,120bは受光レンズ122の光軸に対して略対称に配置され、ユーザの眼140(左眼101または右眼102)を照らす。光源120a,120bから発せられて眼140で反射した光の一部は、受光レンズ122によって、眼用撮像素子123に集光する。図4(A)は、眼用撮像素子123で撮像された眼画像(眼用撮像素子123に投影された眼球像)の概略図であり、図4(B)は眼用撮像素子123におけるCMOSの出力強度を示す図である。図5は、視線検出動作の概略フローチャートである。
視線検出動作が開始すると、図5のステップS001で、光源120a,120bは、ユーザの眼140に向けて赤外光を発する。赤外光によって照明されたユーザの眼球像は、受光レンズ122を通して眼用撮像素子123上に結像され、眼用撮像素子123により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
ステップS002では、視線検出器(左視線検出器110または右視線検出器111)
は、眼用撮像素子123から得られた眼画像(眼画像信号;眼画像の電気信号)をCPU128に送る。
ステップS003では、CPU128は、ステップS002で得られた眼画像から、光源120a,120bの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を求める。
光源120a,120bより発せられた赤外光は、ユーザの眼140の角膜142を照明する。このとき、角膜142の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ122により集光され、眼用撮像素子123上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔141の端部a,bからの光束も眼用撮像素子123上に結像して、眼画像における瞳孔端像a’,b’となる。
図4(B)は、図4(A)の眼画像における領域αの輝度情報(輝度分布)を示す。図4(B)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。実施例1では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図4(B)に示すように、角膜反射像Pd’,Pe’のX座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔141の領域(瞳孔141からの光束が眼用撮像素子123上に結像して得られる瞳孔像の領域)に相当する、X座標XaからX座標Xbまでの領域では、X座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔141の外側の虹彩143の領域(虹彩143からの光束が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)がX座標Xaより小さい領域と、X座標がX座標Xbより大きい領域とで、上記2種の輝度の中間の輝度が得られる。
図4(B)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ122の光軸に対する眼140の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼用撮像素子123上に結像して得られる瞳孔中心像c’(瞳孔像の中心)のX座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’のX座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
ステップS004では、CPU128は、眼球像の結像倍率βを算出する。結像倍率βは、受光レンズ122に対する眼140の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて求めることができる。
ステップS005では、CPU128は、受光レンズ122の光軸に対する眼140の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜142の曲率中心OのX座標とはほぼ一致する。このため、角膜142の曲率中心Oから瞳孔141の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼140の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼140の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。

β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
ステップS006では、CPU128は、ステップS005で算出した回転角θx,θyを用いて、ディスプレイ(左ディスプレイ106または右ディスプレイ107)の表示面上でのユーザの視線位置(視線が注がれた位置;ユーザが見ている位置)を求める(推定する)。視線位置の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視線位置の座標(Hx,Hy)は以下の式2,3で算出できる。

Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
式2,3のパラメータmは、光学系(受光レンズ122等)の構成で定まる定数であり、回転角θx,θyをディスプレイの表示面上でのる瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ129に格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、キャリブレーション作業を行うことで取得される。パラメータAx,Bx,Ay,Byは、視線検出動作が開始する前にメモリ129に格納されるとする。
ステップS007では、CPU128は、視線位置の座標(Hx,Hy)をメモリ129に格納し、視線検出動作を終える。
なお、光源120a,120bの角膜反射像を利用した視線検出方法を説明したが、これに限られず、眼画像から眼の回転角度を検出するなど、眼画像を利用した方法であれば、どのような方法で視線を検出してもよい。
<注視点処理の制御動作の説明>
図6,7(A),7(B)を用いて、注視点処理(注視点に基づく処理)を制御する制御動作について説明する。図6は、注視点処理の制御動作の概略フローチャートである。図7(A),7(B)は、ディスプレイ(左ディスプレイ106と右ディスプレイ107)での表示の概略図である。
制御動作が開始すると、ステップS101で、視線検出部112は、左眼101の視線情報(視線の検出結果)を左視線検出器110から取得し、右眼102の視線情報を右視線検出器111から取得する。視線検出部112は、取得した視線情報を利き眼判別部113へ出力(送信)する。左視線検出器110と右視線検出器111による視線の検出方法は、上述した通りである。
ステップS102では、利き眼判別部113は、左眼101と右眼102のどちらが利き眼で、どちらが非利き眼であるか(左眼101の視線情報と右眼102の視線情報とのどちらが利き眼の視線情報で、どちらが非利き眼の視線情報であるか)を判別する。利き眼判別部113は、利き眼/非利き眼の判別結果と、視線検出部112で取得された視線情報(左眼101と右眼102の視線情報)とを、注視点検出部114と集中度検出部115へ出力する。利き眼判別部113は、利き眼/非利き眼の判別結果は出力せずに、当該判別結果を踏まえて視線情報を出力してもよい。例えば、利き眼の視線情報を注視点検出部114へ出力し、非利き眼の視線情報を集中度検出部115へ出力してもよい。
大多数の人間には利き眼があり、利き眼の視線位置とユーザが見たい対象物の位置との間の距離は、非利き眼の視線位置と対象物の位置との間の距離よりも短くなる傾向がある。一般的に、精度の高い遠近感や奥行きを感じ取るために、非利き眼は対象物の近傍に視線を向ける(非利き眼の視線は対象物の近傍で変動する)。非利き眼の視線の変動量(変動幅)は比較的大きく、非利き眼の視線だけでは、どこを見ているかを正確に特定できな
い場合もある。このように、非利き眼について検出した視線は、ユーザが意図した視線と必ずしも一致しないことが多く、非利き眼についての視線検出の精度は高くないことが知られている。
利き眼判別部113は、例えば、左眼101と右眼102のうち、注視させるために用意した対象物と、検出された視線位置との間のずれ量(時系列的なずれ量)が小さい方を眼を利き眼として判別し、ずれ量が大きい方を非利き眼として判別することができる。利き眼判別部113は、対象物を見ているユーザの眼頭から瞳孔までの距離を左眼101と右眼102のそれぞれについて取得し、取得した距離に基づいて利き眼と非利き眼を判別してもよい。利き眼/非利き眼の判別には既知の技術を用いることができる。予めユーザによって、左眼101と右眼102のどちらが利き眼で、どちらが非利き眼であるかが登録されてもよい。その場合は、利き眼判別部113は、利き眼/非利き眼の登録情報に基づいて、、左眼101と右眼102のどちらが利き眼で、どちらが非利き眼であるかを判別してもよい。
ステップS103では、注視点検出部114は、左眼101と右眼102とのうち少なくとも利き眼の視線情報に基づいて、注視点を検出する。図7(A)に示すように、注視点は、ディスプレイ(左ディスプレイ106と右ディスプレイ107)の視線検出エリア内で検出される。注視点検出部114は、検出した注視点を処理制御部116へ通知する。上述したように、非利き眼についての視線検出の精度は高くないことが知られている。そのため、注視点の検出には、利き眼の視線情報を用いる。注視点に基づく処理において、利き眼の注視点は、非利き眼の注視点として用いてもよい。なお、HMD100は、利き眼の視線(検出結果;視線情報)のぶれと非利き眼の視線(検出結果;視線情報)のぶれとをそれぞれ補正する(低減する)機能を有してもよい。その場合には、注視点検出部114は、左眼101の視線情報から左眼101の注視点を検出し、右眼102の視線情報から右眼102の注視点を検出してもよい。左眼101の注視点は、左ディスプレイ106のうち左眼101で注視している位置であり、右眼102の注視点は、右ディスプレイ107のうち右眼102で注視している位置である。
ステップS104では、集中度検出部115は、左眼101と右眼102とのうち少なくとも非利き眼の視線情報に基づいてユーザの視線の変動量を検出(判断)し、当該変動量に応じてユーザの集中度を検出(判断)する。集中度検出部115は、検出した集中度を処理制御部116へ通知する。上述したように、対象物を漫然と見ている場合には、非利き眼の視線は比較的大きく変動する(ぶれる)。また、奥行き情報の必要な作業(例えば、ボタンアイコンの押下)をユーザが行う場合など、ユーザが対象物を集中して見る場合には、非利き眼も、視線の変動量が小さくなり、対象物の方向を向く。そのため、集中度検出部115は、非利き眼の視線情報に基づいて視線の変動量(時系列的な変動量)を検出し、変動量が大きいほど低い(変動量が小さいほど高い)集中度を検出する。集中度検出部115は、集中度として、変動量の変化に対して連続的に変化する値を検出してもよいし、1つ以上の閾値を用いて、変動量の変化に対して段階的に変化する値を検出してもよい。例えば、集中度が「低」と「高」の2状態のいずれかが検出されるように、集中度検出部115は、変動量が閾値以上の場合に集中度「低」を検出し、変動量が当該閾値未満の場合に集中度「高」を検出してもよい。変動量は、注視点検出部114で検出された注視点からのばらつきの大きさであってもよいし、そうでなくてもよい。例えば、変動量は、時間変化する視線位置の平均位置からばらつきの大きさ(標準偏差など)であってもよい。
注視点検出部114で利き眼の視線情報から注視点を推定し、集中度検出部115で非利き眼の視線情報から集中度を推定するような機能の使い分けは、演算処理の負荷軽減の観点で好ましい。しかし、左眼101の視線の変動量と、右眼102の視線の変動量とが
略同一であるなど、利き眼/非利き眼の判別が難しい場合は、集中度検出部115は、左眼101の視線の変動量と、右眼102の視線の変動量との両方に基づいて、集中度を推定してもよい。例えば、左眼101の視線の変動量と、右眼102の視線の変動量との平均に応じて集中度を推定してもよいし、左眼101の視線の変動量と、右眼102の視線の変動量とのうちの大きい方に応じて集中度を推定してもよい。
ステップS105では、処理制御部116は、注視点検出部114で検出された注視点に基づく処理を行う。その際、処理制御部116は、集中度検出部115で検出された集中度(視線の変動量)に基づいて、注視点に基づく処理を制御する。
実施例1では、注視点に基づく処理は、ディスプレイ(左ディスプレイ106と右ディスプレイ107)に表示される映像にぼかし効果を付与することで、当該映像の被写界深度を、注視点を基準として疑似的に制御(変更)する処理であるとする。ぼかし効果は、フィルタ処理などの画像処理によって付与される。処理制御部116は、集中度検出部115で検出された集中度(視線の変動量)に基づいて、ぼかし効果を付与する領域や、ぼかし効果の強度などを制御する。
ここで、ユーザの視線が或る対象者の方向を向いており、ユーザが意図をもって対象者を集中して見ている場合など、集中度検出部115で検出された集中度が高い場合を考える。この場合には、処理制御部116は、図7(A)のような表示が行われるように、に、映像にぼかし効果を付与する。図7(A)の表示について説明する。注視点とその周囲を含んだ領域では、鮮明な表示が保たれており、その他の領域ではぼかし効果が付与されて不鮮明な表示がされている。ぼかし効果を付与する領域と、付与しない領域とは、ぼかし効果ラインで区切られている。
なお、ぼかし効果ラインのサイズ(径)、ぼかし効果ラインの数、ぼかし効果の強度などは特に限定されず、集中度に応じてそれらを変更するようにしてもよい。例えば、注視点を中心に複数のぼかし効果ラインを設定し、複数のぼかし効果ラインで区切られた複数の領域に対し、注視点から遠いほど強いぼかし効果を付与してもよい。また、注視点が対象者の顔を捉えているような場合には、注視点の検出位置を、対象者の顔や身体を含んだ領域の中心などに変更し、変更後の注視点を基準とした被写界深度が浅くなるように、映像にぼかし効果を付与してもよい。
なお、上述したように、HMD100の透過装着時にはディスプレイにライブ映像が表示される。この場合には、ぼかし効果が付与されたライブ映像(注視点を基準とした被写界深度が浅いライブ映像)が撮像されるように、絞り機構126とフォーカス機構127を制御してもよい。フォーカス機構127で注視点にピントを合わせ、絞り機構126で絞り値を小さくすることで、ライブ映像にぼかし効果を付与することができる(注視点を基準とした被写界深度が浅いライブ映像を撮像することができる)。もちろん、HMD100の装着が透過装着であるか非透過装着であるかにかかわらず、画像処理で映像にぼかし効果を付与してもよい。
人間は集中すると、認知に大きく貢献する周辺視野領域(有効視野などと呼ばれる)が狭窄することが知られている。そのため、集中度が高い場合に注視点を基準としたぼかし効果を映像に付与することは、ユーザの集中の妨げにはならない。むしろ、集中度が高い場合に注視点を基準としたぼかし効果を映像に付与することで、ユーザの没入感を高めることができる。
ユーザが映像全体を確認したい場合など、集中度検出部115で検出された集中度が低い場合を考える。この場合には、ユーザは、図7(A)のようにぼかし効果が付与される
のを厭うことがある。そのため、この場合には、処理制御部116は、図7(B)のような表示(全体で鮮明な表示)が行われるように、ぼかし効果の付与を停止する。図7(B)の表示は、映像全体を確認したいというユーザのニーズに合っており、当該ユーザにとって好適な表示である。
以上述べたように、実施例1によれば、右眼と左眼とのうち利き眼の視線に基づいて注視点が検出され、右眼と左眼とのうち少なくとも非利き眼の視線の変動量に基づいて、注視点に基づく処理が制御される。これにより、注視点に基づく処理を好適に行うことができる。具体的には、処理制御部116は、集中度検出部115で検出された集中度が高いほど(集中度検出部115で検出された視線の変動量が小さいほど)、注視点を基準とした映像の被写界深度を浅くする。これにより、ユーザの没入感や利便性を向上することができる。
なお、本発明をHMDを適用した例を説明したが、本発明は、xR(仮想現実(VR)や拡張現実(AR)、複合現実(MR)、代替現実(SR)など)を実現する装置全般に適用可能である。また、本発明は、車載カメラやパーソナルコンピュータ、タブレット端末、スマートフォンなど、撮像部(カメラ)や表示部(ディスプレイ)などを有する装置にも適用可能である。本発明を適用した視線検出装置は、カメラや表示装置などとは別体の装置であってもよい。
<<実施例2>>
以下、図8を参照して、本発明の実施例2について説明する。なお、以下では、実施例1と同じ点(構成や処理など)についての説明は省略し、実施例1と異なる点について説明する。実施例2に係るHMDの基本的な構成や処理フローは実施例1と同じであり、処理制御部116の機能が異なる。
実施例2では、図8で示すように、VR空間に表示されたGUIであるボタンアイコンをポインティングコントローラで選択・クリックするような場合を想定している。例えば、ユーザがポインティングコントローラを手で動かすと、その動きに連動して、VR空間上に表示された仮想のポインティングコントローラも動く。VR空間のポインティングコントローラは先端からレーザーを発しており、レーザーがボタンアイコンに衝突した位置にポインタが表示される。ポインティングコントローラに対するクリックは、レーザーが衝突するボタンアイコン(ポインタで示されたボタンアイコン)に反映される。ポインタは、ユーザからの指示に応じて移動させることが可能なアイテムの一種である。
ポインティングコントローラを用いてVR空間上でポインタをボタンアイコンへ合わせ込む場合に、ポインタが狙ったボタンアイコンへ移動しない、ボタンアイコンを通り超してしまう、近くの別のボタンアイコンを指してしまう、などの課題がある。そこで実施例2では、これらの課題を解決するために、ユーザの集中度に基づいて、ポインタの移動の制御性を変更する。
実施例2の処理制御部116は、集中度検出部115で検出された集中度が高いほど(集中度検出部115で検出された視線の変動量が小さいほど)、注視点の近傍におけるポインタの移動分解能を高くする。
具体的には、集中度検出部115で検出された集中度が高い場合に、処理制御部116は、図8に示すように、注視点を基準として制御ラインを設定する。そして、処理制御部116は、注視点から見て制御ラインの外側では粗く、制御ラインの内側では細かくポインタが移動すように、ポインタの移動分解能を制御する。
なお、制御ラインのサイズ(径)、制御ラインの数、制御ラインで区切られた各領域での移動分解能の値などは特に限定されず、集中度に応じてそれらを変更するようにしてもよい。また、注視点がボタンアイコンの端部を捉えているような場合には、注視点の検出位置を、ボタンアイコンの中心などに変更してもよい。そして、変更後の注視点に近いほどポインタの移動分解能が高くなるように、変更後の注視点を基準として制御ラインを設定してもよい。
例えば、ユーザがボタンアイコンの選択・クリックなどを行いたい場合など、ユーザがポインタでボタンアイコンを正確に捉えたい場合に、注視点が所望のボタンアイコンを捉え、高い集中度が検出される。上記制御によれば、そのような場合に、所望のボタンアイコンから遠いほどポインタを大まかに動かし、所望のボタンアイコンに近いほどポインタを細かく動かすことが可能となる。その結果、ボタンアイコンへのポインタの合わせ込みを素早く且つ正確に行うことが可能となる。
集中度検出部115で検出された集中度が低い場合には、処理制御部116は、制御ラインを設定せず(制御ラインの設定を解除し)、ポインタの移動分解能を映像全体で均一に設定する。このとき、処理制御部116は、移動分解能を、集中度が高い場合における注視点の近傍での移動分解能よりも低く設定する。こうすることで、ユーザの意図に反してポインタの移動速度が遅くなることを抑制できる。そして、映像全体に亘ってポインタを素早く移動さることが可能となる。また、ポインタの位置に応じて移動分解能を変更する機能を解除することで、CPU128の処理負荷を低減することもできる。なお、集中度が低い場合に、注視点の近傍における移動分解能が集中度が高い場合よりも低ければ、注視点に近いほど移動分解能が高くなるように制御ラインを設定してもよい。
処理制御部116は、集中度検出部115で検出された集中度が高いほど(集中度検出部115で検出された視線の変動量が小さいほど)、ポインタを注視点に吸着しやすくしてもよい。例えば、処理制御部116は、集中度が高いほど長い距離(吸着距離)を設定し、注視点から吸着距離の範囲内にポインタが近づけられると、ポインタを注視点に吸着させる。ユーザがボタンアイコンを集中して見ている場合に、ポインタを所望のボタンアイコンに近づければ、ポインタは所望のボタンアイコンに吸い寄せられるように移動するため、合わせ込みの速度および精度が向上する。また、集中度が高いほど合わせ込みが容易となる。さらに、集中度が高い場合には、ポインタを操作する手が震えても、ポインタは手の震えに追従せずに、所望のボタンアイコンに吸着し続けるため、合わせ込んだ状態が維持しやすくなり、選択ミスなどの誤操作を抑制することができる。一方で、集中度が低い場合には、ユーザの意図に反してポインタがボタンアイコンに吸着することを抑制できる。なお、集中度が低い場合には、ポインタが注視点に吸着しないようにしてもよい。
処理制御部116は、集中度検出部115で検出された集中度が高いほど(集中度検出部115で検出された視線の変動量が小さいほど)、ユーザの視線の変化が注視点の検出位置に及ぼす影響を小さくしてもよい。換言すれば、処理制御部116は、集中度が高いほど注視点の検出位置を変化しにくくしてもよい。例えば、処理制御部116は、集中度が高い場合には、ユーザの意図に反した眼の揺れ(固視微動)や、瞬間的な視線の変更などをエラーとして扱って、注視点の検出位置に反映しないようにする。これにより、固視微動や、瞬間的な視線の変更などがあっても、注視点の検出位置を維持して、注視点に基づく処理として所望の処理(ユーザの意図通りの処理)を実行できるようになる。一方で、集中度が低い場合には、処理制御部116は、固視微動や瞬間的な視線の変更などを含む全ての視線変化を注視点の検出位置に反映する。これにより、注視点の検出位置を素早く変えることが可能となる。なお、集中度が高いほど小さい重みで現在の視線位置を注視点の検出位置を合成し、注視点の検出位置を更新するようにしてもよい。
なお、上述した3種類の制御(ポインタの移動分解能の制御、ポインタの吸着の制御、及び、注視点の検出位置の制御)は、適宜組み合わせて実行してもよい。上述した制御に、ポインタを注視点に合わせ込む他の制御を組み合わせてもよい。
以上述べたように、実施例2でも、注視点に基づく処理を好適に行うことができる。
なお、本発明をHMDを適用した例を説明したが、本発明は、xR(仮想現実(VR)や拡張現実(AR)、複合現実(MR)、代替現実(SR)など)を実現する装置全般に適用可能である。また、本発明は、車載カメラやパーソナルコンピュータ、タブレット端末、スマートフォンなど、撮像部(カメラ)や表示部(ディスプレイ)などを有する装置にも適用可能である。本発明を適用した視線検出装置は、カメラや表示装置などとは別体の装置であってもよい。
<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:HMD 112:視線検出部 113:利き眼判別部
114:注視点検出部 115:集中度検出部 116:処理制御部

Claims (10)

  1. ユーザの右眼と左眼の視線をそれぞれ検出する視線検出手段と、
    前記右眼と前記左眼とのうち少なくとも利き眼の視線に基づいて注視点を検出する注視点検出手段と、
    前記右眼と前記左眼とのうち少なくとも非利き眼の視線の変動量に基づいて、前記注視点に基づく処理を制御する制御手段と
    を有することを特徴とする視線検出装置。
  2. 前記視線の変動量は、前記注視点からのばらつきの大きさである
    ことを特徴とする請求項1に記載の視線検出装置。
  3. 前記制御手段は、前記右眼の視線の変動量と、前記左眼の視線の変動量とが略同一である場合に、前記右眼の視線の変動量と、前記左眼の視線の変動量との両方に基づいて、前記注視点に基づく処理を制御する
    ことを特徴とする請求項1または2に記載の視線検出装置。
  4. 前記ユーザに見せる映像を表示する表示手段をさらに有し、
    前記制御手段は、前記変動量が小さいほど、前記注視点を基準とした前記映像の被写界深度を浅くする
    ことを特徴とする請求項1~3のいずれか1項に記載の視線検出装置。
  5. 前記制御手段は、前記変動量が小さいほど、前記ユーザの視線の変化が前記注視点の検出位置に及ぼす影響を小さくする
    ことを特徴とする請求項1~3のいずれか1項に記載の視線検出装置。
  6. 前記ユーザからの指示に応じて移動させることが可能なアイテムを表示する表示手段をさらに有し、
    前記制御手段は、前記変動量が小さいほど、前記注視点の近傍における前記アイテムの移動分解能を高くする
    ことを特徴とする請求項1~3のいずれか1項に記載の視線検出装置。
  7. 前記ユーザからの指示に応じて移動させることが可能なアイテムを表示する表示手段をさらに有し、
    前記制御手段は、前記変動量が小さいほど、前記アイテムを前記注視点に吸着しやすくする
    ことを特徴とする請求項1~3のいずれか1項に記載の視線検出装置。
  8. ユーザの右眼と左眼の視線をそれぞれ検出するステップと、
    前記右眼と前記左眼とのうち少なくとも利き眼の視線に基づいて注視点を検出するステップと、
    前記右眼と前記左眼とのうち少なくとも非利き眼の視線の変動量に基づいて、前記注視点に基づく処理を制御するステップと
    を有することを特徴とする制御方法。
  9. コンピュータを、請求項1~7のいずれか1項に記載の視線検出装置の各手段として機能させるためのプログラム。
  10. コンピュータを、請求項1~7のいずれか1項に記載の視線検出装置の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
JP2021013827A 2021-01-29 2021-01-29 視線検出装置 Pending JP2022117239A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021013827A JP2022117239A (ja) 2021-01-29 2021-01-29 視線検出装置
PCT/JP2021/048575 WO2022163283A1 (ja) 2021-01-29 2021-12-27 視線検出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021013827A JP2022117239A (ja) 2021-01-29 2021-01-29 視線検出装置

Publications (2)

Publication Number Publication Date
JP2022117239A true JP2022117239A (ja) 2022-08-10
JP2022117239A5 JP2022117239A5 (ja) 2024-01-31

Family

ID=82654561

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021013827A Pending JP2022117239A (ja) 2021-01-29 2021-01-29 視線検出装置

Country Status (2)

Country Link
JP (1) JP2022117239A (ja)
WO (1) WO2022163283A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9958939B2 (en) * 2013-10-31 2018-05-01 Sync-Think, Inc. System and method for dynamic content delivery based on gaze analytics
WO2020016970A1 (ja) * 2018-07-18 2020-01-23 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
US11402646B2 (en) * 2018-11-12 2022-08-02 Sony Group Corporation Display apparatus, display control method, and program

Also Published As

Publication number Publication date
WO2022163283A1 (ja) 2022-08-04

Similar Documents

Publication Publication Date Title
US10401953B2 (en) Systems and methods for eye vergence control in real and augmented reality environments
JPWO2007113975A1 (ja) 視点検出装置
CN111886564A (zh) 信息处理装置、信息处理方法和程序
JP7081599B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US11650660B2 (en) Electronic device, control method, and non-transitory computer readable medium
US20230013134A1 (en) Electronic device
KR101817436B1 (ko) 안구 전위 센서를 이용한 영상 표시 장치 및 제어 방법
WO2022163283A1 (ja) 視線検出装置
US20210092284A1 (en) Information processing device, information processing method, and program
US20220329740A1 (en) Electronic apparatus, method for controlling electronic apparatus, and non-transitory computer readable storage medium
JP2021047771A (ja) 制御装置、撮像装置、制御方法、および、プログラム
US11829530B2 (en) Electronic device, control method of electronic device, and non-transitory computer readable medium
JP2017091190A (ja) 画像処理装置、画像処理方法およびプログラム
US20230092593A1 (en) Detection device detecting gaze point of user, control method therefor, and storage medium storing control program therefor
WO2024047993A1 (ja) 情報処理装置
JP2023063023A (ja) 電子機器及び電子機器の制御方法
US20240114228A1 (en) Line-of-sight detecting apparatus, image pickup apparatus, line-of-sight detecting method, and storage medium
JP2023006630A (ja) 検出装置およびその制御方法
JP2022183552A (ja) 視線情報取得装置、撮像装置、視線情報取得方法、プログラム、及び、記憶媒体
JP2023069526A (ja) 電子機器及びその制御方法、プログラム
JP2023102822A (ja) 表示装置、ファインダ装置、および撮像装置
JP2023087377A (ja) 視線検出装置
JP2021064928A (ja) 電子機器
JP2023108563A (ja) 視線検出装置、表示装置、制御方法、およびプログラム
CN116248994A (zh) 控制设备、控制设备的控制方法、控制方法和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240123

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240123