JP2019024608A - 視線検出校正方法、システム、及びコンピュータプログラム - Google Patents

視線検出校正方法、システム、及びコンピュータプログラム Download PDF

Info

Publication number
JP2019024608A
JP2019024608A JP2017144487A JP2017144487A JP2019024608A JP 2019024608 A JP2019024608 A JP 2019024608A JP 2017144487 A JP2017144487 A JP 2017144487A JP 2017144487 A JP2017144487 A JP 2017144487A JP 2019024608 A JP2019024608 A JP 2019024608A
Authority
JP
Japan
Prior art keywords
information
line
sight
subject
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017144487A
Other languages
English (en)
Other versions
JP6856200B2 (ja
Inventor
圭司 松田
Keiji Matsuda
圭司 松田
憲二 河野
Kenji Kono
憲二 河野
峰明 兼子
Mineaki Kaneko
峰明 兼子
岡野 栄之
Hideyuki Okano
栄之 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
RIKEN Institute of Physical and Chemical Research
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST, RIKEN Institute of Physical and Chemical Research filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2017144487A priority Critical patent/JP6856200B2/ja
Publication of JP2019024608A publication Critical patent/JP2019024608A/ja
Application granted granted Critical
Publication of JP6856200B2 publication Critical patent/JP6856200B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】被験者に注視点を注視させるための訓練等が不要な視線検出校正方法を提供すること。【解決手段】視覚刺激情報を表示するステップ(S102)と、被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得するステップ(S106)と、前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出するステップと、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正するステップ(S110)と、を含む視線検出校正方法。【選択図】図2

Description

本発明は、視線検出における校正方法に関する。
従来、視線位置を計測することができる視線検出技術が知られており(例えば、特許文献1、2)、脳機能解明のために、無麻酔行動中のサルを実験動物に使う研究、人の視覚に関する心理学的研究、医療検査、マンマシンインターフェースへの応用研究などに用いられている。このような視線検出技術においては、人によって両目の位置や眼球の大きさ・形等が異なるため、視線検出を行う際に校正処理が必要になる。
従来の校正方法としては、図10に示されるような、例えば3×3の校正点をディスプレイに表示し、被験者にはこれらの校正点を順番に注視してもらい、その際の被験者の瞳孔をカメラで撮影する方法がある。
特許第3726122号公報 特許第3834636号公報
しかしながら、従来の校正方法によれば、注視点を注視してもらえないと校正できないため、マーモセットやニホンザルなどの動物による視線検出を行う場合、子供の場合、認知症などを患っている被験者の場合等には、注視点を注視してもらうことが困難である、または、訓練すれば注視するようになるものの手間がかかる、等の問題があった。
このような課題に鑑み、本発明は、被験者に注視点を注視させるための訓練が不要な視線検出校正方法を提供することを目的とする。
上記課題を解決するために、本発明の一態様は、視覚刺激情報を表示するステップと、被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得するステップと、前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出するステップと、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正するステップとを含む視線検出校正方法である。
また、本発明の他の態様は、視覚刺激情報を表示する表示部と、被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得する視線情報取得部と、前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出する差分算出部と、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正する校正部とを備える視線検出校正システムである。
また、本発明の他の態様は、上記の視線検出校正方法を、コンピュータシステムに実行させるためのコンピュータプログラムである。
本発明の一実施形態に係る視線検出校正方法を実行する視線検出校正システムの構成の一例を示す図である。 本発明の一実施形態に係る視線検出校正方法の処理フロー図の一例を示す図である。 視覚刺激情報の動きと被験者の目の動きとを表すグラフの一例を示す図である。 視覚刺激情報の動きと被験者の目の動きとを表すグラフの一例を示す図である。 視覚刺激情報の動きと被験者の目の動きとを表すグラフの一例を示す図である。 本発明の一実施形態に係る視線検出校正方法を実行後の視覚刺激情報の動きと被験者の目の動きとを表すグラフの一例を示す図である。 校正点の抽出について説明する図である。 他の実験データを示す図である。 他の実験データの校正後を示す図である。 従来の校正点の一例を示す図である。
本実施形態に係る視線検出校正方法は、従来の校正方法とは異なり、マーモセット等の動物や子供であっても特別な訓練が不要な校正方法である。一般的に、動物や人間は、目の前に動くものがあると、自然にそれを目で追ってしまうという性質がある。そこで本実施形態に係る視線検出校正方法は、目で追わせたい視覚刺激情報をあらかじめ定められた軌道にて動かし、これを追う動物や人間の視線について、視覚刺激情報の動きと被験者(視線検出の対象である人間や動物を、以下「被験者」と称する)の視線の動きとを記録する。そして、これらのデータを比較して、視覚刺激情報と被験者の目の動きとが同期している部分を抽出することで視線検出における校正処理を行う。
以下、図面を参照しながら、本実施形態に係る視線検出校正方法について説明する。なお、以下の説明において参照する各図では、他の図と同等部分は同一符号によって示される。
(視線検出校正システムの構成)
図1は、本実施形態に係る視線検出校正方法を実行する視線検出校正システム1の構成の一例を示す図である。図1に示される視線検出構成システムは、視覚刺激情報を提示するディスプレイ10と、被験者50の眼球54に赤外線を照明する赤外線照明装置12と、赤外線のみを反射するミラー14と、被験者50の眼球54の様子を撮影するカメラ20と、ディスプレイ10に視覚刺激情報を表示するための表示情報を出力する視覚刺激提示用コンピュータ装置16と、被験者50の視線計測用コンピュータ装置18とを含んで構成される。
視覚刺激提示用コンピュータ装置16はディスプレイ10に視覚刺激情報を表示するための表示情報を出力すると、ディスプレイ10にはあらかじめ定められた軌跡にて視覚刺激情報が表示される。また、被験者50は、ディスプレイ10の方向に向いた状態で頭部52が固定される。また、瞳孔を暗く撮影するために赤外線照明装置12による照明が行われる。被験者50がディスプレイ10に表示される視覚刺激情報を目(眼球)54で追うと、赤外線のみを反射するミラー14を介してカメラ20が眼球54の様子を撮影する。カメラ20の撮影情報は、視線計測用コンピュータ装置18に出力される。また、視覚刺激提示用コンピュータ装置16は、視覚刺激情報の提示位置を、例えばネットワーク経由で視線計測用コンピュータ装置18に出力する。また、後述する本実施形態に係る視線検出の校正処理は、例えば視線計測用コンピュータ装置18において実行されうる。
視覚刺激情報は、被験者に目で追わせるためにディスプレイ10に表示されるが、なるべく被験者の興味を引くものを用いるのが好適である。例えばマーモセットは、顔画像を好んで見るという研究結果が存在する(The Journal of Neuroscience, January 22, 2014・34(4):1183-1194・1183 Active Vision in Marmosets: A Model System for Visual Neuroscience)。
ここで、図1のような視線検出校正システム1においては、頭部52(眼球54)とカメラ20との位置関係により、カメラ20で計測する視線位置と、実際に被験者50が見ている位置との間に、水平方向と垂直方向とにおいてズレが生じうる。本実施形態に係る視線検出校正方法は、このようなズレを校正するための方法である。
(処理フロー)
図2は、本実施形態に係る視線検出校正方法の処理フロー図の一例を示す図である。
視覚刺激情報を表示するための表示情報が視覚刺激提示用コンピュータ装置16からディスプレイ10に出力されると、ディスプレイ10にて視覚刺激情報が表示される(ステップS102)。この時、視覚刺激情報の提示位置が視線計測用コンピュータ装置18に出力される(ステップS104)。視覚刺激情報がディスプレイ10に表示されている間、被験者50の眼球54の様子がカメラ20によって撮影され、撮影情報(視線情報)が視線計測用コンピュータ装置18に出力される(ステップS106)。視覚刺激情報の表示が終了するまで、ステップS102〜S106が繰り返される(ステップS108:No)。なお、視覚刺激情報があらかじめ定められた軌跡にてディスプレイ上を動くようになっている場合には、当該軌跡の情報があらかじめ校正処理(ステップS110)の前に視線計測用コンピュータ装置18に提供(出力)されており、視覚刺激情報の表示中には被験者の眼球の動き(視線)に関する撮影情報(視線情報)のみが視線計測用コンピュータ装置18に出力される等となっていてもよい。
視覚刺激情報の表示が終了すると(ステップS108:Yes)、視覚刺激情報の軌跡の情報と、被験者の視線情報とを用いて校正を行う(ステップS110)。ステップS110における校正方法について、以下、詳述する。
(視線検出校正方法)
以下、図面を参照しながらステップS110にて実行される校正処理について詳述する。
図3(a)および図3(b)は、視線計測用コンピュータ装置18において取得された視覚刺激情報の動きと、被験者(本例ではマーモセット)の目の動きとを示すグラフである。グラフ中の破線が視覚刺激情報の動きを表し、実線が被験者の目の動き(以下、「視線情報」ともいう)を表す。また、図3(a)のグラフは、縦軸が水平方向の角度であり、横軸が時間軸であり、視覚刺激情報および視線情報のそれぞれの水平方向の経時的変化を表す。また、図3(b)のグラフは、縦軸が垂直方向の角度であり、横軸が時間軸であり、視覚刺激情報および視線情報のそれぞれの垂直方向の経時的変化を表す。また、図3(c)のグラフは、図3(a)および図3(b)のデータを、縦軸が垂直方向の角度、横軸が水平方向の角度で表したものである。
図3の各グラフにおいて、被験者が視覚刺激情報を目で追っている場合は、視覚刺激情報の動き(破線)と被験者の目の動き(実線)とが同じような動きとなるが、被験者が視覚刺激情報を目で追う際の若干の時間差が含まれる。まず、この時間差を抽出する。
図4(a−1)は、視覚刺激情報の動き(破線)と被験者の目の動き(実線)の水平方向の経時的変化を表す(図3(a)に対応)。このようなグラフに対して、各時刻において破線から実線の値を引き算した結果をプロットしてグラフ化したものが図4(a−2)のグラフである。また、このグラフについて各角度(縦軸:degree)のプロットの総数をグラフ化したものが図4(a−3)である。
本実施形態の校正処理は、図4(a−1)のグラフの被験者の目の動き(実線)を時間軸方向でシフトさせながら、上記の処理を繰り返していく。本例の場合は、500Hzにてデータを取得しているため、1/500秒ずつ実線グラフを時間軸方向にシフトさせていく。また、図4(b−1)〜(b−3)は、視覚刺激情報の動きと被験者の目の動きの垂直方向の経時的変化について、水平方向と同じように処理を行なった場合のグラフを示す。
図5は、図4において説明した処理を、実線を時間軸方向にシフトしながら繰り返した場合の一例を示す。図5(a−1)は、図4(a−1)のグラフの実線データを時間軸の右方向にシフトさせたものである。また、図5(a−2)、(a−3)の各グラフは、図4(a−2)、(a−3)と同様の処理によって生成されたグラフである。
ここで、図4(a−3)のグラフと、図5(a−3)のグラフとを比較すると、プロットの総数(count)の最大値は、図4(a−3)のグラフでは約108であり、図5(a−3)のグラフでは約191である。すなわち、図4(a−3)よりも図5(a−3)のほうがプロットの総数の最大値が大きい。このように、被験者の目の動きのグラフ(実線)を時間軸方向にシフトさせながら、各角度におけるプロットの総数(count)を算出し、プロットの総数の最大値が一番大きくなる時の時間軸方向のシフト量が、被験者が視覚刺激情報を目で追った際の時間差であると推定される。本例においては、各角度におけるプロットの総数の最大値が一番大きくなったのは、実線グラフを約200ミリ秒の分だけシフトさせた時であった。また、図5(b−1)〜(b−3)は、垂直方向について、水平方向と同様の処理を行なった場合のグラフを示す。なお、水平方向と垂直方向とにおいてプロットの総数の最大値が一番大きくなるタイミング(時間差)が異なる場合には、水平方向と垂直方向とを同じ時間分ずらしながら水平方向のプロットの総数と垂直方向のプロットの総数との和が最大になる時間を見つけるようになっていてもよい。
また、図5のグラフがプロットの総数の最大値が一番大きくなる場合を示しているとすると、水平方向についてプロットの総数が最大(約191個)となる時の角度(縦軸)は、+3度である(図5(a−3))。また、垂直方向についてプロットの総数が最大(約191個)となる時の角度(縦軸)は、−13度である(図5(b−3))。これらの角度が、水平方向と垂直方向におけるカメラと被験者の眼球とのズレを表す。
以上のような処理によって、視覚刺激情報を被験者が目で追った場合の時間差を補正することが可能であり、カメラ20と被験者の眼球54との位置のズレが推定される。推定された時間と位置のズレに基づいて、図3のグラフを縦軸(角度)と、横軸(時間軸)とにおいて校正したのが、図6のグラフである。図6(a)、(b)、(c)のグラフは、それぞれ、図3(a)、(b)、(c)のグラフに対応している。図3と比較すると、図6の各グラフは時間と位置のズレが校正されているため、視覚刺激情報の動き(破線)と被験者の目の動き(実線)とが、全体的に、より近くなっているのが分かる。
さらに、図6(c)の破線グラフのプロットと、実線グラフのプロットとで近い点が校正点となりうる。実際には、例えば破線グラフと実線グラフの各プロットどうしの距離が、あらかじめ定められた距離内にあるものを校正点として抽出するようになっていてもよい。図7(a)、(b)は、図6(a)、(b)の各グラフ上のプロットを鮮明化したものであり、図7(c)は、破線のグラフと実線のグラフの各プロットどうしの距離が、4度未満であるプロットを抽出して生成されたグラフである。
上述のようにして抽出された校正点の数が少なすぎる場合には、もう一度、校正点を決定するための処理を始めからやり直してもよい。
以上のようにして本実施形態に係る視線検出校正方法によって抽出される校正点は、従来よりも校正点が多くなるというメリットがある。また、従来の校正方法のように、被験者に校正点を意識的に注視してもらうことが困難である動物、子供、認知症等を患っている者などが被験者である場合であっても校正が可能となり、より正確な視線検出を行うことが可能である。
(他の実験例)
図8および図9は、他の実験例を示す図である。図8は、上述の図3に対応し、視覚刺激情報の軌跡と、被験者の目の動きのグラフを示す図である。また、図9は、上述の図6に対応し、図8に示されるデータに本実施形態の視線検出校正方法を実行して校正を行なった後のグラフを示す図である。全体的に、図8よりも図9のほうが、視覚刺激情報の軌跡(破線グラフ)と被験者の目の動き(実線グラフ)とが、より重なっているのが分かる。
(ハードウェア構成)
本実施形態に係る視線検出校正方法を実行するコンピュータ装置(例えば視線計測用コンピュータ装置18)は、一般的なコンピュータ装置と同様のハードウェア構成によって実現可能である。当該コンピュータ装置は、例えば、プロセッサ、RAM、ROM、ハードディスク装置、リムーバブルメモリ、通信インタフェース(有線・無線)、ディスプレイ/タッチパネル、スピーカ、およびキーボード/マウス等を備える。
そして、上記説明された本実施形態の視線検出校正方法における各処理は、ハードウェアとソフトウェアとが協働することによって実現されうる。例えば、プロセッサが、ハードディスク装置にあらかじめ格納されたプログラムをメモリに読み出して実行することで各処理が実行されうる。なお、当該説明したハードウェア構成はあくまで一例であり、これに限定されるものではない。
また、上記説明した本実施形態の視線検出校正システムは、視覚刺激情報を表示する表示部(例えばディスプレイ10)と、被験者の眼球を撮影することによって視覚刺激情報の表示中における被験者の視線の動きを表す視線情報を取得する視線情報取得部(例えば視線計測用コンピュータ装置18)と、当該視線情報を時間軸方向にシフトさせながら、当該視覚刺激情報の表示中の軌跡を示す軌跡情報と当該視線情報との水平位置および垂直位置のそれぞれについて、当該軌跡情報と当該視線情報との各時刻における差分を算出する差分算出部(例えば視線計測用コンピュータ装置18)と、当該軌跡情報と当該視線情報の水平位置および垂直位置のそれぞれの算出された各時刻における差分の各値のカウント数が最も多くなる時の水平位置および垂直位置に基づいて、視線情報を校正する校正部(例えば視線計測用コンピュータ装置18)と、を備える視線検出校正システムであるとも言える。
ここまで、本発明の一実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。
本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。
1 視線検出校正システム
10 ディスプレイ
12 赤外線照明装置
14 赤外線のみを反射するミラー
16 視覚刺激提示用コンピュータ装置
18 視線計測用コンピュータ装置
50 被験者
52 頭部
54 眼球

Claims (5)

  1. 視覚刺激情報を表示するステップと、
    被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得するステップと、
    前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出するステップと、
    前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正するステップと、
    を含む視線検出校正方法。
  2. 前記視線を校正するステップは、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置の分だけ、前記視線情報または前記軌跡情報をシフトした状態にて前記視線情報と前記軌跡情報とが同期している箇所を用いて、前記視線情報を校正する、請求項1に記載の視線検出校正方法。
  3. 前記視線を校正するステップは、前記同期している箇所は、前記視線情報と前記軌跡情報との距離が、あらかじめ定められた閾値未満の箇所である、請求項2に記載の視線検出校正方法。
  4. 視覚刺激情報を表示する表示部と、
    被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得する視線情報取得部と、
    前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出する差分算出部と、
    前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正する校正部と、
    を備える視線検出校正システム。
  5. 請求項1から3のいずれ一項に記載の視線検出校正方法を、コンピュータシステムに実行させるためのコンピュータプログラム。
JP2017144487A 2017-07-26 2017-07-26 視線検出校正方法、システム、及びコンピュータプログラム Active JP6856200B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017144487A JP6856200B2 (ja) 2017-07-26 2017-07-26 視線検出校正方法、システム、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017144487A JP6856200B2 (ja) 2017-07-26 2017-07-26 視線検出校正方法、システム、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2019024608A true JP2019024608A (ja) 2019-02-21
JP6856200B2 JP6856200B2 (ja) 2021-04-07

Family

ID=65474925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017144487A Active JP6856200B2 (ja) 2017-07-26 2017-07-26 視線検出校正方法、システム、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6856200B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161380A1 (ja) 2020-02-10 2021-08-19 日本電気株式会社 視線推定システム、視線推定方法、及びコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01284227A (ja) * 1988-05-11 1989-11-15 Takei Kiki Kogyo Kk 視覚情報分析装置
JP2000005130A (ja) * 1998-06-19 2000-01-11 Nippon Hoso Kyokai <Nhk> 眼球運動測定方法および装置
JP2001204692A (ja) * 2000-01-31 2001-07-31 Morita Mfg Co Ltd 眼球運動検査装置
JP2014195647A (ja) * 2013-03-07 2014-10-16 株式会社ニコン 視線検出方法、視線検出装置、眼鏡レンズ設計方法、眼鏡レンズ製造方法、および眼鏡レンズ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01284227A (ja) * 1988-05-11 1989-11-15 Takei Kiki Kogyo Kk 視覚情報分析装置
JP2000005130A (ja) * 1998-06-19 2000-01-11 Nippon Hoso Kyokai <Nhk> 眼球運動測定方法および装置
JP2001204692A (ja) * 2000-01-31 2001-07-31 Morita Mfg Co Ltd 眼球運動検査装置
JP2014195647A (ja) * 2013-03-07 2014-10-16 株式会社ニコン 視線検出方法、視線検出装置、眼鏡レンズ設計方法、眼鏡レンズ製造方法、および眼鏡レンズ

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021161380A1 (ja) 2020-02-10 2021-08-19 日本電気株式会社 視線推定システム、視線推定方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
JP6856200B2 (ja) 2021-04-07

Similar Documents

Publication Publication Date Title
JP6985005B2 (ja) 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体
US10314485B2 (en) Portable google based VOG system with comparative left and right eye ocular response analysis with MTBI analysis using percent of saccade function of smooth pursuit test
JP5460691B2 (ja) 注視対象判定装置及び注視対象判定方法
US9004687B2 (en) Eye tracking headset and system for neuropsychological testing including the detection of brain damage
Seifert et al. Retinal Vessel Analyzer (RVA)-design and function
JP5415948B2 (ja) 視線検出装置及び視線検出方法
EP2772828B1 (en) Individual body discrimination device and individual body discrimination method
JP5689850B2 (ja) 映像解析装置、映像解析方法、および注視点表示システム
KR20150140814A (ko) 머리 및 눈 추적
US20200121195A1 (en) Medical condition sensor
JP2017522104A (ja) 目状態決定システム
US11317861B2 (en) Vestibular-ocular reflex test and training system
JP2019024608A (ja) 視線検出校正方法、システム、及びコンピュータプログラム
US20220409120A1 (en) Information Processing Method, Computer Program, Information Processing Device, and Information Processing System
JP7333359B2 (ja) 撮像装置、眼球運動データ処理システム、および制御方法
CN108451496B (zh) 检测脑心连通性的信息的方法及其系统
JP7409732B1 (ja) 眼振解析装置、プログラム、及び解析システム
US20230346318A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP7165910B2 (ja) 印象評価システム、及び、印象評価方法
El Moucary et al. Commodious Control Apparatus for Impaired People
JP2022173721A (ja) 撮像装置、眼球運動データ処理システム、および制御方法
JP2015188649A (ja) 複数の生理指標および視線の分析支援装置、プログラム
WO2017167587A1 (en) Unobtrusive fundus imaging
Schiavone Novel Methods and Technologies for Studying Social Orienting Behavior in Young Children
JP2006167276A (ja) 固視微動量推定方法、装置、及びプログラム並びに該プログラムを記録した記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6856200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250