JP6856200B2 - Line-of-sight detection and calibration methods, systems, and computer programs - Google Patents
Line-of-sight detection and calibration methods, systems, and computer programs Download PDFInfo
- Publication number
- JP6856200B2 JP6856200B2 JP2017144487A JP2017144487A JP6856200B2 JP 6856200 B2 JP6856200 B2 JP 6856200B2 JP 2017144487 A JP2017144487 A JP 2017144487A JP 2017144487 A JP2017144487 A JP 2017144487A JP 6856200 B2 JP6856200 B2 JP 6856200B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- information
- sight
- locus
- visual stimulus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000001514 detection method Methods 0.000 title claims description 39
- 238000004590 computer program Methods 0.000 title claims description 3
- 230000000007 visual effect Effects 0.000 claims description 58
- 210000005252 bulbus oculi Anatomy 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000001360 synchronised effect Effects 0.000 claims description 3
- 210000001508 eye Anatomy 0.000 description 18
- 238000005259 measurement Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 241001465754 Metazoa Species 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 241001515942 marmosets Species 0.000 description 5
- 230000004424 eye movement Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 206010012289 Dementia Diseases 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000036962 time dependent Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241000282564 Macaca fuscata Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010339 medical test Methods 0.000 description 1
Images
Description
本発明は、視線検出における校正方法に関する。 The present invention relates to a calibration method in line-of-sight detection.
従来、視線位置を計測することができる視線検出技術が知られており(例えば、特許文献1、2)、脳機能解明のために、無麻酔行動中のサルを実験動物に使う研究、人の視覚に関する心理学的研究、医療検査、マンマシンインターフェースへの応用研究などに用いられている。このような視線検出技術においては、人によって両目の位置や眼球の大きさ・形等が異なるため、視線検出を行う際に校正処理が必要になる。
Conventionally, a line-of-sight detection technique capable of measuring the line-of-sight position has been known (for example,
従来の校正方法としては、図10に示されるような、例えば3×3の校正点をディスプレイに表示し、被験者にはこれらの校正点を順番に注視してもらい、その際の被験者の瞳孔をカメラで撮影する方法がある。 As a conventional calibration method, for example, a 3 × 3 calibration point as shown in FIG. 10 is displayed on a display, and the subject is asked to pay attention to these calibration points in order, and the pupil of the subject at that time is examined. There is a way to shoot with a camera.
しかしながら、従来の校正方法によれば、注視点を注視してもらえないと校正できないため、マーモセットやニホンザルなどの動物による視線検出を行う場合、子供の場合、認知症などを患っている被験者の場合等には、注視点を注視してもらうことが困難である、または、訓練すれば注視するようになるものの手間がかかる、等の問題があった。 However, according to the conventional calibration method, calibration cannot be performed unless the gazing point is gazed at. Therefore, when detecting the line of sight by an animal such as a marmoset or a Japanese macaque, in the case of a child, or in the case of a subject suffering from dementia, etc. There are problems such as it is difficult to have the gaze point of view, or it takes time and effort to gaze at the gaze after training.
このような課題に鑑み、本発明は、被験者に注視点を注視させるための訓練が不要な視線検出校正方法を提供することを目的とする。 In view of such a problem, an object of the present invention is to provide a line-of-sight detection and calibration method that does not require training for a subject to gaze at a gazing point.
上記課題を解決するために、本発明の一態様は、視覚刺激情報を表示するステップと、被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得するステップと、前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出するステップと、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正するステップとを含む視線検出校正方法である。 In order to solve the above problems, one aspect of the present invention includes a step of displaying visual stimulus information and line-of-sight information representing the movement of the subject's line of sight while displaying the visual stimulus information by photographing the subject's eyeball. And the step of acquiring the line-of-sight information, while shifting the line-of-sight information in the time axis direction, with respect to the horizontal position and the vertical position of the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight information. The step of calculating the difference between the line-of-sight information and the line-of-sight information at each time, and the count number of each value of the difference between the horizontal position and the vertical position of the locus information and the line-of-sight information at each calculated time are the largest. It is a line-of-sight detection and calibration method including a step of calibrating the line-of-sight information based on the horizontal position and the vertical position at the time of
また、本発明の他の態様は、視覚刺激情報を表示する表示部と、被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得する視線情報取得部と、前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出する差分算出部と、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正する校正部とを備える視線検出校正システムである。 In addition, another aspect of the present invention is a display unit that displays visual stimulus information and a line of sight that acquires line-of-sight information that represents the movement of the subject's line of sight while displaying the visual stimulus information by photographing the eyeball of the subject. While shifting the line-of-sight information in the time axis direction with the information acquisition unit, the locus information and the locus information and the vertical position of each of the horizontal and vertical positions of the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight information are described. The difference calculation unit that calculates the difference between the line-of-sight information and the line-of-sight information at each time, and the count number of each value of the difference between the locus information and the line-of-sight information at the horizontal position and the vertical position at each calculated time are the largest. It is a line-of-sight detection and calibration system including a calibration unit that calibrates the line-of-sight information based on the horizontal position and the vertical position when the number of lines increases.
また、本発明の他の態様は、上記の視線検出校正方法を、コンピュータシステムに実行させるためのコンピュータプログラムである。 Another aspect of the present invention is a computer program for causing a computer system to execute the above-mentioned line-of-sight detection and calibration method.
本実施形態に係る視線検出校正方法は、従来の校正方法とは異なり、マーモセット等の動物や子供であっても特別な訓練が不要な校正方法である。一般的に、動物や人間は、目の前に動くものがあると、自然にそれを目で追ってしまうという性質がある。そこで本実施形態に係る視線検出校正方法は、目で追わせたい視覚刺激情報をあらかじめ定められた軌道にて動かし、これを追う動物や人間の視線について、視覚刺激情報の動きと被験者(視線検出の対象である人間や動物を、以下「被験者」と称する)の視線の動きとを記録する。そして、これらのデータを比較して、視覚刺激情報と被験者の目の動きとが同期している部分を抽出することで視線検出における校正処理を行う。 The line-of-sight detection calibration method according to the present embodiment is different from the conventional calibration method, and is a calibration method that does not require special training even for animals such as marmosets and children. In general, animals and humans have the property that if there is something moving in front of them, they will naturally follow it. Therefore, in the line-of-sight detection and calibration method according to the present embodiment, the visual stimulus information to be followed by the eyes is moved in a predetermined trajectory, and the movement of the visual stimulus information and the subject (line-of-sight detection) are applied to the line of sight of the animal or human being to follow the line of sight. The human or animal that is the target of the above is referred to as the "subject"), and the movement of the line of sight is recorded. Then, by comparing these data and extracting a portion where the visual stimulus information and the movement of the eyes of the subject are synchronized, the calibration process in the line-of-sight detection is performed.
以下、図面を参照しながら、本実施形態に係る視線検出校正方法について説明する。なお、以下の説明において参照する各図では、他の図と同等部分は同一符号によって示される。 Hereinafter, the line-of-sight detection and calibration method according to the present embodiment will be described with reference to the drawings. In each of the figures referred to in the following description, the same parts as those of the other figures are indicated by the same reference numerals.
(視線検出校正システムの構成)
図1は、本実施形態に係る視線検出校正方法を実行する視線検出校正システム1の構成の一例を示す図である。図1に示される視線検出構成システムは、視覚刺激情報を提示するディスプレイ10と、被験者50の眼球54に赤外線を照明する赤外線照明装置12と、赤外線のみを反射するミラー14と、被験者50の眼球54の様子を撮影するカメラ20と、ディスプレイ10に視覚刺激情報を表示するための表示情報を出力する視覚刺激提示用コンピュータ装置16と、被験者50の視線計測用コンピュータ装置18とを含んで構成される。
(Configuration of line-of-sight detection and calibration system)
FIG. 1 is a diagram showing an example of a configuration of a line-of-sight detection and
視覚刺激提示用コンピュータ装置16はディスプレイ10に視覚刺激情報を表示するための表示情報を出力すると、ディスプレイ10にはあらかじめ定められた軌跡にて視覚刺激情報が表示される。また、被験者50は、ディスプレイ10の方向に向いた状態で頭部52が固定される。また、瞳孔を暗く撮影するために赤外線照明装置12による照明が行われる。被験者50がディスプレイ10に表示される視覚刺激情報を目(眼球)54で追うと、赤外線のみを反射するミラー14を介してカメラ20が眼球54の様子を撮影する。カメラ20の撮影情報は、視線計測用コンピュータ装置18に出力される。また、視覚刺激提示用コンピュータ装置16は、視覚刺激情報の提示位置を、例えばネットワーク経由で視線計測用コンピュータ装置18に出力する。また、後述する本実施形態に係る視線検出の校正処理は、例えば視線計測用コンピュータ装置18において実行されうる。
When the
視覚刺激情報は、被験者に目で追わせるためにディスプレイ10に表示されるが、なるべく被験者の興味を引くものを用いるのが好適である。例えばマーモセットは、顔画像を好んで見るという研究結果が存在する(The Journal of Neuroscience, January 22, 2014・34(4):1183-1194・1183 Active Vision in Marmosets: A Model System for Visual Neuroscience)。
The visual stimulus information is displayed on the
ここで、図1のような視線検出校正システム1においては、頭部52(眼球54)とカメラ20との位置関係により、カメラ20で計測する視線位置と、実際に被験者50が見ている位置との間に、水平方向と垂直方向とにおいてズレが生じうる。本実施形態に係る視線検出校正方法は、このようなズレを校正するための方法である。
Here, in the line-of-sight detection and
(処理フロー)
図2は、本実施形態に係る視線検出校正方法の処理フロー図の一例を示す図である。
(Processing flow)
FIG. 2 is a diagram showing an example of a processing flow diagram of the line-of-sight detection calibration method according to the present embodiment.
視覚刺激情報を表示するための表示情報が視覚刺激提示用コンピュータ装置16からディスプレイ10に出力されると、ディスプレイ10にて視覚刺激情報が表示される(ステップS102)。この時、視覚刺激情報の提示位置が視線計測用コンピュータ装置18に出力される(ステップS104)。視覚刺激情報がディスプレイ10に表示されている間、被験者50の眼球54の様子がカメラ20によって撮影され、撮影情報(視線情報)が視線計測用コンピュータ装置18に出力される(ステップS106)。視覚刺激情報の表示が終了するまで、ステップS102〜S106が繰り返される(ステップS108:No)。なお、視覚刺激情報があらかじめ定められた軌跡にてディスプレイ上を動くようになっている場合には、当該軌跡の情報があらかじめ校正処理(ステップS110)の前に視線計測用コンピュータ装置18に提供(出力)されており、視覚刺激情報の表示中には被験者の眼球の動き(視線)に関する撮影情報(視線情報)のみが視線計測用コンピュータ装置18に出力される等となっていてもよい。
When the display information for displaying the visual stimulus information is output from the
視覚刺激情報の表示が終了すると(ステップS108:Yes)、視覚刺激情報の軌跡の情報と、被験者の視線情報とを用いて校正を行う(ステップS110)。ステップS110における校正方法について、以下、詳述する。 When the display of the visual stimulus information is completed (step S108: Yes), calibration is performed using the locus information of the visual stimulus information and the line-of-sight information of the subject (step S110). The calibration method in step S110 will be described in detail below.
(視線検出校正方法)
以下、図面を参照しながらステップS110にて実行される校正処理について詳述する。
(Gaze detection calibration method)
Hereinafter, the calibration process executed in step S110 will be described in detail with reference to the drawings.
図3(a)および図3(b)は、視線計測用コンピュータ装置18において取得された視覚刺激情報の動きと、被験者(本例ではマーモセット)の目の動きとを示すグラフである。グラフ中の破線が視覚刺激情報の動きを表し、実線が被験者の目の動き(以下、「視線情報」ともいう)を表す。また、図3(a)のグラフは、縦軸が水平方向の角度であり、横軸が時間軸であり、視覚刺激情報および視線情報のそれぞれの水平方向の経時的変化を表す。また、図3(b)のグラフは、縦軸が垂直方向の角度であり、横軸が時間軸であり、視覚刺激情報および視線情報のそれぞれの垂直方向の経時的変化を表す。また、図3(c)のグラフは、図3(a)および図3(b)のデータを、縦軸が垂直方向の角度、横軸が水平方向の角度で表したものである。
3A and 3B are graphs showing the movement of the visual stimulus information acquired by the line-of-sight
図3の各グラフにおいて、被験者が視覚刺激情報を目で追っている場合は、視覚刺激情報の動き(破線)と被験者の目の動き(実線)とが同じような動きとなるが、被験者が視覚刺激情報を目で追う際の若干の時間差が含まれる。まず、この時間差を抽出する。 In each graph of FIG. 3, when the subject follows the visual stimulus information with his / her eyes, the movement of the visual stimulus information (broken line) and the movement of the subject's eyes (solid line) are similar, but the subject is visual. There is a slight time lag when following the stimulus information visually. First, this time difference is extracted.
図4(a−1)は、視覚刺激情報の動き(破線)と被験者の目の動き(実線)の水平方向の経時的変化を表す(図3(a)に対応)。このようなグラフに対して、各時刻において破線から実線の値を引き算した結果をプロットしてグラフ化したものが図4(a−2)のグラフである。また、このグラフについて各角度(縦軸:degree)のプロットの総数をグラフ化したものが図4(a−3)である。 FIG. 4 (a-1) shows changes over time in the horizontal direction between the movement of visual stimulus information (broken line) and the movement of the subject's eyes (solid line) (corresponding to FIG. 3 (a)). The graph of FIG. 4A-2 is a graph obtained by plotting the result of subtracting the value of the solid line from the broken line at each time on such a graph. Further, FIG. 4 (a-3) is a graph of the total number of plots at each angle (vertical axis: degree) for this graph.
本実施形態の校正処理は、図4(a−1)のグラフの被験者の目の動き(実線)を時間軸方向でシフトさせながら、上記の処理を繰り返していく。本例の場合は、500Hzにてデータを取得しているため、1/500秒ずつ実線グラフを時間軸方向にシフトさせていく。また、図4(b−1)〜(b−3)は、視覚刺激情報の動きと被験者の目の動きの垂直方向の経時的変化について、水平方向と同じように処理を行なった場合のグラフを示す。 In the calibration process of the present embodiment, the above process is repeated while shifting the eye movement (solid line) of the subject in the graph of FIG. 4 (a-1) in the time axis direction. In the case of this example, since the data is acquired at 500 Hz, the solid line graph is shifted in the time axis direction by 1/500 second. Further, FIGS. 4 (b-1) to 4 (b-3) are graphs in the case where the movement of the visual stimulus information and the vertical change of the eye movement of the subject are processed in the same manner as in the horizontal direction. Is shown.
図5は、図4において説明した処理を、実線を時間軸方向にシフトしながら繰り返した場合の一例を示す。図5(a−1)は、図4(a−1)のグラフの実線データを時間軸の右方向にシフトさせたものである。また、図5(a−2)、(a−3)の各グラフは、図4(a−2)、(a−3)と同様の処理によって生成されたグラフである。 FIG. 5 shows an example in which the process described in FIG. 4 is repeated while shifting the solid line in the time axis direction. FIG. 5 (a-1) shows the solid line data of the graph of FIG. 4 (a-1) shifted to the right on the time axis. Further, each graph of FIGS. 5 (a-2) and 5 (a-3) is a graph generated by the same processing as in FIGS. 4 (a-2) and 4 (a-3).
ここで、図4(a−3)のグラフと、図5(a−3)のグラフとを比較すると、プロットの総数(count)の最大値は、図4(a−3)のグラフでは約108であり、図5(a−3)のグラフでは約191である。すなわち、図4(a−3)よりも図5(a−3)のほうがプロットの総数の最大値が大きい。このように、被験者の目の動きのグラフ(実線)を時間軸方向にシフトさせながら、各角度におけるプロットの総数(count)を算出し、プロットの総数の最大値が一番大きくなる時の時間軸方向のシフト量が、被験者が視覚刺激情報を目で追った際の時間差であると推定される。本例においては、各角度におけるプロットの総数の最大値が一番大きくなったのは、実線グラフを約200ミリ秒の分だけシフトさせた時であった。また、図5(b−1)〜(b−3)は、垂直方向について、水平方向と同様の処理を行なった場合のグラフを示す。なお、水平方向と垂直方向とにおいてプロットの総数の最大値が一番大きくなるタイミング(時間差)が異なる場合には、水平方向と垂直方向とを同じ時間分ずらしながら水平方向のプロットの総数と垂直方向のプロットの総数との和が最大になる時間を見つけるようになっていてもよい。 Here, comparing the graph of FIG. 4 (a-3) with the graph of FIG. 5 (a-3), the maximum value of the total number of plots (count) is about about the graph of FIG. 4 (a-3). It is 108, which is about 191 in the graph of FIG. 5 (a-3). That is, the maximum value of the total number of plots is larger in FIG. 5 (a-3) than in FIG. 4 (a-3). In this way, while shifting the graph (solid line) of the subject's eye movement in the time axis direction, the total number of plots (count) at each angle is calculated, and the time when the maximum value of the total number of plots becomes the largest. It is estimated that the amount of shift in the axial direction is the time difference when the subject visually follows the visual stimulus information. In this example, the maximum value of the total number of plots at each angle was the largest when the solid line graph was shifted by about 200 milliseconds. Further, FIGS. 5 (b-1) to 5 (b-3) show graphs in the vertical direction when the same processing as in the horizontal direction is performed. If the timing (time difference) at which the maximum value of the total number of plots is maximized differs between the horizontal direction and the vertical direction, it is perpendicular to the total number of plots in the horizontal direction while shifting the horizontal direction and the vertical direction by the same amount of time. You may want to find the time when the sum of the total number of directional plots is maximized.
また、図5のグラフがプロットの総数の最大値が一番大きくなる場合を示しているとすると、水平方向についてプロットの総数が最大(約191個)となる時の角度(縦軸)は、+3度である(図5(a−3))。また、垂直方向についてプロットの総数が最大(約191個)となる時の角度(縦軸)は、−13度である(図5(b−3))。これらの角度が、水平方向と垂直方向におけるカメラと被験者の眼球とのズレを表す。 Further, assuming that the graph of FIG. 5 shows the case where the maximum value of the total number of plots is the largest, the angle (vertical axis) when the total number of plots is the maximum (about 191 pieces) in the horizontal direction is It is +3 degrees (Fig. 5 (a-3)). The angle (vertical axis) when the total number of plots is maximum (about 191) in the vertical direction is -13 degrees (FIG. 5 (b-3)). These angles represent the deviation between the camera and the subject's eyeball in the horizontal and vertical directions.
以上のような処理によって、視覚刺激情報を被験者が目で追った場合の時間差を補正することが可能であり、カメラ20と被験者の眼球54との位置のズレが推定される。推定された時間と位置のズレに基づいて、図3のグラフを縦軸(角度)と、横軸(時間軸)とにおいて校正したのが、図6のグラフである。図6(a)、(b)、(c)のグラフは、それぞれ、図3(a)、(b)、(c)のグラフに対応している。図3と比較すると、図6の各グラフは時間と位置のズレが校正されているため、視覚刺激情報の動き(破線)と被験者の目の動き(実線)とが、全体的に、より近くなっているのが分かる。
By the above processing, it is possible to correct the time difference when the subject follows the visual stimulus information with the eyes, and the deviation of the position between the
さらに、図6(c)の破線グラフのプロットと、実線グラフのプロットとで近い点が校正点となりうる。実際には、例えば破線グラフと実線グラフの各プロットどうしの距離が、あらかじめ定められた距離内にあるものを校正点として抽出するようになっていてもよい。図7(a)、(b)は、図6(a)、(b)の各グラフ上のプロットを鮮明化したものであり、図7(c)は、破線のグラフと実線のグラフの各プロットどうしの距離が、4度未満であるプロットを抽出して生成されたグラフである。 Further, a point close to the plot of the broken line graph of FIG. 6 (c) and the plot of the solid line graph can be a calibration point. Actually, for example, the distance between the plots of the broken line graph and the solid line graph may be extracted as a calibration point within a predetermined distance. 7 (a) and 7 (b) are clarified plots on the graphs of FIGS. 6 (a) and 6 (b), and FIG. 7 (c) is a broken line graph and a solid line graph, respectively. It is a graph generated by extracting plots in which the distance between plots is less than 4 degrees.
上述のようにして抽出された校正点の数が少なすぎる場合には、もう一度、校正点を決定するための処理を始めからやり直してもよい。 If the number of calibration points extracted as described above is too small, the process for determining the calibration points may be restarted from the beginning.
以上のようにして本実施形態に係る視線検出校正方法によって抽出される校正点は、従来よりも校正点が多くなるというメリットがある。また、従来の校正方法のように、被験者に校正点を意識的に注視してもらうことが困難である動物、子供、認知症等を患っている者などが被験者である場合であっても校正が可能となり、より正確な視線検出を行うことが可能である。 As described above, the calibration points extracted by the line-of-sight detection calibration method according to the present embodiment have an advantage that the number of calibration points is larger than that in the conventional case. In addition, even if the subject is an animal, a child, a person suffering from dementia, etc., for which it is difficult for the subject to consciously gaze at the calibration point as in the conventional calibration method, the calibration is performed. It is possible to perform more accurate line-of-sight detection.
(他の実験例)
図8および図9は、他の実験例を示す図である。図8は、上述の図3に対応し、視覚刺激情報の軌跡と、被験者の目の動きのグラフを示す図である。また、図9は、上述の図6に対応し、図8に示されるデータに本実施形態の視線検出校正方法を実行して校正を行なった後のグラフを示す図である。全体的に、図8よりも図9のほうが、視覚刺激情報の軌跡(破線グラフ)と被験者の目の動き(実線グラフ)とが、より重なっているのが分かる。
(Other experimental examples)
8 and 9 are diagrams showing other experimental examples. FIG. 8 is a diagram showing a locus of visual stimulus information and a graph of the movement of the eyes of the subject, corresponding to FIG. Further, FIG. 9 is a diagram showing a graph corresponding to the above-mentioned FIG. 6 after the data shown in FIG. 8 is calibrated by executing the line-of-sight detection calibration method of the present embodiment. Overall, it can be seen that the locus of visual stimulus information (broken line graph) and the movement of the subject's eyes (solid line graph) overlap more in FIG. 9 than in FIG.
(ハードウェア構成)
本実施形態に係る視線検出校正方法を実行するコンピュータ装置(例えば視線計測用コンピュータ装置18)は、一般的なコンピュータ装置と同様のハードウェア構成によって実現可能である。当該コンピュータ装置は、例えば、プロセッサ、RAM、ROM、ハードディスク装置、リムーバブルメモリ、通信インタフェース(有線・無線)、ディスプレイ/タッチパネル、スピーカ、およびキーボード/マウス等を備える。
(Hardware configuration)
A computer device (for example, a line-of-sight measurement computer device 18) that executes the line-of-sight detection and calibration method according to the present embodiment can be realized by a hardware configuration similar to that of a general computer device. The computer device includes, for example, a processor, RAM, ROM, hard disk device, removable memory, communication interface (wired / wireless), display / touch panel, speaker, keyboard / mouse, and the like.
そして、上記説明された本実施形態の視線検出校正方法における各処理は、ハードウェアとソフトウェアとが協働することによって実現されうる。例えば、プロセッサが、ハードディスク装置にあらかじめ格納されたプログラムをメモリに読み出して実行することで各処理が実行されうる。なお、当該説明したハードウェア構成はあくまで一例であり、これに限定されるものではない。 Then, each process in the line-of-sight detection calibration method of the present embodiment described above can be realized by the cooperation of hardware and software. For example, each process can be executed by the processor reading a program stored in the hard disk device in advance into the memory and executing the program. The hardware configuration described above is merely an example, and the present invention is not limited to this.
また、上記説明した本実施形態の視線検出校正システムは、視覚刺激情報を表示する表示部(例えばディスプレイ10)と、被験者の眼球を撮影することによって視覚刺激情報の表示中における被験者の視線の動きを表す視線情報を取得する視線情報取得部(例えば視線計測用コンピュータ装置18)と、当該視線情報を時間軸方向にシフトさせながら、当該視覚刺激情報の表示中の軌跡を示す軌跡情報と当該視線情報との水平位置および垂直位置のそれぞれについて、当該軌跡情報と当該視線情報との各時刻における差分を算出する差分算出部(例えば視線計測用コンピュータ装置18)と、当該軌跡情報と当該視線情報の水平位置および垂直位置のそれぞれの算出された各時刻における差分の各値のカウント数が最も多くなる時の水平位置および垂直位置に基づいて、視線情報を校正する校正部(例えば視線計測用コンピュータ装置18)と、を備える視線検出校正システムであるとも言える。 Further, the line-of-sight detection and calibration system of the present embodiment described above has a display unit (for example, display 10) that displays visual stimulus information and the movement of the subject's line of sight while displaying the visual stimulus information by photographing the eyeball of the subject. The line-of-sight information acquisition unit (for example, the line-of-sight measurement computer device 18) that acquires the line-of-sight information representing the above, and the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight while shifting the line-of-sight information in the time axis direction. A difference calculation unit (for example, a line-of-sight measurement computer device 18) that calculates the difference between the locus information and the line-of-sight information at each time for each of the horizontal position and the vertical position with respect to the information, and the locus information and the line-of-sight information. A calibration unit that calibrates line-of-sight information based on the horizontal and vertical positions when the count of each value of the difference at each calculated time of the horizontal position and the vertical position is maximum (for example, a computer device for line-of-sight measurement). It can be said that it is a line-of-sight detection and calibration system including 18).
ここまで、本発明の一実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。 Although one embodiment of the present invention has been described so far, it goes without saying that the present invention is not limited to the above-described embodiment and may be implemented in various different forms within the scope of the technical idea.
本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。 The scope of the present invention is not limited to the exemplary embodiments illustrated and described, but also includes all embodiments that provide an effect equal to that intended by the present invention. Furthermore, the scope of the present invention is not limited to the combination of the features of the invention defined by each claim, but may be defined by any desired combination of the specific features of all the disclosed features. ..
1 視線検出校正システム
10 ディスプレイ
12 赤外線照明装置
14 赤外線のみを反射するミラー
16 視覚刺激提示用コンピュータ装置
18 視線計測用コンピュータ装置
50 被験者
52 頭部
54 眼球
1 Eye-gaze detection and
Claims (5)
被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得するステップと、
前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出するステップと、
前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正するステップと、
を含む視線検出校正方法。 Steps to display visual stimulus information and
A step of acquiring gaze information representing the movement of the gaze of the subject while displaying the visual stimulus information by photographing the eyeball of the subject, and
While shifting the line-of-sight information in the time axis direction, each of the locus information and the line-of-sight information is provided for each of the horizontal and vertical positions of the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight information. Steps to calculate the difference in time and
Based on the horizontal position and the vertical position when the count number of each value of the difference between the horizontal position and the vertical position of the locus information and the line-of-sight information at each of the calculated times is the largest. Steps to calibrate line-of-sight information and
Line-of-sight detection calibration method including.
被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得する視線情報取得部と、
前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出する差分算出部と、
前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正する校正部と、
を備える視線検出校正システム。 A display unit that displays visual stimulus information and
A line-of-sight information acquisition unit that acquires line-of-sight information representing the movement of the subject's line-of-sight while displaying the visual stimulus information by photographing the subject's eyeball.
While shifting the line-of-sight information in the time axis direction, each of the locus information and the line-of-sight information is provided for each of the horizontal and vertical positions of the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight information. A difference calculation unit that calculates the difference at time, and
Based on the horizontal position and the vertical position when the count number of each value of the difference between the horizontal position and the vertical position of the locus information and the line-of-sight information at each of the calculated times is the largest. A calibration unit that calibrates line-of-sight information,
A line-of-sight detection and calibration system equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017144487A JP6856200B2 (en) | 2017-07-26 | 2017-07-26 | Line-of-sight detection and calibration methods, systems, and computer programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017144487A JP6856200B2 (en) | 2017-07-26 | 2017-07-26 | Line-of-sight detection and calibration methods, systems, and computer programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019024608A JP2019024608A (en) | 2019-02-21 |
JP6856200B2 true JP6856200B2 (en) | 2021-04-07 |
Family
ID=65474925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017144487A Active JP6856200B2 (en) | 2017-07-26 | 2017-07-26 | Line-of-sight detection and calibration methods, systems, and computer programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6856200B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7342978B2 (en) | 2020-02-10 | 2023-09-12 | 日本電気株式会社 | Gaze estimation system, gaze estimation method, and computer program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2615831B2 (en) * | 1988-05-11 | 1997-06-04 | 竹井機器工業株式会社 | Visual information analyzer |
JP2000005130A (en) * | 1998-06-19 | 2000-01-11 | Nippon Hoso Kyokai <Nhk> | Method and device for eyeball movement measuring |
JP3654625B2 (en) * | 2000-01-31 | 2005-06-02 | 株式会社モリタ製作所 | Eye movement test device |
JP6519099B2 (en) * | 2013-03-07 | 2019-05-29 | 株式会社ニコン | Gaze detection method, gaze detection apparatus, eyeglass lens design method, and eyeglass lens manufacturing method |
-
2017
- 2017-07-26 JP JP2017144487A patent/JP6856200B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019024608A (en) | 2019-02-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107929007B (en) | Attention and visual ability training system and method using eye tracking and intelligent evaluation technology | |
US20240069631A1 (en) | Interactive Motion-Based Eye Tracking Calibration | |
US10016131B2 (en) | Eye tracking system and method to detect the dominant eye | |
US9004687B2 (en) | Eye tracking headset and system for neuropsychological testing including the detection of brain damage | |
US20110242486A1 (en) | Autism diagnosis support apparatus | |
JP5689850B2 (en) | Video analysis apparatus, video analysis method, and gaze point display system | |
JPWO2010143377A1 (en) | Gaze target determination device and gaze target determination method | |
US11448903B2 (en) | Method for correcting centering parameters and/or an axial position and corresponding computer program and methods | |
KR101978548B1 (en) | Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same | |
JP2017522104A (en) | Eye state determination system | |
JP6881755B2 (en) | Line-of-sight detection calibration methods, systems, and computer programs | |
JP2017111746A (en) | Sight line detection device and sight line detection method | |
JP6324119B2 (en) | Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program | |
JP2019215688A (en) | Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration | |
CN111067474B (en) | Apparatus and method for objective visual acuity measurement using dynamic velocity threshold filter | |
JP6856200B2 (en) | Line-of-sight detection and calibration methods, systems, and computer programs | |
US9760772B2 (en) | Eye image stimuli for eyegaze calibration procedures | |
US20170332947A1 (en) | System and methods for diplopia assessment | |
US20220409120A1 (en) | Information Processing Method, Computer Program, Information Processing Device, and Information Processing System | |
KR101398193B1 (en) | Device and Method for Calibration | |
CN108495584B (en) | Apparatus and method for determining eye movement through a haptic interface | |
US20240036643A1 (en) | Method for implementing a zooming function in an eye tracking system | |
EP3922166B1 (en) | Display device, display method and display program | |
JP3225270B2 (en) | Gaze measurement method, gaze measurement device | |
TWI632486B (en) | Method for detecting and recording visual distortion |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171130 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200427 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210302 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210309 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6856200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |