JP6856200B2 - Line-of-sight detection and calibration methods, systems, and computer programs - Google Patents

Line-of-sight detection and calibration methods, systems, and computer programs Download PDF

Info

Publication number
JP6856200B2
JP6856200B2 JP2017144487A JP2017144487A JP6856200B2 JP 6856200 B2 JP6856200 B2 JP 6856200B2 JP 2017144487 A JP2017144487 A JP 2017144487A JP 2017144487 A JP2017144487 A JP 2017144487A JP 6856200 B2 JP6856200 B2 JP 6856200B2
Authority
JP
Japan
Prior art keywords
line
information
sight
locus
visual stimulus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017144487A
Other languages
Japanese (ja)
Other versions
JP2019024608A (en
Inventor
圭司 松田
圭司 松田
憲二 河野
憲二 河野
峰明 兼子
峰明 兼子
岡野 栄之
栄之 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
RIKEN Institute of Physical and Chemical Research
Original Assignee
National Institute of Advanced Industrial Science and Technology AIST
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Advanced Industrial Science and Technology AIST, RIKEN Institute of Physical and Chemical Research filed Critical National Institute of Advanced Industrial Science and Technology AIST
Priority to JP2017144487A priority Critical patent/JP6856200B2/en
Publication of JP2019024608A publication Critical patent/JP2019024608A/en
Application granted granted Critical
Publication of JP6856200B2 publication Critical patent/JP6856200B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、視線検出における校正方法に関する。 The present invention relates to a calibration method in line-of-sight detection.

従来、視線位置を計測することができる視線検出技術が知られており(例えば、特許文献1、2)、脳機能解明のために、無麻酔行動中のサルを実験動物に使う研究、人の視覚に関する心理学的研究、医療検査、マンマシンインターフェースへの応用研究などに用いられている。このような視線検出技術においては、人によって両目の位置や眼球の大きさ・形等が異なるため、視線検出を行う際に校正処理が必要になる。 Conventionally, a line-of-sight detection technique capable of measuring the line-of-sight position has been known (for example, Patent Documents 1 and 2). It is used for psychological research on vision, medical tests, and applied research to man-machine interfaces. In such a line-of-sight detection technique, the positions of both eyes and the size and shape of the eyeballs differ depending on the person, so that a calibration process is required when detecting the line-of-sight.

従来の校正方法としては、図10に示されるような、例えば3×3の校正点をディスプレイに表示し、被験者にはこれらの校正点を順番に注視してもらい、その際の被験者の瞳孔をカメラで撮影する方法がある。 As a conventional calibration method, for example, a 3 × 3 calibration point as shown in FIG. 10 is displayed on a display, and the subject is asked to pay attention to these calibration points in order, and the pupil of the subject at that time is examined. There is a way to shoot with a camera.

特許第3726122号公報Japanese Patent No. 3726122 特許第3834636号公報Japanese Patent No. 3834636

しかしながら、従来の校正方法によれば、注視点を注視してもらえないと校正できないため、マーモセットやニホンザルなどの動物による視線検出を行う場合、子供の場合、認知症などを患っている被験者の場合等には、注視点を注視してもらうことが困難である、または、訓練すれば注視するようになるものの手間がかかる、等の問題があった。 However, according to the conventional calibration method, calibration cannot be performed unless the gazing point is gazed at. Therefore, when detecting the line of sight by an animal such as a marmoset or a Japanese macaque, in the case of a child, or in the case of a subject suffering from dementia, etc. There are problems such as it is difficult to have the gaze point of view, or it takes time and effort to gaze at the gaze after training.

このような課題に鑑み、本発明は、被験者に注視点を注視させるための訓練が不要な視線検出校正方法を提供することを目的とする。 In view of such a problem, an object of the present invention is to provide a line-of-sight detection and calibration method that does not require training for a subject to gaze at a gazing point.

上記課題を解決するために、本発明の一態様は、視覚刺激情報を表示するステップと、被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得するステップと、前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出するステップと、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正するステップとを含む視線検出校正方法である。 In order to solve the above problems, one aspect of the present invention includes a step of displaying visual stimulus information and line-of-sight information representing the movement of the subject's line of sight while displaying the visual stimulus information by photographing the subject's eyeball. And the step of acquiring the line-of-sight information, while shifting the line-of-sight information in the time axis direction, with respect to the horizontal position and the vertical position of the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight information. The step of calculating the difference between the line-of-sight information and the line-of-sight information at each time, and the count number of each value of the difference between the horizontal position and the vertical position of the locus information and the line-of-sight information at each calculated time are the largest. It is a line-of-sight detection and calibration method including a step of calibrating the line-of-sight information based on the horizontal position and the vertical position at the time of

また、本発明の他の態様は、視覚刺激情報を表示する表示部と、被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得する視線情報取得部と、前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出する差分算出部と、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正する校正部とを備える視線検出校正システムである。 In addition, another aspect of the present invention is a display unit that displays visual stimulus information and a line of sight that acquires line-of-sight information that represents the movement of the subject's line of sight while displaying the visual stimulus information by photographing the eyeball of the subject. While shifting the line-of-sight information in the time axis direction with the information acquisition unit, the locus information and the locus information and the vertical position of each of the horizontal and vertical positions of the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight information are described. The difference calculation unit that calculates the difference between the line-of-sight information and the line-of-sight information at each time, and the count number of each value of the difference between the locus information and the line-of-sight information at the horizontal position and the vertical position at each calculated time are the largest. It is a line-of-sight detection and calibration system including a calibration unit that calibrates the line-of-sight information based on the horizontal position and the vertical position when the number of lines increases.

また、本発明の他の態様は、上記の視線検出校正方法を、コンピュータシステムに実行させるためのコンピュータプログラムである。 Another aspect of the present invention is a computer program for causing a computer system to execute the above-mentioned line-of-sight detection and calibration method.

本発明の一実施形態に係る視線検出校正方法を実行する視線検出校正システムの構成の一例を示す図である。It is a figure which shows an example of the structure of the line-of-sight detection calibration system which executes the line-of-sight detection calibration method which concerns on one Embodiment of this invention. 本発明の一実施形態に係る視線検出校正方法の処理フロー図の一例を示す図である。It is a figure which shows an example of the processing flow diagram of the line-of-sight detection calibration method which concerns on one Embodiment of this invention. 視覚刺激情報の動きと被験者の目の動きとを表すグラフの一例を示す図である。It is a figure which shows an example of the graph which shows the movement of the visual stimulus information and the movement of the eyes of a subject. 視覚刺激情報の動きと被験者の目の動きとを表すグラフの一例を示す図である。It is a figure which shows an example of the graph which shows the movement of the visual stimulus information and the movement of the eyes of a subject. 視覚刺激情報の動きと被験者の目の動きとを表すグラフの一例を示す図である。It is a figure which shows an example of the graph which shows the movement of the visual stimulus information and the movement of the eyes of a subject. 本発明の一実施形態に係る視線検出校正方法を実行後の視覚刺激情報の動きと被験者の目の動きとを表すグラフの一例を示す図である。It is a figure which shows an example of the graph which shows the movement of the visual stimulus information and the movement of the eyes of a subject after executing the line-of-sight detection calibration method which concerns on one Embodiment of this invention. 校正点の抽出について説明する図である。It is a figure explaining the extraction of the calibration point. 他の実験データを示す図である。It is a figure which shows the other experimental data. 他の実験データの校正後を示す図である。It is a figure which shows after the calibration of other experimental data. 従来の校正点の一例を示す図である。It is a figure which shows an example of the conventional calibration point.

本実施形態に係る視線検出校正方法は、従来の校正方法とは異なり、マーモセット等の動物や子供であっても特別な訓練が不要な校正方法である。一般的に、動物や人間は、目の前に動くものがあると、自然にそれを目で追ってしまうという性質がある。そこで本実施形態に係る視線検出校正方法は、目で追わせたい視覚刺激情報をあらかじめ定められた軌道にて動かし、これを追う動物や人間の視線について、視覚刺激情報の動きと被験者(視線検出の対象である人間や動物を、以下「被験者」と称する)の視線の動きとを記録する。そして、これらのデータを比較して、視覚刺激情報と被験者の目の動きとが同期している部分を抽出することで視線検出における校正処理を行う。 The line-of-sight detection calibration method according to the present embodiment is different from the conventional calibration method, and is a calibration method that does not require special training even for animals such as marmosets and children. In general, animals and humans have the property that if there is something moving in front of them, they will naturally follow it. Therefore, in the line-of-sight detection and calibration method according to the present embodiment, the visual stimulus information to be followed by the eyes is moved in a predetermined trajectory, and the movement of the visual stimulus information and the subject (line-of-sight detection) are applied to the line of sight of the animal or human being to follow the line of sight. The human or animal that is the target of the above is referred to as the "subject"), and the movement of the line of sight is recorded. Then, by comparing these data and extracting a portion where the visual stimulus information and the movement of the eyes of the subject are synchronized, the calibration process in the line-of-sight detection is performed.

以下、図面を参照しながら、本実施形態に係る視線検出校正方法について説明する。なお、以下の説明において参照する各図では、他の図と同等部分は同一符号によって示される。 Hereinafter, the line-of-sight detection and calibration method according to the present embodiment will be described with reference to the drawings. In each of the figures referred to in the following description, the same parts as those of the other figures are indicated by the same reference numerals.

(視線検出校正システムの構成)
図1は、本実施形態に係る視線検出校正方法を実行する視線検出校正システム1の構成の一例を示す図である。図1に示される視線検出構成システムは、視覚刺激情報を提示するディスプレイ10と、被験者50の眼球54に赤外線を照明する赤外線照明装置12と、赤外線のみを反射するミラー14と、被験者50の眼球54の様子を撮影するカメラ20と、ディスプレイ10に視覚刺激情報を表示するための表示情報を出力する視覚刺激提示用コンピュータ装置16と、被験者50の視線計測用コンピュータ装置18とを含んで構成される。
(Configuration of line-of-sight detection and calibration system)
FIG. 1 is a diagram showing an example of a configuration of a line-of-sight detection and calibration system 1 that executes the line-of-sight detection and calibration method according to the present embodiment. The line-of-sight detection configuration system shown in FIG. 1 includes a display 10 that presents visual stimulus information, an infrared illumination device 12 that illuminates the eyeball 54 of the subject 50 with infrared rays, a mirror 14 that reflects only infrared rays, and an eyeball of the subject 50. It is configured to include a camera 20 for photographing the state of 54, a computer device 16 for presenting visual stimuli for outputting display information for displaying visual stimulus information on the display 10, and a computer device 18 for measuring the line of sight of the subject 50. To.

視覚刺激提示用コンピュータ装置16はディスプレイ10に視覚刺激情報を表示するための表示情報を出力すると、ディスプレイ10にはあらかじめ定められた軌跡にて視覚刺激情報が表示される。また、被験者50は、ディスプレイ10の方向に向いた状態で頭部52が固定される。また、瞳孔を暗く撮影するために赤外線照明装置12による照明が行われる。被験者50がディスプレイ10に表示される視覚刺激情報を目(眼球)54で追うと、赤外線のみを反射するミラー14を介してカメラ20が眼球54の様子を撮影する。カメラ20の撮影情報は、視線計測用コンピュータ装置18に出力される。また、視覚刺激提示用コンピュータ装置16は、視覚刺激情報の提示位置を、例えばネットワーク経由で視線計測用コンピュータ装置18に出力する。また、後述する本実施形態に係る視線検出の校正処理は、例えば視線計測用コンピュータ装置18において実行されうる。 When the computer device 16 for presenting the visual stimulus outputs the display information for displaying the visual stimulus information on the display 10, the visual stimulus information is displayed on the display 10 in a predetermined trajectory. Further, the head 52 of the subject 50 is fixed in a state of facing the display 10. In addition, the infrared illumination device 12 illuminates the pupil in order to photograph the pupil darkly. When the subject 50 follows the visual stimulus information displayed on the display 10 with the eyes (eyeballs) 54, the camera 20 photographs the state of the eyeballs 54 through the mirror 14 that reflects only infrared rays. The shooting information of the camera 20 is output to the line-of-sight measurement computer device 18. Further, the visual stimulus presentation computer device 16 outputs the presentation position of the visual stimulus information to the line-of-sight measurement computer device 18 via, for example, a network. Further, the line-of-sight detection calibration process according to the present embodiment, which will be described later, can be executed, for example, in the line-of-sight measurement computer device 18.

視覚刺激情報は、被験者に目で追わせるためにディスプレイ10に表示されるが、なるべく被験者の興味を引くものを用いるのが好適である。例えばマーモセットは、顔画像を好んで見るという研究結果が存在する(The Journal of Neuroscience, January 22, 2014・34(4):1183-1194・1183 Active Vision in Marmosets: A Model System for Visual Neuroscience)。 The visual stimulus information is displayed on the display 10 so that the subject can follow it with his / her eyes, but it is preferable to use information that attracts the subject's interest as much as possible. For example, there is a research result that marmosets prefer to see facial images (The Journal of Neuroscience, January 22, 2014, 34 (4): 1183-1194, 1183 Active Vision in Marmosets: A Model System for Visual Neuroscience).

ここで、図1のような視線検出校正システム1においては、頭部52(眼球54)とカメラ20との位置関係により、カメラ20で計測する視線位置と、実際に被験者50が見ている位置との間に、水平方向と垂直方向とにおいてズレが生じうる。本実施形態に係る視線検出校正方法は、このようなズレを校正するための方法である。 Here, in the line-of-sight detection and calibration system 1 as shown in FIG. 1, the line-of-sight position measured by the camera 20 and the position actually viewed by the subject 50 are determined by the positional relationship between the head 52 (eyeball 54) and the camera 20. There may be a deviation between the horizontal direction and the vertical direction. The line-of-sight detection calibration method according to the present embodiment is a method for calibrating such a deviation.

(処理フロー)
図2は、本実施形態に係る視線検出校正方法の処理フロー図の一例を示す図である。
(Processing flow)
FIG. 2 is a diagram showing an example of a processing flow diagram of the line-of-sight detection calibration method according to the present embodiment.

視覚刺激情報を表示するための表示情報が視覚刺激提示用コンピュータ装置16からディスプレイ10に出力されると、ディスプレイ10にて視覚刺激情報が表示される(ステップS102)。この時、視覚刺激情報の提示位置が視線計測用コンピュータ装置18に出力される(ステップS104)。視覚刺激情報がディスプレイ10に表示されている間、被験者50の眼球54の様子がカメラ20によって撮影され、撮影情報(視線情報)が視線計測用コンピュータ装置18に出力される(ステップS106)。視覚刺激情報の表示が終了するまで、ステップS102〜S106が繰り返される(ステップS108:No)。なお、視覚刺激情報があらかじめ定められた軌跡にてディスプレイ上を動くようになっている場合には、当該軌跡の情報があらかじめ校正処理(ステップS110)の前に視線計測用コンピュータ装置18に提供(出力)されており、視覚刺激情報の表示中には被験者の眼球の動き(視線)に関する撮影情報(視線情報)のみが視線計測用コンピュータ装置18に出力される等となっていてもよい。 When the display information for displaying the visual stimulus information is output from the computer device 16 for presenting the visual stimulus to the display 10, the visual stimulus information is displayed on the display 10 (step S102). At this time, the presentation position of the visual stimulus information is output to the line-of-sight measurement computer device 18 (step S104). While the visual stimulus information is displayed on the display 10, the state of the eyeball 54 of the subject 50 is photographed by the camera 20, and the photographed information (line-of-sight information) is output to the line-of-sight measurement computer device 18 (step S106). Steps S102 to S106 are repeated until the display of the visual stimulus information is completed (step S108: No). When the visual stimulus information moves on the display in a predetermined locus, the locus information is provided to the line-of-sight measurement computer device 18 before the calibration process (step S110) (step S110). (Output), and while the visual stimulus information is being displayed, only the photographing information (line-of-sight information) related to the movement (line of sight) of the subject's eyeball may be output to the line-of-sight measurement computer device 18.

視覚刺激情報の表示が終了すると(ステップS108:Yes)、視覚刺激情報の軌跡の情報と、被験者の視線情報とを用いて校正を行う(ステップS110)。ステップS110における校正方法について、以下、詳述する。 When the display of the visual stimulus information is completed (step S108: Yes), calibration is performed using the locus information of the visual stimulus information and the line-of-sight information of the subject (step S110). The calibration method in step S110 will be described in detail below.

(視線検出校正方法)
以下、図面を参照しながらステップS110にて実行される校正処理について詳述する。
(Gaze detection calibration method)
Hereinafter, the calibration process executed in step S110 will be described in detail with reference to the drawings.

図3(a)および図3(b)は、視線計測用コンピュータ装置18において取得された視覚刺激情報の動きと、被験者(本例ではマーモセット)の目の動きとを示すグラフである。グラフ中の破線が視覚刺激情報の動きを表し、実線が被験者の目の動き(以下、「視線情報」ともいう)を表す。また、図3(a)のグラフは、縦軸が水平方向の角度であり、横軸が時間軸であり、視覚刺激情報および視線情報のそれぞれの水平方向の経時的変化を表す。また、図3(b)のグラフは、縦軸が垂直方向の角度であり、横軸が時間軸であり、視覚刺激情報および視線情報のそれぞれの垂直方向の経時的変化を表す。また、図3(c)のグラフは、図3(a)および図3(b)のデータを、縦軸が垂直方向の角度、横軸が水平方向の角度で表したものである。 3A and 3B are graphs showing the movement of the visual stimulus information acquired by the line-of-sight measurement computer device 18 and the movement of the eyes of the subject (marmoset in this example). The broken line in the graph represents the movement of the visual stimulus information, and the solid line represents the movement of the subject's eyes (hereinafter, also referred to as “line-of-sight information”). Further, in the graph of FIG. 3A, the vertical axis is the horizontal angle and the horizontal axis is the time axis, and represents the time-dependent changes of the visual stimulus information and the line-of-sight information, respectively. Further, in the graph of FIG. 3B, the vertical axis is the vertical angle and the horizontal axis is the time axis, and represents the time-dependent changes of the visual stimulus information and the line-of-sight information, respectively. Further, in the graph of FIG. 3 (c), the data of FIGS. 3 (a) and 3 (b) are represented by an angle in the vertical direction on the vertical axis and an angle in the horizontal direction on the horizontal axis.

図3の各グラフにおいて、被験者が視覚刺激情報を目で追っている場合は、視覚刺激情報の動き(破線)と被験者の目の動き(実線)とが同じような動きとなるが、被験者が視覚刺激情報を目で追う際の若干の時間差が含まれる。まず、この時間差を抽出する。 In each graph of FIG. 3, when the subject follows the visual stimulus information with his / her eyes, the movement of the visual stimulus information (broken line) and the movement of the subject's eyes (solid line) are similar, but the subject is visual. There is a slight time lag when following the stimulus information visually. First, this time difference is extracted.

図4(a−1)は、視覚刺激情報の動き(破線)と被験者の目の動き(実線)の水平方向の経時的変化を表す(図3(a)に対応)。このようなグラフに対して、各時刻において破線から実線の値を引き算した結果をプロットしてグラフ化したものが図4(a−2)のグラフである。また、このグラフについて各角度(縦軸:degree)のプロットの総数をグラフ化したものが図4(a−3)である。 FIG. 4 (a-1) shows changes over time in the horizontal direction between the movement of visual stimulus information (broken line) and the movement of the subject's eyes (solid line) (corresponding to FIG. 3 (a)). The graph of FIG. 4A-2 is a graph obtained by plotting the result of subtracting the value of the solid line from the broken line at each time on such a graph. Further, FIG. 4 (a-3) is a graph of the total number of plots at each angle (vertical axis: degree) for this graph.

本実施形態の校正処理は、図4(a−1)のグラフの被験者の目の動き(実線)を時間軸方向でシフトさせながら、上記の処理を繰り返していく。本例の場合は、500Hzにてデータを取得しているため、1/500秒ずつ実線グラフを時間軸方向にシフトさせていく。また、図4(b−1)〜(b−3)は、視覚刺激情報の動きと被験者の目の動きの垂直方向の経時的変化について、水平方向と同じように処理を行なった場合のグラフを示す。 In the calibration process of the present embodiment, the above process is repeated while shifting the eye movement (solid line) of the subject in the graph of FIG. 4 (a-1) in the time axis direction. In the case of this example, since the data is acquired at 500 Hz, the solid line graph is shifted in the time axis direction by 1/500 second. Further, FIGS. 4 (b-1) to 4 (b-3) are graphs in the case where the movement of the visual stimulus information and the vertical change of the eye movement of the subject are processed in the same manner as in the horizontal direction. Is shown.

図5は、図4において説明した処理を、実線を時間軸方向にシフトしながら繰り返した場合の一例を示す。図5(a−1)は、図4(a−1)のグラフの実線データを時間軸の右方向にシフトさせたものである。また、図5(a−2)、(a−3)の各グラフは、図4(a−2)、(a−3)と同様の処理によって生成されたグラフである。 FIG. 5 shows an example in which the process described in FIG. 4 is repeated while shifting the solid line in the time axis direction. FIG. 5 (a-1) shows the solid line data of the graph of FIG. 4 (a-1) shifted to the right on the time axis. Further, each graph of FIGS. 5 (a-2) and 5 (a-3) is a graph generated by the same processing as in FIGS. 4 (a-2) and 4 (a-3).

ここで、図4(a−3)のグラフと、図5(a−3)のグラフとを比較すると、プロットの総数(count)の最大値は、図4(a−3)のグラフでは約108であり、図5(a−3)のグラフでは約191である。すなわち、図4(a−3)よりも図5(a−3)のほうがプロットの総数の最大値が大きい。このように、被験者の目の動きのグラフ(実線)を時間軸方向にシフトさせながら、各角度におけるプロットの総数(count)を算出し、プロットの総数の最大値が一番大きくなる時の時間軸方向のシフト量が、被験者が視覚刺激情報を目で追った際の時間差であると推定される。本例においては、各角度におけるプロットの総数の最大値が一番大きくなったのは、実線グラフを約200ミリ秒の分だけシフトさせた時であった。また、図5(b−1)〜(b−3)は、垂直方向について、水平方向と同様の処理を行なった場合のグラフを示す。なお、水平方向と垂直方向とにおいてプロットの総数の最大値が一番大きくなるタイミング(時間差)が異なる場合には、水平方向と垂直方向とを同じ時間分ずらしながら水平方向のプロットの総数と垂直方向のプロットの総数との和が最大になる時間を見つけるようになっていてもよい。 Here, comparing the graph of FIG. 4 (a-3) with the graph of FIG. 5 (a-3), the maximum value of the total number of plots (count) is about about the graph of FIG. 4 (a-3). It is 108, which is about 191 in the graph of FIG. 5 (a-3). That is, the maximum value of the total number of plots is larger in FIG. 5 (a-3) than in FIG. 4 (a-3). In this way, while shifting the graph (solid line) of the subject's eye movement in the time axis direction, the total number of plots (count) at each angle is calculated, and the time when the maximum value of the total number of plots becomes the largest. It is estimated that the amount of shift in the axial direction is the time difference when the subject visually follows the visual stimulus information. In this example, the maximum value of the total number of plots at each angle was the largest when the solid line graph was shifted by about 200 milliseconds. Further, FIGS. 5 (b-1) to 5 (b-3) show graphs in the vertical direction when the same processing as in the horizontal direction is performed. If the timing (time difference) at which the maximum value of the total number of plots is maximized differs between the horizontal direction and the vertical direction, it is perpendicular to the total number of plots in the horizontal direction while shifting the horizontal direction and the vertical direction by the same amount of time. You may want to find the time when the sum of the total number of directional plots is maximized.

また、図5のグラフがプロットの総数の最大値が一番大きくなる場合を示しているとすると、水平方向についてプロットの総数が最大(約191個)となる時の角度(縦軸)は、+3度である(図5(a−3))。また、垂直方向についてプロットの総数が最大(約191個)となる時の角度(縦軸)は、−13度である(図5(b−3))。これらの角度が、水平方向と垂直方向におけるカメラと被験者の眼球とのズレを表す。 Further, assuming that the graph of FIG. 5 shows the case where the maximum value of the total number of plots is the largest, the angle (vertical axis) when the total number of plots is the maximum (about 191 pieces) in the horizontal direction is It is +3 degrees (Fig. 5 (a-3)). The angle (vertical axis) when the total number of plots is maximum (about 191) in the vertical direction is -13 degrees (FIG. 5 (b-3)). These angles represent the deviation between the camera and the subject's eyeball in the horizontal and vertical directions.

以上のような処理によって、視覚刺激情報を被験者が目で追った場合の時間差を補正することが可能であり、カメラ20と被験者の眼球54との位置のズレが推定される。推定された時間と位置のズレに基づいて、図3のグラフを縦軸(角度)と、横軸(時間軸)とにおいて校正したのが、図6のグラフである。図6(a)、(b)、(c)のグラフは、それぞれ、図3(a)、(b)、(c)のグラフに対応している。図3と比較すると、図6の各グラフは時間と位置のズレが校正されているため、視覚刺激情報の動き(破線)と被験者の目の動き(実線)とが、全体的に、より近くなっているのが分かる。 By the above processing, it is possible to correct the time difference when the subject follows the visual stimulus information with the eyes, and the deviation of the position between the camera 20 and the subject's eyeball 54 is estimated. The graph of FIG. 6 is a calibration of the graph of FIG. 3 on the vertical axis (angle) and the horizontal axis (time axis) based on the estimated time and position deviation. The graphs of FIGS. 6A, 6B, and 6C correspond to the graphs of FIGS. 3A, 3B, and 3C, respectively. Compared with FIG. 3, since the time and position deviations are calibrated in each graph of FIG. 6, the movement of the visual stimulus information (broken line) and the movement of the subject's eyes (solid line) are closer to each other as a whole. You can see that it has become.

さらに、図6(c)の破線グラフのプロットと、実線グラフのプロットとで近い点が校正点となりうる。実際には、例えば破線グラフと実線グラフの各プロットどうしの距離が、あらかじめ定められた距離内にあるものを校正点として抽出するようになっていてもよい。図7(a)、(b)は、図6(a)、(b)の各グラフ上のプロットを鮮明化したものであり、図7(c)は、破線のグラフと実線のグラフの各プロットどうしの距離が、4度未満であるプロットを抽出して生成されたグラフである。 Further, a point close to the plot of the broken line graph of FIG. 6 (c) and the plot of the solid line graph can be a calibration point. Actually, for example, the distance between the plots of the broken line graph and the solid line graph may be extracted as a calibration point within a predetermined distance. 7 (a) and 7 (b) are clarified plots on the graphs of FIGS. 6 (a) and 6 (b), and FIG. 7 (c) is a broken line graph and a solid line graph, respectively. It is a graph generated by extracting plots in which the distance between plots is less than 4 degrees.

上述のようにして抽出された校正点の数が少なすぎる場合には、もう一度、校正点を決定するための処理を始めからやり直してもよい。 If the number of calibration points extracted as described above is too small, the process for determining the calibration points may be restarted from the beginning.

以上のようにして本実施形態に係る視線検出校正方法によって抽出される校正点は、従来よりも校正点が多くなるというメリットがある。また、従来の校正方法のように、被験者に校正点を意識的に注視してもらうことが困難である動物、子供、認知症等を患っている者などが被験者である場合であっても校正が可能となり、より正確な視線検出を行うことが可能である。 As described above, the calibration points extracted by the line-of-sight detection calibration method according to the present embodiment have an advantage that the number of calibration points is larger than that in the conventional case. In addition, even if the subject is an animal, a child, a person suffering from dementia, etc., for which it is difficult for the subject to consciously gaze at the calibration point as in the conventional calibration method, the calibration is performed. It is possible to perform more accurate line-of-sight detection.

(他の実験例)
図8および図9は、他の実験例を示す図である。図8は、上述の図3に対応し、視覚刺激情報の軌跡と、被験者の目の動きのグラフを示す図である。また、図9は、上述の図6に対応し、図8に示されるデータに本実施形態の視線検出校正方法を実行して校正を行なった後のグラフを示す図である。全体的に、図8よりも図9のほうが、視覚刺激情報の軌跡(破線グラフ)と被験者の目の動き(実線グラフ)とが、より重なっているのが分かる。
(Other experimental examples)
8 and 9 are diagrams showing other experimental examples. FIG. 8 is a diagram showing a locus of visual stimulus information and a graph of the movement of the eyes of the subject, corresponding to FIG. Further, FIG. 9 is a diagram showing a graph corresponding to the above-mentioned FIG. 6 after the data shown in FIG. 8 is calibrated by executing the line-of-sight detection calibration method of the present embodiment. Overall, it can be seen that the locus of visual stimulus information (broken line graph) and the movement of the subject's eyes (solid line graph) overlap more in FIG. 9 than in FIG.

(ハードウェア構成)
本実施形態に係る視線検出校正方法を実行するコンピュータ装置(例えば視線計測用コンピュータ装置18)は、一般的なコンピュータ装置と同様のハードウェア構成によって実現可能である。当該コンピュータ装置は、例えば、プロセッサ、RAM、ROM、ハードディスク装置、リムーバブルメモリ、通信インタフェース(有線・無線)、ディスプレイ/タッチパネル、スピーカ、およびキーボード/マウス等を備える。
(Hardware configuration)
A computer device (for example, a line-of-sight measurement computer device 18) that executes the line-of-sight detection and calibration method according to the present embodiment can be realized by a hardware configuration similar to that of a general computer device. The computer device includes, for example, a processor, RAM, ROM, hard disk device, removable memory, communication interface (wired / wireless), display / touch panel, speaker, keyboard / mouse, and the like.

そして、上記説明された本実施形態の視線検出校正方法における各処理は、ハードウェアとソフトウェアとが協働することによって実現されうる。例えば、プロセッサが、ハードディスク装置にあらかじめ格納されたプログラムをメモリに読み出して実行することで各処理が実行されうる。なお、当該説明したハードウェア構成はあくまで一例であり、これに限定されるものではない。 Then, each process in the line-of-sight detection calibration method of the present embodiment described above can be realized by the cooperation of hardware and software. For example, each process can be executed by the processor reading a program stored in the hard disk device in advance into the memory and executing the program. The hardware configuration described above is merely an example, and the present invention is not limited to this.

また、上記説明した本実施形態の視線検出校正システムは、視覚刺激情報を表示する表示部(例えばディスプレイ10)と、被験者の眼球を撮影することによって視覚刺激情報の表示中における被験者の視線の動きを表す視線情報を取得する視線情報取得部(例えば視線計測用コンピュータ装置18)と、当該視線情報を時間軸方向にシフトさせながら、当該視覚刺激情報の表示中の軌跡を示す軌跡情報と当該視線情報との水平位置および垂直位置のそれぞれについて、当該軌跡情報と当該視線情報との各時刻における差分を算出する差分算出部(例えば視線計測用コンピュータ装置18)と、当該軌跡情報と当該視線情報の水平位置および垂直位置のそれぞれの算出された各時刻における差分の各値のカウント数が最も多くなる時の水平位置および垂直位置に基づいて、視線情報を校正する校正部(例えば視線計測用コンピュータ装置18)と、を備える視線検出校正システムであるとも言える。 Further, the line-of-sight detection and calibration system of the present embodiment described above has a display unit (for example, display 10) that displays visual stimulus information and the movement of the subject's line of sight while displaying the visual stimulus information by photographing the eyeball of the subject. The line-of-sight information acquisition unit (for example, the line-of-sight measurement computer device 18) that acquires the line-of-sight information representing the above, and the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight while shifting the line-of-sight information in the time axis direction. A difference calculation unit (for example, a line-of-sight measurement computer device 18) that calculates the difference between the locus information and the line-of-sight information at each time for each of the horizontal position and the vertical position with respect to the information, and the locus information and the line-of-sight information. A calibration unit that calibrates line-of-sight information based on the horizontal and vertical positions when the count of each value of the difference at each calculated time of the horizontal position and the vertical position is maximum (for example, a computer device for line-of-sight measurement). It can be said that it is a line-of-sight detection and calibration system including 18).

ここまで、本発明の一実施形態について説明したが、本発明は上述の実施形態に限定されず、その技術的思想の範囲内において種々異なる形態にて実施されてよいことは言うまでもない。 Although one embodiment of the present invention has been described so far, it goes without saying that the present invention is not limited to the above-described embodiment and may be implemented in various different forms within the scope of the technical idea.

本発明の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本発明が目的とするものと均等な効果をもたらすすべての実施形態をも含む。さらに、本発明の範囲は、各請求項により画される発明の特徴の組み合わせに限定されるものではなく、すべての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。 The scope of the present invention is not limited to the exemplary embodiments illustrated and described, but also includes all embodiments that provide an effect equal to that intended by the present invention. Furthermore, the scope of the present invention is not limited to the combination of the features of the invention defined by each claim, but may be defined by any desired combination of the specific features of all the disclosed features. ..

1 視線検出校正システム
10 ディスプレイ
12 赤外線照明装置
14 赤外線のみを反射するミラー
16 視覚刺激提示用コンピュータ装置
18 視線計測用コンピュータ装置
50 被験者
52 頭部
54 眼球
1 Eye-gaze detection and calibration system 10 Display 12 Infrared illumination device 14 Mirror that reflects only infrared rays 16 Computer device for presenting visual stimuli 18 Computer device for eye-gaze measurement 50 Subject 52 Head 54 Eyeball

Claims (5)

視覚刺激情報を表示するステップと、
被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得するステップと、
前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出するステップと、
前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正するステップと、
を含む視線検出校正方法。
Steps to display visual stimulus information and
A step of acquiring gaze information representing the movement of the gaze of the subject while displaying the visual stimulus information by photographing the eyeball of the subject, and
While shifting the line-of-sight information in the time axis direction, each of the locus information and the line-of-sight information is provided for each of the horizontal and vertical positions of the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight information. Steps to calculate the difference in time and
Based on the horizontal position and the vertical position when the count number of each value of the difference between the horizontal position and the vertical position of the locus information and the line-of-sight information at each of the calculated times is the largest. Steps to calibrate line-of-sight information and
Line-of-sight detection calibration method including.
前記視線を校正するステップは、前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置の分だけ、前記視線情報または前記軌跡情報をシフトした状態にて前記視線情報と前記軌跡情報とが同期している箇所を用いて、前記視線情報を校正する、請求項1に記載の視線検出校正方法。 The step of calibrating the line of sight is the horizontal position and the horizontal position when the count number of each value of the difference between the horizontal position and the vertical position of the locus information and the line of sight information at each of the calculated times is the largest. The first aspect of claim 1, wherein the line-of-sight information is calibrated by using a portion where the line-of-sight information and the locus information are synchronized in a state where the line-of-sight information or the locus information is shifted by the amount of the vertical position. Line-of-sight detection and calibration method. 前記視線を校正するステップは、前記同期している箇所は、前記視線情報と前記軌跡情報との距離が、あらかじめ定められた閾値未満の箇所である、請求項2に記載の視線検出校正方法。 The line-of-sight detection and calibration method according to claim 2, wherein the step of calibrating the line of sight is a place where the distance between the line-of-sight information and the locus information is less than a predetermined threshold value at the synchronized portion. 視覚刺激情報を表示する表示部と、
被験者の眼球を撮影することによって前記視覚刺激情報の表示中における前記被験者の視線の動きを表す視線情報を取得する視線情報取得部と、
前記視線情報を時間軸方向にシフトさせながら、前記視覚刺激情報の表示中の軌跡を示す軌跡情報と前記視線情報との水平位置および垂直位置のそれぞれについて、前記軌跡情報と前記視線情報との各時刻における差分を算出する差分算出部と、
前記軌跡情報と前記視線情報の前記水平位置および前記垂直位置のそれぞれの前記算出された各時刻における差分の各値のカウント数が最も多くなる時の前記水平位置および前記垂直位置に基づいて、前記視線情報を校正する校正部と、
を備える視線検出校正システム。
A display unit that displays visual stimulus information and
A line-of-sight information acquisition unit that acquires line-of-sight information representing the movement of the subject's line-of-sight while displaying the visual stimulus information by photographing the subject's eyeball.
While shifting the line-of-sight information in the time axis direction, each of the locus information and the line-of-sight information is provided for each of the horizontal and vertical positions of the locus information indicating the locus of the visual stimulus information being displayed and the line-of-sight information. A difference calculation unit that calculates the difference at time, and
Based on the horizontal position and the vertical position when the count number of each value of the difference between the horizontal position and the vertical position of the locus information and the line-of-sight information at each of the calculated times is the largest. A calibration unit that calibrates line-of-sight information,
A line-of-sight detection and calibration system equipped with.
請求項1から3のいずれ一項に記載の視線検出校正方法を、コンピュータシステムに実行させるためのコンピュータプログラム。 A computer program for causing a computer system to execute the line-of-sight detection calibration method according to any one of claims 1 to 3.
JP2017144487A 2017-07-26 2017-07-26 Line-of-sight detection and calibration methods, systems, and computer programs Active JP6856200B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017144487A JP6856200B2 (en) 2017-07-26 2017-07-26 Line-of-sight detection and calibration methods, systems, and computer programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017144487A JP6856200B2 (en) 2017-07-26 2017-07-26 Line-of-sight detection and calibration methods, systems, and computer programs

Publications (2)

Publication Number Publication Date
JP2019024608A JP2019024608A (en) 2019-02-21
JP6856200B2 true JP6856200B2 (en) 2021-04-07

Family

ID=65474925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017144487A Active JP6856200B2 (en) 2017-07-26 2017-07-26 Line-of-sight detection and calibration methods, systems, and computer programs

Country Status (1)

Country Link
JP (1) JP6856200B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7342978B2 (en) 2020-02-10 2023-09-12 日本電気株式会社 Gaze estimation system, gaze estimation method, and computer program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2615831B2 (en) * 1988-05-11 1997-06-04 竹井機器工業株式会社 Visual information analyzer
JP2000005130A (en) * 1998-06-19 2000-01-11 Nippon Hoso Kyokai <Nhk> Method and device for eyeball movement measuring
JP3654625B2 (en) * 2000-01-31 2005-06-02 株式会社モリタ製作所 Eye movement test device
JP6519099B2 (en) * 2013-03-07 2019-05-29 株式会社ニコン Gaze detection method, gaze detection apparatus, eyeglass lens design method, and eyeglass lens manufacturing method

Also Published As

Publication number Publication date
JP2019024608A (en) 2019-02-21

Similar Documents

Publication Publication Date Title
CN107929007B (en) Attention and visual ability training system and method using eye tracking and intelligent evaluation technology
US20240069631A1 (en) Interactive Motion-Based Eye Tracking Calibration
US10016131B2 (en) Eye tracking system and method to detect the dominant eye
US9004687B2 (en) Eye tracking headset and system for neuropsychological testing including the detection of brain damage
US20110242486A1 (en) Autism diagnosis support apparatus
JP5689850B2 (en) Video analysis apparatus, video analysis method, and gaze point display system
JPWO2010143377A1 (en) Gaze target determination device and gaze target determination method
US11448903B2 (en) Method for correcting centering parameters and/or an axial position and corresponding computer program and methods
KR101978548B1 (en) Server and method for diagnosing dizziness using eye movement measurement, and storage medium storin the same
JP2017522104A (en) Eye state determination system
JP6881755B2 (en) Line-of-sight detection calibration methods, systems, and computer programs
JP2017111746A (en) Sight line detection device and sight line detection method
JP6324119B2 (en) Rotation angle calculation method, gazing point detection method, information input method, rotation angle calculation device, gazing point detection device, information input device, rotation angle calculation program, gazing point detection program, and information input program
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
CN111067474B (en) Apparatus and method for objective visual acuity measurement using dynamic velocity threshold filter
JP6856200B2 (en) Line-of-sight detection and calibration methods, systems, and computer programs
US9760772B2 (en) Eye image stimuli for eyegaze calibration procedures
US20170332947A1 (en) System and methods for diplopia assessment
US20220409120A1 (en) Information Processing Method, Computer Program, Information Processing Device, and Information Processing System
KR101398193B1 (en) Device and Method for Calibration
CN108495584B (en) Apparatus and method for determining eye movement through a haptic interface
US20240036643A1 (en) Method for implementing a zooming function in an eye tracking system
EP3922166B1 (en) Display device, display method and display program
JP3225270B2 (en) Gaze measurement method, gaze measurement device
TWI632486B (en) Method for detecting and recording visual distortion

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171130

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210309

R150 Certificate of patent or registration of utility model

Ref document number: 6856200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250