JP2019063310A - Sight line detection device, sight line detection program, and sight line detection method - Google Patents

Sight line detection device, sight line detection program, and sight line detection method Download PDF

Info

Publication number
JP2019063310A
JP2019063310A JP2017192602A JP2017192602A JP2019063310A JP 2019063310 A JP2019063310 A JP 2019063310A JP 2017192602 A JP2017192602 A JP 2017192602A JP 2017192602 A JP2017192602 A JP 2017192602A JP 2019063310 A JP2019063310 A JP 2019063310A
Authority
JP
Japan
Prior art keywords
line
sight
observer
gaze
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017192602A
Other languages
Japanese (ja)
Other versions
JP6897467B2 (en
Inventor
小田切 淳一
Junichi Odagiri
淳一 小田切
中山 收文
Osafumi Nakayama
收文 中山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017192602A priority Critical patent/JP6897467B2/en
Priority to US16/145,728 priority patent/US10726575B2/en
Publication of JP2019063310A publication Critical patent/JP2019063310A/en
Application granted granted Critical
Publication of JP6897467B2 publication Critical patent/JP6897467B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To accurately detect a sight line of an observer who observes a target.SOLUTION: On the basis of the difference between sight line data of the left eye of an observer who observes a target and sight line data of the right eye of the observer, a computer finds (step 801) an index indicating variation in sight lines of the observer. Then, on the basis of the index indicating the variation, the computer determines (step 802) the retention of the sight line of the observer and on the basis of a result of the retention determination, determines (step 803) the position of the sight line of the observer.SELECTED DRAWING: Figure 8

Description

本発明は、視線検出装置、視線検出プログラム、及び視線検出方法に関する。   The present invention relates to a gaze detection apparatus, a gaze detection program, and a gaze detection method.

視線検出技術は、対象物を観察する観察者が見ている場所を特定する技術であり、様々な場面において利用されている。例えば、パーソナルコンピュータ(PC)の画面、店舗における商品の陳列棚等が、観察される対象物となり得る。   The gaze detection technology is a technology for specifying a place where an observer who observes an object is looking, and is used in various scenes. For example, a screen of a personal computer (PC), a display shelf of a product in a store, or the like can be an object to be observed.

ディスプレイ上のユーザの注視点に対応させてカーソル表示させる視線入力によるポインティングデバイス、及び両眼眼球運動測定センサの出力からサッカード成分を除去する技術も知られている(例えば、特許文献1及び特許文献2を参照)。固視微動に基づき視覚疲労を評価する方法も知られている(例えば、非特許文献1を参照)。   There is also known a pointing device based on a line-of-sight input that causes a cursor to be displayed corresponding to the user's gaze point on a display, and a technique for removing saccade components from the output of a binocular eye movement measurement sensor (for example, Patent Document 1 and Patent Reference 2). There is also known a method of evaluating visual fatigue based on fixation involuntary eye movement (see, for example, Non-Patent Document 1).

国際公開第2009/019760号パンフレットWO 2009/019760 pamphlet 特開平7−308290号公報Japanese Patent Application Laid-Open No. 7-308290

顧力剛,坂本和義,“固視微動(フリック)によるVDT作業の視覚疲労評価に関する研究”,人間工学,Vol.32,No.2,P.87−97,1996年Takeshi Goshi and Sakamoto Kazuyoshi, "Study on visual fatigue evaluation of VDT work with fixation eye movement (flick)", Ergonomics, Vol. 32, No. 2, P.I. 87-97, 1996

特許文献1の技術を用いてユーザの視線に対する停留判定を行う場合、必ずしも正しい判定結果が得られるとは限らない。   In the case where the determination of the user's line of sight is determined using the technique of Patent Document 1, the correct determination result may not necessarily be obtained.

なお、かかる問題は、PC画面を見ているユーザの視線に限らず、他の対象物を観察している観察者の視線を検出する場合においても生ずるものである。   Such a problem occurs not only in the line of sight of the user looking at the PC screen but also in the case of detecting the line of sight of the observer observing another object.

1つの側面において、本発明は、対象物を観察する観察者の視線を精度良く検出することを目的とする。   In one aspect, the present invention aims to accurately detect the line of sight of an observer observing an object.

1つの案では、プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、対象物を観察する観察者の左目の視線データと観察者の右目の視線データとの差分に基づいて、観察者の視線のばらつきを示す指標を求める。
(2)コンピュータは、ばらつきを示す指標に基づいて、観察者の視線に対する停留判定を行う。
(3)コンピュータは、停留判定の判定結果に基づいて、観察者の視線位置を決定する。
In one scheme, the program causes the computer to perform the following processing.
(1) The computer obtains an index indicating the variation in the line of sight of the observer based on the difference between the line of sight data of the left eye of the observer observing the object and the line of sight data of the right eye of the observer.
(2) The computer makes a determination on the standing of the line of sight of the observer based on the index indicating the variation.
(3) The computer determines the line-of-sight position of the observer based on the determination result of the stop determination.

実施形態によれば、対象物を観察する観察者の視線を精度良く検出することができる。   According to the embodiment, it is possible to accurately detect the line of sight of the observer who observes the object.

視線センサを示す図である。It is a figure showing a look sensor. 画面上の視線位置を示す視線データを示す図である。It is a figure which shows the gaze data which shows the gaze position on a screen. 視線位置の検出結果を示す図である。It is a figure which shows the detection result of a gaze position. 視線位置の変化を示す図である。It is a figure which shows the change of a gaze position. 低レートの映像から生成される視線データを示す図である。It is a figure which shows gaze data generated from a low rate picture. 視線位置のサンプル数と最小包含円との関係を示す図である。It is a figure which shows the relationship between the sample number of gaze position, and the minimum inclusion circle. 視線検出装置の機能的構成図である。It is a functional block diagram of a gaze detection device. 視線検出処理のフローチャートである。It is a flowchart of eye gaze detection processing. 視線検出装置の具体例を示す機能的構成図である。It is a functional block diagram which shows the example of a gaze detection apparatus. 視線センサによる視線検出を示す図である。It is a figure which shows gaze detection by a gaze sensor. 輻輳を示す図である。It is a figure which shows congestion. 視線データの水平方向の差分を示す図である。It is a figure which shows the difference of the horizontal direction of gaze data. 視線データの垂直方向の差分を示す図である。It is a figure which shows the difference of the orthogonal | vertical direction of gaze data. 両目の視線位置の変化を示す図である。It is a figure which shows the change of the gaze position of both eyes. 両目の視線位置の変化に対応する視線データを示す図である。It is a figure which shows the gaze data corresponding to the change of the gaze position of both eyes. 視線検出処理の具体例を示すフローチャートである。It is a flowchart which shows the specific example of a gaze detection process. 情報処理装置の構成図である。It is a block diagram of an information processor.

以下、図面を参照しながら、実施形態を詳細に説明する。
図1は、PC画面を観察しているユーザの視線を検出する視線センサの例を示している。表示装置101の画面102上には画像111〜画像113が表示されており、画面102の下部には、視線センサ103が設けられている。視線センサ103は、Light Emitting Diode(LED)121及びカメラ122を含む。このとき、画面102上におけるユーザの視線位置は、画像111〜画像113の間を移動することがある。
Hereinafter, embodiments will be described in detail with reference to the drawings.
FIG. 1 shows an example of a gaze sensor detecting a gaze of a user observing a PC screen. Images 111 to 113 are displayed on the screen 102 of the display device 101, and a line-of-sight sensor 103 is provided below the screen 102. The gaze sensor 103 includes a light emitting diode (LED) 121 and a camera 122. At this time, the gaze position of the user on the screen 102 may move between the image 111 and the image 113.

LED121は、画面102を見ているユーザの顔に対して赤外線を照射し、カメラ122は、ユーザの顔を撮影する。視線センサ103に接続されているPCは、カメラ122が撮影したユーザの目の画像から、視線位置を示す視線データを生成する。目の画像から生成される視線データが示す状態には、サッケードと呼ばれる大きな視線の動きと、視線が1つの場所に留まる停留と、固視微動と呼ばれる視線のばらつきとが含まれている。   The LED 121 emits infrared light to the face of the user looking at the screen 102, and the camera 122 captures the face of the user. The PC connected to the line-of-sight sensor 103 generates line-of-sight data indicating the line-of-sight position from the image of the eye of the user captured by the camera 122. The state indicated by the line-of-sight data generated from the image of the eye includes a large line-of-sight movement called saccade, a stop at which the line-of-sight stays in one place, and a line-of-sight variation called fixation eye movement.

図2は、画面102上の視線位置を示す視線データの例を示している。画面102の水平方向の座標をx座標とし、垂直方向の座標をy座標とすると、視線データは、時系列に変化するユーザの視線位置の座標(x,y)によって表すことができる。図2のグラフの横軸は、カメラ122によって撮影される映像のフレーム数を表し、縦軸は、視線位置のx座標を表す。   FIG. 2 shows an example of gaze data indicating a gaze position on the screen 102. Assuming that the coordinates in the horizontal direction of the screen 102 are x-coordinates and the coordinates in the vertical direction are y-coordinates, the gaze data can be represented by coordinates (x, y) of the gaze position of the user changing in time series. The horizontal axis of the graph of FIG. 2 represents the number of frames of the image captured by the camera 122, and the vertical axis represents the x-coordinate of the gaze position.

画面102上でユーザが注視する注視位置201〜注視位置203それぞれの周囲では視線が停留し、2つの注視位置の間では視線が急激に移動するサッケードが発生する。そして、視線が停留している間は、視線位置がばらつく固視微動が観測される。ユーザは、視線が停留している間に対象物を認識する。   The line of sight stops around each of the gaze position 201 to the gaze position 203 at which the user gazes on the screen 102, and a saccade in which the line of sight rapidly moves occurs between the two gaze positions. Then, while the line of sight is stationary, a fixation slight movement in which the position of the line of sight varies is observed. The user recognizes the object while the gaze is stationary.

例えば、注視位置201と注視位置202の間のサッケードは、x座標の急激な増加を示す視線データ211として現れ、注視位置203における固視微動は、x座標の小刻みな増減を示す視線データ212として現れる。   For example, the saccade between the gaze position 201 and the gaze position 202 appears as line-of-sight data 211 indicating a rapid increase of the x-coordinate, and the involuntary eye movement at the gaze position 203 as line-of-sight data 212 indicating a small increase and decrease in x-coordinate. appear.

図3は、注視位置の周囲における視線位置の検出結果の例を示している。ユーザが注視位置301を注視している場合、視線位置の検出結果302は、注視位置301を中心として周囲にばらつく傾向が見られる。このようなばらつきが発生する原因としては、細かな眼球の揺れ、固視微動、画像処理による検出誤差等が考えられる。   FIG. 3 shows an example of the detection result of the gaze position around the gaze position. When the user is gazing at the gaze position 301, the detection result 302 of the gaze position tends to vary around the gaze position 301. Possible causes of such variations include fine eyeball shaking, involuntary eye movement, detection error due to image processing, and the like.

このうち、固視微動による視線角度のばらつきの振幅は、最大で約0.8度、平均で約0.3度であると考えられる。例えば、非特許文献1では、固視微動に含まれるフリックの振幅の検出範囲が3.0´〜50.0´であり、平均振幅が17.7´であることが報告されている。一方、ユーザとカメラ122との距離又は画像の解像度によっては、視線角度が数度以上ばらつくこともある。   Among these, it is considered that the amplitude of the variation of the line-of-sight angle due to the involuntary eye movement is about 0.8 degrees at maximum, and about 0.3 degrees on average. For example, in Non-Patent Document 1, it is reported that the detection range of the amplitude of the flick included in the fixation micromotion is 3.0 ′ to 50.0 ′ and the average amplitude is 17.7 ′. On the other hand, depending on the distance between the user and the camera 122 or the resolution of the image, the viewing angle may vary by several degrees or more.

特許文献1の眼球運動検出装置は、直近の所定数の視線位置を包含する最小面積の包含円(最小包含円)を計算し、次に検出された視線位置が最小包含円に包含される場合に、ユーザの眼球が停止していると判断する。これにより、最小包含円内で視線位置が微動する場合、又は視線角度の検出誤差が存在する場合であっても、ユーザが意図して一点を注視していることを判別することができる。   The eye movement detecting device of Patent Document 1 calculates the inclusive circle (minimum included circle) of the smallest area including the predetermined number of latest gaze positions, and the next detected gaze position is included in the smallest included circle. It is determined that the user's eyeball has stopped. As a result, even when the gaze position moves slightly within the minimum included circle, or even when there is a detection error of the gaze angle, it can be determined that the user is gazing at a point intentionally.

しかしながら、上述したように、視線データには、固視微動だけではなく、大きな視線の動きも混在しており、大きな視線の動きによっても視線位置が変化するため、常に直近の最小包含円を設定できるとは限らない。   However, as described above, not only the eye movement but also the movement of a large line of sight is mixed in the line-of-sight data, and the line-of-sight position changes even by a large line of sight movement. It is not always possible.

図4は、PC画面上における視線位置の変化の例を示している。横軸及び縦軸は、画面のx座標及びy座標をそれぞれ表す。PCを用いた実際の作業では、視線データに大きな視線の動きが多く含まれており、視線の停留中のばらつきが不明瞭なため、適切な最小包含円を設定することが困難である。不適切な最小包含円に基づいて視線の停留判定を行うと、判定結果の精度が低下する。   FIG. 4 shows an example of the change of the sight line position on the PC screen. The horizontal and vertical axes represent the x and y coordinates of the screen, respectively. In an actual operation using a PC, the line-of-sight data contains a large amount of large line-of-sight movement, and it is difficult to set an appropriate minimum inclusion circle because the variation during the line-of-sight suspension is unclear. If the gaze determination is performed based on an inappropriate minimum inclusion circle, the accuracy of the determination result is reduced.

また、商品棚に設置される組み込み機器のような環境では、カメラ122の映像のフレームレートが比較的低レートであるため、視線位置のサンプル数が少なく、統計的にばらつき量を決定することが困難である。   Further, in an environment such as an embedded device installed on a product shelf, since the frame rate of the image of the camera 122 is relatively low, the number of samples of the gaze position is small, and the amount of variation can be determined statistically. Have difficulty.

図5は、低レートの映像から生成される視線データの例を示している。横軸は、時間を表し、縦軸は、視線位置のx座標を表す。映像のフレームレートは100ms/フレームであり、視線データ501〜視線データ503は、停留している視線の視線位置を表している。   FIG. 5 shows an example of gaze data generated from a low rate image. The horizontal axis represents time, and the vertical axis represents the x coordinate of the gaze position. The frame rate of the image is 100 ms / frame, and the line-of-sight data 501 to the line-of-sight data 503 represent the line-of-sight position of the stationary line-of-sight.

人間の平均的な注視時間は数百ms程度であるため、100ms/フレームの場合、1箇所の停留場所に対して数個程度の視線位置が生成されるに過ぎない。この場合、10個程度の視線位置を用いてばらつき量を決定すると、大きな視線の動きが混入してしまい、ばらつき量の精度が低下する。図5の例では、視線データ501〜視線データ503の全部を用いてばらつき量を決定すると、大きな視線の動きが混入する。   Since human's average gaze time is about several hundreds of ms, in the case of 100 ms / frame, only a few or so eye gaze positions are generated for one stop location. In this case, if the amount of variation is determined using about 10 line-of-sight positions, a large movement of the line of sight is mixed in, and the accuracy of the amount of variation decreases. In the example of FIG. 5, when the variation amount is determined using all of the line-of-sight data 501 to the line-of-sight data 503, a large line-of-sight movement is mixed.

そこで、視線位置のばらつきの範囲511を事前に決定しておき、視線データが範囲511内に含まれる場合に、視線が停留していると判定する方法が考えられる。しかし、実際のばらつきは、ユーザとカメラとの距離又はユーザの眼球の個人差等の条件に応じて変動するため、事前に決定した範囲511に基づいて停留判定を行うと、必ずしも正しい判定結果が得られるとは限らない。   Therefore, it is conceivable to determine in advance the range 511 of the variation of the sight line position and determine that the sight line is stationary when the sight line data is included in the range 511. However, since the actual variation fluctuates according to conditions such as the distance between the user and the camera or the individual difference of the user's eyeball, if the stop determination is performed based on the range 511 determined in advance, the correct determination result is necessarily It can not always be obtained.

図6は、視線位置のサンプル数と最小包含円との関係の例を示している。図6(a)の検出結果では、サンプル数が多いため、注視位置601に対する最小包含円611と、注視位置602に対する最小包含円612とを明瞭に区別することができる。したがって、最小包含円611及び最小包含円612に基づいて、視線に対する停留判定を精度良く行うことが可能である。   FIG. 6 shows an example of the relationship between the sample number of the gaze position and the minimum included circle. In the detection result of FIG. 6A, since the number of samples is large, the minimum inclusive circle 611 for the gaze position 601 and the minimum inclusive circle 612 for the gaze position 602 can be clearly distinguished. Therefore, it is possible to accurately determine the stop with respect to the line of sight based on the minimum included circle 611 and the minimum included circle 612.

一方、図6(b)検出結果では、サンプル数が少ないため、注視位置603に対する最小包含円613の中に、別の注視位置を見ているときの視線位置614が混在している。このため、最小包含円613を用いて停留判定を行うことが難しく、停留判定の精度が低下する。   On the other hand, in the detection result of FIG. 6B, since the number of samples is small, the line-of-sight position 614 when looking at another gaze position is mixed in the minimum inclusive circle 613 for the gaze position 603. For this reason, it is difficult to make a determination on the stay using the minimum included circle 613, and the accuracy of the determination on the stay decreases.

図7は、実施形態の視線検出装置の機能的構成例を示している。図7の視線検出装置701は、記憶部711、計算部712、及び判定部713を含む。記憶部711は、対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとを記憶する。計算部712及び判定部713は、記憶部711が記憶する視線データを用いて視線検出処理を行う。   FIG. 7 shows an example of the functional configuration of the gaze detection apparatus according to the embodiment. The gaze detection apparatus 701 in FIG. 7 includes a storage unit 711, a calculation unit 712, and a determination unit 713. The storage unit 711 stores line-of-sight data of the left eye of the observer who observes the object and line-of-sight data of the right eye of the observer. The calculation unit 712 and the determination unit 713 perform the gaze detection process using the gaze data stored in the storage unit 711.

図8は、図7の視線検出装置701が行う視線検出処理の例を示すフローチャートである。まず、計算部712は、左目の視線データと右目の視線データとの差分に基づいて、観察者の視線のばらつきを示す指標を求める(ステップ801)。次に、判定部713は、計算部712が計算した指標に基づいて、観察者の視線に対する停留判定を行い(ステップ802)、停留判定の判定結果に基づいて、観察者の視線位置を決定する(ステップ803)。   FIG. 8 is a flowchart showing an example of gaze detection processing performed by the gaze detection apparatus 701 of FIG. 7. First, the calculation unit 712 obtains an index indicating a variation in the line of sight of the observer based on the difference between the line of sight data of the left eye and the line of sight data of the right eye (step 801). Next, the determination unit 713 performs a determination on the viewer's gaze based on the index calculated by the calculation unit 712 (step 802), and determines the viewer's gaze position on the basis of the determination result of the stay determination. (Step 803).

図7の視線検出装置701によれば、対象物を観察する観察者の視線を精度良く検出することができる。   According to the line-of-sight detection device 701 of FIG. 7, the line of sight of the observer observing the object can be detected with high accuracy.

図9は、図7の視線検出装置701の具体例を示している。図9の視線検出装置701は、記憶部711、計算部712、判定部713、検出部911、及び出力部912を含む。カメラ901は、例えば、図1のカメラ122に対応し、観察者の顔を撮影して、映像を視線検出装置701へ出力する。検出部911は、カメラ122が出力する映像に含まれる複数の時刻の画像それぞれから、観察者の左目及び右目の視線データ921を検出して、記憶部711に格納する。各時刻の画像は、フレームと呼ばれることもある。   FIG. 9 shows a specific example of the visual axis detection device 701 of FIG. The gaze detection apparatus 701 in FIG. 9 includes a storage unit 711, a calculation unit 712, a determination unit 713, a detection unit 911, and an output unit 912. The camera 901 corresponds to, for example, the camera 122 in FIG. 1, captures an image of the observer's face, and outputs an image to the gaze detection apparatus 701. The detection unit 911 detects the line-of-sight data 921 of the left eye and the right eye of the observer from each of the images of a plurality of times included in the video output by the camera 122 and stores the data in the storage unit 711. The image at each time is sometimes called a frame.

例えば、視線データ921は、観察者の顔と対向する平面内における左目及び右目の視線位置を示す。図1の表示装置101の場合、画面102が観察者の顔と対向する平面に対応する。また、カメラ901が商品棚に設置されている場合、商品棚の前面をカバーする仮想的な平面が、観察者の顔と対向する平面に対応する。   For example, the line-of-sight data 921 indicates the line-of-sight position of the left eye and the right eye in the plane facing the face of the observer. In the case of the display device 101 of FIG. 1, the screen 102 corresponds to a plane facing the face of the observer. Further, when the camera 901 is installed on the product shelf, a virtual plane covering the front of the product shelf corresponds to a plane facing the face of the observer.

図10は、図1の視線センサ103による視線検出の例を示している。LED121は、画面102を見ている観察者の顔1001に対して赤外線1002を照射し、カメラ122は、顔1001を撮影する。この場合、検出部911は、角膜反射法によって、画像に写った瞳孔の座標と角膜反射の座標との位置関係に基づき、観察者の視線位置を計算する。   FIG. 10 shows an example of gaze detection by the gaze sensor 103 of FIG. The LED 121 emits an infrared ray 1002 to the face 1001 of the observer who is viewing the screen 102, and the camera 122 captures the face 1001. In this case, the detection unit 911 calculates the eye gaze position of the observer based on the positional relationship between the coordinates of the pupil shown in the image and the coordinates of the corneal reflection by the corneal reflection method.

観察者が視線センサ103を見ている場合、瞳孔の座標(PupX,PupY)と角膜反射の座標(PrkX,PrkY)との差分は0になり、視線センサ103から離れた位置を見ている場合、それらの座標の差分が発生する。そこで、角膜反射法では、座標(PupX,PupY)と座標(PrkX,PrkY)との差分から、視線の方向が検出される。i番目のフレームから角膜反射法によって検出される片目の視線位置は、画面102上の座標(Xi,Yi)によって表され、次式により求めることができる。   When the observer is looking at the gaze sensor 103, the difference between the coordinates of the pupil (PupX, PupY) and the coordinates of the corneal reflection (PrkX, PrkY) is 0, and when looking away from the gaze sensor 103 , The difference of their coordinates occurs. Therefore, in the corneal reflection method, the direction of the sight line is detected from the difference between the coordinates (PupX, PupY) and the coordinates (PrkX, PrkY). The line-of-sight position of one eye detected by the corneal reflection method from the i-th frame is represented by coordinates (Xi, Yi) on the screen 102, and can be obtained by the following equation.


Xi=A*(PupX−PrkX)+W/2 (1)
Yi=H+B*(PupY−PrkY) (2)

Xi = A * (PupX-PrkX) + W / 2 (1)
Yi = H + B * (PupY-PrkY) (2)

式(1)のWは、画面102の水平方向の画素数を表し、式(2)のHは、画面102の垂直方向の画素数を表す。係数A及び係数Bは、キャリブレーションによって事前に求められる。なお、視線位置(Xi,Yi)は、視線ベクトルから計算することもできる。   In the equation (1), W represents the number of pixels in the horizontal direction of the screen 102, and H in the equation (2) represents the number of pixels in the vertical direction of the screen 102. The coefficient A and the coefficient B are obtained in advance by calibration. The gaze position (Xi, Yi) can also be calculated from the gaze vector.

計算部712は、左目の視線データ921と右目の視線データ921との差分に基づいて、視線のばらつきを示す指標923を計算し、記憶部711に格納する。判定部713は、指標923に基づいて停留判定の閾値924を計算し、記憶部711に格納する。また、判定部713は、所定期間内の複数の時刻それぞれにおいて検出された左目及び右目の視線データ921から、それぞれの時刻における視線データのばらつき922を計算し、記憶部711に格納する。   The calculation unit 712 calculates an index 923 indicating the variation of the line of sight based on the difference between the line-of-sight data 921 for the left eye and the line-of-sight data 921 for the right eye, and stores the index 923 in the storage unit 711. The determination unit 713 calculates the threshold 924 for determination of stay based on the index 923, and stores the threshold 924 in the storage unit 711. Further, the determination unit 713 calculates the variation 922 of the line-of-sight data at each time from the line-of-sight data 921 of the left eye and the right eye detected at each of a plurality of times within the predetermined period, and stores the variation 922 in the storage unit 711.

次に、判定部713は、ばらつき922に対する停留判定を行い、所定期間内の各時刻におけるばらつき922が閾値924よりも小さい場合、観察者の視線が停留していると判定する。そして、判定部713は、停留判定の判定結果に基づいて、観察者の視線位置925を決定し、出力部912は、視線位置925を出力する。   Next, the determination unit 713 performs the determination of suspension with respect to the variation 922, and when the variation 922 at each time within a predetermined period is smaller than the threshold 924, determines that the line of sight of the observer is stationary. Then, the determination unit 713 determines the gaze position 925 of the observer based on the determination result of the stop determination, and the output unit 912 outputs the gaze position 925.

左目の視線データ921と右目の視線データ921との差分を計算することで、それぞれの目の視線データ921に含まれるサッケードがキャンセルされ、固視微動を表すばらつきを抽出することが可能になる。観察者が画面102等の対象物を見ているとき、両目ともに同じ位置を注視しているため、両目の注視位置は、ばらつきの差を除いて同じになると考えられる。このとき、両目の視線データ921の左右方向(水平方向)の差分は、輻輳による影響を受けるが、垂直方向の差分は輻輳による影響を受けない。   By calculating the difference between the line-of-sight data 921 for the left eye and the line-of-sight data 921 for the right eye, the saccades included in the line-of-sight data 921 for each eye are canceled, and it becomes possible to extract variations representing fixation eye movement. When the observer is looking at an object such as the screen 102, since both eyes gaze at the same position, the gaze positions of both eyes are considered to be the same except for the difference in variation. At this time, the difference in the left-right direction (horizontal direction) of the eye-gaze data 921 of both eyes is affected by congestion, but the difference in the vertical direction is not affected by congestion.

図11は、輻輳の例を示している。輻輳とは、観察者が対象物を注視するときに、両目が同時に内側を向く眼球の動きを表す。対象物が前後に動くと、対象物に対するピント調節に伴って輻輳が発生する。輻輳によって眼球は左右方向に動くが、上下方向には動かないため、視線データ921の垂直方向の差分は輻輳による影響を受けない。   FIG. 11 shows an example of congestion. Convergence refers to the movement of the eye when the two eyes simultaneously turn inward as the observer gazes at the object. As the object moves back and forth, convergence occurs as the subject is adjusted in focus. The convergence causes the eyeball to move in the lateral direction but does not move in the vertical direction, so the vertical difference of the gaze data 921 is not affected by the convergence.

図12は、両目の視線データ921の水平方向の差分の例を示している。横軸は、フレーム数を表し、縦軸は、視線位置のx座標を表す。グラフ1201は、左目の視線位置のx座標の変化を示し、グラフ1202は、右目の視線位置のx座標の変化を示し、グラフ1203は、グラフ1201とグラフ1202との差分を示す。グラフ1203から、視線位置の水平方向の差分は、輻輳によって大きく変化することが分かる。   FIG. 12 shows an example of the difference in the horizontal direction of the eye-gaze data 921 of both eyes. The horizontal axis represents the number of frames, and the vertical axis represents the x-coordinate of the gaze position. The graph 1201 shows the change of the x coordinate of the gaze position of the left eye, the graph 1202 shows the change of the x coordinate of the gaze position of the right eye, and the graph 1203 shows the difference between the graph 1201 and the graph 1202. It can be seen from the graph 1203 that the horizontal difference in the gaze position changes significantly due to congestion.

図13は、両目の視線データ921の垂直方向の差分の例を示している。横軸は、フレーム数を表し、縦軸は、視線位置のy座標を表す。グラフ1301は、左目の視線位置のy座標の変化を示し、グラフ1302は、右目の視線位置のy座標の変化を示し、グラフ1303は、グラフ1301とグラフ1302との差分を示す。グラフ1303から、視線位置の垂直方向の差分の変化は、水平方向の差分の変化よりも小さく、輻輳による影響を受けていないことが分かる。   FIG. 13 shows an example of the difference in the vertical direction of the eye-gaze data 921 for both eyes. The horizontal axis represents the number of frames, and the vertical axis represents the y-coordinate of the gaze position. The graph 1301 shows the change of y-coordinate of the line-of-sight position of the left eye, the graph 1302 shows the change of y-coordinate of the line-of-sight position of the right eye, and the graph 1303 shows the difference between the graph 1301 and the graph 1302. It can be seen from the graph 1303 that the change in the vertical difference of the gaze position is smaller than the change in the horizontal difference and is not affected by congestion.

そこで、計算部712は、左目の視線データ921が示す垂直方向の視線位置と、右目の視線データ921が示す垂直方向の視線位置との差分を計算し、その差分に基づいて指標923を計算する。例えば、左目の視線位置の垂直方向の変化ΔLyと、右目の視線位置の垂直方向の変化ΔRyは、次式により表される。   Therefore, the calculation unit 712 calculates the difference between the vertical line-of-sight position indicated by the left-eye line-of-sight data 921 and the vertical line-of-sight position indicated by the right-eye line-of-sight data 921 and calculates the index 923 based on the difference. . For example, the change ΔLy in the vertical direction of the line-of-sight position of the left eye and the change ΔRy in the vertical direction of the line-of-sight position of the right eye are expressed by the following equations.


ΔLy=ΔSLy+ΔVLy (3)
ΔRy=ΔSRy+ΔVRy (4)

ΔLy = ΔSLy + ΔVLy (3)
ΔRy = ΔSRy + ΔVRy (4)

式(3)のΔSLyは、左目のサッケードによる垂直方向の大きな動きを表し、ΔVLyは、左目の視線位置の垂直方向のばらつきを表す。式(4)のΔSRyは、右目のサッケードによる垂直方向の大きな動きを表し、ΔVRyは、右目の視線位置の垂直方向のばらつきを表す。左目及び右目は同じ高さの位置を見ているため、ΔSLyとΔSRyはほぼ同じ値とみなすことができる。したがって、ΔLyとΔRyの差分は、次式のようになる。   In equation (3), ΔSLy represents a large vertical movement due to the left eye saccade, and ΔVLy represents the vertical dispersion of the left eye gaze position. In the equation (4), ΔSRy represents a large vertical movement due to the saccade in the right eye, and ΔVRy represents a vertical dispersion of the position of the right eye gaze. Since the left eye and the right eye look at the same height, ΔSLy and ΔSRy can be regarded as almost the same value. Therefore, the difference between ΔLy and ΔRy is given by the following equation.


ΔLy−ΔRy=(ΔSLy+ΔVLy)−(ΔSRy+ΔVRy)
=ΔVLy−ΔVRy (5)

ΔLy−ΔRy = (ΔSLy + ΔVLy) − (ΔSRy + ΔVRy)
= ΔVLy-ΔVRy (5)

式(5)より、左目の視線位置のy座標Lyと右目の視線位置のy座標Ryとの差分Ly−Ryの分散は、Lyのばらつきに伴う分散とRyのばらつきに伴う分散との和で表されることが分かる。また、Lyのばらつきに伴う分散とRyのばらつきに伴う分散は、ほぼ同じ値とみなすことができる。したがって、Ly−Ryの分散の半分を、Lyのばらつきに伴う分散又はRyのばらつきに伴う分散として用いることが可能である。さらに、視線位置の水平方向のばらつきの分散も、視線位置の垂直方向のばらつきの分散とほぼ同じ値とみなすことができる。   From equation (5), the variance of the difference Ly-Ry between the y-coordinate Ly of the line-of-sight position of the left eye and the y-coordinate Ry of the line-of-sight position of the right eye is the sum of the variance with Ly and the variance with Ry. It can be seen that it is represented. Further, the dispersion due to the variation of Ly and the dispersion due to the variation of Ry can be regarded as substantially the same value. Therefore, it is possible to use half of the Ly-Ry dispersion as the dispersion associated with the Ly dispersion or the Ry dispersion. Furthermore, the variance of the horizontal variation of the gaze position can also be regarded as substantially the same value as the variance of the vertical variation of the gaze position.

図14は、両目の視線位置の変化の例を示している。画面102を見ている観察者の左目の視線位置1401及び右目の視線位置1402は、注視する画像の位置に応じて画面102上で移動する。   FIG. 14 shows an example of the change in the gaze position of both eyes. The line-of-sight position 1401 and the line-of-sight position 1402 of the left eye of the observer who is viewing the screen 102 move on the screen 102 according to the position of the image to be gazed.

図15は、図14の視線位置の変化に対応する視線データ921の例を示している。横軸は、フレーム数を表し、縦軸は、視線位置のy座標を表す。グラフ1501は、左目の視線位置のy座標の変化を示し、グラフ1502は、右目の視線位置のy座標の変化を示し、グラフ1503は、グラフ1501とグラフ1502との差分を示す。   FIG. 15 shows an example of line-of-sight data 921 corresponding to the change of the line-of-sight position in FIG. The horizontal axis represents the number of frames, and the vertical axis represents the y-coordinate of the gaze position. The graph 1501 shows the change of y-coordinate of the line-of-sight position of the left eye, the graph 1502 shows the change of y-coordinate of the line-of-sight position of the right eye, and the graph 1503 shows the difference between the graph 1501 and the graph 1502.

一定期間における視線位置1401及び視線位置1402のログを採取し、それらの視線位置のy座標の差分を計算することで、視線が頻繁に移動する場合であっても、常に視線位置のばらつき量を把握することが可能になる。これにより、視線位置のばらつき量に基づいて停留判定の適切な閾値を決定することができ、停留判定の精度が向上する。視線のばらつきを示す指標923としては、例えば、一定期間において検出された視線位置のy座標の差分の分散又は標準偏差を用いることができる。   By collecting the log of the gaze position 1401 and the gaze position 1402 in a fixed period and calculating the difference of the y coordinate of those gaze positions, even when the gaze moves frequently, the variation amount of the gaze position is always It becomes possible to grasp. As a result, an appropriate threshold value for stopping determination can be determined based on the variation amount of the gaze position, and the accuracy of the stopping determination can be improved. For example, the variance or standard deviation of the y-coordinate difference of the gaze position detected in a fixed period can be used as the index 923 indicating the dispersion of the gaze.

なお、左目の視線データ921と右目の視線データ921との差分は、必ずしも視線位置の垂直方向の差分である必要はなく、水平方向と交差する所定方向における視線位置の差分であっても構わない。例えば、左目の眼球と右目の眼球とを結ぶ左右方向の直線が、画面102上のx軸と平行ではない場合、画面102上のy軸は、左右方向の直線と垂直ではなく、所定の角度で交差している。この場合、両目の視線位置のy座標の差分は、左右方向と交差する所定方向における視線位置の差分を表す。   The difference between the line-of-sight data 921 for the left eye and the line-of-sight data 921 for the right eye need not necessarily be the difference in the vertical direction of the eye position, but may be the difference in eye position in a predetermined direction intersecting the horizontal direction. . For example, if the left-right straight line connecting the left eye and right eye is not parallel to the x-axis on the screen 102, the y-axis on the screen 102 is not perpendicular to the left-right straight but a predetermined angle At the intersection. In this case, the difference between the y-coordinates of the line-of-sight positions of both eyes represents the difference between the line-of-sight positions in a predetermined direction intersecting the horizontal direction.

図16は、図9の視線検出装置701が行う視線検出処理の具体例を示すフローチャートである。まず、検出部911は、カメラ122が出力する画像から、観察者の左目及び右目の視線データ921を検出する(ステップ1601)。   FIG. 16 is a flowchart showing a specific example of the gaze detection process performed by the gaze detection apparatus 701 shown in FIG. First, the detection unit 911 detects the visual line data 921 of the left eye and the right eye of the observer from the image output by the camera 122 (step 1601).

例えば、i番目のフレームの画像からは、左目の視線位置のx座標LXi、左目の視線位置のy座標LYi、右目の視線位置のx座標RXi、及び右目の視線位置のy座標RYiが検出される。LXi、LYi、RXi、及びRYiは、図1の画面102上における視線位置の座標であってもよく、商品等の対象物が存在する位置に設定された仮想的な平面上における視線位置の座標であってもよい。   For example, from the image of the i-th frame, the x coordinate LXi of the eye position of the left eye, the y coordinate LYi of the eye position of the left eye, the x coordinate RXi of the eye position of the right eye, and the y coordinate RYi of the eye position of the right eye Ru. LXi, LYi, RXi, and RYi may be coordinates of the gaze position on the screen 102 of FIG. 1, and coordinates of the gaze position on a virtual plane set at a position where an object such as a commodity is present It may be

次に、検出部911は、監視対象の観察者が別の観察者に切り替わったか否かをチェックする(ステップ1602)。例えば、検出部911は、映像から観察者が消えた後に新たな観察者が現れた場合に、観察者が切り替わったと判定することができる。   Next, the detection unit 911 checks whether the observer to be monitored has switched to another observer (step 1602). For example, when a new observer appears after the observer disappears from the image, the detection unit 911 can determine that the observer has switched.

観察者が切り替わった場合(ステップ1602,YES)、検出部911は、記憶部711に蓄積された視線データ921を消去することで、検出処理をリセットする(ステップ1603)。そして、検出部911は、直近のN個(Nは2以上の整数)のフレームの視線データ921が記憶部711に蓄積されたか否かをチェックする(ステップ1604)。   When the observer is switched (YES in step 1602), the detection unit 911 resets the detection processing by deleting the line-of-sight data 921 accumulated in the storage unit 711 (step 1603). Then, the detection unit 911 checks whether the line-of-sight data 921 of the latest N (N is an integer of 2 or more) frames is accumulated in the storage unit 711 (step 1604).

直近のN個のフレームの視線データ921が蓄積されていない場合(ステップ1604,NO)、判定部713は、停留判定の閾値THとしてデフォルト閾値を利用する(ステップ1606)。   If the line-of-sight data 921 of the N most recent frames is not accumulated (step 1604, NO), the determination unit 713 uses the default threshold as the threshold TH for determination of stopping (step 1606).

次に、判定部713は、所定期間内の複数の時刻それぞれにおいて検出された左目及び右目の視線データ921から、それぞれの時刻における視線データのばらつき922を計算し、ばらつき922に対する停留判定を行う(ステップ1607)。   Next, the determination unit 713 calculates the variation 922 of the gaze data at each time from the gaze data 921 of the left eye and the right eye detected at each of a plurality of times in a predetermined period, and performs the standstill determination for the variation 922 ( Step 1607).

例えば、i番目のフレームから検出された視線データ921のばらつき922として視線位置の座標の分散を用い、所定期間として直近のM個(Mは2以上の整数)のフレームを用いた場合、判定部713は、ばらつき922を表すViを次式により計算することができる。   For example, using the variance of coordinates of the gaze position as the variation 922 of the gaze data 921 detected from the i-th frame, and using the nearest M (M is an integer of 2 or more) frames as the predetermined period, the determination unit In 713, Vi representing the variation 922 can be calculated by the following equation.


Vi=((LXi+RXi)/2−Avex)
+((LYi+RYi)/2−Avey) (6)

Vi = ((LXi + RXi) / 2-Avex) 2
+ ((LYi + RYi) / 2-Avey) 2 (6)

ただし、M<N、i≧Mであるものとする。例えば、フレームレートが100ms/フレームである場合、Nとして5〜20程度の値を用いてもよく、Mとして2以上N未満の値を用いてもよい。   However, it is assumed that M <N and i ≧ M. For example, when the frame rate is 100 ms / frame, a value of about 5 to 20 may be used as N, and a value of 2 or more and less than N may be used as M.

式(6)の(LXi+RXi)/2は、LXi及びRXiの平均値を表し、(LYi+RYi)/2は、LYi及びRYiの平均値を表す。式(7)のAvexは、LXj及びRXjの平均値を、j=i−M+1〜iの範囲のM個のフレームに渡って平均した値を表す。また、式(8)のAveyは、LYj及びRYjの平均値を同じM個のフレームに渡って平均した値を表す。   In equation (6), (LXi + RXi) / 2 represents the average value of LXi and RXi, and (LYi + RYi) / 2 represents the average value of LYi and RYi. Avex in Equation (7) represents a value obtained by averaging the average values of LXj and RXj over M frames in the range of j = i−M + 1 to i. Also, Avey in Equation (8) represents a value obtained by averaging the average values of LYj and RYj over the same M frames.

停留判定において、判定部713は、j=i−M+1〜iの範囲のM個のばらつきVjを閾値THと比較し、すべてのjについてVj≦THである場合(ステップ1607,YES)、視線が停留していると判定する(ステップ1608)。この場合、判定部713は、M個のフレームの視線位置の座標から視線位置925を計算する。視線位置925としては、M個の座標の平均値、中央値等の統計値を用いることができる。そして、視線検出装置701は、i=i+1によりiを更新し、次のフレームの画像についてステップ1601以降の処理を繰り返す。   In the stop determination, the determination unit 713 compares M variations Vj in the range of j = i−M + 1 to i with the threshold TH, and if Vj ≦ TH for all j (step 1607, YES), the sight line is It is determined that the mobile terminal is staying (step 1608). In this case, the determination unit 713 calculates the gaze position 925 from the coordinates of the gaze position of the M frames. As the gaze position 925, statistical values such as an average value or a median value of M coordinates can be used. Then, the visual axis detection device 701 updates i by i = i + 1, and repeats the processing of step 1601 and subsequent steps for the image of the next frame.

一方、1つ以上のjについてVj>THである場合(ステップ1607,NO)、判定部713は、視線が停留していないと判定し、視線検出装置701は、次のフレームの画像についてステップ1601以降の処理を繰り返す。   On the other hand, if Vj> TH for one or more j (step 1607, NO), the determination unit 713 determines that the sight line is not stopped, and the sight line detection device 701 performs step 1601 for the next frame image. Repeat the subsequent processing.

なお、ステップ1607においてi<Mである場合、判定部713は、停留判定を省略してステップ1601以降の処理を繰り返す。ステップ1602において観察者が切り替わっていない場合(ステップ1602,NO)、検出部911は、ステップ1604の処理を行う。   If i <M in step 1607, the determination unit 713 omits the stop determination and repeats the processing after step 1601. If the observer is not switched at step 1602 (step 1602, NO), the detection unit 911 performs the process of step 1604.

直近のN個のフレームの視線データ921が蓄積されている場合(ステップ1604,YES)、計算部712は、蓄積された視線データ921を用いて指標923を計算し、判定部713は、指標923から閾値924を計算する(ステップ1605)。   If the line-of-sight data 921 of the N most recent frames is accumulated (step 1604, YES), the calculation unit 712 calculates the index 923 using the accumulated line-of-sight data 921 and the determination unit 713 determines the index 923 The threshold value 924 is calculated from (step 1605).

例えば、計算部712は、N個のフレームにおけるLYiとRYiの差分の分散の移動平均を、指標923として用いることができる。この場合、計算部712は、指標923を表すdivを次式により計算する。   For example, the calculation unit 712 can use the moving average of the variance of the difference between LYi and RYi in N frames as the index 923. In this case, the calculation unit 712 calculates div representing the index 923 according to the following equation.

式(10)のaveは、j=i−N+1〜iの範囲のN個のフレームにおけるRYi−LYiの平均値を表し、式(9)のdivは、同じN個のフレームにおけるRYi−LYiの分散を表す。この場合、判定部713は、正の実数Kを用いて、閾値924を表すTHを次式により計算することができる。   In the equation (10), ave represents an average value of RYi-LYi in N frames in the range of j = i−N + 1 to i, and div in the equation (9) represents RYi−LYi in the same N frames. Represents the variance. In this case, using the positive real number K, the determination unit 713 can calculate TH representing the threshold 924 according to the following equation.


TH=K*(div/2) (11)

TH = K * (div / 2) (11)

そして、判定部713は、式(11)の閾値THを用いて、ステップ1607以降の処理を行う。ステップ1604において、一旦、N個のフレームの視線データ921が蓄積された後は、観察者が切り替わらない限り、ステップ1605で計算された閾値THが用いられる。   Then, the determination unit 713 performs the process of step 1607 and subsequent steps using the threshold value TH of equation (11). Once the line-of-sight data 921 of N frames has been accumulated in step 1604, the threshold value TH calculated in step 1605 is used unless the observer switches.

このような視線検出処理によれば、映像のフレームレートが低レートである場合であっても、両目の視線データ921の差分に基づいて停留判定の適切な閾値を決定することができ、停留判定の精度が向上する。   According to such line-of-sight detection processing, even when the frame rate of the video is low, it is possible to determine an appropriate threshold for the stop determination based on the difference between the eye-gaze data 921 of both eyes. Accuracy is improved.

ところで、図16の視線検出処理では、LYiとRYiの差分の分散の移動平均を指標923として用いているため、視線データ921を蓄積する蓄積期間として、直近のN個のフレームの期間が用いられる。M<Nである場合、ばらつきViの計算に用いる直近のM個のフレームの期間は、蓄積期間に含まれている。しかし、蓄積期間は、必ずしもM個のフレームの期間を含んでいる必要はなく、それよりも前の期間であってもよい。   By the way, in the gaze detection process of FIG. 16, since the moving average of the variance of the difference between LYi and RYi is used as the index 923, the period of the N most recent frames is used as the accumulation period for accumulating the gaze data 921. . When M <N, the period of the latest M frames used to calculate the variation Vi is included in the accumulation period. However, the accumulation period does not necessarily have to include the period of M frames, and may be an earlier period.

また、判定部713は、ばらつき922として、視線位置の座標の分散の代わりに標準偏差を用いることもできる。この場合、計算部712は、N個のフレームにおけるLYiとRYiの差分の分散の代わりに標準偏差を用いて、指標923を計算する。   Further, the determination unit 713 can use the standard deviation as the variation 922 instead of the variance of the coordinates of the sight line position. In this case, the calculation unit 712 calculates the index 923 using the standard deviation instead of the variance of the difference between LYi and RYi in N frames.

図7及び図9の視線検出装置701の構成は一例に過ぎず、視線検出装置701の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図9の視線検出装置701において、視線データ921が外部の装置によって検出される場合は、検出部911を省略することができる。   The configuration of the visual axis detection device 701 shown in FIGS. 7 and 9 is merely an example, and some components may be omitted or changed depending on the application or conditions of the visual axis detection device 701. For example, in the visual axis detection device 701 of FIG. 9, when the visual axis data 921 is detected by an external device, the detection unit 911 can be omitted.

図8及び図16に示したフローチャートは一例に過ぎず、視線検出装置701の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図16の視線検出処理において、観察者が切り替わることがない場合は、ステップ1602及びステップ1603の処理を省略することができる。   The flowcharts illustrated in FIGS. 8 and 16 are merely examples, and some processes may be omitted or changed in accordance with the configuration or conditions of the gaze detection apparatus 701. For example, in the gaze detection process of FIG. 16, when the observer does not switch, the processes of steps 1602 and 1603 can be omitted.

図1の視線センサ103と図10に示した視線検出は一例に過ぎず、視線センサ103の構成及び位置は、視線検出装置701の用途又は条件に応じて変化する。カメラ122が可視光を用いて観察者を撮影する場合は、LED121を省略することができる。   The line-of-sight sensor 103 shown in FIG. 1 and the line-of-sight detection shown in FIG. 10 are merely examples, and the configuration and position of the line-of-sight sensor 103 change according to the application or conditions of the line-of-sight detection device 701. When the camera 122 shoots the observer using visible light, the LED 121 can be omitted.

図2〜図6及び図12〜図15に示した視線データ及び視線位置は一例に過ぎず、視線データ及び視線位置は、撮影される映像に応じて変化する。図11に示した輻輳は一例に過ぎず、輻輳の度合いは、観察者に応じて変化する。   The line-of-sight data and the line-of-sight position shown in FIGS. 2 to 6 and FIGS. 12 to 15 are merely examples, and the line-of-sight data and the line-of-sight position change according to the image to be photographed. The congestion shown in FIG. 11 is only an example, and the degree of congestion changes according to the observer.

式(1)〜式(10)は一例に過ぎず、視線検出装置701は、別の計算式を用いて視線検出処理を行ってもよい。   The equations (1) to (10) are merely examples, and the gaze detection apparatus 701 may perform the gaze detection process using another calculation equation.

図17は、図7及び図9の視線検出装置701として用いられる情報処理装置(コンピュータ)の構成例を示している。図17の情報処理装置は、Central Processing Unit(CPU)1701、メモリ1702、入力装置1703、出力装置1704、補助記憶装置1705、媒体駆動装置1706、及びネットワーク接続装置1707を含む。これらの構成要素はバス1708によって互いに接続されている。図9のカメラ901は、バス1708に接続されていてもよい。   FIG. 17 shows a configuration example of an information processing apparatus (computer) used as the gaze detection apparatus 701 in FIG. 7 and FIG. The information processing apparatus of FIG. 17 includes a central processing unit (CPU) 1701, a memory 1702, an input device 1703, an output device 1704, an auxiliary storage device 1705, a medium drive device 1706, and a network connection device 1707. These components are connected to one another by a bus 1708. The camera 901 in FIG. 9 may be connected to the bus 1708.

メモリ1702は、例えば、Read Only Memory(ROM)、Random Access Memory(RAM)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを記憶する。メモリ1702は、図7及び図9の記憶部711として用いることができる。   The memory 1702 is, for example, a semiconductor memory such as a read only memory (ROM), a random access memory (RAM), or a flash memory, and stores programs and data used for processing. The memory 1702 can be used as the storage unit 711 in FIGS. 7 and 9.

CPU1701(プロセッサ)は、例えば、メモリ1702を利用してプログラムを実行することにより、図7及び図9の計算部712及び判定部713として動作する。CPU1701は、メモリ1702を利用してプログラムを実行することにより、図9の検出部911としても動作する。   The CPU 1701 (processor) operates as the calculation unit 712 and the determination unit 713 in FIGS. 7 and 9 by executing a program using the memory 1702, for example. The CPU 1701 operates as the detection unit 911 in FIG. 9 by executing a program using the memory 1702.

入力装置1703は、例えば、タッチパネル、キーボード、ポインティングデバイス等であり、ユーザ又はオペレータからの指示や情報の入力に用いられる。出力装置1704は、例えば、表示装置、プリンタ、スピーカ等であり、ユーザ又はオペレータへの問い合わせ及び処理結果の出力に用いられる。出力装置1704は、図9の出力部912として用いることができる。   The input device 1703 is, for example, a touch panel, a keyboard, a pointing device, or the like, and is used to input an instruction or information from a user or an operator. The output device 1704 is, for example, a display device, a printer, a speaker, etc., and is used to inquire the user or the operator and to output the processing result. The output device 1704 can be used as the output unit 912 in FIG.

補助記憶装置1705は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1705は、ハードディスクドライブであってもよい。情報処理装置は、補助記憶装置1705にプログラム及びデータを格納しておき、それらをメモリ1702にロードして使用することができる。補助記憶装置1705は、図7及び図9の記憶部711として用いることができる。   The auxiliary storage device 1705 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device or the like. The auxiliary storage device 1705 may be a hard disk drive. The information processing apparatus can store programs and data in the auxiliary storage device 1705, load them into the memory 1702, and use them. The auxiliary storage device 1705 can be used as the storage unit 711 in FIGS. 7 and 9.

媒体駆動装置1706は、可搬型記録媒体1709を駆動し、その記録内容にアクセスする。可搬型記録媒体1709は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1709は、Compact Disk Read Only Memory(CD−ROM)、Digital Versatile Disk(DVD)、又はUniversal Serial Bus(USB)メモリであってもよい。ユーザ又はオペレータは、この可搬型記録媒体1709にプログラム及びデータを格納しておき、それらをメモリ1702にロードして使用することができる。   The medium drive device 1706 drives a portable recording medium 1709 and accesses the recorded contents. The portable recording medium 1709 is a memory device, a flexible disk, an optical disk, a magneto-optical disk or the like. The portable recording medium 1709 may be a Compact Disk Read Only Memory (CD-ROM), a Digital Versatile Disk (DVD), or a Universal Serial Bus (USB) memory. The user or the operator can store programs and data in this portable recording medium 1709, load them into the memory 1702, and use them.

このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体には、メモリ1702、補助記憶装置1705、及び可搬型記録媒体1709のような、物理的な(非一時的な)記録媒体が含まれる。   Thus, computer readable recording media for storing programs and data used for processing include physical (non-temporary) such as the memory 1702, auxiliary storage device 1705, and portable recording medium 1709. A recording medium is included.

ネットワーク接続装置1707は、Local Area Network(LAN)、インターネット等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1707を介して受信し、それらをメモリ1702にロードして使用することができる。ネットワーク接続装置1707は、図9の出力部912として用いることができる。   A network connection device 1707 is a communication interface circuit connected to a communication network such as a Local Area Network (LAN), the Internet, etc., and performing data conversion involved in communication. The information processing device can receive programs and data from an external device via the network connection device 1707, load them into the memory 1702, and use them. The network connection device 1707 can be used as the output unit 912 of FIG.

なお、情報処理装置が図17のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、ユーザ又はオペレータとのインタフェースが不要である場合は、入力装置1703及び出力装置1704を省略してもよい。また、情報処理装置が可搬型記録媒体1709又は通信ネットワークを利用しない場合は、媒体駆動装置1706又はネットワーク接続装置1707を省略してもよい。   Note that the information processing apparatus does not have to include all the components shown in FIG. 17, and some of the components may be omitted depending on the application or conditions. For example, when an interface with a user or an operator is unnecessary, the input device 1703 and the output device 1704 may be omitted. When the information processing apparatus does not use the portable recording medium 1709 or the communication network, the medium driving device 1706 or the network connection device 1707 may be omitted.

開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。   While the disclosed embodiments and their advantages have been described in detail, those skilled in the art can make various changes, additions, and omissions without departing from the scope of the present invention as set forth in the claims. I will.

図1乃至図17を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求め、
前記指標に基づいて、前記観察者の視線に対する停留判定を行い、
前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する、
処理をコンピュータに実行させるための視線検出プログラム。
(付記2)
前記差分は、前記観察者の顔と対向する平面内において、左右方向と交差する所定方向における前記左目の視線位置と前記右目の視線位置との差分を表すことを特徴とする付記1記載の視線検出プログラム。
(付記3)
前記所定方向は、前記左右方向に対して垂直な方向であることを特徴とする付記2記載の視線検出プログラム。
(付記4)
前記コンピュータは、前記指標に基づいて前記停留判定の閾値を計算し、所定期間内の複数の時刻それぞれにおいて検出された前記左目及び前記右目の視線データから、前記複数の時刻それぞれにおける視線データのばらつきを計算し、前記複数の時刻それぞれにおける視線データのばらつきが前記閾値よりも小さい場合、前記観察者の視線が停留していると判定することを特徴とする付記1乃至3のいずれか1項に記載の視線検出プログラム。
(付記5)
前記指標は、前記所定期間を含む第1期間又は前記所定期間よりも前の第2期間内の複数の時刻それぞれにおいて検出された前記差分の分散又は標準偏差を表すことを特徴とする付記4記載の視線検出プログラム。
(付記6)
対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとを記憶する記憶部と、
前記左目の視線データと前記右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求める計算部と、
前記指標に基づいて前記観察者の視線に対する停留判定を行い、前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する判定部と、
を備えることを特徴とする視線検出装置。
(付記7)
前記差分は、前記観察者の顔と対向する平面内において、左右方向と交差する所定方向における前記左目の視線位置と前記右目の視線位置との差分を表すことを特徴とする付記6記載の視線検出装置。
(付記8)
前記所定方向は、前記左右方向に対して垂直な方向であることを特徴とする付記7記載の視線検出装置。
(付記9)
前記判定部は、前記指標に基づいて前記停留判定の閾値を計算し、所定期間内の複数の時刻それぞれにおいて検出された前記左目及び前記右目の視線データから、前記複数の時刻それぞれにおける視線データのばらつきを計算し、前記複数の時刻それぞれにおける視線データのばらつきが前記閾値よりも小さい場合、前記観察者の視線が停留していると判定することを特徴とする付記6乃至8のいずれか1項に記載の視線検出装置。
(付記10)
前記指標は、前記所定期間を含む第1期間又は前記所定期間よりも前の第2期間内の複数の時刻それぞれにおいて検出された前記差分の分散又は標準偏差を表すことを特徴とする付記9記載の視線検出装置。
(付記11)
コンピュータが、
対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求め、
前記指標に基づいて、前記観察者の視線に対する停留判定を行い、
前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する、
ことを特徴とする視線検出方法。
(付記12)
前記差分は、前記観察者の顔と対向する平面内において、左右方向と交差する所定方向における前記左目の視線位置と前記右目の視線位置との差分を表すことを特徴とする付記11記載の視線検出方法。
(付記13)
前記所定方向は、前記左右方向に対して垂直な方向であることを特徴とする付記12記載の視線検出方法。
(付記14)
前記コンピュータは、前記指標に基づいて前記停留判定の閾値を計算し、所定期間内の複数の時刻それぞれにおいて検出された前記左目及び前記右目の視線データから、前記複数の時刻それぞれにおける視線データのばらつきを計算し、前記複数の時刻それぞれにおける視線データのばらつきが前記閾値よりも小さい場合、前記観察者の視線が停留していると判定することを特徴とする付記11乃至13のいずれか1項に記載の視線検出方法。
(付記15)
前記指標は、前記所定期間を含む第1期間又は前記所定期間よりも前の第2期間内の複数の時刻それぞれにおいて検出された前記差分の分散又は標準偏差を表すことを特徴とする付記14記載の視線検出方法。
The following appendices will be further disclosed regarding the embodiment described with reference to FIGS. 1 to 17.
(Supplementary Note 1)
Based on the difference between the line-of-sight data of the left eye of the observer who observes the object and the line-of-sight data of the right eye of the observer, an index indicating variation in the line of sight of the observer is determined.
It is determined based on the index that the observer is staying in line of sight,
The gaze position of the observer is determined based on the determination result of the stop determination.
A gaze detection program for causing a computer to execute processing.
(Supplementary Note 2)
The line of sight according to appendix 1, wherein the difference represents a difference between the line-of-sight position of the left eye and the line-of-sight position of the right eye in a predetermined direction intersecting with the horizontal direction in a plane facing the face of the observer. Detection program.
(Supplementary Note 3)
The sight line detection program according to claim 2, wherein the predetermined direction is a direction perpendicular to the left and right direction.
(Supplementary Note 4)
The computer calculates a threshold value for determining the stay based on the index, and variation in line-of-sight data at each of the plurality of times from the line-of-sight data of the left eye and the right eye detected at each of a plurality of times in a predetermined period And determining that the line of sight of the observer is stationary if the variation of the line-of-sight data at each of the plurality of times is smaller than the threshold value. Gaze detection program described.
(Supplementary Note 5)
The index is a variance or a standard deviation of the differences detected at each of a plurality of times in a first period including the predetermined period or in a second period before the predetermined period. Gaze detection program.
(Supplementary Note 6)
A storage unit that stores line-of-sight data of the left eye of the observer observing the object and line-of-sight data of the right eye of the observer;
A calculation unit for obtaining an index indicating a variation in the line of sight of the observer based on a difference between the line of sight data of the left eye and the line of sight data of the right eye;
A determination unit which performs stop determination on the line of sight of the observer based on the index, and determines the line-of-sight position of the observer on the basis of the determination result of the stop determination;
A gaze detection apparatus comprising:
(Appendix 7)
The line of sight according to claim 6, wherein the difference represents a difference between the line-of-sight position of the left eye and the line-of-sight position of the right eye in a predetermined direction intersecting with the horizontal direction in a plane facing the face of the observer. Detection device.
(Supplementary Note 8)
The visual axis detection device according to claim 7, wherein the predetermined direction is a direction perpendicular to the left and right direction.
(Appendix 9)
The determination unit calculates a threshold of the determination for stopping based on the index, and from line-of-sight data of the left eye and the right eye detected at each of a plurality of times within a predetermined period, the line-of-sight data at each of the plurality of times The variation is calculated, and when the variation in line-of-sight data at each of the plurality of times is smaller than the threshold value, it is determined that the line of sight of the observer is stationary. The gaze detection apparatus according to claim 1.
(Supplementary Note 10)
The index represents a variance or a standard deviation of the differences detected at each of a plurality of times in a first period including the predetermined period or in a second period before the predetermined period. Gaze detection device.
(Supplementary Note 11)
The computer is
Based on the difference between the line-of-sight data of the left eye of the observer who observes the object and the line-of-sight data of the right eye of the observer, an index indicating variation in the line of sight of the observer is determined.
It is determined based on the index that the observer is staying in line of sight,
The gaze position of the observer is determined based on the determination result of the stop determination.
A gaze detection method characterized by
(Supplementary Note 12)
The line of sight according to appendix 11, wherein the difference represents a difference between the line-of-sight position of the left eye and the line-of-sight position of the right eye in a predetermined direction intersecting with the horizontal direction in a plane facing the face of the observer. Detection method.
(Supplementary Note 13)
The gaze detection method according to claim 12, wherein the predetermined direction is a direction perpendicular to the left and right direction.
(Supplementary Note 14)
The computer calculates a threshold value for determining the stay based on the index, and variation in line-of-sight data at each of the plurality of times from the line-of-sight data of the left eye and the right eye detected at each of a plurality of times in a predetermined period And determining that the line of sight of the observer is stationary if the variation of the line of sight data at each of the plurality of times is smaller than the threshold value. The gaze detection method described.
(Supplementary Note 15)
The index is a variance or a standard deviation of the differences detected at each of a plurality of times in a first period including the predetermined period or in a second period before the predetermined period. Gaze detection method.

101 表示装置
102 画面
103 視線センサ
111〜113 画像
121 LED
122、901 カメラ
201〜203、301、601〜603 注視位置
211、212、501〜503、921 視線データ
302 検出結果
511 範囲
611〜613 最小包含円
614、925、1401、1402 視線位置
701 視線検出装置
711 記憶部
712 計算部
713 判定部
911 検出部
912 出力部
922 ばらつき
923 指標
924 閾値
1001 顔
1002 赤外線
1201〜1203、1301〜1303、1501〜1503 グラフ
1701 CPU
1702 メモリ
1703 入力装置
1704 出力装置
1705 補助記憶装置
1706 媒体駆動装置
1707 ネットワーク接続装置
1708 バス
1709 可搬型記録媒体
101 Display Device 102 Screen 103 Line-of-Sight Sensor 111-113 Image 121 LED
122, 901 cameras 201 to 203, 301, 601 to 603 gaze positions 211, 212, 501 to 503, 921 gaze data 302 detection results 511 range 611 to 613 minimum inclusive circle 614, 925, 1401, 1402 gaze position 701 gaze detection device 711 storage unit 712 calculation unit 713 determination unit 911 detection unit 912 output unit 922 variation 923 index 924 threshold 1001 face 1002 infrared rays 1201 to 1203, 1301 to 1303, 1501 to 1503 graph 1701 CPU
1702 Memory 1703 Input Device 1704 Output Device 1705 Auxiliary Storage Device 1706 Media Drive Device 1707 Network Connection Device 1708 Bus 1709 Portable Storage Media

Claims (7)

対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求め、
前記指標に基づいて、前記観察者の視線に対する停留判定を行い、
前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する、
処理をコンピュータに実行させるための視線検出プログラム。
Based on the difference between the line-of-sight data of the left eye of the observer who observes the object and the line-of-sight data of the right eye of the observer, an index indicating variation in the line of sight of the observer is determined.
It is determined based on the index that the observer is staying in line of sight,
The gaze position of the observer is determined based on the determination result of the stop determination.
A gaze detection program for causing a computer to execute processing.
前記差分は、前記観察者の顔と対向する平面内において、左右方向と交差する所定方向における前記左目の視線位置と前記右目の視線位置との差分を表すことを特徴とする請求項1記載の視線検出プログラム。   The difference according to claim 1, wherein the difference represents a difference between the line-of-sight position of the left eye and the line-of-sight position of the right eye in a predetermined direction intersecting with the horizontal direction in a plane facing the face of the observer. Gaze detection program. 前記所定方向は、前記左右方向に対して垂直な方向であることを特徴とする請求項2記載の視線検出プログラム。   The eye gaze detection program according to claim 2, wherein the predetermined direction is a direction perpendicular to the left and right direction. 前記コンピュータは、前記指標に基づいて前記停留判定の閾値を計算し、所定期間内の複数の時刻それぞれにおいて検出された前記左目及び前記右目の視線データから、前記複数の時刻それぞれにおける視線データのばらつきを計算し、前記複数の時刻それぞれにおける視線データのばらつきが前記閾値よりも小さい場合、前記観察者の視線が停留していると判定することを特徴とする請求項1乃至3のいずれか1項に記載の視線検出プログラム。   The computer calculates a threshold value for determining the stay based on the index, and variation in line-of-sight data at each of the plurality of times from the line-of-sight data of the left eye and the right eye detected at each of a plurality of times in a predetermined period 4. The method according to any one of claims 1 to 3, wherein when the variation in line-of-sight data at each of the plurality of times is smaller than the threshold value, it is determined that the line of sight of the observer is stationary. The gaze detection program described in. 前記指標は、前記所定期間を含む第1期間又は前記所定期間よりも前の第2期間内の複数の時刻それぞれにおいて検出された前記差分の分散又は標準偏差を表すことを特徴とする請求項4記載の視線検出プログラム。   The index is a variance or standard deviation of the differences detected at each of a plurality of times in a first period including the predetermined period or a second period before the predetermined period. Gaze detection program described. 対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとを記憶する記憶部と、
前記左目の視線データと前記右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求める計算部と、
前記指標に基づいて前記観察者の視線に対する停留判定を行い、前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する判定部と、
を備えることを特徴とする視線検出装置。
A storage unit that stores line-of-sight data of the left eye of the observer observing the object and line-of-sight data of the right eye of the observer;
A calculation unit for obtaining an index indicating a variation in the line of sight of the observer based on a difference between the line of sight data of the left eye and the line of sight data of the right eye;
A determination unit which performs stop determination on the line of sight of the observer based on the index, and determines the line-of-sight position of the observer on the basis of the determination result of the stop determination;
A gaze detection apparatus comprising:
コンピュータが、
対象物を観察する観察者の左目の視線データと前記観察者の右目の視線データとの差分に基づいて、前記観察者の視線のばらつきを示す指標を求め、
前記指標に基づいて、前記観察者の視線に対する停留判定を行い、
前記停留判定の判定結果に基づいて、前記観察者の視線位置を決定する、
ことを特徴とする視線検出方法。
The computer is
Based on the difference between the line-of-sight data of the left eye of the observer who observes the object and the line-of-sight data of the right eye of the observer, an index indicating variation in the line of sight of the observer is determined.
It is determined based on the index that the observer is staying in line of sight,
The gaze position of the observer is determined based on the determination result of the stop determination.
A gaze detection method characterized by
JP2017192602A 2017-10-02 2017-10-02 Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method Active JP6897467B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017192602A JP6897467B2 (en) 2017-10-02 2017-10-02 Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method
US16/145,728 US10726575B2 (en) 2017-10-02 2018-09-28 Information processing apparatus, recording medium recording line-of-sight detection program, and line-of-sight detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017192602A JP6897467B2 (en) 2017-10-02 2017-10-02 Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method

Publications (2)

Publication Number Publication Date
JP2019063310A true JP2019063310A (en) 2019-04-25
JP6897467B2 JP6897467B2 (en) 2021-06-30

Family

ID=65896780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017192602A Active JP6897467B2 (en) 2017-10-02 2017-10-02 Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method

Country Status (2)

Country Link
US (1) US10726575B2 (en)
JP (1) JP6897467B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10827918B1 (en) 2019-12-25 2020-11-10 Shamir Optical Industry Ltd. System and method for automatically evaluating a vision of a user

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3460302B2 (en) 1994-05-18 2003-10-27 松下電器産業株式会社 Depth perception measurement device
JP3760960B2 (en) 1997-04-03 2006-03-29 ソニー株式会社 Gaze position detector
JP4411387B2 (en) 2007-08-07 2010-02-10 学校法人 大阪電気通信大学 Moving body detection apparatus, moving body detection method, pointing device, computer program, and storage medium
KR101697181B1 (en) * 2010-09-07 2017-01-17 삼성전자주식회사 Image processing apparatus and method using eye tracking of user
US10129538B2 (en) * 2013-02-19 2018-11-13 Reald Inc. Method and apparatus for displaying and varying binocular image content
CN107111749A (en) * 2014-12-22 2017-08-29 诺瓦赛特有限公司 System and method for improved display
WO2017090203A1 (en) * 2015-11-27 2017-06-01 フォーブ インコーポレーテッド Line-of-sight detection system, gaze point identification method, and gaze point identification program
CN107797280B (en) * 2016-08-31 2020-08-18 乐金显示有限公司 Personal immersive display device and method of driving the same
EP3295864B1 (en) * 2016-09-15 2019-05-15 Carl Zeiss Vision International GmbH Apparatus for assisting in establishing a correction for correcting heterotropia or heterophoria and method of operating a computer for assisting in establishing a correction for correcting heterotropia or heterophoria
KR102450236B1 (en) * 2017-09-06 2022-10-04 삼성전자주식회사 Electronic apparatus, method for controlling thereof and the computer readable recording medium
US9940518B1 (en) * 2017-09-11 2018-04-10 Tobii Ab Reliability of gaze tracking data for left and right eye

Also Published As

Publication number Publication date
JP6897467B2 (en) 2021-06-30
US10726575B2 (en) 2020-07-28
US20190102904A1 (en) 2019-04-04

Similar Documents

Publication Publication Date Title
US9727135B2 (en) Gaze calibration
KR102291461B1 (en) Technologies for adjusting a perspective of a captured image for display
US9398848B2 (en) Eye gaze tracking
KR101769177B1 (en) Apparatus and method for eye tracking
US20090141147A1 (en) Auto zoom display system and method
US20140085189A1 (en) Line-of-sight detection apparatus, line-of-sight detection method, and program therefor
US20150227789A1 (en) Information processing apparatus, information processing method, and program
Cho et al. Gaze Detection by Wearable Eye‐Tracking and NIR LED‐Based Head‐Tracking Device Based on SVR
JPWO2012137801A1 (en) Input device, input method, and computer program
JP2014052758A (en) Sight line measurement method
JP7081599B2 (en) Information processing equipment, information processing methods, and programs
JP2006285715A (en) Sight line detection system
JP2014204836A5 (en)
JP2012238293A (en) Input device
Blignaut A new mapping function to improve the accuracy of a video-based eye tracker
KR100960269B1 (en) Apparatus of estimating user&#39;s gaze and the method thereof
JP2012217524A (en) Visual line measuring device and visual line measuring program
JP6897467B2 (en) Line-of-sight detection device, line-of-sight detection program, and line-of-sight detection method
JP2015046111A (en) Viewpoint detection device and viewpoint detection method
JP2011172853A (en) Device, method and program for measuring visual axis
KR102224209B1 (en) Apparatus and method for measuring angle of strabismus
Ki et al. 3D gaze estimation and interaction
Suh et al. Monocular eye tracking system using webcam and zoom lens
Fujiyoshi et al. Inside-out camera for acquiring 3D gaze points
JP6873326B2 (en) Eye 3D coordinate acquisition device and gesture operation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200709

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210423

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R150 Certificate of patent or registration of utility model

Ref document number: 6897467

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150