JP2018205819A - Gazing position detection computer program, gazing position detection device, and gazing position detection method - Google Patents

Gazing position detection computer program, gazing position detection device, and gazing position detection method Download PDF

Info

Publication number
JP2018205819A
JP2018205819A JP2017106742A JP2017106742A JP2018205819A JP 2018205819 A JP2018205819 A JP 2018205819A JP 2017106742 A JP2017106742 A JP 2017106742A JP 2017106742 A JP2017106742 A JP 2017106742A JP 2018205819 A JP2018205819 A JP 2018205819A
Authority
JP
Japan
Prior art keywords
eye
pupil
imaging unit
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017106742A
Other languages
Japanese (ja)
Inventor
隆宏 吉岡
Takahiro Yoshioka
隆宏 吉岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017106742A priority Critical patent/JP2018205819A/en
Publication of JP2018205819A publication Critical patent/JP2018205819A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a gazing position detection computer program capable of estimating an interpupillary distance of a user.SOLUTION: A gazing position detection computer program includes a command for causing the computer to execute: determining whether a user face is straightly directed to an imaging unit on the basis of an image generated by the imaging unit, detecting pupils of a left eye and a right eye from an image where the user face is straightly directed to the imaging unit, detecting directions of visual lines of the left eye and the right eye on the image, calculating positions of the pupil of the left eye and the pupil of the right eye in a real space on the basis of a positional relation between the imaging unit according to the positions of the pupil of the left eye and the pupil of the right eye on the image where the user face is straightly directed to the imaging unit, and the left eye and the right eye, directions of the visual lines of the left eye and the right eye, and a positional relation between the imaging unit and a gazing object plane, and calculating the interpupillary distance of the left eye and the right eye in the real space on the basis of the positions of the pupil of the left eye and the pupil of the right eye in the real space.SELECTED DRAWING: Figure 7

Description

本発明は、例えば、眼を撮影して得られた画像に基づいて注視位置を検出する注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法に関する。   The present invention relates to a gaze position detection computer program, a gaze position detection apparatus, and a gaze position detection method for detecting a gaze position based on, for example, an image obtained by photographing an eye.

人の視線方向を検出することで、その人が興味を有しているものに関する情報を得たり、あるいは、視線方向または注視している位置に関連する操作を自動的に実行することが検討されている。なお、以下では、便宜上、人が注視している位置を単に注視位置と呼ぶ。   By detecting the direction of the person's line of sight, it is considered to obtain information about what the person is interested in, or to automatically perform operations related to the direction of the line of sight or the position where the user is gazing. ing. Hereinafter, for the sake of convenience, a position where a person is gazing is simply referred to as a gazing position.

人の注視位置、あるいは、視線方向は、その人の瞳孔の向きと密接に関連している。そこで、人の眼をカメラにより撮影して得られた画像から瞳孔を検出し、その瞳孔と基準点との位置関係により、その人の視線方向または注視位置を特定する技術が知られている。   A person's gaze position or line-of-sight direction is closely related to the direction of the person's pupil. Therefore, a technique is known in which a pupil is detected from an image obtained by photographing a human eye with a camera, and the gaze direction or gaze position of the person is specified based on the positional relationship between the pupil and a reference point.

視線方向が一定でも、カメラから人までの距離に応じて注視位置は異なる。そのため、注視位置を正確に検出するためには、カメラから人までの距離を正確に求めることが好ましい。そこで、人の顔が写った画像上での両眼の瞳孔間距離(以下、単に瞳孔間距離と呼ぶ)と、実空間での瞳孔間距離と、カメラの焦点距離などに基づいて、実空間での視点距離を算出する技術が提案されている(例えば、特許文献1を参照)。   Even if the line-of-sight direction is constant, the gaze position varies depending on the distance from the camera to the person. Therefore, in order to accurately detect the gaze position, it is preferable to accurately obtain the distance from the camera to the person. Therefore, based on the distance between the pupils of both eyes (hereinafter simply referred to as the interpupillary distance), the distance between the pupils in the real space, the focal length of the camera, etc. There has been proposed a technique for calculating a viewpoint distance at (see, for example, Patent Document 1).

特開2014−89304号公報JP 2014-89304 A

しかしながら、瞳孔間距離は、人によって異なる。そのため、注視位置の検出対象となるユーザが不特定の人物である場合、実空間での瞳孔間距離が未知であるため、上記の技術では、カメラから人物までの距離は正確には算出されない。その結果として、注視位置の検出精度が不十分となることがある。   However, the interpupillary distance varies from person to person. Therefore, when the user whose gaze position is to be detected is an unspecified person, the distance between the pupils in the real space is unknown, and therefore the distance from the camera to the person cannot be calculated accurately. As a result, the gaze position detection accuracy may be insufficient.

一つの側面では、本発明は、ユーザの瞳孔間距離を推定できる注視位置検出用コンピュータプログラムを提供することを目的とする。   In one aspect, an object of the present invention is to provide a computer program for gaze position detection that can estimate a user's interpupillary distance.

一つの実施形態によれば、注視位置検出用コンピュータプログラムが提供される。この注視位置検出用コンピュータプログラムは、撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、ユーザの顔が撮像部に対して正対しているか否かを判定し、ユーザの顔が撮像部に対して正対しているときの画像から、左眼及び右眼のそれぞれの瞳孔を検出し、画像上の左眼に基づいて左眼の視線方向を検出し、画像上の右眼に基づいて右眼の視線方向を検出し、ユーザの顔が撮像部に対して正対しているときの画像上の左眼の瞳孔の位置及び右眼の瞳孔の位置に応じた撮像部と左眼及び右眼間の位置関係と、左眼の視線方向及び右眼の視線方向と、撮像部とユーザによる注視対象となる面間の位置関係とに基づいて実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置を算出し、実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置から、実空間での左眼と右眼の間の瞳孔間距離を算出する、ことをコンピュータに実行させるための命令を含む。   According to one embodiment, a computer program for gaze position detection is provided. This computer program for gaze position detection is based on an image generated by the imaging unit and showing at least a part of the user's face including the left eye and the right eye. The left eye and the right eye pupil are detected from the image when the user's face is directly facing the imaging unit, and the line of sight of the left eye is determined based on the left eye on the image. And detecting the gaze direction of the right eye based on the right eye on the image, and the position of the left eye pupil and the right eye pupil on the image when the user's face is facing the imaging unit Based on the positional relationship between the imaging unit and the left eye and the right eye according to the position of the left eye, the gaze direction of the left eye and the gaze direction of the right eye, and the positional relationship between the imaging unit and the surface to be watched by the user Calculate the left eye pupil position and right eye pupil position in real space, From the positions of the pupil and the position of the pupil of the right eye, and calculates the interpupillary distance between the left and right eyes in real space, comprising instructions for causing a computer to execute the.

ユーザの瞳孔間距離を推定できる。   The distance between the pupils of the user can be estimated.

注視位置検出装置の一実施形態であるデジタルサイネージシステムのハードウェア構成図である。It is a hardware block diagram of the digital signage system which is one Embodiment of a gaze position detection apparatus. カメラ及び表示装置の配置の一例を示す図である。It is a figure which shows an example of arrangement | positioning of a camera and a display apparatus. プロセッサの瞳孔間距離推定処理及び注視位置検出処理に関する機能ブロック図である。It is a functional block diagram regarding a distance estimation process and a gaze position detection process of a pupil of a processor. 瞳孔間距離推定についての原理の説明図である。It is explanatory drawing of the principle about interpupillary distance estimation. (a)は、ユーザの顔がカメラに対して正対している場合の顔の画像の一例を示す図であり、(b)は、ユーザがカメラに対して顔を傾けている場合の顔の画像の一例を示す図である。(A) is a figure which shows an example of the image of a face in case a user's face is facing with respect to a camera, (b) is a face of the case where a user inclines a face with respect to a camera It is a figure which shows an example of an image. (a)及び(b)は、表示装置及びカメラと、瞳孔の位置及び注視位置との関係の一例を示す図である。(A) And (b) is a figure which shows an example of the relationship between a display apparatus and a camera, and the position of a pupil, and a gaze position. 瞳孔間距離推定処理の動作フローチャートである。It is an operation | movement flowchart of the distance estimation process between pupils. 注視位置検出についての原理の説明図である。It is explanatory drawing of the principle about gaze position detection. 注視位置検出処理の動作フローチャートである。It is an operation | movement flowchart of a gaze position detection process. 変形例による、表示装置及びカメラと、ユーザの瞳孔重心及び注視位置との関係の一例を示す図である。It is a figure which shows an example of the relationship between a display apparatus and a camera, a user's pupil gravity center, and gaze position by a modification.

以下、図を参照しつつ、注視位置検出装置について説明する。
この注視位置検出装置は、ユーザの両眼をカメラにより撮影して画像を生成し、その画像上で左右それぞれの眼の瞳孔、及び、左右それぞれの眼の視線方向を検出する。ここで、ユーザの顔がカメラに対して正対しているとき、すなわち、カメラに対して正面を向いているときには、カメラの光軸方向に沿った方向のカメラから左眼までの距離とカメラから右眼までの距離が同一となるという条件が満たされる。この条件が満たされるときには、両眼の視線方向と、カメラからそれぞれの眼の瞳孔へ向かう方向とに基づいて、実空間での両眼の瞳孔位置は一意に求められる。そこで、この注視位置検出装置は、ユーザの顔がカメラに対して正対しているときの画像から算出されたそれぞれの眼についての視線方向と、画像上のそれぞれの眼の瞳孔位置とから、実空間でのそれぞれの眼の瞳孔位置及び瞳孔間距離を算出する。そしてこの注視位置検出装置は、一旦瞳孔間距離が算出されると、その後に得られた画像から検出された両眼の視線方向と、実空間での瞳孔間距離とに基づいて、注視位置を検出する。
Hereinafter, the gaze position detection device will be described with reference to the drawings.
The gaze position detection device captures both eyes of the user with a camera to generate an image, and detects the pupils of the left and right eyes and the gaze direction of the left and right eyes on the image. Here, when the user's face is facing the camera, that is, when facing the front of the camera, the distance from the camera to the left eye in the direction along the optical axis direction of the camera and the camera The condition that the distance to the right eye is the same is satisfied. When this condition is satisfied, the pupil position of both eyes in real space is uniquely determined based on the line-of-sight direction of both eyes and the direction from the camera toward the pupil of each eye. Therefore, this gaze position detection device is based on the line-of-sight direction for each eye calculated from the image when the user's face is facing the camera and the pupil position of each eye on the image. The pupil position and interpupillary distance of each eye in space are calculated. Then, once the interpupillary distance is calculated, the gaze position detection device calculates the gaze position based on the gaze direction of both eyes detected from the image obtained thereafter and the interpupillary distance in real space. To detect.

なお、以下に説明する実施形態では、注視位置検出装置は、デジタルサイネージシステムに実装され、そして注視位置検出装置は、デジタルサイネージシステムのユーザの注視位置を検出する。   In the embodiment described below, the gaze position detection device is mounted on a digital signage system, and the gaze position detection device detects the gaze position of the user of the digital signage system.

図1は、注視位置検出装置の一実施形態であるデジタルサイネージシステムのハードウェア構成図である。デジタルサイネージシステム1は、表示装置2と、カメラ3と、入力装置4と、記憶媒体アクセス装置5と、メモリ6と、プロセッサ7とを有する。さらにデジタルサイネージシステム1は、デジタルサイネージシステム1のユーザの眼を照明するための、赤外発光ダイオードといった光源(図示せず)を有していてもよい。さらにまた、デジタルサイネージシステムは、デジタルサイネージシステム1を他の機器に接続するための通信インターフェース回路(図示せず)を有していてもよい。   FIG. 1 is a hardware configuration diagram of a digital signage system which is an embodiment of a gaze position detection device. The digital signage system 1 includes a display device 2, a camera 3, an input device 4, a storage medium access device 5, a memory 6, and a processor 7. Further, the digital signage system 1 may have a light source (not shown) such as an infrared light emitting diode for illuminating the eyes of the user of the digital signage system 1. Furthermore, the digital signage system may have a communication interface circuit (not shown) for connecting the digital signage system 1 to another device.

表示装置2は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイを有する。そして表示装置2は、例えば、様々なテキスト、アイコン、静止画像または動画像をプロセッサ7からの映像信号に応じて表示する。   The display device 2 includes, for example, a liquid crystal display or an organic electroluminescence display. The display device 2 displays, for example, various texts, icons, still images, or moving images according to the video signal from the processor 7.

カメラ3は、撮像部の一例であり、両方の眼を含む、少なくともユーザの顔の一部が写った画像を生成する。そのために、カメラ3は、2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上に被写体の像を結像する撮像光学系を有する。また、撮像光学系は、単焦点の光学系でもよく、あるいは、可変焦点光学系であってもよい。カメラ3は、瞳孔間距離推定処理の実行中、または、注視位置検出処理の実行中、所定のフレームレートで撮影して画像を生成する。なお、カメラ3は、この画像上でデジタルサイネージシステム1を利用するユーザの瞳孔が識別可能な解像度を有する。そしてカメラ3は、画像を生成する度に、その画像をプロセッサ7へ渡す。なお、以下の説明において、「画像」とは、特に説明が無い限り、カメラ3により生成され、かつ、両方の眼を含む、少なくともユーザの顔の一部が写った画像を表す。   The camera 3 is an example of an imaging unit, and generates an image including both eyes and at least a part of the user's face. For this purpose, the camera 3 includes an image sensor having solid-state image sensors arranged in a two-dimensional manner and an imaging optical system that forms an image of a subject on the image sensor. The imaging optical system may be a single focus optical system or a variable focus optical system. The camera 3 shoots at a predetermined frame rate to generate an image during execution of the inter-pupil distance estimation process or during the gaze position detection process. The camera 3 has a resolution that allows the pupil of the user who uses the digital signage system 1 to be identified on the image. Each time the camera 3 generates an image, the camera 3 passes the image to the processor 7. In the following description, “image” represents an image generated by the camera 3 and including both eyes, at least a part of the user's face, unless otherwise specified.

図2は、カメラ3及び表示装置2の配置の一例を示す図である。この例では、表示装置2の表示画面2aの下側に、カメラ3が取り付けられている。なお、表示装置2の表示画面2aは、ユーザによる注視対象となる面(以下、注視対象面と呼ぶ)の一例である。そしてカメラ3は、表示装置2の表示画面2aを見るユーザ200の両方の眼を含む、ユーザ200の顔全体あるいは顔の一部を撮影可能なように、カメラ3の光軸OAが表示画面2aの法線方向nと平行となるように設置される。   FIG. 2 is a diagram illustrating an example of the arrangement of the camera 3 and the display device 2. In this example, the camera 3 is attached to the lower side of the display screen 2 a of the display device 2. In addition, the display screen 2a of the display device 2 is an example of a surface (hereinafter referred to as a gaze target surface) that is a gaze target by the user. The optical axis OA of the camera 3 is displayed on the display screen 2a so that the entire face or part of the face of the user 200 including both eyes of the user 200 viewing the display screen 2a of the display device 2 can be photographed. It is installed so as to be parallel to the normal direction n.

なお、カメラ3は、注視対象面に対して、ユーザの眼の並び方向(例えば、水平方向)とは異なる方向に並ぶように設けられればよく、例えば、表示画面2aの上側に設けられてもよい。   The camera 3 may be provided so as to be arranged in a direction different from the direction in which the user's eyes are arranged (for example, the horizontal direction) with respect to the gaze target surface. For example, the camera 3 may be provided above the display screen 2a. Good.

入力装置4は、例えば、キーボードと、マウスのようなポインティングデバイスとを有する。そして入力装置4を介してユーザにより入力された操作信号は、プロセッサ7へ渡される。   The input device 4 includes, for example, a keyboard and a pointing device such as a mouse. An operation signal input by the user via the input device 4 is passed to the processor 7.

なお、表示装置2と入力装置4とは、例えば、タッチパネルディスプレイのように一体化されていてもよい。この場合、入力装置4は、表示装置2の表示画面上に表示されたアイコンの位置にユーザが触れた場合に、その位置に応じた操作信号を生成し、その操作信号をプロセッサ7へ出力する。   The display device 2 and the input device 4 may be integrated like a touch panel display, for example. In this case, when the user touches the position of the icon displayed on the display screen of the display device 2, the input device 4 generates an operation signal corresponding to the position and outputs the operation signal to the processor 7. .

記憶媒体アクセス装置5は、記憶部の一例であり、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体8にアクセスする装置である。記憶媒体アクセス装置5は、例えば、記憶媒体8に記憶された、プロセッサ7上で実行される、瞳孔間距離推定処理及び注視位置検出処理用のコンピュータプログラムを読み込み、プロセッサ7に渡す。   The storage medium access device 5 is an example of a storage unit, and is a device that accesses the storage medium 8 such as a magnetic disk, a semiconductor memory card, and an optical storage medium. The storage medium access device 5 reads, for example, a computer program for pupil distance estimation processing and gaze position detection processing, which is stored in the storage medium 8 and executed on the processor 7, and passes it to the processor 7.

メモリ6は、記憶部の他の一例であり、例えば、読み書き可能な不揮発性の半導体メモリ、及び読み書き可能な揮発性の半導体メモリを有する。そしてメモリ6は、プロセッサ7上で実行される、瞳孔間距離推定処理及び注視位置検出処理用のコンピュータプログラム、各種のアプリケーションプログラム及び各種のデータを記憶する。   The memory 6 is another example of the storage unit, and includes, for example, a readable / writable nonvolatile semiconductor memory and a readable / writable volatile semiconductor memory. The memory 6 stores a computer program for pupil distance estimation processing and gaze position detection processing, various application programs, and various data executed on the processor 7.

さらに、メモリ6は、ユーザの瞳孔間距離を算出するために利用される各種のデータ、及び、ユーザの注視位置を検出するために利用される各種のデータを記憶してもよい。例えば、メモリ6は、表示装置2及びカメラ3の実空間での位置、カメラ3の焦点距離などを記憶する。さらにまた、メモリ6は、算出された瞳孔間距離を記憶する。   Furthermore, the memory 6 may store various data used for calculating the distance between the pupils of the user and various data used for detecting the user's gaze position. For example, the memory 6 stores the positions of the display device 2 and the camera 3 in real space, the focal length of the camera 3, and the like. Furthermore, the memory 6 stores the calculated interpupillary distance.

プロセッサ7は、例えば、少なくとも一つのCentral Processing Unit(CPU)及びその周辺回路を有する。さらに、プロセッサ7は、数値演算プロセッサまたはGraphics Processing Unit(GPU)を有していてもよい。そしてプロセッサ7は、デジタルサイネージシステム1の各部と信号線を介して接続されており、デジタルサイネージシステム1全体を制御する。例えば、プロセッサ7は、入力装置4から受け取った操作信号と実行中のアプリケーションプログラムに応じて、所定の動画像などを表示装置2に表示させる。   The processor 7 includes, for example, at least one Central Processing Unit (CPU) and its peripheral circuits. Further, the processor 7 may include a numerical arithmetic processor or a graphics processing unit (GPU). The processor 7 is connected to each part of the digital signage system 1 via a signal line, and controls the entire digital signage system 1. For example, the processor 7 causes the display device 2 to display a predetermined moving image or the like according to the operation signal received from the input device 4 and the application program being executed.

さらに、プロセッサ7は、ユーザがデジタルサイネージシステム1に接近したことを検知すると、最初に、実空間におけるユーザの瞳孔間距離をもとめる。そしてプロセッサ7は、一旦瞳孔間距離が求められると、その瞳孔間距離を利用して、画像が得られる度に、注視位置検出処理を実行することにより、ユーザの視線方向及び注視位置を検出する。   Further, when the processor 7 detects that the user has approached the digital signage system 1, the processor 7 first obtains the distance between the pupils of the user in the real space. Then, once the interpupillary distance is obtained, the processor 7 uses the interpupillary distance to detect the user's gaze direction and gaze position by executing a gaze position detection process each time an image is obtained. .

図3は、プロセッサ7の瞳孔間距離推定処理及び注視位置検出処理に関する機能ブロック図である。プロセッサ7は、瞳孔検出部21と、視線検出部22と、顔向き判定部23と、瞳孔間距離算出部24と、注視位置検出部25とを有する。
プロセッサ7が有するこれらの各部は、プロセッサ7上で実行されるコンピュータプログラムにより実現される機能モジュールである。またプロセッサ7が有するこれらの各部は、その各部の機能を実現するプロセッサ7内の回路の一部として実装されてもよい。
FIG. 3 is a functional block diagram related to the interpupillary distance estimation processing and gaze position detection processing of the processor 7. The processor 7 includes a pupil detection unit 21, a line-of-sight detection unit 22, a face orientation determination unit 23, an inter-pupil distance calculation unit 24, and a gaze position detection unit 25.
Each of these units included in the processor 7 is a functional module realized by a computer program executed on the processor 7. Each of these units included in the processor 7 may be mounted as a part of a circuit in the processor 7 that realizes the function of each unit.

プロセッサ7が有するこれらの各部のうち、瞳孔検出部21、視線検出部22、顔向き判定部23は、瞳孔間距離推定処理及び注視位置検出処理の両方で用いられる。また、瞳孔間距離算出部24は、瞳孔間距離推定処理で用いられる。一方、注視位置検出部25は、注視位置検出処理で用いられる。以下、瞳孔間距離推定処理及び注視位置検出処理のそれぞれについて、プロセッサ7が有するこれらの各部について説明する。   Among these units included in the processor 7, the pupil detection unit 21, the line-of-sight detection unit 22, and the face orientation determination unit 23 are used in both the inter-pupil distance estimation process and the gaze position detection process. The interpupillary distance calculation unit 24 is used in the interpupillary distance estimation process. On the other hand, the gaze position detection unit 25 is used in gaze position detection processing. Hereinafter, each part which the processor 7 has is demonstrated about each of the distance estimation process between pupils, and a gaze position detection process.

(瞳孔間距離推定処理)
本実施形態では、プロセッサ7は、瞳孔間距離推定処理を開始するまで、カメラ3から画像が得られる度に、その画像とメモリ6に記憶されている背景画像との間で背景差分処理を実行して、対応画素間の差分絶対値が所定値以上となる画素を抽出する。そしてプロセッサ7は、抽出された画素の数が所定数以上になると、瞳孔間距離推定処理を開始する。
なお、デジタルサイネージシステム1は、近接センサ(図示せず)を有していてもよい。そして近接センサが、カメラ3の正面に位置する物体を検知すると、プロセッサ7は、瞳孔間距離推定処理を開始してもよい。
(Interpupillary distance estimation processing)
In this embodiment, the processor 7 executes background difference processing between the image and the background image stored in the memory 6 every time an image is obtained from the camera 3 until the pupil distance estimation processing is started. Then, a pixel whose absolute difference value between corresponding pixels is a predetermined value or more is extracted. Then, the processor 7 starts the inter-pupil distance estimation process when the number of extracted pixels exceeds a predetermined number.
The digital signage system 1 may have a proximity sensor (not shown). Then, when the proximity sensor detects an object located in front of the camera 3, the processor 7 may start the inter-pupil distance estimation process.

図4を参照しつつ、最初に、瞳孔間距離を検出するための原理を説明する。図4は、実空間において、カメラ3の撮像面400の垂直方向に沿って上方から見た、表示装置2及びカメラ3と、ユーザの瞳孔との位置関係の一例を示す図である。画像上の瞳孔の位置は、カメラ3から瞳孔へ向かう方向を表すので、画像上で瞳孔を検出することにより、カメラ3から瞳孔への方向が分かる。すなわち、画像上の瞳孔の位置に基づいて、矢印401で示される、カメラ3からユーザの左眼の瞳孔へ向かう方向、及び、矢印402で示される、カメラ3からユーザの右眼の瞳孔へ向かう方向が求められる。   First, the principle for detecting the interpupillary distance will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a positional relationship between the display device 2 and the camera 3 and the user's pupil viewed from above along the vertical direction of the imaging surface 400 of the camera 3 in real space. Since the position of the pupil on the image represents the direction from the camera 3 toward the pupil, the direction from the camera 3 to the pupil can be known by detecting the pupil on the image. That is, based on the position of the pupil on the image, the direction from the camera 3 toward the pupil of the left eye of the user indicated by the arrow 401 and the direction from the camera 3 to the pupil of the right eye of the user indicated by the arrow 402 are directed. A direction is required.

また、ユーザは、両眼で表示装置2の表示画面上の注視位置を見ると想定されるので、矢印403で示される、左眼の視線方向と、矢印404で示される、右眼の視線方向とは、注視位置で交差する。したがって、注視位置から見て、左眼の視線方向に沿った直線と、カメラ3から見て、左眼の瞳孔へ向かう方向に沿った直線との交点が、実空間での左眼の瞳孔の位置となる。同様に、注視位置から見て、右眼の視線方向に沿った直線と、カメラ3から見て、右眼の瞳孔へ向かう方向に沿った直線との交点が、実空間での右眼の瞳孔の位置となる。ただし、注視位置は、事前には分からない。そのため、注視位置の候補(図4では、4個の注視位置の候補411〜414が示される)のそれぞれごとに、左眼の瞳孔の位置と右眼の瞳孔の位置の組み合わせの候補(図4では、候補421〜424)が求められることになる。   In addition, since it is assumed that the user looks at the gaze position on the display screen of the display device 2 with both eyes, the gaze direction of the left eye indicated by the arrow 403 and the gaze direction of the right eye indicated by the arrow 404 Intersect with the gaze position. Therefore, the intersection of the straight line along the line of sight of the left eye when viewed from the gaze position and the line along the direction toward the pupil of the left eye when viewed from the camera 3 is the intersection of the pupil of the left eye in real space. Position. Similarly, the intersection of the straight line along the line of sight of the right eye when viewed from the gaze position and the line along the direction of the right eye when viewed from the camera 3 is the pupil of the right eye in real space. It becomes the position. However, the gaze position is not known in advance. Therefore, for each gaze position candidate (four gaze position candidates 411 to 414 are shown in FIG. 4), a candidate combination of the left eye pupil position and the right eye pupil position (FIG. 4). Then, candidates 421 to 424) are obtained.

ここで、ユーザがカメラ3に対して正対している場合、カメラ3の光軸OAの方向に沿った、カメラ3から左眼までの距離と、カメラ3から右眼までの距離は等しい。上記の左眼の瞳孔の位置と右眼の瞳孔の位置の組み合わせのうち、カメラ3から左眼までの距離と、カメラ3から右眼までの距離が等しくなる組み合わせ(図4では、候補422)は一意に定められる。したがって、ユーザがカメラ3に対して正対している場合には、左眼の瞳孔の実空間での位置Prleft及び右眼の瞳孔の実空間での位置Prrightが求められ、その結果として、実空間での瞳孔間距離ppが算出される。 Here, when the user is facing the camera 3, the distance from the camera 3 to the left eye and the distance from the camera 3 to the right eye along the direction of the optical axis OA of the camera 3 are equal. Of the combinations of the positions of the left eye pupil and the right eye pupil, the distance from the camera 3 to the left eye is equal to the distance from the camera 3 to the right eye (candidate 422 in FIG. 4). Is uniquely determined. Therefore, when the user is facing the camera 3, the position Pr left in the real space of the pupil of the left eye and the position Pr right in the real space of the pupil of the right eye are obtained, and as a result, The pupil distance pp in the real space is calculated.

そこで、本実施形態では、瞳孔検出部21が、画像からユーザの左眼及び右眼のそれぞれの瞳孔を検出し、視線検出部22が、画像上での左眼及び右眼に基づいて、左眼の視線方向及び右眼の視線方向を検出する。また、顔向き判定部23が、ユーザの顔がカメラ3に対して正対しているか否か判定する。そして瞳孔間距離算出部24が、ユーザの顔がカメラ3に対して正対している場合の左眼の視線方向及び右眼の視線方向と、カメラ3から左眼の瞳孔へ向かう方向及び右眼の瞳孔へ向かう方向とに基づいて、瞳孔間距離を算出する。   Therefore, in the present embodiment, the pupil detection unit 21 detects the respective pupils of the user's left eye and right eye from the image, and the line-of-sight detection unit 22 determines the left eye based on the left eye and the right eye on the image. An eye gaze direction and a right eye gaze direction are detected. Further, the face orientation determination unit 23 determines whether or not the user's face is facing the camera 3. Then, the interpupillary distance calculation unit 24 performs the left eye gaze direction and the right eye gaze direction when the user's face is facing the camera 3, and the direction from the camera 3 toward the left eye pupil and the right eye. The interpupillary distance is calculated based on the direction toward the pupil.

瞳孔検出部21は、瞳孔間距離推定処理の実行中において、瞳孔間距離が算出されるまで、画像が得られる度に、画像上でユーザの左眼及び右眼の瞳孔を検出する。なお、瞳孔検出部21は、全ての画像に対して同一の処理を実行すればよいので、以下では、一つの画像に対する処理について説明する。   The pupil detection unit 21 detects the pupils of the user's left eye and right eye on the image every time an image is obtained until the interpupillary distance is calculated during execution of the interpupillary distance estimation process. Note that the pupil detection unit 21 only needs to execute the same processing for all images, and therefore, processing for one image will be described below.

瞳孔検出部21は、画像から、先ず、ユーザの左右の眼のそれぞれについて、その眼が写っている領域(以下、単に眼領域と呼ぶ)を検出する。そのために、瞳孔検出部21は、例えば、画像から眼領域を検出するように予め学習された識別器を用いて眼領域を検出する。この場合、識別器として、例えば、アダブーストまたはリアルアダブースト、サポートベクトルマシン、あるいは、ディープニューラルネットワークが利用される。そして瞳孔検出部21は、画像上にウインドウを設定し、そのウインドウの位置を変えながら、ウインドウ内の各画素の値またはそのウインドウから抽出した特徴量を識別器に入力することで、そのウインドウが眼領域か否かを判定する。また、特徴量として、例えば、Haar-like特徴量あるいはHistograms of Oriented Gradients特徴量が抽出される。   The pupil detection unit 21 first detects an area (hereinafter simply referred to as an eye area) in which each of the user's left and right eyes is reflected from the image. For this purpose, the pupil detection unit 21 detects the eye region using, for example, a discriminator that has been learned in advance so as to detect the eye region from the image. In this case, for example, Adaboost or Real Adaboost, a support vector machine, or a deep neural network is used as the discriminator. The pupil detection unit 21 sets a window on the image, and inputs the value of each pixel in the window or the feature amount extracted from the window to the discriminator while changing the position of the window. It is determined whether or not the eye area. Further, for example, a Haar-like feature quantity or a Histograms of Oriented Gradients feature quantity is extracted as the feature quantity.

あるいは、瞳孔検出部21は、眼を表すテンプレートと、画像とのテンプレートマッチングにより、テンプレートに最も一致する二つの領域を検出し、その検出した二つの領域のそれぞれを眼領域としてもよい。あるいはまた、瞳孔検出部21は、画像上に写っている眼の領域を検出する他の様々な方法の何れかに従って眼領域を検出してもよい。   Alternatively, the pupil detection unit 21 may detect two regions that most closely match the template by template matching between the template representing the eye and the image, and each of the two detected regions may be used as the eye region. Alternatively, the pupil detection unit 21 may detect the eye area according to any of various other methods for detecting the eye area shown on the image.

眼領域が検出されると、瞳孔検出部21は、左右の眼のそれぞれの眼領域内で瞳孔を検出する。   When the eye area is detected, the pupil detection unit 21 detects the pupil in the respective eye areas of the left and right eyes.

例えば、瞳孔検出部21は、瞳孔を検出するために、瞳孔に相当するテンプレートと眼領域との間でテンプレートマッチングを行い、眼領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして瞳孔検出部21は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域を、瞳孔が写っている瞳孔領域と判定する。なお、ユーザの周囲の明るさに応じて瞳孔のサイズは変化する。また、瞳孔は略円形であるが、カメラ3が瞳孔を斜めから見ている場合、画像上での瞳孔の形状は垂直方向に長い楕円形状となる。そこでテンプレートは、瞳孔の大きさまたは形状に応じて複数準備されてもよい。この場合、瞳孔検出部21は、各テンプレートと眼領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、瞳孔検出部21は、一致度の最高値に対応するテンプレートと重なった領域を瞳孔領域と判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。   For example, in order to detect a pupil, the pupil detection unit 21 performs template matching between a template corresponding to the pupil and an eye region, and detects a region having the highest degree of matching with the template in the eye region. If the highest coincidence value is higher than a predetermined coincidence threshold value, the pupil detection unit 21 determines that the detected region is a pupil region in which the pupil is reflected. Note that the size of the pupil changes according to the brightness around the user. Moreover, although the pupil is substantially circular, when the camera 3 is viewing the pupil from an oblique direction, the shape of the pupil on the image is an elliptical shape that is long in the vertical direction. Therefore, a plurality of templates may be prepared according to the size or shape of the pupil. In this case, the pupil detection unit 21 executes template matching between each template and the eye region, and obtains the highest matching degree. If the highest coincidence value is higher than the coincidence threshold, the pupil detection unit 21 determines that the region overlapping the template corresponding to the highest coincidence value is a pupil region. Note that the degree of coincidence is calculated as, for example, a normalized cross-correlation value between a template and a region overlapping the template. The coincidence threshold is set to 0.7 or 0.8, for example.

また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこで瞳孔検出部21は、眼領域内で、同心円状に半径の異なる2本のリングを持つ2重リングフィルタを設定する。そして瞳孔検出部21は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。また瞳孔検出部21は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、眼領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。   The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Accordingly, the pupil detection unit 21 sets a double ring filter having two rings with different radii concentrically within the eye region. When the difference value obtained by subtracting the average luminance value of the inner pixels from the average luminance value of the pixels corresponding to the outer ring is larger than a predetermined threshold, the pupil detection unit 21 is surrounded by the inner ring. The region may be a pupil region. In addition, the pupil detection unit 21 may add to the condition for detecting the pupil region that the average luminance value of the region surrounded by the inner ring is equal to or less than a predetermined threshold value. In this case, for example, the predetermined threshold is set to a value obtained by adding 10% to 20% of the difference between the maximum luminance value and the minimum luminance value in the eye region to the minimum luminance value.

なお、瞳孔検出部21は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔領域を検出してもよい。   Note that the pupil detection unit 21 may detect the pupil region using any of various other methods for detecting a region in which the pupil is shown on the image.

瞳孔検出部21は、ユーザの左右の眼のそれぞれについて、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心(以下、単に瞳孔重心と呼ぶ)の位置座標として算出する。   The pupil detection unit 21 calculates, for each of the left and right eyes of the user, the average value of the horizontal coordinate values and the average value of the vertical coordinate values of each pixel included in the pupil region, as the center of the pupil region (hereinafter simply referred to as the pupil center of gravity). As the position coordinates).

瞳孔検出部21は、ユーザの左右のそれぞれの眼について、眼領域を表す情報及び瞳孔重心の位置座標を視線検出部22へ通知する。また瞳孔検出部21は、ユーザの左右のそれぞれの眼について、瞳孔重心の位置座標を顔向き判定部23及び瞳孔間距離算出部24へ通知する。   The pupil detection unit 21 notifies the line-of-sight detection unit 22 of information representing the eye area and the position coordinates of the center of gravity of the pupil for each of the left and right eyes of the user. The pupil detection unit 21 notifies the face orientation determination unit 23 and the interpupillary distance calculation unit 24 of the position coordinates of the pupil center of gravity for the left and right eyes of the user.

視線検出部22は、瞳孔間距離推定処理の実行中において、瞳孔間距離が算出されるまで、ユーザの左右のそれぞれの眼について瞳孔重心が検出される度に、ユーザの左右のそれぞれの眼について視線方向を検出する。なお、視線検出部22は、左眼と右眼とで、同じ処理を実行すればよいので、以下では、一方の眼についての処理について説明する。   When the pupil center of gravity is detected for each of the left and right eyes of the user until the interpupillary distance is calculated during execution of the interpupillary distance estimation process, the line-of-sight detection unit 22 Detect gaze direction. Note that the line-of-sight detection unit 22 only needs to execute the same process for the left eye and the right eye, and therefore, the process for one eye will be described below.

視線検出部22は、例えば、画像上での虹彩に基づいて、視線方向を検出する。この場合、視線検出部22は、例えば、西内他、「虹彩輪郭の楕円近似を用いた非接触視線検出法の研究」、日本機械学会、日本機械学会論文集、C編、69巻、682号、pp.1611-1617、2003年、に記載された方法に従って視線方向を検出すればよい。   The line-of-sight detection unit 22 detects the line-of-sight direction based on, for example, an iris on the image. In this case, the line-of-sight detection unit 22 is, for example, Nishiuchi et al., “Study on non-contact line-of-sight detection method using elliptical approximation of iris contour”, Japan Society of Mechanical Engineers, Japan Society of Mechanical Engineers, Volume C, Volume 69, 682 No., pp. 1611-1617, 2003, may be used to detect the line-of-sight direction.

この場合、視線検出部22は、先ず、眼領域から虹彩の輪郭を抽出する。一般に、虹彩に相当する部分の画素の輝度は、虹彩の周囲に相当する部分(いわゆる白眼)の画素の輝度よりも低い。さらに、虹彩の輪郭(以下、単に虹彩輪郭と呼ぶ)は、瞳孔重心を中心とする略円形状となる。そこで視線検出部22は、例えば、瞳孔重心から放射状に設定する複数の走査線のそれぞれにそって、例えば、CannyフィルタまたはSobelフィルタを用いてエッジ画素を検出する。そして視線検出部22は、検出されたエッジ画素の集合に対して楕円近似を行うことで得られる輪郭線を虹彩輪郭として抽出する。その際、視線検出部22は、瞳孔重心からの距離が所定の範囲内となるエッジ画素から虹彩輪郭を抽出してもよい。所定の範囲は、例えば、画像上で想定される虹彩のサイズの最小値に相当する、瞳孔重心から虹彩輪郭までの距離を下限とし、画像上で想定される虹彩のサイズの最大値に相当する、瞳孔重心から虹彩輪郭までの距離を上限とする範囲に設定される。   In this case, the line-of-sight detection unit 22 first extracts an iris outline from the eye region. In general, the luminance of the pixel corresponding to the iris is lower than the luminance of the pixel corresponding to the periphery of the iris (so-called white-eye). Further, the contour of the iris (hereinafter simply referred to as the “iris contour”) has a substantially circular shape centered on the center of the pupil. Therefore, the line-of-sight detection unit 22 detects edge pixels using, for example, a Canny filter or a Sobel filter along each of a plurality of scanning lines set radially from the center of gravity of the pupil. Then, the line-of-sight detection unit 22 extracts a contour line obtained by performing ellipse approximation on the detected set of edge pixels as an iris contour. At this time, the line-of-sight detection unit 22 may extract an iris outline from edge pixels whose distance from the pupil center of gravity is within a predetermined range. The predetermined range corresponds to, for example, the maximum value of the iris size assumed on the image, with the distance from the center of the pupil to the iris contour corresponding to the minimum value of the iris size assumed on the image as a lower limit. The distance from the center of the pupil to the iris contour is set to an upper limit.

あるいは、視線検出部22は、画像から虹彩輪郭を抽出する他の様々な方法の何れかに従って虹彩輪郭を抽出してもよい。   Alternatively, the line-of-sight detection unit 22 may extract the iris contour according to any of various other methods for extracting the iris contour from the image.

視線検出部22は、画像上での、虹彩輪郭を近似する楕円の長軸RAに対する短軸RBの比に基づいて、カメラ座標系での原点Oと眼球の中心Cとを結ぶ線と、視線方向を表す視線ベクトルとがなす角度ηを、次式に従って算出する。

Figure 2018205819
Based on the ratio of the short axis R B to the long axis R A of the ellipse that approximates the iris contour on the image, the line-of-sight detection unit 22 is a line connecting the origin O and the center C of the eyeball in the camera coordinate system. The angle η formed by the line-of-sight vector representing the line-of-sight direction is calculated according to the following equation.
Figure 2018205819

そして、視線検出部22は、角度ηと、虹彩輪郭を近似する楕円の短軸RBと画像の垂直軸とがなす角度ζとに基づいて、次式に従って、視線ベクトルの単位ベクトルeを算出する。

Figure 2018205819
ここで、角度αは、視線ベクトルを、カメラ座標系での光軸に沿った方向と画像の水平方向に対応するカメラ座標系での方向とを含む面へ射影したときの、視線ベクトルと光軸に沿った負の方向(ユーザからカメラ3へ向かう方向)とがなす角である。なお、以下では、カメラ座標系での光軸に沿った方向をz軸方向と呼び、画像の水平方向に対応するカメラ座標系での方向をx軸方向と呼ぶ。また角度βは、視線ベクトルを、z軸方向と画像の垂直方向に対応するカメラ座標系での方向(以下、y軸方向と呼ぶ)とを含む面へ射影したときの、視線ベクトルとz軸の負の方向とがなす角である。また、γxは、xz平面における、光軸(すなわち、z軸)と眼球中心とがなす角度であり、γyは、yz平面における、光軸と眼球中心とがなす角度である。なお、γx及びγyは、画像上での瞳孔重心の位置から算出される、xz平面及びyz平面のそれぞれにおける、光軸と瞳孔重心とがなす角度により近似的に算出されてもよい。 Then, the line-of-sight detection section 22, and the angle eta, based on the angle ζ formed by the vertical axis of the minor axis R B and the image of the ellipse approximating the iris outline, according to the following equation, calculates a unit vector e of the line-of-sight vector To do.
Figure 2018205819
Here, the angle α is the line-of-sight vector and light when the line-of-sight vector is projected onto a plane including a direction along the optical axis in the camera coordinate system and a direction in the camera coordinate system corresponding to the horizontal direction of the image. It is an angle formed by a negative direction (direction from the user toward the camera 3) along the axis. In the following, the direction along the optical axis in the camera coordinate system is referred to as the z-axis direction, and the direction in the camera coordinate system corresponding to the horizontal direction of the image is referred to as the x-axis direction. The angle β is the line-of-sight vector and the z-axis when the line-of-sight vector is projected onto a plane including the z-axis direction and the direction in the camera coordinate system corresponding to the vertical direction of the image (hereinafter referred to as the y-axis direction). The angle formed by the negative direction of. Further, γ x is an angle formed by the optical axis (that is, the z axis) and the eyeball center in the xz plane, and γ y is an angle formed by the optical axis and the eyeball center in the yz plane. Note that γ x and γ y may be approximately calculated by the angle formed by the optical axis and the pupil centroid in each of the xz plane and the yz plane, which is calculated from the position of the pupil centroid on the image.

変形例によれば、視線検出部22は、デジタルサイネージシステム1がユーザの眼を照明する光源を有している場合、画像上でのその光源の角膜反射像(以下、プルキンエ像と呼ぶ)の位置と瞳孔重心との位置関係に基づいて視線方向を検出してもよい。
この場合、視線検出部22は、例えば、テンプレートマッチングにより眼領域内でプルキンエ像を検出する。そして視線検出部22は、例えば、プルキンエ像と瞳孔重心間の相対的な位置関係と視線方向との関係を表す参照テーブルを参照して、プルキンエ像と瞳孔重心の位置に対応する視線方向を特定すればよい。なお、参照テーブルは、例えば、カメラ3と光源との位置関係に応じて予め作成され、メモリ6に保存されればよい。
According to the modification, when the digital signage system 1 has a light source that illuminates the user's eyes, the line-of-sight detection unit 22 is a cornea reflection image (hereinafter referred to as a Purkinje image) of the light source on the image. The line-of-sight direction may be detected based on the positional relationship between the position and the pupil center of gravity.
In this case, the line-of-sight detection unit 22 detects a Purkinje image in the eye region by, for example, template matching. Then, the line-of-sight detection unit 22 specifies the line-of-sight direction corresponding to the position of the Purkinje image and the pupil center of gravity, for example, with reference to a reference table representing the relationship between the relative positional relationship between the Purkinje image and the pupil center of gravity and the line-of-sight direction. do it. The reference table may be created in advance according to the positional relationship between the camera 3 and the light source and stored in the memory 6, for example.

視線検出部22は、ユーザの左眼及び右眼のそれぞれについて検出された視線方向を瞳孔間距離算出部24へ通知する。   The line-of-sight detection unit 22 notifies the interpupillary distance calculation unit 24 of the line-of-sight directions detected for each of the user's left eye and right eye.

顔向き判定部23は、ユーザの顔がカメラ3に対して正対しているか否か判定する。   The face orientation determination unit 23 determines whether or not the user's face is facing the camera 3.

本実施形態では、カメラ3は、表示装置2の表示画面の下方に配置されているので、カメラ3はユーザの顔よりも下側を向いていると想定される。そのため、ユーザがカメラ3に対して正対していれば、画像上での左眼の瞳孔重心の垂直方向位置と、右眼の瞳孔重心の垂直方向位置とは略等しくなる。一方、ユーザがカメラ3に対して顔を傾けていれば、カメラ3の光軸と、カメラ3に近い方の眼へカメラ3から向かう方向とのなす角度は、カメラ3の光軸と、カメラ3から遠い方の眼へカメラ3から向かう方向とのなす角度よりも大きくなる。その結果として、画像上で、カメラ3に近い方の眼の瞳孔重心は、カメラ3から遠い方の眼の瞳孔重心よりも垂直方向に沿って上方に位置することになる。   In this embodiment, since the camera 3 is arrange | positioned under the display screen of the display apparatus 2, it is assumed that the camera 3 has faced the lower side rather than the user's face. Therefore, if the user is facing the camera 3, the vertical position of the left-eye pupil centroid on the image is substantially equal to the vertical position of the right-eye pupil centroid. On the other hand, if the user tilts his / her face with respect to the camera 3, the angle formed by the optical axis of the camera 3 and the direction from the camera 3 toward the eye closer to the camera 3 is the optical axis of the camera 3 and the camera This is larger than the angle formed by the direction from the camera 3 to the eye far from 3. As a result, the pupil centroid of the eye closer to the camera 3 is positioned above the pupil centroid of the eye farther from the camera 3 along the vertical direction on the image.

図5(a)は、ユーザの顔がカメラ3に対して正対している場合の顔の画像の一例を示す図であり、図5(b)は、ユーザがカメラ3に対して顔を傾けている場合の顔の画像の一例を示す図である。   FIG. 5A is a diagram illustrating an example of a face image when the user's face is facing the camera 3, and FIG. 5B is a view in which the user tilts the face with respect to the camera 3. It is a figure which shows an example of the image of the face in the case of being.

図5(a)に示されるように、ユーザの顔501がカメラ3に対して正対している場合、画像500上で、左眼502の垂直方向の位置と右眼503の垂直方向の位置とは略一致する。一方、図5(b)に示されるように、ユーザの顔511がカメラ3に対して傾いている場合、画像510上で、カメラ3に近い方の眼(この例では、左眼)512よりも、カメラ3から遠い方の眼(この例では、右眼)513の方が下側に位置している。このように、顔向き判定部23は、画像上での右目と左目の垂直方向の位置を比較することで、ユーザの顔がカメラ3に対して正対しているか否かを判定できる。   As shown in FIG. 5A, when the user's face 501 is directly facing the camera 3, the vertical position of the left eye 502 and the vertical position of the right eye 503 on the image 500. Are almost identical. On the other hand, as shown in FIG. 5B, when the user's face 511 is inclined with respect to the camera 3, the eye closer to the camera 3 on the image 510 (in this example, the left eye) 512. Also, the eye far from the camera 3 (in this example, the right eye) 513 is positioned on the lower side. Thus, the face orientation determination unit 23 can determine whether or not the user's face is facing the camera 3 by comparing the positions of the right eye and the left eye in the vertical direction on the image.

そこで、顔向き判定部23は、画像上での左眼の瞳孔重心の垂直方向位置と右眼の瞳孔重心の垂直方向位置の差の絶対値を算出し、その差の絶対値を正対判定閾値(例えば、1〜2)と比較する。そして顔向き判定部23は、その差の絶対値が正対判定閾値以下であれば、ユーザの顔はカメラ3に対して正対していると判定する。一方、その差の絶対値が正対判定閾値よりも大きければ、顔向き判定部23は、ユーザの顔はカメラ3に対して正対していないと判定する。そして顔向き判定部23は、左眼と右眼のうち、瞳孔重心の垂直方向位置が下方に位置している方がカメラ3から遠いと判定する。例えば、画像上での左眼の瞳孔重心が、右眼の瞳孔重心よりも下方に位置していれば、顔向き判定部23は、右眼よりも左眼の方がカメラ3から遠い、すなわち、ユーザの顔はカメラ3よりも左側を向いていると判定する。なお、カメラ3から見れば、ユーザはカメラ3よりも右側を向いていることになる。逆に、画像上での右眼の瞳孔重心が、左眼の瞳孔重心よりも下方に位置していれば、顔向き判定部23は、左眼よりも右眼の方がカメラ3から遠い、すなわち、ユーザの顔はカメラ3よりも右側を向いていると判定する。この場合、カメラ3から見れば、ユーザはカメラ3よりも左側を向いていることになる。   Therefore, the face orientation determination unit 23 calculates the absolute value of the difference between the vertical position of the left eye's pupil centroid on the image and the vertical position of the right eye's pupil centroid, and determines the absolute value of the difference as a confrontation. Compare with a threshold (eg, 1-2). The face orientation determination unit 23 determines that the user's face is facing the camera 3 if the absolute value of the difference is equal to or less than the facing determination threshold. On the other hand, if the absolute value of the difference is larger than the confrontation determination threshold, the face orientation determination unit 23 determines that the user's face is not facing the camera 3. Then, the face orientation determination unit 23 determines that the left eye and the right eye, in which the vertical position of the center of gravity of the pupil is located below, is farther from the camera 3. For example, if the pupil centroid of the left eye on the image is positioned below the pupil centroid of the right eye, the face orientation determination unit 23 determines that the left eye is farther from the camera 3 than the right eye. It is determined that the user's face is facing the left side of the camera 3. When viewed from the camera 3, the user is facing the right side of the camera 3. On the contrary, if the pupil centroid of the right eye on the image is positioned below the pupil centroid of the left eye, the face orientation determination unit 23 determines that the right eye is farther from the camera 3 than the left eye. That is, it is determined that the user's face is facing the right side of the camera 3. In this case, when viewed from the camera 3, the user is facing the left side of the camera 3.

なお、カメラ3が表示装置2よりも上側に配置されている場合も、顔向き判定部23は、上記と同様に、左眼の瞳孔重心の垂直方向位置と右眼の瞳孔重心の垂直方向位置とを比較することで、ユーザの顔がカメラ3に対して正対しているか否かを判定できる。またこの場合において、カメラ3がユーザの顔よりも上方を向いていると想定される場合は、顔向き判定部23は、左眼と右眼のうち、瞳孔重心の垂直方向位置が上方に位置している方がカメラ3から遠いと判定すればよい。   Even when the camera 3 is disposed above the display device 2, the face orientation determination unit 23 performs the vertical position of the left eye pupil centroid and the vertical position of the right eye pupil centroid, as described above. Can be determined whether or not the user's face is facing the camera 3. In this case, when it is assumed that the camera 3 is facing upward from the user's face, the face orientation determination unit 23 determines that the vertical position of the pupil center of gravity is located above the left eye and the right eye. What is necessary is just to determine that the person doing is far from the camera 3.

また、顔向き判定部23は、画像から顔の向きを判定する他の方法にしたがって、ユーザの顔がカメラ3に対して正対しているか否かを判定してもよい。例えば、顔向き判定部23は、画像上でのユーザの顔の正中線及び鼻の頂点を検出し、鼻の頂点が正中線上に位置していれば、ユーザの顔がカメラ3に対して正対していると判定してもよい。この場合には、例えば、顔向き判定部23は、画像上で肌色を有している画素を検出し、検出された肌色を持つ画素の集合を顔領域として検出する。そして顔向き判定部23は、顔領域内で、例えば、口検出用の識別器を用いて、あるいは、テンプレートマッチングにより、口が写っている口領域を検出する。顔向き判定部23は、左右の眼領域間の中点と、口領域の水平方向における中点とを結ぶ線を、顔の正中線とする。さらに、顔向き判定部23は、鼻の頂点検出用の識別器を用いて、あるいは、テンプレートマッチングにより、鼻の頂点を検出すればよい。そして顔向き判定部23は、画像上での鼻の頂点から正中線までの距離を算出し、その距離が所定の閾値未満であれば、鼻の頂点が正中線上に位置している、すなわち、ユーザの顔はカメラ3と正対していると判定すればよい。   The face orientation determination unit 23 may determine whether or not the user's face is facing the camera 3 according to another method for determining the face orientation from the image. For example, the face orientation determination unit 23 detects the midline and nose vertex of the user's face on the image, and if the nose vertex is located on the midline, the user's face is normal to the camera 3. You may determine that it is. In this case, for example, the face orientation determination unit 23 detects pixels having a skin color on the image, and detects a set of pixels having the detected skin color as a face region. Then, the face orientation determination unit 23 detects a mouth region in which the mouth is reflected in the face region, for example, using a mouth detection discriminator or by template matching. The face orientation determination unit 23 sets a line connecting the midpoint between the left and right eye areas and the midpoint in the horizontal direction of the mouth area as the midline of the face. Further, the face orientation determination unit 23 may detect the nose apex using a nose apex detection discriminator or by template matching. Then, the face orientation determination unit 23 calculates a distance from the vertex of the nose to the median line on the image, and if the distance is less than a predetermined threshold, the vertex of the nose is positioned on the median line. It may be determined that the user's face is directly facing the camera 3.

顔向き判定部23は、ユーザの顔がカメラ3に対して正対しているか否かの判定結果を瞳孔間距離算出部24へ通知する。   The face orientation determination unit 23 notifies the interpupillary distance calculation unit 24 of the determination result as to whether or not the user's face is facing the camera 3.

瞳孔間距離算出部24は、ユーザの顔がカメラ3に対して正対しているときの画像に基づいて、実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置を算出する。本実施形態では、瞳孔間距離算出部24は、画像上での両眼の瞳孔重心の位置に応じたカメラ3と両眼間の位置関係と、両眼の視線方向と、カメラ3と表示装置2の表示画面との位置関係に基づいて、実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置を算出する。そして瞳孔間距離算出部24は、実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置から、瞳孔間距離を算出する。   The interpupillary distance calculation unit 24 calculates the position of the pupil of the left eye and the position of the pupil of the right eye in the real space based on the image when the user's face is facing the camera 3. In the present embodiment, the interpupillary distance calculation unit 24 includes the positional relationship between the camera 3 and both eyes according to the position of the center of gravity of the pupils of both eyes on the image, the line-of-sight direction of both eyes, the camera 3 and the display device. The position of the left eye pupil and the position of the right eye pupil in the real space are calculated based on the positional relationship with the second display screen. Then, the interpupillary distance calculation unit 24 calculates the interpupillary distance from the position of the pupil of the left eye and the position of the pupil of the right eye in the real space.

図6(a)及び図6(b)は、表示装置2及びカメラ3と、瞳孔の位置及び注視位置との関係の一例を示す図である。図6(a)及び図6(b)において、カメラ座標系の原点Oは、例えば、カメラ3の撮像光学系の後側主点に設定される。そしてPileft及びPirightは、それぞれ、画像上の左眼及び右眼の瞳孔重心の位置に対応する、原点Oからカメラ3の撮像光学系の焦点距離fだけ離れた位置にある、カメラ3の撮像面600上の位置を表す。またPrleft及びPrrightは、それぞれ、実空間でのユーザの左眼の瞳孔重心及び右眼の瞳孔重心を表す。Kは、カメラ3の光軸OAに沿った、原点Oから表示装置2の表示画面までの距離を表す。dは、カメラ3の光軸OAに沿った、原点Oから実空間でのユーザの左眼及び右眼の瞳孔重心Prleft及びPrrightまでの距離を表す。そしてEVleft及びEVrightは、それぞれ、ユーザの左眼の視線方向及び右眼の視線方向を表す。またLは、表示装置2の表示画面上の注視位置を表す。 FIGS. 6A and 6B are diagrams illustrating an example of the relationship between the display device 2 and the camera 3, and the position of the pupil and the gaze position. 6A and 6B, the origin O of the camera coordinate system is set to the rear principal point of the imaging optical system of the camera 3, for example. Pi left and Pi right correspond to the positions of the center of the pupils of the left eye and the right eye on the image, respectively, and are located at a position separated from the origin O by the focal length f of the imaging optical system of the camera 3. The position on the imaging surface 600 is represented. Pr left and Pr right represent the pupil centroid of the left eye and the pupil centroid of the right eye, respectively, in real space. K represents the distance from the origin O to the display screen of the display device 2 along the optical axis OA of the camera 3. d represents the distance from the origin O to the pupil centroids Pr left and Pr right of the user's left and right eyes in real space along the optical axis OA of the camera 3. EV left and EV right represent the line-of-sight direction of the user's left eye and the line-of-sight direction of the right eye, respectively. L represents a gaze position on the display screen of the display device 2.

カメラ座標系において、原点Oから左眼の瞳孔重心へ向かう方向を表すベクトルPVleft及び原点Oから右眼の瞳孔重心へ向かう方向を表すベクトルPVrightは、それぞれ、次式で表される。

Figure 2018205819
したがって、カメラ座標系における、実空間での左眼の瞳孔重心の位置Prleft及び右眼の瞳孔重心の位置Prrightは、次式で表される。
Figure 2018205819
ここで、φleftは、カメラ3から左眼の瞳孔重心Prleftへ向かう方向とカメラ3の光軸OAとがなす角である。またφrightは、カメラ3から右眼の瞳孔重心Prrightへ向かう方向とカメラ3の光軸OAとがなす角である。 In the camera coordinate system, a vector PV left representing a direction from the origin O toward the pupil centroid of the left eye and a vector PV right representing a direction from the origin O to the pupil centroid of the right eye are respectively expressed by the following equations.
Figure 2018205819
Therefore, in the camera coordinate system, the left-eye pupil centroid position Pr left and the right-eye pupil centroid position Pr right in real space are expressed by the following equations.
Figure 2018205819
Here, φ left is an angle formed by the direction from the camera 3 toward the pupil center of gravity Pr left of the left eye and the optical axis OA of the camera 3. Φ right is an angle formed by a direction from the camera 3 toward the right eye pupil center of gravity Pr right and the optical axis OA of the camera 3.

一方、ユーザの左眼と右眼の両方は、同じ注視位置を見ていると想定されることから、次式が成立する。

Figure 2018205819
ここで、σleftは、注視位置Lから左眼の瞳孔重心Prleftへ向かう方向とカメラ3の光軸OAとがなす角である。またσrightは、注視位置Lから右眼の瞳孔重心Prrightへ向かう方向とカメラ3の光軸OAとがなす角である。 On the other hand, since it is assumed that both the left eye and the right eye of the user are looking at the same gaze position, the following equation is established.
Figure 2018205819
Here, σ left is an angle formed by the direction from the gaze position L toward the pupil center of gravity Pr left of the left eye and the optical axis OA of the camera 3. Σ right is an angle formed by the direction from the gaze position L toward the right eye pupil center of gravity Pr right and the optical axis OA of the camera 3.

したがって、瞳孔間距離算出部24は、(4)式及び(5)式を解くことにより、距離d及び実空間での左眼の瞳孔重心の位置Prleft及び右眼の瞳孔重心の位置Prrightを算出できる。そして瞳孔間距離算出部24は、次式に従って、実空間での瞳孔間距離ppを算出する。

Figure 2018205819
Therefore, the interpupillary distance calculation unit 24 solves the equations (4) and (5) to obtain the distance d and the left eye pupil centroid position Pr left and the right eye pupil centroid position Pr right in real space. Can be calculated. Then, the interpupillary distance calculation unit 24 calculates the interpupillary distance pp in the real space according to the following equation.
Figure 2018205819

瞳孔間距離算出部24は、算出した瞳孔間距離ppをメモリ6に保存する。   The interpupillary distance calculation unit 24 stores the calculated interpupillary distance pp in the memory 6.

図7は、プロセッサ7により実行される、瞳孔間距離推定処理の動作フローチャートである。プロセッサ7は、カメラ3から画像を受け取る度に、この動作フローチャートに従って瞳孔間距離推定処理を実行すればよい。   FIG. 7 is an operation flowchart of the inter-pupil distance estimation process executed by the processor 7. Every time the processor 7 receives an image from the camera 3, it is only necessary to execute an interpupillary distance estimation process according to this operation flowchart.

瞳孔検出部21は、画像からユーザの左右の眼のそれぞれについて眼領域を検出する(ステップS101)。そして瞳孔検出部21は、ユーザの左右の眼のそれぞれについて、眼領域内で瞳孔重心を検出する(ステップS102)。   The pupil detection unit 21 detects an eye area for each of the user's left and right eyes from the image (step S101). The pupil detection unit 21 detects the center of gravity of the pupil in the eye area for each of the user's left and right eyes (step S102).

視線検出部22は、ユーザの左右の眼のそれぞれについて、視線方向を検出する(ステップS103)。   The line-of-sight detection unit 22 detects the line-of-sight direction for each of the left and right eyes of the user (step S103).

また、顔向き判定部23は、例えば、画像上の左右の眼のそれぞれの垂直方向の位置に基づいて、ユーザの顔がカメラ3に対して正対しているか否か判定する(ステップS104)。ユーザの顔がカメラ3に対して正対していなければ(ステップS104−No)、プロセッサ7は、瞳孔間距離推定処理を終了する。   Further, the face orientation determination unit 23 determines whether or not the user's face is facing the camera 3 based on, for example, the vertical positions of the left and right eyes on the image (step S104). If the user's face does not face the camera 3 (No at Step S104), the processor 7 ends the interpupillary distance estimation process.

一方、ユーザの顔がカメラ3に対して正対していれば(ステップS104−Yes)、瞳孔間距離算出部24は、左右それぞれの眼についての視線方向とカメラ3から瞳孔重心へ向かう方向とに基づいて、実空間での瞳孔間距離を算出する(ステップS105)。瞳孔間距離算出部24は、算出した瞳孔間距離をメモリ6に保存する。そしてプロセッサ7は、瞳孔間距離推定処理を終了する。   On the other hand, if the user's face is directly facing the camera 3 (step S104—Yes), the interpupillary distance calculation unit 24 sets the gaze direction for each of the left and right eyes and the direction from the camera 3 toward the center of the pupil. Based on this, the inter-pupil distance in the real space is calculated (step S105). The interpupillary distance calculation unit 24 stores the calculated interpupillary distance in the memory 6. Then, the processor 7 ends the interpupillary distance estimation process.

なお、プロセッサ7は、ステップS103の処理とステップS104の処理の順序を入れ替えてもよい。すなわち、ステップS104にて、ユーザの顔がカメラ3に対して正対していると判定された場合に、視線検出部22は、ユーザの左右の眼のそれぞれについて視線方向を検出してもよい。また、顔向き判定部23が画像上での左右それぞれの眼の瞳孔重心の位置を利用せずにユーザの顔向きを判定する場合には、ステップS104の処理が最初に行われてもよい。そしてユーザの顔がカメラ3に対して正対していると判定された場合に、ステップS101〜S103及びS105の処理が行われてもよい。   Note that the processor 7 may exchange the order of the processing in step S103 and the processing in step S104. That is, when it is determined in step S104 that the user's face is facing the camera 3, the line-of-sight detection unit 22 may detect the line-of-sight direction for each of the user's left and right eyes. Further, when the face orientation determination unit 23 determines the user's face orientation without using the positions of the pupil centroids of the left and right eyes on the image, the process of step S104 may be performed first. Then, when it is determined that the user's face is facing the camera 3, the processes of steps S <b> 101 to S <b> 103 and S <b> 105 may be performed.

(注視位置検出処理)
次に、注視位置検出処理について説明する。プロセッサ7は、例えば、ユーザがデジタルサイネージシステム1を利用しなくなるまで、カメラ3による画像が得られる度に、注視位置検出処理を実行する。なお、プロセッサ7は、例えば、所定期間(例えば、10秒間〜1分間)にわたって連続して、画像から眼領域を検出できなくなると、ユーザがデジタルサイネージシステム1を利用しなくなったと判断する。あるいは、デジタルサイネージシステム1が近接センサ(図示せず)を有する場合、近接センサがユーザを検知できなくなると、プロセッサ7は、ユーザがデジタルサイネージシステム1を利用しなくなったと判断してもよい。そしてプロセッサ7は、ユーザがデジタルサイネージシステム1を利用しなくなると、メモリ6に保存されている瞳孔間距離を消去する。
(Gaze position detection process)
Next, the gaze position detection process will be described. The processor 7 executes a gaze position detection process every time an image is obtained by the camera 3 until, for example, the user stops using the digital signage system 1. The processor 7 determines that the user has stopped using the digital signage system 1 when the eye area cannot be detected from the image continuously for a predetermined period (for example, 10 seconds to 1 minute), for example. Alternatively, if the digital signage system 1 has a proximity sensor (not shown), the processor 7 may determine that the user has stopped using the digital signage system 1 if the proximity sensor can no longer detect the user. Then, when the user stops using the digital signage system 1, the processor 7 deletes the interpupillary distance stored in the memory 6.

瞳孔検出部21は、瞳孔間距離推定処理と同様に、画像から、ユーザの左右の眼のそれぞれについての眼領域を検出し、その眼領域から瞳孔重心を検出する。そして瞳孔検出部21は、ユーザの左右の眼のそれぞれについての画像上での瞳孔重心の位置を、視線検出部22、顔向き判定部23及び注視位置検出部25へ通知する。   The pupil detection unit 21 detects an eye area for each of the user's left and right eyes from the image, and detects the center of the pupil from the eye area, similarly to the inter-pupil distance estimation process. Then, the pupil detection unit 21 notifies the gaze detection unit 22, the face orientation determination unit 23, and the gaze position detection unit 25 of the position of the pupil center of gravity on the image for each of the left and right eyes of the user.

また、視線検出部22も、瞳孔間距離推定処理と同様に、ユーザの左右の眼のそれぞれについて視線方向を検出する。そして視線検出部22は、ユーザの左右の眼のそれぞれについての視線方向を注視位置検出部25へ通知する。   The line-of-sight detection unit 22 also detects the line-of-sight direction for each of the user's left and right eyes, as in the inter-pupil distance estimation process. The line-of-sight detection unit 22 notifies the gaze position detection unit 25 of the line-of-sight direction for each of the left and right eyes of the user.

さらに、顔向き判定部23は、瞳孔間距離推定処理と同様に、ユーザの顔がカメラ3に対して正対しているか、及び、ユーザの顔がカメラ3に対して正対していない場合、カメラ3の左側及び右側の何れを向いているかを判定する。そして顔向き判定部23は、その判定結果を注視位置検出部25へ通知する。   Further, as in the inter-pupil distance estimation process, the face orientation determination unit 23 determines whether the user's face is facing the camera 3 and the user's face is not facing the camera 3. It is determined whether the left side or the right side of 3 is facing. The face orientation determination unit 23 notifies the gaze position detection unit 25 of the determination result.

注視位置検出部25は、ユーザの左右の眼のそれぞれの視線方向、画像上での瞳孔重心の位置、実空間での瞳孔間距離、及び、顔向きの判定結果に基づいて、注視位置を検出する。   The gaze position detection unit 25 detects the gaze position based on the gaze direction of each of the user's left and right eyes, the position of the center of gravity of the pupil on the image, the inter-pupil distance in real space, and the determination result of the face orientation. To do.

図8は、注視位置検出の原理を説明する図である。図8において、カメラ座標系の原点Oは、例えば、カメラ3の撮像光学系の後側主点に設定される。そしてPrleft及びPrrightは、それぞれ、実空間でのユーザの左眼の瞳孔重心及び右眼の瞳孔重心を表す。Kは、カメラ3の光軸OAに沿った、原点Oから表示装置2の表示画面までの距離を表す。また、EVleft及びEVrightは、それぞれ、ユーザの左眼の視線方向及び右眼の視線方向を表す。またLは、表示装置2の表示画面上の注視位置を表す。さらに、ppは、実空間での瞳孔間距離を表す。そしてdleft及びdrightは、それぞれ、カメラ3の光軸OAに沿った、原点Oから実空間でのユーザの左眼及び右眼の瞳孔重心Prleft及びPrrightまでの距離を表す。 FIG. 8 is a diagram for explaining the principle of gaze position detection. In FIG. 8, the origin O of the camera coordinate system is set to the rear principal point of the imaging optical system of the camera 3, for example. Pr left and Pr right represent the pupil centroid of the left eye and the pupil centroid of the right eye in real space, respectively. K represents the distance from the origin O to the display screen of the display device 2 along the optical axis OA of the camera 3. EV left and EV right represent the line of sight of the user's left eye and the line of sight of the right eye, respectively. L represents a gaze position on the display screen of the display device 2. Furthermore, pp represents the interpupillary distance in real space. D left and d right respectively represent distances from the origin O to the pupil centroids Pr left and Pr right of the left and right eyes of the user in real space along the optical axis OA of the camera 3.

(4)式と同様に、カメラ座標系における、実空間での左眼の瞳孔重心の位置Prleft及び右眼の瞳孔重心の位置Prrightは、次式で表される。

Figure 2018205819
Similarly to the equation (4), the left eye pupil centroid position Pr left and the right eye pupil centroid position Pr right in the real space in the camera coordinate system are expressed by the following equations.
Figure 2018205819

一方、ユーザの左眼と右眼の両方は、同じ注視位置を見ていると想定されることから、次式が成立する。

Figure 2018205819
ここで、ユーザの顔がカメラ3に対して正対していれば、dleft=drightが成立する。また、図8に示されるように、ユーザが、カメラ3よりも左側を見ていれば、dleft>drightが成立する。逆に、ユーザが、カメラ3よりも左側を見ていれば、dleft<drightが成立する。そこで、注視位置検出部25は、ユーザの顔向きから求められる、dleftとdrightの大小関係を用いて、(7)式及び(8)式を解くことで、dleftとdrightを算出できる。そして注視位置検出部25は、算出されたdleftまたはdrightを(8)式に代入することで、注視位置Lを算出できる。 On the other hand, since it is assumed that both the left eye and the right eye of the user are looking at the same gaze position, the following equation is established.
Figure 2018205819
Here, if the user's face is facing the camera 3, d left = d right is established. Also, as shown in FIG. 8, if the user is looking at the left side of the camera 3, d left > d right is established. Conversely, if the user is looking at the left side of the camera 3, d left <d right is established. Therefore, the gaze position detection unit 25 calculates d left and d right by solving equations (7) and (8) using the magnitude relationship between d left and d right obtained from the user's face orientation. it can. The gaze position detection unit 25 can calculate the gaze position L by substituting the calculated d left or d right into the equation (8).

注視位置検出部25は、注視位置Lをメモリ6に保存する。   The gaze position detection unit 25 stores the gaze position L in the memory 6.

プロセッサ7は、ユーザの注視位置を追跡することで、注視位置が一定時間以上停滞した位置あるいは範囲を特定する。そしてプロセッサ7は、その位置または範囲に応じた処理を実行する。例えば、プロセッサ7は、その位置または範囲において、表示装置2に表示されているアイコンまたはコンテンツに関連する情報を表示装置2に表示させてもよい。   The processor 7 tracks the user's gaze position to identify a position or range where the gaze position has stagnated for a certain time or more. Then, the processor 7 executes processing corresponding to the position or range. For example, the processor 7 may cause the display device 2 to display information related to the icon or content displayed on the display device 2 at the position or range.

図9は、プロセッサ7により実行される、注視位置検出処理の動作フローチャートである。プロセッサ7は、カメラ3から画像を取得する度に、下記の動作フローチャートに従って、注視位置検出処理を実行すればよい。   FIG. 9 is an operation flowchart of gaze position detection processing executed by the processor 7. Every time the processor 7 acquires an image from the camera 3, the processor 7 may execute a gaze position detection process according to the following operation flowchart.

瞳孔検出部21は、画像からユーザの左右の眼のそれぞれについて眼領域を検出する(ステップS201)。そして瞳孔検出部21は、ユーザの左右の眼のそれぞれについて、眼領域内で瞳孔重心を検出する(ステップS202)。   The pupil detection unit 21 detects an eye area for each of the user's left and right eyes from the image (step S201). Then, the pupil detection unit 21 detects the center of the pupil in the eye area for each of the left and right eyes of the user (step S202).

視線検出部22は、ユーザの左右の眼のそれぞれについて視線方向を検出する(ステップS203)。   The line-of-sight detection unit 22 detects the line-of-sight direction for each of the left and right eyes of the user (step S203).

また、顔向き判定部23は、例えば、画像上の左右の眼のそれぞれの垂直方向の位置に基づいて、画像からユーザの顔向きを判定する(ステップS204)。そして注視位置検出部25は、ユーザの左右のそれぞれの眼の視線方向、カメラ3から左右のそれぞれの眼の瞳孔重心へ向かう方向、瞳孔間距離、及び顔向きに基づいて注視位置を検出する(ステップS205)。そしてプロセッサ7は、注視位置検出処理を終了する。   Further, the face orientation determination unit 23 determines the user's face orientation from the image based on, for example, the vertical positions of the left and right eyes on the image (step S204). The gaze position detection unit 25 detects the gaze position based on the gaze direction of each of the left and right eyes of the user, the direction from the camera 3 toward the center of the pupil of each of the left and right eyes, the inter-pupil distance, and the face direction ( Step S205). Then, the processor 7 ends the gaze position detection process.

以上に説明してきたように、ユーザの顔がカメラに対して正対している場合には、カメラの光軸に沿った、カメラから左右それぞれの眼の瞳孔までの距離が互いに等しくなる。このことを利用して、この注視位置検出装置は、左右それぞれの眼についての視線方向及びカメラから瞳孔へ向かう方向に基づいて、左右それぞれの眼の瞳孔重心の実空間での位置を求める。そしてこの注視位置検出装置は、左右それぞれの眼の瞳孔重心の実空間での位置に基づいて、実空間でのユーザの瞳孔間距離を算出する。そのため、この注視位置検出装置は、カメラにより得られた画像から、実空間でのユーザの瞳孔間距離を正確に推定することができる。そしてこの注視位置検出装置は、実空間での瞳孔間距離を参照して、左右それぞれの眼の瞳孔の実空間での位置を検出できるので、左右それぞれの眼の視線方向に基づいて注視位置を正確に検出できる。そのため、この注視位置検出装置は、事前にキャリブレーション処理を行わなくても、かつ、カメラからユーザまでの距離を事前に知らなくても、注視位置を正確に検出できる。   As described above, when the user's face is facing the camera, the distances from the camera to the left and right eye pupils along the optical axis of the camera are equal to each other. Using this, the gaze position detection device obtains the positions of the left and right eyes in the real space based on the gaze direction for the left and right eyes and the direction from the camera toward the pupil. The gaze position detecting device calculates the distance between the pupils of the user in the real space based on the positions of the center of the pupils of the left and right eyes in the real space. Therefore, the gaze position detection device can accurately estimate the distance between the pupils of the user in real space from the image obtained by the camera. The gaze position detection device can detect the position of the pupil of each of the left and right eyes in the real space with reference to the distance between the pupils in the real space, so that the gaze position is determined based on the gaze direction of the left and right eyes. It can be detected accurately. Therefore, this gaze position detection apparatus can accurately detect the gaze position without performing calibration processing in advance and without knowing the distance from the camera to the user in advance.

なお、変形例によれば、カメラ3の光軸方向と表示装置2の表示画面の法線方向とが平行でなくてもよい。この場合には、注視対象面上の注視位置に応じて、カメラ3の光軸方向に沿った、カメラ3と表示画面上の注視位置間の距離が変動する。そこで、この変形例では、瞳孔間距離算出部24は、カメラ3の光軸方向に対する表示装置2の表示画面の傾き角度を参照することで、カメラ3と注視位置間の距離が一定でなくても、瞳孔間距離を算出する。また、注視位置検出部25も、傾き角度を参照することで、カメラ3と注視位置間の距離が一定でなくても、注視位置を検出する。   Note that, according to the modification, the optical axis direction of the camera 3 and the normal direction of the display screen of the display device 2 may not be parallel. In this case, the distance between the camera 3 and the gaze position on the display screen along the optical axis direction of the camera 3 varies according to the gaze position on the gaze target surface. Therefore, in this modification, the interpupillary distance calculation unit 24 refers to the tilt angle of the display screen of the display device 2 with respect to the optical axis direction of the camera 3, so that the distance between the camera 3 and the gaze position is not constant. Also, the interpupillary distance is calculated. The gaze position detection unit 25 also detects the gaze position by referring to the tilt angle even if the distance between the camera 3 and the gaze position is not constant.

図10は、この変形例による、表示装置2及びカメラ3と、ユーザの瞳孔重心及び注視位置との関係の一例を示す図である。図10において、カメラ座標系の原点Oは、例えば、カメラ3の撮像光学系の後側主点に設定される。カメラ3の光軸OAに平行な方向がz軸となり、水平方向がx軸となり、垂直方向がy軸となるようにカメラ座標系が設定される。そして表示装置2の表示画面は、z軸に対して角度θをなし、かつ、表示画面を延長した面上に原点Oが位置するものとする。すなわち、注視対象面の一例である、表示装置2の表示画面は、カメラ3の光軸OAに対して角度θだけ傾いている。また、Prは、実空間でのユーザの何れか一方の眼の瞳孔重心を表し、PVは、原点Oから瞳孔重心Prへ向かうベクトルを表す。また、EVは、ユーザの何れか一方の眼の視線方向を表すベクトルである。またLは、表示装置2の表示画面上の注視位置を表す。そしてdは、z軸に沿った、原点Oから実空間でのユーザの何れか一方の眼の瞳孔重心Prまでの距離を表す。さらに、Hは、yz平面における、表示装置2の表示画面に平行なベクトルを表す。   FIG. 10 is a diagram illustrating an example of the relationship between the display device 2 and the camera 3, and the pupil center of gravity and gaze position according to this modification. In FIG. 10, the origin O of the camera coordinate system is set to the rear principal point of the imaging optical system of the camera 3, for example. The camera coordinate system is set so that the direction parallel to the optical axis OA of the camera 3 is the z-axis, the horizontal direction is the x-axis, and the vertical direction is the y-axis. The display screen of the display device 2 has an angle θ with respect to the z axis, and the origin O is located on a surface obtained by extending the display screen. That is, the display screen of the display device 2, which is an example of a gaze target surface, is inclined by an angle θ with respect to the optical axis OA of the camera 3. In addition, Pr represents the pupil centroid of one eye of the user in real space, and PV represents a vector from the origin O to the pupil centroid Pr. EV is a vector representing the line-of-sight direction of one of the user's eyes. L represents a gaze position on the display screen of the display device 2. D represents the distance from the origin O to the pupil center of gravity Pr of one of the users in real space along the z axis. Further, H represents a vector parallel to the display screen of the display device 2 in the yz plane.

この場合において、注視位置Lは、表示装置2の表示画面上に位置するとともに、ユーザの眼の瞳孔重心Prから視線方向を表すベクトルEVに沿った位置にある。そのため、次式が成立する。

Figure 2018205819
ただし、tは、原点Oから注視位置Lまでの距離を表し、kは、瞳孔重心Prから注視位置Lまでの距離を表す。(9)式をk及びtについて解くことにより、次式が得られる。
Figure 2018205819
ただし、Pry及びPrzは、それぞれ、瞳孔重心Prのy軸座標及びz軸座標を表す。すなわち、Prz=dである。また、EVy及びEVzは、それぞれ、視線方向ベクトルEVのy軸成分及びz軸成分を表す。 In this case, the gaze position L is located on the display screen of the display device 2 and at a position along the vector EV representing the line-of-sight direction from the pupil center of gravity Pr of the user's eye. Therefore, the following equation is established.
Figure 2018205819
However, t represents the distance from the origin O to the gaze position L, and k represents the distance from the pupil center of gravity Pr to the gaze position L. By solving the equation (9) for k and t, the following equation is obtained.
Figure 2018205819
However, Pr y and Pr z represent the y-axis coordinate and the z-axis coordinate of the pupil center of gravity Pr, respectively. That is, Pr z = d. EV y and EV z represent a y-axis component and a z-axis component of the line-of-sight direction vector EV, respectively.

(9)式は、左右それぞれの眼について成立する。そこで、瞳孔間距離算出部24は、(10)式に従って算出されたt及びkを用いて、左右それぞれの眼についての(9)式と、(4)式とを解くことで、左右それぞれの眼の瞳孔重心の実空間の位置を算出できる。そして左右それぞれの眼の瞳孔重心の実空間の位置が算出されると、瞳孔間距離算出部24は、(6)式に従って、瞳孔間距離ppを算出すればよい。   Equation (9) is established for each of the left and right eyes. Therefore, the interpupillary distance calculation unit 24 uses the t and k calculated according to the equation (10) to solve the equations (9) and (4) for the left and right eyes, respectively. The real space position of the pupil's pupil center of gravity can be calculated. Then, when the position of the real space of the center of gravity of the pupil of each of the left and right eyes is calculated, the interpupillary distance calculation unit 24 may calculate the interpupillary distance pp according to the equation (6).

この変形例によれば、注視位置検出装置は、注視対象面の法線方向とユーザの眼を撮影するカメラの光軸方向とが平行でなくても、すなわち、カメラと注視位置間の距離が一定でなくても、ユーザの瞳孔間距離をもとめることができる。   According to this modification, the gaze position detection device is configured so that the normal direction of the gaze target surface and the optical axis direction of the camera that captures the user's eyes are not parallel, that is, the distance between the camera and the gaze position is the same. Even if it is not constant, the distance between the pupils of the user can be obtained.

同様に、注視位置検出部25は、顔向きの判定結果に基づくdleftとdrightの大小関係に従って、(10)式に従って算出されたt及びkを用いて、左右それぞれの眼についての(9)式、(6)式及び(7)式を解くことで、注視位置Lを算出できる。 Similarly, the gaze position detection unit 25 uses (9) and (9) for each of the left and right eyes using t and k calculated according to the equation (10) according to the magnitude relationship between d left and d right based on the face orientation determination result. ), (6) and (7) are solved to calculate the gaze position L.

なお、注視対象面を延長した面上に原点Oが存在しない場合には、(9)式の上側の式の右辺において、注視対象面を延長した面についてのz軸に関する切片が加算されればよい。さらに、注視対象面が撮像部の光軸に対して水平方向にも傾いている場合には、(9)式は、xz平面についても成立する。そこでこの場合には、瞳孔間距離算出部24は、(10)式に従って算出されたt及びkを用いて、左右それぞれの眼についてのxz平面に関する(9)式と、(4)式とを解くことで、左右それぞれの眼の瞳孔重心の実空間の位置を算出できる。同様に、注視位置検出部25は、顔向きの判定結果に基づくdleftとdrightの大小関係に従って、(10)式に従って算出されたt及びkを用いて、左右それぞれの眼についてのxz平面に関する(9)式、(6)式及び(7)式を解くことで、注視位置Lを算出できる。 Note that if the origin O does not exist on the surface obtained by extending the gaze target surface, if the intercept about the z axis for the surface obtained by extending the gaze target surface is added to the right side of the upper formula of the equation (9), Good. Further, when the gaze target surface is also inclined in the horizontal direction with respect to the optical axis of the imaging unit, the equation (9) is also established for the xz plane. Therefore, in this case, the interpupillary distance calculation unit 24 uses Equations (9) and (4) relating to the xz plane for the left and right eyes, using t and k calculated according to Equation (10). By solving, the position of the real space of the center of gravity of the pupil of each of the left and right eyes can be calculated. Similarly, the gaze position detection unit 25 uses the t and k calculated according to the equation (10) according to the magnitude relationship between d left and d right based on the determination result of the face orientation, and the xz plane for each of the left and right eyes. The gaze position L can be calculated by solving the equations (9), (6), and (7).

また他の変形例によれば、プロセッサ7は、ユーザの顔がカメラ3に正対しているときに得られた複数の画像のそれぞれについて、上記の瞳孔間距離推定処理を実行して瞳孔間距離の候補を算出し、メモリ6に保存してもよい。そして瞳孔間距離算出部24は、複数の画像のそれぞれから得られた瞳孔間距離の候補の統計的代表値を、ユーザの瞳孔間距離としてもよい。この場合、瞳孔間距離算出部24は、例えば、瞳孔間距離の候補の統計的代表値として、瞳孔間距離の候補の最頻値、中央値あるいは平均値を算出することができる。あるいは、瞳孔間距離算出部24は、例えば、ガウス分布などにしたがって、瞳孔間距離の候補の確率分布を推定し、その確率分布における平均値を、ユーザの瞳孔間距離としてもよい。
この変形例によれば、注視位置検出装置は、ユーザの瞳孔間距離をより高精度でもとめることができる。
According to another modification, the processor 7 performs the above-described inter-pupil distance estimation process on each of a plurality of images obtained when the user's face is directly facing the camera 3 to perform inter-pupil distance. May be calculated and stored in the memory 6. Then, the interpupillary distance calculation unit 24 may use the statistical representative value of the candidate interpupillary distance obtained from each of the plurality of images as the interpupillary distance of the user. In this case, the interpupillary distance calculation unit 24 can calculate, for example, the mode value, median value, or average value of the interpupillary distance candidates as the statistical representative value of the interpupillary distance candidates. Alternatively, the interpupillary distance calculation unit 24 may estimate the probability distribution of the interpupillary distance candidates according to, for example, a Gaussian distribution, and may use the average value in the probability distribution as the user's interpupillary distance.
According to this modification, the gaze position detection device can determine the distance between the pupils of the user with higher accuracy.

さらに他の変形例によれば、瞳孔間距離推定処理の実行中に得られた各画像について求められた左右それぞれの眼の視線方向及び瞳孔重心の位置がメモリ6に記憶されてもよい。そして瞳孔間距離推定後に、注視位置検出部25は、それら各画像について、左右それぞれの眼の視線方向及び瞳孔重心の位置と算出された瞳孔間距離とに基づいて、注視位置を検出してもよい。これにより、この注視位置検出装置は、瞳孔間距離が算出されるよりも前のユーザの注視位置も検出できるので、注視位置の軌跡をより詳細に調べることができる。   According to still another modified example, the right and left eye gaze directions and the position of the pupil center of gravity obtained for each image obtained during the execution of the inter-pupil distance estimation process may be stored in the memory 6. Then, after estimating the interpupillary distance, the gaze position detection unit 25 may detect the gaze position for each of the images based on the gaze direction of the left and right eyes, the position of the center of gravity of the pupil, and the calculated interpupillary distance. Good. As a result, the gaze position detection device can detect the gaze position of the user before the distance between the pupils is calculated, so that the trajectory of the gaze position can be examined in more detail.

なお、上記の実施形態または変形例による注視位置検出装置は、デジタルサイネージシステムに限られず、車両の運転支援システム、コンピュータの入力支援システムなどに利用されてもよい。   The gaze position detection device according to the above-described embodiment or modification is not limited to a digital signage system, and may be used for a vehicle driving support system, a computer input support system, and the like.

上記の実施形態またはその変形例による注視位置検出装置の制御部の機能を実現するコンピュータプログラムは、磁気記録媒体、光記録媒体といったコンピュータ読み取り可能な記録媒体に記録された形で提供されてもよい。なお、この記録媒体には、搬送波は含まれない。   The computer program that realizes the function of the control unit of the gaze position detection device according to the above-described embodiment or its modification may be provided in a form recorded on a computer-readable recording medium such as a magnetic recording medium or an optical recording medium. . This recording medium does not include a carrier wave.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。   All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.

以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、
実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置とから、実空間での前記左眼と前記右眼間の瞳孔間距離を算出する、
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。
(付記2)
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係は、前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置に応じた前記撮像部から前記左眼の瞳孔への方向及び前記画像上の前記右眼の瞳孔の位置に応じた前記撮像部から前記右眼の瞳孔への方向と、前記撮像部から前記左眼までの前記撮像部の光軸に沿った距離と前記撮像部から前記右眼までの前記撮像部の光軸に沿った距離とが等しいこととを含む、付記1に記載の注視位置検出用コンピュータプログラム。
(付記3)
前記注視対象となる面の法線方向と前記撮像部の光軸は平行であり、かつ、前記撮像部と前記注視対象となる面間の位置関係は、前記撮像部と前記注視対象となる面間の距離を含む、付記1または2に記載の注視位置検出用コンピュータプログラム。
(付記4)
前記撮像部と前記注視対象となる面間の位置関係は、前記撮像部の光軸方向に対する前記注視対象となる面の傾きを含む、付記1または2に記載の注視位置検出用コンピュータプログラム。
(付記5)
実空間での前記左眼と前記右眼間の瞳孔間距離を算出することは、前記ユーザの顔が前記撮像部に対して正対しているときの複数の前記画像のそれぞれについて前記瞳孔間距離を算出し、複数の前記画像のそれぞれについて算出された前記左眼と前記右眼間の瞳孔間距離の統計的代表値を前記瞳孔間距離とする、付記1〜4の何れか一項に記載の注視位置検出用コンピュータプログラム。
(付記6)
前記瞳孔間距離が算出された画像と異なる、前記撮像部により生成された、左眼及び右眼を含む前記ユーザの顔の少なくとも一部が表された第2の画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記第2の画像上の前記左眼に基づいて前記左眼の第2の視線方向を検出し、
前記第2の画像上の前記右眼に基づいて前記右眼の第2の視線方向を検出し、
前記第2の画像に基づいて前記ユーザの顔向きを判定し、
前記第2の画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係、前記左眼の第2の視線方向及び前記右眼の第2の視線方向、前記ユーザの顔の向き、前記撮像部と前記注視対象となる面間の位置関係、及び、前記瞳孔間距離に基づいて、前記注視対象となる面上の注視位置を検出する、
ことをさらにコンピュータに実行させるための付記1〜5の何れか一項に記載の注視位置検出用コンピュータプログラム。
(付記7)
撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、
実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置とから、実空間での前記左眼と前記右眼の間の瞳孔間距離を算出する、
ことを含む注視位置検出方法。
(付記8)
撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定する顔向き判定部と、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出する瞳孔検出部と、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、かつ、前記画像上の前記右眼に基づいて前記右眼の視線方向を検出する視線検出部と、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置とから、実空間での前記左眼と前記右眼の間の瞳孔間距離を算出する瞳孔間距離算出部と、
を有する注視位置検出装置。
(付記9)
撮像部により生成された、左眼及び右眼を含む前記ユーザの顔の少なくとも一部が表された画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記画像に基づいて前記ユーザの顔向きを判定し、
前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係、前記左眼の視線方向及び前記右眼の視線方向、前記ユーザの顔の向き、前記撮像部と前記ユーザによる注視対象となる面間の位置関係、及び、実空間での前記左眼と前記右眼間の瞳孔間距離に基づいて、前記注視対象となる面上の注視位置を検出する、
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
Determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and representing at least part of the user's face including the left eye and the right eye;
From the image when the user's face is directly facing the imaging unit, the respective pupils of the left eye and the right eye are detected,
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the right eye pupil,
Calculating the interpupillary distance between the left eye and the right eye in real space from the position of the pupil of the left eye and the position of the right eye pupil in real space;
A computer program for detecting a gaze position for causing a computer to execute the operation.
(Appendix 2)
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The positional relationship between the direction from the imaging unit to the pupil of the left eye according to the position of the pupil of the left eye on the image when the user's face is directly facing the imaging unit, and The direction from the imaging unit to the right eye pupil according to the position of the right eye pupil on the image, the distance along the optical axis of the imaging unit from the imaging unit to the left eye, and the imaging The computer program for gaze position detection according to appendix 1, wherein the distance along the optical axis of the imaging unit from the unit to the right eye is equal.
(Appendix 3)
The normal direction of the surface to be watched and the optical axis of the imaging unit are parallel, and the positional relationship between the imaging unit and the surface to be watched is the surface to be the imaging unit and the eye to be watched. The computer program for gaze position detection according to appendix 1 or 2, including a distance between them.
(Appendix 4)
The computer program for gaze position detection according to appendix 1 or 2, wherein the positional relationship between the imaging unit and the gaze target surface includes an inclination of the gaze target surface with respect to an optical axis direction of the imaging unit.
(Appendix 5)
The calculation of the interpupillary distance between the left eye and the right eye in real space means that the interpupillary distance for each of the plurality of images when the user's face is facing the imaging unit. The statistical representative value of the interpupillary distance between the left eye and the right eye calculated for each of the plurality of images is used as the interpupillary distance, according to any one of appendices 1 to 4. Computer program for detecting the gaze position.
(Appendix 6)
From the second image generated by the imaging unit, which is different from the image in which the interpupillary distance is calculated, and which represents at least a part of the user's face including the left eye and the right eye, the left eye and the Detect each pupil of the right eye,
Detecting a second gaze direction of the left eye based on the left eye on the second image;
Detecting a second gaze direction of the right eye based on the right eye on the second image;
Determining the user's face orientation based on the second image;
The positional relationship between the imaging unit and the left and right eyes according to the position of the pupil of the left eye and the position of the pupil of the right eye on the second image, and the second line-of-sight direction of the left eye And the second eye-gaze direction of the right eye, the orientation of the user's face, the positional relationship between the imaging unit and the surface to be watched, and the inter-pupil distance on the surface to be watched Detect the gaze position of
The computer program for gaze position detection as described in any one of the supplementary notes 1-5 for making a computer perform this further.
(Appendix 7)
Determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and representing at least part of the user's face including the left eye and the right eye;
From the image when the user's face is directly facing the imaging unit, the respective pupils of the left eye and the right eye are detected,
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the right eye pupil,
Calculating the interpupillary distance between the left eye and the right eye in real space from the position of the pupil of the left eye and the position of the pupil of the right eye in real space;
Gaze position detection method including the above.
(Appendix 8)
Face orientation for determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and showing at least part of the user's face including the left eye and the right eye A determination unit;
A pupil detection unit that detects the pupils of the left eye and the right eye from the image when the user's face is facing the imaging unit;
A line-of-sight detection unit that detects the line-of-sight direction of the left eye based on the left eye on the image and detects the line-of-sight direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the pupil of the right eye, and the position of the pupil of the left eye and the position of the right eye pupil in real space, between the left eye and the right eye in real space. An interpupillary distance calculator that calculates the interpupillary distance;
A gaze position detecting device having
(Appendix 9)
Detecting each pupil of the left eye and the right eye from an image generated by the imaging unit and representing at least a part of the user's face including the left eye and the right eye;
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
Determining the face orientation of the user based on the image;
The positional relationship between the imaging unit and the left and right eyes, the line-of-sight direction of the left eye, and the line of sight of the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image The gaze based on the direction, the orientation of the user's face, the positional relationship between the imaging unit and the plane to be watched by the user, and the interpupillary distance between the left eye and the right eye in real space Detect the gaze position on the target surface,
A computer program for detecting a gaze position for causing a computer to execute the operation.

1 デジタルサイネージシステム(注視位置検出装置)
2 表示装置
2a 表示画面
3 カメラ
4 入力装置
5 記憶媒体アクセス装置
6 メモリ
7 プロセッサ
8 記憶媒体
21 瞳孔検出部
22 視線検出部
23 顔向き判定部
24 瞳孔間距離算出部
25 注視位置検出部
1 Digital signage system (gaze position detector)
DESCRIPTION OF SYMBOLS 2 Display apparatus 2a Display screen 3 Camera 4 Input apparatus 5 Storage medium access apparatus 6 Memory 7 Processor 8 Storage medium 21 Pupil detection part 22 Eye gaze detection part 23 Face direction determination part 24 Interpupillary distance calculation part 25 Gaze position detection part

Claims (7)

撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、
実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置から、実空間での前記左眼と前記右眼間の瞳孔間距離を算出する、
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。
Determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and representing at least part of the user's face including the left eye and the right eye;
From the image when the user's face is directly facing the imaging unit, the respective pupils of the left eye and the right eye are detected,
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the right eye pupil,
Calculating the interpupillary distance between the left eye and the right eye in real space from the position of the pupil of the left eye and the position of the right eye pupil in real space;
A computer program for detecting a gaze position for causing a computer to execute the operation.
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係は、前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置に応じた前記撮像部から前記左眼の瞳孔への方向及び前記画像上の前記右眼の瞳孔の位置に応じた前記撮像部から前記右眼の瞳孔への方向と、前記撮像部から前記左眼までの前記撮像部の光軸に沿った距離と前記撮像部から前記右眼までの前記撮像部の光軸に沿った距離とが等しいこととを含む、請求項1に記載の注視位置検出用コンピュータプログラム。   The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The positional relationship between the direction from the imaging unit to the pupil of the left eye according to the position of the pupil of the left eye on the image when the user's face is directly facing the imaging unit, and The direction from the imaging unit to the right eye pupil according to the position of the right eye pupil on the image, the distance along the optical axis of the imaging unit from the imaging unit to the left eye, and the imaging The computer program for gaze position detection according to claim 1, further comprising: a distance along the optical axis of the imaging unit from a unit to the right eye being equal. 前記注視対象となる面の法線方向と前記撮像部の光軸は平行であり、かつ、前記撮像部と前記注視対象となる面間の位置関係は、前記撮像部と前記注視対象となる面間の距離を含む、請求項1または2に記載の注視位置検出用コンピュータプログラム。   The normal direction of the surface to be watched and the optical axis of the imaging unit are parallel, and the positional relationship between the imaging unit and the surface to be watched is the surface to be the imaging unit and the eye to be watched. The computer program for detecting a gaze position according to claim 1 or 2, including a distance between them. 前記撮像部と前記注視対象となる面間の位置関係は、前記撮像部の光軸方向に対する前記注視対象となる面の傾きを含む、請求項1または2に記載の注視位置検出用コンピュータプログラム。   3. The computer program for gaze position detection according to claim 1, wherein the positional relationship between the imaging unit and the surface to be watched includes an inclination of the surface to be watched with respect to an optical axis direction of the imaging unit. 前記瞳孔間距離が算出された画像と異なる、前記撮像部により生成された、左眼及び右眼を含む前記ユーザの顔の少なくとも一部が表された第2の画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記第2の画像上の前記左眼に基づいて前記左眼の第2の視線方向を検出し、
前記第2の画像上の前記右眼に基づいて前記右眼の第2の視線方向を検出し、
前記第2の画像に基づいて前記ユーザの顔向きを判定し、
前記第2の画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係、前記左眼の第2の視線方向及び前記右眼の第2の視線方向、前記ユーザの顔の向き、前記撮像部と前記注視対象となる面間の位置関係、及び、前記瞳孔間距離に基づいて、前記注視対象となる面上の注視位置を検出する、
ことをさらにコンピュータに実行させるための請求項1〜4の何れか一項に記載の注視位置検出用コンピュータプログラム。
From the second image generated by the imaging unit, which is different from the image in which the interpupillary distance is calculated, and which represents at least a part of the user's face including the left eye and the right eye, the left eye and the Detect each pupil of the right eye,
Detecting a second gaze direction of the left eye based on the left eye on the second image;
Detecting a second gaze direction of the right eye based on the right eye on the second image;
Determining the user's face orientation based on the second image;
The positional relationship between the imaging unit and the left and right eyes according to the position of the pupil of the left eye and the position of the pupil of the right eye on the second image, and the second line-of-sight direction of the left eye And the second eye-gaze direction of the right eye, the orientation of the user's face, the positional relationship between the imaging unit and the surface to be watched, and the inter-pupil distance on the surface to be watched Detect the gaze position of
The computer program for gaze position detection as described in any one of Claims 1-4 for making a computer perform this further.
撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、
実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置から、実空間での前記左眼と前記右眼間の瞳孔間距離を算出する、
ことを含む注視位置検出方法。
Determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and representing at least part of the user's face including the left eye and the right eye;
From the image when the user's face is directly facing the imaging unit, the respective pupils of the left eye and the right eye are detected,
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the right eye pupil,
Calculating the interpupillary distance between the left eye and the right eye in real space from the position of the pupil of the left eye and the position of the right eye pupil in real space;
Gaze position detection method including the above.
撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定する顔向き判定部と、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出する瞳孔検出部と、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、かつ、前記画像上の前記右眼に基づいて前記右眼の視線方向を検出する視線検出部と、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置から、実空間での前記左眼と前記右眼間の瞳孔間距離を算出する瞳孔間距離算出部と、
を有する注視位置検出装置。
Face orientation for determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and showing at least part of the user's face including the left eye and the right eye A determination unit;
A pupil detection unit that detects the pupils of the left eye and the right eye from the image when the user's face is facing the imaging unit;
A line-of-sight detection unit that detects the line-of-sight direction of the left eye based on the left eye on the image and detects the line-of-sight direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user Between the left eye and the right eye in real space from the position of the left eye pupil and the position of the right eye pupil in real space. An interpupillary distance calculator that calculates the distance;
A gaze position detecting device having
JP2017106742A 2017-05-30 2017-05-30 Gazing position detection computer program, gazing position detection device, and gazing position detection method Pending JP2018205819A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017106742A JP2018205819A (en) 2017-05-30 2017-05-30 Gazing position detection computer program, gazing position detection device, and gazing position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017106742A JP2018205819A (en) 2017-05-30 2017-05-30 Gazing position detection computer program, gazing position detection device, and gazing position detection method

Publications (1)

Publication Number Publication Date
JP2018205819A true JP2018205819A (en) 2018-12-27

Family

ID=64957821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017106742A Pending JP2018205819A (en) 2017-05-30 2017-05-30 Gazing position detection computer program, gazing position detection device, and gazing position detection method

Country Status (1)

Country Link
JP (1) JP2018205819A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111046744A (en) * 2019-11-21 2020-04-21 深圳云天励飞技术有限公司 Method and device for detecting attention area, readable storage medium and terminal equipment
WO2020159077A1 (en) * 2019-02-01 2020-08-06 주식회사 룩시드랩스 Apparatus and method for measuring interpupillary distance
CN111860292A (en) * 2020-07-16 2020-10-30 科大讯飞股份有限公司 Monocular camera-based human eye positioning method, device and equipment
WO2020240976A1 (en) * 2019-05-27 2020-12-03 ソニー株式会社 Artificial intelligence information processing device and artificial intelligence information processing method
CN112101064A (en) * 2019-06-17 2020-12-18 北京七鑫易维科技有限公司 Sight tracking method, device, equipment and storage medium
WO2021014868A1 (en) * 2019-07-19 2021-01-28 株式会社Jvcケンウッド Eyeball detection device, line-of-sight detection device, eyeball detection method, and eyeball detection program
WO2023061822A1 (en) * 2021-10-11 2023-04-20 Fuel 3D Technologies Limited Methods and systems for interpupillary distance measurement

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020159077A1 (en) * 2019-02-01 2020-08-06 주식회사 룩시드랩스 Apparatus and method for measuring interpupillary distance
KR20200096002A (en) * 2019-02-01 2020-08-11 주식회사 룩시드랩스 Apparatus and method for measuring distance between pupil centers
KR102184972B1 (en) * 2019-02-01 2020-12-01 주식회사 룩시드랩스 Apparatus and method for measuring distance between pupil centers
WO2020240976A1 (en) * 2019-05-27 2020-12-03 ソニー株式会社 Artificial intelligence information processing device and artificial intelligence information processing method
CN112101064A (en) * 2019-06-17 2020-12-18 北京七鑫易维科技有限公司 Sight tracking method, device, equipment and storage medium
WO2021014868A1 (en) * 2019-07-19 2021-01-28 株式会社Jvcケンウッド Eyeball detection device, line-of-sight detection device, eyeball detection method, and eyeball detection program
JP2021018574A (en) * 2019-07-19 2021-02-15 株式会社Jvcケンウッド Eyeball detection device, line-of-sight detection device, eyeball detection method, and eyeball detection program
JP7263959B2 (en) 2019-07-19 2023-04-25 株式会社Jvcケンウッド Eyeball detection device, sight line detection device, eyeball detection method, and eyeball detection program
CN111046744A (en) * 2019-11-21 2020-04-21 深圳云天励飞技术有限公司 Method and device for detecting attention area, readable storage medium and terminal equipment
CN111046744B (en) * 2019-11-21 2023-04-18 深圳云天励飞技术股份有限公司 Method and device for detecting attention area, readable storage medium and terminal equipment
CN111860292A (en) * 2020-07-16 2020-10-30 科大讯飞股份有限公司 Monocular camera-based human eye positioning method, device and equipment
WO2023061822A1 (en) * 2021-10-11 2023-04-20 Fuel 3D Technologies Limited Methods and systems for interpupillary distance measurement

Similar Documents

Publication Publication Date Title
JP6930223B2 (en) Pupil detection computer program, pupil detection device and pupil detection method
JP2017182739A (en) Gaze detection device, gaze detection method and computer program for gaze detection
JP6056323B2 (en) Gaze detection device, computer program for gaze detection
JP5949319B2 (en) Gaze detection apparatus and gaze detection method
JP2018205819A (en) Gazing position detection computer program, gazing position detection device, and gazing position detection method
US20200082555A1 (en) ADAPTIVE SIMULTANEOUS LOCALIZATION AND MAPPING (SLAM) USING WORLD-FACING CAMERAS IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS
CN112102389A (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object
KR20140125713A (en) Apparatus and method of gaze tracking based on camera array
US10146306B2 (en) Gaze position detection apparatus and gaze position detection method
US10254831B2 (en) System and method for detecting a gaze of a viewer
JP6870474B2 (en) Gaze detection computer program, gaze detection device and gaze detection method
JP5776323B2 (en) Corneal reflection determination program, corneal reflection determination device, and corneal reflection determination method
US20220270287A1 (en) Eye gaze detection method, eye gaze detection device, and non-transitory computer readable storage medium
US10928899B2 (en) Handling multiple eye-gaze tracking (EGT) sources in virtual, augmented, or mixed reality (XR) applications
US10852819B2 (en) Systems and methods for eye-gaze tracking (EGT) handoff
JP2017146938A (en) Book detection device, book detection method, and computer program for book detection
JP2018099174A (en) Pupil detector and pupil detection method
Drakopoulos et al. Eye tracking interaction on unmodified mobile VR headsets using the selfie camera
Perra et al. Adaptive eye-camera calibration for head-worn devices
KR101961266B1 (en) Gaze Tracking Apparatus and Method
JPWO2018220963A1 (en) Information processing apparatus, information processing method, and program
JP2017199148A (en) Visual line detection device, visual line detection method and visual line detection-purpose computer program
JP2018120299A (en) Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method
Cao et al. Gaze tracking on any surface with your phone
Huang et al. Robust feature extraction for non-contact gaze tracking with eyeglasses