JP2018205819A - Gazing position detection computer program, gazing position detection device, and gazing position detection method - Google Patents
Gazing position detection computer program, gazing position detection device, and gazing position detection method Download PDFInfo
- Publication number
- JP2018205819A JP2018205819A JP2017106742A JP2017106742A JP2018205819A JP 2018205819 A JP2018205819 A JP 2018205819A JP 2017106742 A JP2017106742 A JP 2017106742A JP 2017106742 A JP2017106742 A JP 2017106742A JP 2018205819 A JP2018205819 A JP 2018205819A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- pupil
- imaging unit
- image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- XXJNRZFTETYXEH-UHFFFAOYSA-N C(C1)C1C1C(CC2(CC2)C2)C2CCC1 Chemical compound C(C1)C1C1C(CC2(CC2)C2)C2CCC1 XXJNRZFTETYXEH-UHFFFAOYSA-N 0.000 description 1
- ZZQKFNYNLPSONP-UHFFFAOYSA-N CC1C#CC(C)C1 Chemical compound CC1C#CC(C)C1 ZZQKFNYNLPSONP-UHFFFAOYSA-N 0.000 description 1
- JIKVRRGLPAAKTK-UHFFFAOYSA-N CCCC1C#CCC1 Chemical compound CCCC1C#CCC1 JIKVRRGLPAAKTK-UHFFFAOYSA-N 0.000 description 1
Images
Abstract
Description
本発明は、例えば、眼を撮影して得られた画像に基づいて注視位置を検出する注視位置検出用コンピュータプログラム、注視位置検出装置及び注視位置検出方法に関する。 The present invention relates to a gaze position detection computer program, a gaze position detection apparatus, and a gaze position detection method for detecting a gaze position based on, for example, an image obtained by photographing an eye.
人の視線方向を検出することで、その人が興味を有しているものに関する情報を得たり、あるいは、視線方向または注視している位置に関連する操作を自動的に実行することが検討されている。なお、以下では、便宜上、人が注視している位置を単に注視位置と呼ぶ。 By detecting the direction of the person's line of sight, it is considered to obtain information about what the person is interested in, or to automatically perform operations related to the direction of the line of sight or the position where the user is gazing. ing. Hereinafter, for the sake of convenience, a position where a person is gazing is simply referred to as a gazing position.
人の注視位置、あるいは、視線方向は、その人の瞳孔の向きと密接に関連している。そこで、人の眼をカメラにより撮影して得られた画像から瞳孔を検出し、その瞳孔と基準点との位置関係により、その人の視線方向または注視位置を特定する技術が知られている。 A person's gaze position or line-of-sight direction is closely related to the direction of the person's pupil. Therefore, a technique is known in which a pupil is detected from an image obtained by photographing a human eye with a camera, and the gaze direction or gaze position of the person is specified based on the positional relationship between the pupil and a reference point.
視線方向が一定でも、カメラから人までの距離に応じて注視位置は異なる。そのため、注視位置を正確に検出するためには、カメラから人までの距離を正確に求めることが好ましい。そこで、人の顔が写った画像上での両眼の瞳孔間距離(以下、単に瞳孔間距離と呼ぶ)と、実空間での瞳孔間距離と、カメラの焦点距離などに基づいて、実空間での視点距離を算出する技術が提案されている(例えば、特許文献1を参照)。 Even if the line-of-sight direction is constant, the gaze position varies depending on the distance from the camera to the person. Therefore, in order to accurately detect the gaze position, it is preferable to accurately obtain the distance from the camera to the person. Therefore, based on the distance between the pupils of both eyes (hereinafter simply referred to as the interpupillary distance), the distance between the pupils in the real space, the focal length of the camera, etc. There has been proposed a technique for calculating a viewpoint distance at (see, for example, Patent Document 1).
しかしながら、瞳孔間距離は、人によって異なる。そのため、注視位置の検出対象となるユーザが不特定の人物である場合、実空間での瞳孔間距離が未知であるため、上記の技術では、カメラから人物までの距離は正確には算出されない。その結果として、注視位置の検出精度が不十分となることがある。 However, the interpupillary distance varies from person to person. Therefore, when the user whose gaze position is to be detected is an unspecified person, the distance between the pupils in the real space is unknown, and therefore the distance from the camera to the person cannot be calculated accurately. As a result, the gaze position detection accuracy may be insufficient.
一つの側面では、本発明は、ユーザの瞳孔間距離を推定できる注視位置検出用コンピュータプログラムを提供することを目的とする。 In one aspect, an object of the present invention is to provide a computer program for gaze position detection that can estimate a user's interpupillary distance.
一つの実施形態によれば、注視位置検出用コンピュータプログラムが提供される。この注視位置検出用コンピュータプログラムは、撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、ユーザの顔が撮像部に対して正対しているか否かを判定し、ユーザの顔が撮像部に対して正対しているときの画像から、左眼及び右眼のそれぞれの瞳孔を検出し、画像上の左眼に基づいて左眼の視線方向を検出し、画像上の右眼に基づいて右眼の視線方向を検出し、ユーザの顔が撮像部に対して正対しているときの画像上の左眼の瞳孔の位置及び右眼の瞳孔の位置に応じた撮像部と左眼及び右眼間の位置関係と、左眼の視線方向及び右眼の視線方向と、撮像部とユーザによる注視対象となる面間の位置関係とに基づいて実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置を算出し、実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置から、実空間での左眼と右眼の間の瞳孔間距離を算出する、ことをコンピュータに実行させるための命令を含む。 According to one embodiment, a computer program for gaze position detection is provided. This computer program for gaze position detection is based on an image generated by the imaging unit and showing at least a part of the user's face including the left eye and the right eye. The left eye and the right eye pupil are detected from the image when the user's face is directly facing the imaging unit, and the line of sight of the left eye is determined based on the left eye on the image. And detecting the gaze direction of the right eye based on the right eye on the image, and the position of the left eye pupil and the right eye pupil on the image when the user's face is facing the imaging unit Based on the positional relationship between the imaging unit and the left eye and the right eye according to the position of the left eye, the gaze direction of the left eye and the gaze direction of the right eye, and the positional relationship between the imaging unit and the surface to be watched by the user Calculate the left eye pupil position and right eye pupil position in real space, From the positions of the pupil and the position of the pupil of the right eye, and calculates the interpupillary distance between the left and right eyes in real space, comprising instructions for causing a computer to execute the.
ユーザの瞳孔間距離を推定できる。 The distance between the pupils of the user can be estimated.
以下、図を参照しつつ、注視位置検出装置について説明する。
この注視位置検出装置は、ユーザの両眼をカメラにより撮影して画像を生成し、その画像上で左右それぞれの眼の瞳孔、及び、左右それぞれの眼の視線方向を検出する。ここで、ユーザの顔がカメラに対して正対しているとき、すなわち、カメラに対して正面を向いているときには、カメラの光軸方向に沿った方向のカメラから左眼までの距離とカメラから右眼までの距離が同一となるという条件が満たされる。この条件が満たされるときには、両眼の視線方向と、カメラからそれぞれの眼の瞳孔へ向かう方向とに基づいて、実空間での両眼の瞳孔位置は一意に求められる。そこで、この注視位置検出装置は、ユーザの顔がカメラに対して正対しているときの画像から算出されたそれぞれの眼についての視線方向と、画像上のそれぞれの眼の瞳孔位置とから、実空間でのそれぞれの眼の瞳孔位置及び瞳孔間距離を算出する。そしてこの注視位置検出装置は、一旦瞳孔間距離が算出されると、その後に得られた画像から検出された両眼の視線方向と、実空間での瞳孔間距離とに基づいて、注視位置を検出する。
Hereinafter, the gaze position detection device will be described with reference to the drawings.
The gaze position detection device captures both eyes of the user with a camera to generate an image, and detects the pupils of the left and right eyes and the gaze direction of the left and right eyes on the image. Here, when the user's face is facing the camera, that is, when facing the front of the camera, the distance from the camera to the left eye in the direction along the optical axis direction of the camera and the camera The condition that the distance to the right eye is the same is satisfied. When this condition is satisfied, the pupil position of both eyes in real space is uniquely determined based on the line-of-sight direction of both eyes and the direction from the camera toward the pupil of each eye. Therefore, this gaze position detection device is based on the line-of-sight direction for each eye calculated from the image when the user's face is facing the camera and the pupil position of each eye on the image. The pupil position and interpupillary distance of each eye in space are calculated. Then, once the interpupillary distance is calculated, the gaze position detection device calculates the gaze position based on the gaze direction of both eyes detected from the image obtained thereafter and the interpupillary distance in real space. To detect.
なお、以下に説明する実施形態では、注視位置検出装置は、デジタルサイネージシステムに実装され、そして注視位置検出装置は、デジタルサイネージシステムのユーザの注視位置を検出する。 In the embodiment described below, the gaze position detection device is mounted on a digital signage system, and the gaze position detection device detects the gaze position of the user of the digital signage system.
図1は、注視位置検出装置の一実施形態であるデジタルサイネージシステムのハードウェア構成図である。デジタルサイネージシステム1は、表示装置2と、カメラ3と、入力装置4と、記憶媒体アクセス装置5と、メモリ6と、プロセッサ7とを有する。さらにデジタルサイネージシステム1は、デジタルサイネージシステム1のユーザの眼を照明するための、赤外発光ダイオードといった光源(図示せず)を有していてもよい。さらにまた、デジタルサイネージシステムは、デジタルサイネージシステム1を他の機器に接続するための通信インターフェース回路(図示せず)を有していてもよい。
FIG. 1 is a hardware configuration diagram of a digital signage system which is an embodiment of a gaze position detection device. The digital signage system 1 includes a
表示装置2は、例えば、液晶ディスプレイまたは有機エレクトロルミネッセンスディスプレイを有する。そして表示装置2は、例えば、様々なテキスト、アイコン、静止画像または動画像をプロセッサ7からの映像信号に応じて表示する。
The
カメラ3は、撮像部の一例であり、両方の眼を含む、少なくともユーザの顔の一部が写った画像を生成する。そのために、カメラ3は、2次元状に配列された固体撮像素子を有するイメージセンサと、そのイメージセンサ上に被写体の像を結像する撮像光学系を有する。また、撮像光学系は、単焦点の光学系でもよく、あるいは、可変焦点光学系であってもよい。カメラ3は、瞳孔間距離推定処理の実行中、または、注視位置検出処理の実行中、所定のフレームレートで撮影して画像を生成する。なお、カメラ3は、この画像上でデジタルサイネージシステム1を利用するユーザの瞳孔が識別可能な解像度を有する。そしてカメラ3は、画像を生成する度に、その画像をプロセッサ7へ渡す。なお、以下の説明において、「画像」とは、特に説明が無い限り、カメラ3により生成され、かつ、両方の眼を含む、少なくともユーザの顔の一部が写った画像を表す。
The
図2は、カメラ3及び表示装置2の配置の一例を示す図である。この例では、表示装置2の表示画面2aの下側に、カメラ3が取り付けられている。なお、表示装置2の表示画面2aは、ユーザによる注視対象となる面(以下、注視対象面と呼ぶ)の一例である。そしてカメラ3は、表示装置2の表示画面2aを見るユーザ200の両方の眼を含む、ユーザ200の顔全体あるいは顔の一部を撮影可能なように、カメラ3の光軸OAが表示画面2aの法線方向nと平行となるように設置される。
FIG. 2 is a diagram illustrating an example of the arrangement of the
なお、カメラ3は、注視対象面に対して、ユーザの眼の並び方向(例えば、水平方向)とは異なる方向に並ぶように設けられればよく、例えば、表示画面2aの上側に設けられてもよい。
The
入力装置4は、例えば、キーボードと、マウスのようなポインティングデバイスとを有する。そして入力装置4を介してユーザにより入力された操作信号は、プロセッサ7へ渡される。
The
なお、表示装置2と入力装置4とは、例えば、タッチパネルディスプレイのように一体化されていてもよい。この場合、入力装置4は、表示装置2の表示画面上に表示されたアイコンの位置にユーザが触れた場合に、その位置に応じた操作信号を生成し、その操作信号をプロセッサ7へ出力する。
The
記憶媒体アクセス装置5は、記憶部の一例であり、例えば、磁気ディスク、半導体メモリカード及び光記憶媒体といった記憶媒体8にアクセスする装置である。記憶媒体アクセス装置5は、例えば、記憶媒体8に記憶された、プロセッサ7上で実行される、瞳孔間距離推定処理及び注視位置検出処理用のコンピュータプログラムを読み込み、プロセッサ7に渡す。
The storage medium access device 5 is an example of a storage unit, and is a device that accesses the
メモリ6は、記憶部の他の一例であり、例えば、読み書き可能な不揮発性の半導体メモリ、及び読み書き可能な揮発性の半導体メモリを有する。そしてメモリ6は、プロセッサ7上で実行される、瞳孔間距離推定処理及び注視位置検出処理用のコンピュータプログラム、各種のアプリケーションプログラム及び各種のデータを記憶する。
The memory 6 is another example of the storage unit, and includes, for example, a readable / writable nonvolatile semiconductor memory and a readable / writable volatile semiconductor memory. The memory 6 stores a computer program for pupil distance estimation processing and gaze position detection processing, various application programs, and various data executed on the
さらに、メモリ6は、ユーザの瞳孔間距離を算出するために利用される各種のデータ、及び、ユーザの注視位置を検出するために利用される各種のデータを記憶してもよい。例えば、メモリ6は、表示装置2及びカメラ3の実空間での位置、カメラ3の焦点距離などを記憶する。さらにまた、メモリ6は、算出された瞳孔間距離を記憶する。
Furthermore, the memory 6 may store various data used for calculating the distance between the pupils of the user and various data used for detecting the user's gaze position. For example, the memory 6 stores the positions of the
プロセッサ7は、例えば、少なくとも一つのCentral Processing Unit(CPU)及びその周辺回路を有する。さらに、プロセッサ7は、数値演算プロセッサまたはGraphics Processing Unit(GPU)を有していてもよい。そしてプロセッサ7は、デジタルサイネージシステム1の各部と信号線を介して接続されており、デジタルサイネージシステム1全体を制御する。例えば、プロセッサ7は、入力装置4から受け取った操作信号と実行中のアプリケーションプログラムに応じて、所定の動画像などを表示装置2に表示させる。
The
さらに、プロセッサ7は、ユーザがデジタルサイネージシステム1に接近したことを検知すると、最初に、実空間におけるユーザの瞳孔間距離をもとめる。そしてプロセッサ7は、一旦瞳孔間距離が求められると、その瞳孔間距離を利用して、画像が得られる度に、注視位置検出処理を実行することにより、ユーザの視線方向及び注視位置を検出する。
Further, when the
図3は、プロセッサ7の瞳孔間距離推定処理及び注視位置検出処理に関する機能ブロック図である。プロセッサ7は、瞳孔検出部21と、視線検出部22と、顔向き判定部23と、瞳孔間距離算出部24と、注視位置検出部25とを有する。
プロセッサ7が有するこれらの各部は、プロセッサ7上で実行されるコンピュータプログラムにより実現される機能モジュールである。またプロセッサ7が有するこれらの各部は、その各部の機能を実現するプロセッサ7内の回路の一部として実装されてもよい。
FIG. 3 is a functional block diagram related to the interpupillary distance estimation processing and gaze position detection processing of the
Each of these units included in the
プロセッサ7が有するこれらの各部のうち、瞳孔検出部21、視線検出部22、顔向き判定部23は、瞳孔間距離推定処理及び注視位置検出処理の両方で用いられる。また、瞳孔間距離算出部24は、瞳孔間距離推定処理で用いられる。一方、注視位置検出部25は、注視位置検出処理で用いられる。以下、瞳孔間距離推定処理及び注視位置検出処理のそれぞれについて、プロセッサ7が有するこれらの各部について説明する。
Among these units included in the
(瞳孔間距離推定処理)
本実施形態では、プロセッサ7は、瞳孔間距離推定処理を開始するまで、カメラ3から画像が得られる度に、その画像とメモリ6に記憶されている背景画像との間で背景差分処理を実行して、対応画素間の差分絶対値が所定値以上となる画素を抽出する。そしてプロセッサ7は、抽出された画素の数が所定数以上になると、瞳孔間距離推定処理を開始する。
なお、デジタルサイネージシステム1は、近接センサ(図示せず)を有していてもよい。そして近接センサが、カメラ3の正面に位置する物体を検知すると、プロセッサ7は、瞳孔間距離推定処理を開始してもよい。
(Interpupillary distance estimation processing)
In this embodiment, the
The digital signage system 1 may have a proximity sensor (not shown). Then, when the proximity sensor detects an object located in front of the
図4を参照しつつ、最初に、瞳孔間距離を検出するための原理を説明する。図4は、実空間において、カメラ3の撮像面400の垂直方向に沿って上方から見た、表示装置2及びカメラ3と、ユーザの瞳孔との位置関係の一例を示す図である。画像上の瞳孔の位置は、カメラ3から瞳孔へ向かう方向を表すので、画像上で瞳孔を検出することにより、カメラ3から瞳孔への方向が分かる。すなわち、画像上の瞳孔の位置に基づいて、矢印401で示される、カメラ3からユーザの左眼の瞳孔へ向かう方向、及び、矢印402で示される、カメラ3からユーザの右眼の瞳孔へ向かう方向が求められる。
First, the principle for detecting the interpupillary distance will be described with reference to FIG. FIG. 4 is a diagram illustrating an example of a positional relationship between the
また、ユーザは、両眼で表示装置2の表示画面上の注視位置を見ると想定されるので、矢印403で示される、左眼の視線方向と、矢印404で示される、右眼の視線方向とは、注視位置で交差する。したがって、注視位置から見て、左眼の視線方向に沿った直線と、カメラ3から見て、左眼の瞳孔へ向かう方向に沿った直線との交点が、実空間での左眼の瞳孔の位置となる。同様に、注視位置から見て、右眼の視線方向に沿った直線と、カメラ3から見て、右眼の瞳孔へ向かう方向に沿った直線との交点が、実空間での右眼の瞳孔の位置となる。ただし、注視位置は、事前には分からない。そのため、注視位置の候補(図4では、4個の注視位置の候補411〜414が示される)のそれぞれごとに、左眼の瞳孔の位置と右眼の瞳孔の位置の組み合わせの候補(図4では、候補421〜424)が求められることになる。
In addition, since it is assumed that the user looks at the gaze position on the display screen of the
ここで、ユーザがカメラ3に対して正対している場合、カメラ3の光軸OAの方向に沿った、カメラ3から左眼までの距離と、カメラ3から右眼までの距離は等しい。上記の左眼の瞳孔の位置と右眼の瞳孔の位置の組み合わせのうち、カメラ3から左眼までの距離と、カメラ3から右眼までの距離が等しくなる組み合わせ(図4では、候補422)は一意に定められる。したがって、ユーザがカメラ3に対して正対している場合には、左眼の瞳孔の実空間での位置Prleft及び右眼の瞳孔の実空間での位置Prrightが求められ、その結果として、実空間での瞳孔間距離ppが算出される。
Here, when the user is facing the
そこで、本実施形態では、瞳孔検出部21が、画像からユーザの左眼及び右眼のそれぞれの瞳孔を検出し、視線検出部22が、画像上での左眼及び右眼に基づいて、左眼の視線方向及び右眼の視線方向を検出する。また、顔向き判定部23が、ユーザの顔がカメラ3に対して正対しているか否か判定する。そして瞳孔間距離算出部24が、ユーザの顔がカメラ3に対して正対している場合の左眼の視線方向及び右眼の視線方向と、カメラ3から左眼の瞳孔へ向かう方向及び右眼の瞳孔へ向かう方向とに基づいて、瞳孔間距離を算出する。
Therefore, in the present embodiment, the
瞳孔検出部21は、瞳孔間距離推定処理の実行中において、瞳孔間距離が算出されるまで、画像が得られる度に、画像上でユーザの左眼及び右眼の瞳孔を検出する。なお、瞳孔検出部21は、全ての画像に対して同一の処理を実行すればよいので、以下では、一つの画像に対する処理について説明する。
The
瞳孔検出部21は、画像から、先ず、ユーザの左右の眼のそれぞれについて、その眼が写っている領域(以下、単に眼領域と呼ぶ)を検出する。そのために、瞳孔検出部21は、例えば、画像から眼領域を検出するように予め学習された識別器を用いて眼領域を検出する。この場合、識別器として、例えば、アダブーストまたはリアルアダブースト、サポートベクトルマシン、あるいは、ディープニューラルネットワークが利用される。そして瞳孔検出部21は、画像上にウインドウを設定し、そのウインドウの位置を変えながら、ウインドウ内の各画素の値またはそのウインドウから抽出した特徴量を識別器に入力することで、そのウインドウが眼領域か否かを判定する。また、特徴量として、例えば、Haar-like特徴量あるいはHistograms of Oriented Gradients特徴量が抽出される。
The
あるいは、瞳孔検出部21は、眼を表すテンプレートと、画像とのテンプレートマッチングにより、テンプレートに最も一致する二つの領域を検出し、その検出した二つの領域のそれぞれを眼領域としてもよい。あるいはまた、瞳孔検出部21は、画像上に写っている眼の領域を検出する他の様々な方法の何れかに従って眼領域を検出してもよい。
Alternatively, the
眼領域が検出されると、瞳孔検出部21は、左右の眼のそれぞれの眼領域内で瞳孔を検出する。
When the eye area is detected, the
例えば、瞳孔検出部21は、瞳孔を検出するために、瞳孔に相当するテンプレートと眼領域との間でテンプレートマッチングを行い、眼領域内でテンプレートとの一致度が最も高くなる領域を検出する。そして瞳孔検出部21は、一致度の最高値が所定の一致度閾値よりも高い場合、その検出した領域を、瞳孔が写っている瞳孔領域と判定する。なお、ユーザの周囲の明るさに応じて瞳孔のサイズは変化する。また、瞳孔は略円形であるが、カメラ3が瞳孔を斜めから見ている場合、画像上での瞳孔の形状は垂直方向に長い楕円形状となる。そこでテンプレートは、瞳孔の大きさまたは形状に応じて複数準備されてもよい。この場合、瞳孔検出部21は、各テンプレートと眼領域とのテンプレートマッチングをそれぞれ実行し、一致度の最高値を求める。そして一致度の最高値が一致度閾値よりも高い場合、瞳孔検出部21は、一致度の最高値に対応するテンプレートと重なった領域を瞳孔領域と判定する。なお、一致度は、例えば、テンプレートとそのテンプレートと重なった領域との正規化相互相関値として算出される。また一致度閾値は、例えば、0.7または0.8に設定される。
For example, in order to detect a pupil, the
また瞳孔が写っている領域の輝度は、その周囲の領域の輝度よりも低く、瞳孔は略円形である。そこで瞳孔検出部21は、眼領域内で、同心円状に半径の異なる2本のリングを持つ2重リングフィルタを設定する。そして瞳孔検出部21は、外側のリングに相当する画素の輝度の平均値から内側の画素の輝度の平均値を引いた差分値が所定の閾値よりも大きい場合、その内側のリングで囲まれた領域を瞳孔領域としてもよい。また瞳孔検出部21は、内側のリングで囲まれた領域の平均輝度値が所定の閾値以下であることを、瞳孔領域として検出する条件に加えてもよい。この場合、所定の閾値は、例えば、眼領域内の最大輝度値と最小輝度値の差の10%〜20%を、最小輝度値に加えた値に設定される。
The luminance of the region where the pupil is reflected is lower than the luminance of the surrounding region, and the pupil is substantially circular. Accordingly, the
なお、瞳孔検出部21は、画像上で瞳孔が写っている領域を検出する他の様々な方法の何れかを用いて、瞳孔領域を検出してもよい。
Note that the
瞳孔検出部21は、ユーザの左右の眼のそれぞれについて、瞳孔領域に含まれる各画素の水平方向座標値の平均値及び垂直方向座標値の平均値を、瞳孔領域の重心(以下、単に瞳孔重心と呼ぶ)の位置座標として算出する。
The
瞳孔検出部21は、ユーザの左右のそれぞれの眼について、眼領域を表す情報及び瞳孔重心の位置座標を視線検出部22へ通知する。また瞳孔検出部21は、ユーザの左右のそれぞれの眼について、瞳孔重心の位置座標を顔向き判定部23及び瞳孔間距離算出部24へ通知する。
The
視線検出部22は、瞳孔間距離推定処理の実行中において、瞳孔間距離が算出されるまで、ユーザの左右のそれぞれの眼について瞳孔重心が検出される度に、ユーザの左右のそれぞれの眼について視線方向を検出する。なお、視線検出部22は、左眼と右眼とで、同じ処理を実行すればよいので、以下では、一方の眼についての処理について説明する。
When the pupil center of gravity is detected for each of the left and right eyes of the user until the interpupillary distance is calculated during execution of the interpupillary distance estimation process, the line-of-
視線検出部22は、例えば、画像上での虹彩に基づいて、視線方向を検出する。この場合、視線検出部22は、例えば、西内他、「虹彩輪郭の楕円近似を用いた非接触視線検出法の研究」、日本機械学会、日本機械学会論文集、C編、69巻、682号、pp.1611-1617、2003年、に記載された方法に従って視線方向を検出すればよい。
The line-of-
この場合、視線検出部22は、先ず、眼領域から虹彩の輪郭を抽出する。一般に、虹彩に相当する部分の画素の輝度は、虹彩の周囲に相当する部分(いわゆる白眼)の画素の輝度よりも低い。さらに、虹彩の輪郭(以下、単に虹彩輪郭と呼ぶ)は、瞳孔重心を中心とする略円形状となる。そこで視線検出部22は、例えば、瞳孔重心から放射状に設定する複数の走査線のそれぞれにそって、例えば、CannyフィルタまたはSobelフィルタを用いてエッジ画素を検出する。そして視線検出部22は、検出されたエッジ画素の集合に対して楕円近似を行うことで得られる輪郭線を虹彩輪郭として抽出する。その際、視線検出部22は、瞳孔重心からの距離が所定の範囲内となるエッジ画素から虹彩輪郭を抽出してもよい。所定の範囲は、例えば、画像上で想定される虹彩のサイズの最小値に相当する、瞳孔重心から虹彩輪郭までの距離を下限とし、画像上で想定される虹彩のサイズの最大値に相当する、瞳孔重心から虹彩輪郭までの距離を上限とする範囲に設定される。
In this case, the line-of-
あるいは、視線検出部22は、画像から虹彩輪郭を抽出する他の様々な方法の何れかに従って虹彩輪郭を抽出してもよい。
Alternatively, the line-of-
視線検出部22は、画像上での、虹彩輪郭を近似する楕円の長軸RAに対する短軸RBの比に基づいて、カメラ座標系での原点Oと眼球の中心Cとを結ぶ線と、視線方向を表す視線ベクトルとがなす角度ηを、次式に従って算出する。
そして、視線検出部22は、角度ηと、虹彩輪郭を近似する楕円の短軸RBと画像の垂直軸とがなす角度ζとに基づいて、次式に従って、視線ベクトルの単位ベクトルeを算出する。
変形例によれば、視線検出部22は、デジタルサイネージシステム1がユーザの眼を照明する光源を有している場合、画像上でのその光源の角膜反射像(以下、プルキンエ像と呼ぶ)の位置と瞳孔重心との位置関係に基づいて視線方向を検出してもよい。
この場合、視線検出部22は、例えば、テンプレートマッチングにより眼領域内でプルキンエ像を検出する。そして視線検出部22は、例えば、プルキンエ像と瞳孔重心間の相対的な位置関係と視線方向との関係を表す参照テーブルを参照して、プルキンエ像と瞳孔重心の位置に対応する視線方向を特定すればよい。なお、参照テーブルは、例えば、カメラ3と光源との位置関係に応じて予め作成され、メモリ6に保存されればよい。
According to the modification, when the digital signage system 1 has a light source that illuminates the user's eyes, the line-of-
In this case, the line-of-
視線検出部22は、ユーザの左眼及び右眼のそれぞれについて検出された視線方向を瞳孔間距離算出部24へ通知する。
The line-of-
顔向き判定部23は、ユーザの顔がカメラ3に対して正対しているか否か判定する。
The face
本実施形態では、カメラ3は、表示装置2の表示画面の下方に配置されているので、カメラ3はユーザの顔よりも下側を向いていると想定される。そのため、ユーザがカメラ3に対して正対していれば、画像上での左眼の瞳孔重心の垂直方向位置と、右眼の瞳孔重心の垂直方向位置とは略等しくなる。一方、ユーザがカメラ3に対して顔を傾けていれば、カメラ3の光軸と、カメラ3に近い方の眼へカメラ3から向かう方向とのなす角度は、カメラ3の光軸と、カメラ3から遠い方の眼へカメラ3から向かう方向とのなす角度よりも大きくなる。その結果として、画像上で、カメラ3に近い方の眼の瞳孔重心は、カメラ3から遠い方の眼の瞳孔重心よりも垂直方向に沿って上方に位置することになる。
In this embodiment, since the
図5(a)は、ユーザの顔がカメラ3に対して正対している場合の顔の画像の一例を示す図であり、図5(b)は、ユーザがカメラ3に対して顔を傾けている場合の顔の画像の一例を示す図である。
FIG. 5A is a diagram illustrating an example of a face image when the user's face is facing the
図5(a)に示されるように、ユーザの顔501がカメラ3に対して正対している場合、画像500上で、左眼502の垂直方向の位置と右眼503の垂直方向の位置とは略一致する。一方、図5(b)に示されるように、ユーザの顔511がカメラ3に対して傾いている場合、画像510上で、カメラ3に近い方の眼(この例では、左眼)512よりも、カメラ3から遠い方の眼(この例では、右眼)513の方が下側に位置している。このように、顔向き判定部23は、画像上での右目と左目の垂直方向の位置を比較することで、ユーザの顔がカメラ3に対して正対しているか否かを判定できる。
As shown in FIG. 5A, when the user's
そこで、顔向き判定部23は、画像上での左眼の瞳孔重心の垂直方向位置と右眼の瞳孔重心の垂直方向位置の差の絶対値を算出し、その差の絶対値を正対判定閾値(例えば、1〜2)と比較する。そして顔向き判定部23は、その差の絶対値が正対判定閾値以下であれば、ユーザの顔はカメラ3に対して正対していると判定する。一方、その差の絶対値が正対判定閾値よりも大きければ、顔向き判定部23は、ユーザの顔はカメラ3に対して正対していないと判定する。そして顔向き判定部23は、左眼と右眼のうち、瞳孔重心の垂直方向位置が下方に位置している方がカメラ3から遠いと判定する。例えば、画像上での左眼の瞳孔重心が、右眼の瞳孔重心よりも下方に位置していれば、顔向き判定部23は、右眼よりも左眼の方がカメラ3から遠い、すなわち、ユーザの顔はカメラ3よりも左側を向いていると判定する。なお、カメラ3から見れば、ユーザはカメラ3よりも右側を向いていることになる。逆に、画像上での右眼の瞳孔重心が、左眼の瞳孔重心よりも下方に位置していれば、顔向き判定部23は、左眼よりも右眼の方がカメラ3から遠い、すなわち、ユーザの顔はカメラ3よりも右側を向いていると判定する。この場合、カメラ3から見れば、ユーザはカメラ3よりも左側を向いていることになる。
Therefore, the face
なお、カメラ3が表示装置2よりも上側に配置されている場合も、顔向き判定部23は、上記と同様に、左眼の瞳孔重心の垂直方向位置と右眼の瞳孔重心の垂直方向位置とを比較することで、ユーザの顔がカメラ3に対して正対しているか否かを判定できる。またこの場合において、カメラ3がユーザの顔よりも上方を向いていると想定される場合は、顔向き判定部23は、左眼と右眼のうち、瞳孔重心の垂直方向位置が上方に位置している方がカメラ3から遠いと判定すればよい。
Even when the
また、顔向き判定部23は、画像から顔の向きを判定する他の方法にしたがって、ユーザの顔がカメラ3に対して正対しているか否かを判定してもよい。例えば、顔向き判定部23は、画像上でのユーザの顔の正中線及び鼻の頂点を検出し、鼻の頂点が正中線上に位置していれば、ユーザの顔がカメラ3に対して正対していると判定してもよい。この場合には、例えば、顔向き判定部23は、画像上で肌色を有している画素を検出し、検出された肌色を持つ画素の集合を顔領域として検出する。そして顔向き判定部23は、顔領域内で、例えば、口検出用の識別器を用いて、あるいは、テンプレートマッチングにより、口が写っている口領域を検出する。顔向き判定部23は、左右の眼領域間の中点と、口領域の水平方向における中点とを結ぶ線を、顔の正中線とする。さらに、顔向き判定部23は、鼻の頂点検出用の識別器を用いて、あるいは、テンプレートマッチングにより、鼻の頂点を検出すればよい。そして顔向き判定部23は、画像上での鼻の頂点から正中線までの距離を算出し、その距離が所定の閾値未満であれば、鼻の頂点が正中線上に位置している、すなわち、ユーザの顔はカメラ3と正対していると判定すればよい。
The face
顔向き判定部23は、ユーザの顔がカメラ3に対して正対しているか否かの判定結果を瞳孔間距離算出部24へ通知する。
The face
瞳孔間距離算出部24は、ユーザの顔がカメラ3に対して正対しているときの画像に基づいて、実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置を算出する。本実施形態では、瞳孔間距離算出部24は、画像上での両眼の瞳孔重心の位置に応じたカメラ3と両眼間の位置関係と、両眼の視線方向と、カメラ3と表示装置2の表示画面との位置関係に基づいて、実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置を算出する。そして瞳孔間距離算出部24は、実空間での左眼の瞳孔の位置及び右眼の瞳孔の位置から、瞳孔間距離を算出する。
The interpupillary
図6(a)及び図6(b)は、表示装置2及びカメラ3と、瞳孔の位置及び注視位置との関係の一例を示す図である。図6(a)及び図6(b)において、カメラ座標系の原点Oは、例えば、カメラ3の撮像光学系の後側主点に設定される。そしてPileft及びPirightは、それぞれ、画像上の左眼及び右眼の瞳孔重心の位置に対応する、原点Oからカメラ3の撮像光学系の焦点距離fだけ離れた位置にある、カメラ3の撮像面600上の位置を表す。またPrleft及びPrrightは、それぞれ、実空間でのユーザの左眼の瞳孔重心及び右眼の瞳孔重心を表す。Kは、カメラ3の光軸OAに沿った、原点Oから表示装置2の表示画面までの距離を表す。dは、カメラ3の光軸OAに沿った、原点Oから実空間でのユーザの左眼及び右眼の瞳孔重心Prleft及びPrrightまでの距離を表す。そしてEVleft及びEVrightは、それぞれ、ユーザの左眼の視線方向及び右眼の視線方向を表す。またLは、表示装置2の表示画面上の注視位置を表す。
FIGS. 6A and 6B are diagrams illustrating an example of the relationship between the
カメラ座標系において、原点Oから左眼の瞳孔重心へ向かう方向を表すベクトルPVleft及び原点Oから右眼の瞳孔重心へ向かう方向を表すベクトルPVrightは、それぞれ、次式で表される。
一方、ユーザの左眼と右眼の両方は、同じ注視位置を見ていると想定されることから、次式が成立する。
したがって、瞳孔間距離算出部24は、(4)式及び(5)式を解くことにより、距離d及び実空間での左眼の瞳孔重心の位置Prleft及び右眼の瞳孔重心の位置Prrightを算出できる。そして瞳孔間距離算出部24は、次式に従って、実空間での瞳孔間距離ppを算出する。
瞳孔間距離算出部24は、算出した瞳孔間距離ppをメモリ6に保存する。
The interpupillary
図7は、プロセッサ7により実行される、瞳孔間距離推定処理の動作フローチャートである。プロセッサ7は、カメラ3から画像を受け取る度に、この動作フローチャートに従って瞳孔間距離推定処理を実行すればよい。
FIG. 7 is an operation flowchart of the inter-pupil distance estimation process executed by the
瞳孔検出部21は、画像からユーザの左右の眼のそれぞれについて眼領域を検出する(ステップS101)。そして瞳孔検出部21は、ユーザの左右の眼のそれぞれについて、眼領域内で瞳孔重心を検出する(ステップS102)。
The
視線検出部22は、ユーザの左右の眼のそれぞれについて、視線方向を検出する(ステップS103)。
The line-of-
また、顔向き判定部23は、例えば、画像上の左右の眼のそれぞれの垂直方向の位置に基づいて、ユーザの顔がカメラ3に対して正対しているか否か判定する(ステップS104)。ユーザの顔がカメラ3に対して正対していなければ(ステップS104−No)、プロセッサ7は、瞳孔間距離推定処理を終了する。
Further, the face
一方、ユーザの顔がカメラ3に対して正対していれば(ステップS104−Yes)、瞳孔間距離算出部24は、左右それぞれの眼についての視線方向とカメラ3から瞳孔重心へ向かう方向とに基づいて、実空間での瞳孔間距離を算出する(ステップS105)。瞳孔間距離算出部24は、算出した瞳孔間距離をメモリ6に保存する。そしてプロセッサ7は、瞳孔間距離推定処理を終了する。
On the other hand, if the user's face is directly facing the camera 3 (step S104—Yes), the interpupillary
なお、プロセッサ7は、ステップS103の処理とステップS104の処理の順序を入れ替えてもよい。すなわち、ステップS104にて、ユーザの顔がカメラ3に対して正対していると判定された場合に、視線検出部22は、ユーザの左右の眼のそれぞれについて視線方向を検出してもよい。また、顔向き判定部23が画像上での左右それぞれの眼の瞳孔重心の位置を利用せずにユーザの顔向きを判定する場合には、ステップS104の処理が最初に行われてもよい。そしてユーザの顔がカメラ3に対して正対していると判定された場合に、ステップS101〜S103及びS105の処理が行われてもよい。
Note that the
(注視位置検出処理)
次に、注視位置検出処理について説明する。プロセッサ7は、例えば、ユーザがデジタルサイネージシステム1を利用しなくなるまで、カメラ3による画像が得られる度に、注視位置検出処理を実行する。なお、プロセッサ7は、例えば、所定期間(例えば、10秒間〜1分間)にわたって連続して、画像から眼領域を検出できなくなると、ユーザがデジタルサイネージシステム1を利用しなくなったと判断する。あるいは、デジタルサイネージシステム1が近接センサ(図示せず)を有する場合、近接センサがユーザを検知できなくなると、プロセッサ7は、ユーザがデジタルサイネージシステム1を利用しなくなったと判断してもよい。そしてプロセッサ7は、ユーザがデジタルサイネージシステム1を利用しなくなると、メモリ6に保存されている瞳孔間距離を消去する。
(Gaze position detection process)
Next, the gaze position detection process will be described. The
瞳孔検出部21は、瞳孔間距離推定処理と同様に、画像から、ユーザの左右の眼のそれぞれについての眼領域を検出し、その眼領域から瞳孔重心を検出する。そして瞳孔検出部21は、ユーザの左右の眼のそれぞれについての画像上での瞳孔重心の位置を、視線検出部22、顔向き判定部23及び注視位置検出部25へ通知する。
The
また、視線検出部22も、瞳孔間距離推定処理と同様に、ユーザの左右の眼のそれぞれについて視線方向を検出する。そして視線検出部22は、ユーザの左右の眼のそれぞれについての視線方向を注視位置検出部25へ通知する。
The line-of-
さらに、顔向き判定部23は、瞳孔間距離推定処理と同様に、ユーザの顔がカメラ3に対して正対しているか、及び、ユーザの顔がカメラ3に対して正対していない場合、カメラ3の左側及び右側の何れを向いているかを判定する。そして顔向き判定部23は、その判定結果を注視位置検出部25へ通知する。
Further, as in the inter-pupil distance estimation process, the face
注視位置検出部25は、ユーザの左右の眼のそれぞれの視線方向、画像上での瞳孔重心の位置、実空間での瞳孔間距離、及び、顔向きの判定結果に基づいて、注視位置を検出する。
The gaze
図8は、注視位置検出の原理を説明する図である。図8において、カメラ座標系の原点Oは、例えば、カメラ3の撮像光学系の後側主点に設定される。そしてPrleft及びPrrightは、それぞれ、実空間でのユーザの左眼の瞳孔重心及び右眼の瞳孔重心を表す。Kは、カメラ3の光軸OAに沿った、原点Oから表示装置2の表示画面までの距離を表す。また、EVleft及びEVrightは、それぞれ、ユーザの左眼の視線方向及び右眼の視線方向を表す。またLは、表示装置2の表示画面上の注視位置を表す。さらに、ppは、実空間での瞳孔間距離を表す。そしてdleft及びdrightは、それぞれ、カメラ3の光軸OAに沿った、原点Oから実空間でのユーザの左眼及び右眼の瞳孔重心Prleft及びPrrightまでの距離を表す。
FIG. 8 is a diagram for explaining the principle of gaze position detection. In FIG. 8, the origin O of the camera coordinate system is set to the rear principal point of the imaging optical system of the
(4)式と同様に、カメラ座標系における、実空間での左眼の瞳孔重心の位置Prleft及び右眼の瞳孔重心の位置Prrightは、次式で表される。
一方、ユーザの左眼と右眼の両方は、同じ注視位置を見ていると想定されることから、次式が成立する。
注視位置検出部25は、注視位置Lをメモリ6に保存する。
The gaze
プロセッサ7は、ユーザの注視位置を追跡することで、注視位置が一定時間以上停滞した位置あるいは範囲を特定する。そしてプロセッサ7は、その位置または範囲に応じた処理を実行する。例えば、プロセッサ7は、その位置または範囲において、表示装置2に表示されているアイコンまたはコンテンツに関連する情報を表示装置2に表示させてもよい。
The
図9は、プロセッサ7により実行される、注視位置検出処理の動作フローチャートである。プロセッサ7は、カメラ3から画像を取得する度に、下記の動作フローチャートに従って、注視位置検出処理を実行すればよい。
FIG. 9 is an operation flowchart of gaze position detection processing executed by the
瞳孔検出部21は、画像からユーザの左右の眼のそれぞれについて眼領域を検出する(ステップS201)。そして瞳孔検出部21は、ユーザの左右の眼のそれぞれについて、眼領域内で瞳孔重心を検出する(ステップS202)。
The
視線検出部22は、ユーザの左右の眼のそれぞれについて視線方向を検出する(ステップS203)。
The line-of-
また、顔向き判定部23は、例えば、画像上の左右の眼のそれぞれの垂直方向の位置に基づいて、画像からユーザの顔向きを判定する(ステップS204)。そして注視位置検出部25は、ユーザの左右のそれぞれの眼の視線方向、カメラ3から左右のそれぞれの眼の瞳孔重心へ向かう方向、瞳孔間距離、及び顔向きに基づいて注視位置を検出する(ステップS205)。そしてプロセッサ7は、注視位置検出処理を終了する。
Further, the face
以上に説明してきたように、ユーザの顔がカメラに対して正対している場合には、カメラの光軸に沿った、カメラから左右それぞれの眼の瞳孔までの距離が互いに等しくなる。このことを利用して、この注視位置検出装置は、左右それぞれの眼についての視線方向及びカメラから瞳孔へ向かう方向に基づいて、左右それぞれの眼の瞳孔重心の実空間での位置を求める。そしてこの注視位置検出装置は、左右それぞれの眼の瞳孔重心の実空間での位置に基づいて、実空間でのユーザの瞳孔間距離を算出する。そのため、この注視位置検出装置は、カメラにより得られた画像から、実空間でのユーザの瞳孔間距離を正確に推定することができる。そしてこの注視位置検出装置は、実空間での瞳孔間距離を参照して、左右それぞれの眼の瞳孔の実空間での位置を検出できるので、左右それぞれの眼の視線方向に基づいて注視位置を正確に検出できる。そのため、この注視位置検出装置は、事前にキャリブレーション処理を行わなくても、かつ、カメラからユーザまでの距離を事前に知らなくても、注視位置を正確に検出できる。 As described above, when the user's face is facing the camera, the distances from the camera to the left and right eye pupils along the optical axis of the camera are equal to each other. Using this, the gaze position detection device obtains the positions of the left and right eyes in the real space based on the gaze direction for the left and right eyes and the direction from the camera toward the pupil. The gaze position detecting device calculates the distance between the pupils of the user in the real space based on the positions of the center of the pupils of the left and right eyes in the real space. Therefore, the gaze position detection device can accurately estimate the distance between the pupils of the user in real space from the image obtained by the camera. The gaze position detection device can detect the position of the pupil of each of the left and right eyes in the real space with reference to the distance between the pupils in the real space, so that the gaze position is determined based on the gaze direction of the left and right eyes. It can be detected accurately. Therefore, this gaze position detection apparatus can accurately detect the gaze position without performing calibration processing in advance and without knowing the distance from the camera to the user in advance.
なお、変形例によれば、カメラ3の光軸方向と表示装置2の表示画面の法線方向とが平行でなくてもよい。この場合には、注視対象面上の注視位置に応じて、カメラ3の光軸方向に沿った、カメラ3と表示画面上の注視位置間の距離が変動する。そこで、この変形例では、瞳孔間距離算出部24は、カメラ3の光軸方向に対する表示装置2の表示画面の傾き角度を参照することで、カメラ3と注視位置間の距離が一定でなくても、瞳孔間距離を算出する。また、注視位置検出部25も、傾き角度を参照することで、カメラ3と注視位置間の距離が一定でなくても、注視位置を検出する。
Note that, according to the modification, the optical axis direction of the
図10は、この変形例による、表示装置2及びカメラ3と、ユーザの瞳孔重心及び注視位置との関係の一例を示す図である。図10において、カメラ座標系の原点Oは、例えば、カメラ3の撮像光学系の後側主点に設定される。カメラ3の光軸OAに平行な方向がz軸となり、水平方向がx軸となり、垂直方向がy軸となるようにカメラ座標系が設定される。そして表示装置2の表示画面は、z軸に対して角度θをなし、かつ、表示画面を延長した面上に原点Oが位置するものとする。すなわち、注視対象面の一例である、表示装置2の表示画面は、カメラ3の光軸OAに対して角度θだけ傾いている。また、Prは、実空間でのユーザの何れか一方の眼の瞳孔重心を表し、PVは、原点Oから瞳孔重心Prへ向かうベクトルを表す。また、EVは、ユーザの何れか一方の眼の視線方向を表すベクトルである。またLは、表示装置2の表示画面上の注視位置を表す。そしてdは、z軸に沿った、原点Oから実空間でのユーザの何れか一方の眼の瞳孔重心Prまでの距離を表す。さらに、Hは、yz平面における、表示装置2の表示画面に平行なベクトルを表す。
FIG. 10 is a diagram illustrating an example of the relationship between the
この場合において、注視位置Lは、表示装置2の表示画面上に位置するとともに、ユーザの眼の瞳孔重心Prから視線方向を表すベクトルEVに沿った位置にある。そのため、次式が成立する。
(9)式は、左右それぞれの眼について成立する。そこで、瞳孔間距離算出部24は、(10)式に従って算出されたt及びkを用いて、左右それぞれの眼についての(9)式と、(4)式とを解くことで、左右それぞれの眼の瞳孔重心の実空間の位置を算出できる。そして左右それぞれの眼の瞳孔重心の実空間の位置が算出されると、瞳孔間距離算出部24は、(6)式に従って、瞳孔間距離ppを算出すればよい。
Equation (9) is established for each of the left and right eyes. Therefore, the interpupillary
この変形例によれば、注視位置検出装置は、注視対象面の法線方向とユーザの眼を撮影するカメラの光軸方向とが平行でなくても、すなわち、カメラと注視位置間の距離が一定でなくても、ユーザの瞳孔間距離をもとめることができる。 According to this modification, the gaze position detection device is configured so that the normal direction of the gaze target surface and the optical axis direction of the camera that captures the user's eyes are not parallel, that is, the distance between the camera and the gaze position is the same. Even if it is not constant, the distance between the pupils of the user can be obtained.
同様に、注視位置検出部25は、顔向きの判定結果に基づくdleftとdrightの大小関係に従って、(10)式に従って算出されたt及びkを用いて、左右それぞれの眼についての(9)式、(6)式及び(7)式を解くことで、注視位置Lを算出できる。
Similarly, the gaze
なお、注視対象面を延長した面上に原点Oが存在しない場合には、(9)式の上側の式の右辺において、注視対象面を延長した面についてのz軸に関する切片が加算されればよい。さらに、注視対象面が撮像部の光軸に対して水平方向にも傾いている場合には、(9)式は、xz平面についても成立する。そこでこの場合には、瞳孔間距離算出部24は、(10)式に従って算出されたt及びkを用いて、左右それぞれの眼についてのxz平面に関する(9)式と、(4)式とを解くことで、左右それぞれの眼の瞳孔重心の実空間の位置を算出できる。同様に、注視位置検出部25は、顔向きの判定結果に基づくdleftとdrightの大小関係に従って、(10)式に従って算出されたt及びkを用いて、左右それぞれの眼についてのxz平面に関する(9)式、(6)式及び(7)式を解くことで、注視位置Lを算出できる。
Note that if the origin O does not exist on the surface obtained by extending the gaze target surface, if the intercept about the z axis for the surface obtained by extending the gaze target surface is added to the right side of the upper formula of the equation (9), Good. Further, when the gaze target surface is also inclined in the horizontal direction with respect to the optical axis of the imaging unit, the equation (9) is also established for the xz plane. Therefore, in this case, the interpupillary
また他の変形例によれば、プロセッサ7は、ユーザの顔がカメラ3に正対しているときに得られた複数の画像のそれぞれについて、上記の瞳孔間距離推定処理を実行して瞳孔間距離の候補を算出し、メモリ6に保存してもよい。そして瞳孔間距離算出部24は、複数の画像のそれぞれから得られた瞳孔間距離の候補の統計的代表値を、ユーザの瞳孔間距離としてもよい。この場合、瞳孔間距離算出部24は、例えば、瞳孔間距離の候補の統計的代表値として、瞳孔間距離の候補の最頻値、中央値あるいは平均値を算出することができる。あるいは、瞳孔間距離算出部24は、例えば、ガウス分布などにしたがって、瞳孔間距離の候補の確率分布を推定し、その確率分布における平均値を、ユーザの瞳孔間距離としてもよい。
この変形例によれば、注視位置検出装置は、ユーザの瞳孔間距離をより高精度でもとめることができる。
According to another modification, the
According to this modification, the gaze position detection device can determine the distance between the pupils of the user with higher accuracy.
さらに他の変形例によれば、瞳孔間距離推定処理の実行中に得られた各画像について求められた左右それぞれの眼の視線方向及び瞳孔重心の位置がメモリ6に記憶されてもよい。そして瞳孔間距離推定後に、注視位置検出部25は、それら各画像について、左右それぞれの眼の視線方向及び瞳孔重心の位置と算出された瞳孔間距離とに基づいて、注視位置を検出してもよい。これにより、この注視位置検出装置は、瞳孔間距離が算出されるよりも前のユーザの注視位置も検出できるので、注視位置の軌跡をより詳細に調べることができる。
According to still another modified example, the right and left eye gaze directions and the position of the pupil center of gravity obtained for each image obtained during the execution of the inter-pupil distance estimation process may be stored in the memory 6. Then, after estimating the interpupillary distance, the gaze
なお、上記の実施形態または変形例による注視位置検出装置は、デジタルサイネージシステムに限られず、車両の運転支援システム、コンピュータの入力支援システムなどに利用されてもよい。 The gaze position detection device according to the above-described embodiment or modification is not limited to a digital signage system, and may be used for a vehicle driving support system, a computer input support system, and the like.
上記の実施形態またはその変形例による注視位置検出装置の制御部の機能を実現するコンピュータプログラムは、磁気記録媒体、光記録媒体といったコンピュータ読み取り可能な記録媒体に記録された形で提供されてもよい。なお、この記録媒体には、搬送波は含まれない。 The computer program that realizes the function of the control unit of the gaze position detection device according to the above-described embodiment or its modification may be provided in a form recorded on a computer-readable recording medium such as a magnetic recording medium or an optical recording medium. . This recording medium does not include a carrier wave.
ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。 All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、
実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置とから、実空間での前記左眼と前記右眼間の瞳孔間距離を算出する、
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。
(付記2)
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係は、前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置に応じた前記撮像部から前記左眼の瞳孔への方向及び前記画像上の前記右眼の瞳孔の位置に応じた前記撮像部から前記右眼の瞳孔への方向と、前記撮像部から前記左眼までの前記撮像部の光軸に沿った距離と前記撮像部から前記右眼までの前記撮像部の光軸に沿った距離とが等しいこととを含む、付記1に記載の注視位置検出用コンピュータプログラム。
(付記3)
前記注視対象となる面の法線方向と前記撮像部の光軸は平行であり、かつ、前記撮像部と前記注視対象となる面間の位置関係は、前記撮像部と前記注視対象となる面間の距離を含む、付記1または2に記載の注視位置検出用コンピュータプログラム。
(付記4)
前記撮像部と前記注視対象となる面間の位置関係は、前記撮像部の光軸方向に対する前記注視対象となる面の傾きを含む、付記1または2に記載の注視位置検出用コンピュータプログラム。
(付記5)
実空間での前記左眼と前記右眼間の瞳孔間距離を算出することは、前記ユーザの顔が前記撮像部に対して正対しているときの複数の前記画像のそれぞれについて前記瞳孔間距離を算出し、複数の前記画像のそれぞれについて算出された前記左眼と前記右眼間の瞳孔間距離の統計的代表値を前記瞳孔間距離とする、付記1〜4の何れか一項に記載の注視位置検出用コンピュータプログラム。
(付記6)
前記瞳孔間距離が算出された画像と異なる、前記撮像部により生成された、左眼及び右眼を含む前記ユーザの顔の少なくとも一部が表された第2の画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記第2の画像上の前記左眼に基づいて前記左眼の第2の視線方向を検出し、
前記第2の画像上の前記右眼に基づいて前記右眼の第2の視線方向を検出し、
前記第2の画像に基づいて前記ユーザの顔向きを判定し、
前記第2の画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係、前記左眼の第2の視線方向及び前記右眼の第2の視線方向、前記ユーザの顔の向き、前記撮像部と前記注視対象となる面間の位置関係、及び、前記瞳孔間距離に基づいて、前記注視対象となる面上の注視位置を検出する、
ことをさらにコンピュータに実行させるための付記1〜5の何れか一項に記載の注視位置検出用コンピュータプログラム。
(付記7)
撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、
実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置とから、実空間での前記左眼と前記右眼の間の瞳孔間距離を算出する、
ことを含む注視位置検出方法。
(付記8)
撮像部により生成された、左眼及び右眼を含むユーザの顔の少なくとも一部が表された画像から、前記ユーザの顔が前記撮像部に対して正対しているか否かを判定する顔向き判定部と、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出する瞳孔検出部と、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、かつ、前記画像上の前記右眼に基づいて前記右眼の視線方向を検出する視線検出部と、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置とから、実空間での前記左眼と前記右眼の間の瞳孔間距離を算出する瞳孔間距離算出部と、
を有する注視位置検出装置。
(付記9)
撮像部により生成された、左眼及び右眼を含む前記ユーザの顔の少なくとも一部が表された画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記画像に基づいて前記ユーザの顔向きを判定し、
前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係、前記左眼の視線方向及び前記右眼の視線方向、前記ユーザの顔の向き、前記撮像部と前記ユーザによる注視対象となる面間の位置関係、及び、実空間での前記左眼と前記右眼間の瞳孔間距離に基づいて、前記注視対象となる面上の注視位置を検出する、
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
Determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and representing at least part of the user's face including the left eye and the right eye;
From the image when the user's face is directly facing the imaging unit, the respective pupils of the left eye and the right eye are detected,
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the right eye pupil,
Calculating the interpupillary distance between the left eye and the right eye in real space from the position of the pupil of the left eye and the position of the right eye pupil in real space;
A computer program for detecting a gaze position for causing a computer to execute the operation.
(Appendix 2)
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The positional relationship between the direction from the imaging unit to the pupil of the left eye according to the position of the pupil of the left eye on the image when the user's face is directly facing the imaging unit, and The direction from the imaging unit to the right eye pupil according to the position of the right eye pupil on the image, the distance along the optical axis of the imaging unit from the imaging unit to the left eye, and the imaging The computer program for gaze position detection according to appendix 1, wherein the distance along the optical axis of the imaging unit from the unit to the right eye is equal.
(Appendix 3)
The normal direction of the surface to be watched and the optical axis of the imaging unit are parallel, and the positional relationship between the imaging unit and the surface to be watched is the surface to be the imaging unit and the eye to be watched. The computer program for gaze position detection according to
(Appendix 4)
The computer program for gaze position detection according to
(Appendix 5)
The calculation of the interpupillary distance between the left eye and the right eye in real space means that the interpupillary distance for each of the plurality of images when the user's face is facing the imaging unit. The statistical representative value of the interpupillary distance between the left eye and the right eye calculated for each of the plurality of images is used as the interpupillary distance, according to any one of appendices 1 to 4. Computer program for detecting the gaze position.
(Appendix 6)
From the second image generated by the imaging unit, which is different from the image in which the interpupillary distance is calculated, and which represents at least a part of the user's face including the left eye and the right eye, the left eye and the Detect each pupil of the right eye,
Detecting a second gaze direction of the left eye based on the left eye on the second image;
Detecting a second gaze direction of the right eye based on the right eye on the second image;
Determining the user's face orientation based on the second image;
The positional relationship between the imaging unit and the left and right eyes according to the position of the pupil of the left eye and the position of the pupil of the right eye on the second image, and the second line-of-sight direction of the left eye And the second eye-gaze direction of the right eye, the orientation of the user's face, the positional relationship between the imaging unit and the surface to be watched, and the inter-pupil distance on the surface to be watched Detect the gaze position of
The computer program for gaze position detection as described in any one of the supplementary notes 1-5 for making a computer perform this further.
(Appendix 7)
Determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and representing at least part of the user's face including the left eye and the right eye;
From the image when the user's face is directly facing the imaging unit, the respective pupils of the left eye and the right eye are detected,
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the right eye pupil,
Calculating the interpupillary distance between the left eye and the right eye in real space from the position of the pupil of the left eye and the position of the pupil of the right eye in real space;
Gaze position detection method including the above.
(Appendix 8)
Face orientation for determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and showing at least part of the user's face including the left eye and the right eye A determination unit;
A pupil detection unit that detects the pupils of the left eye and the right eye from the image when the user's face is facing the imaging unit;
A line-of-sight detection unit that detects the line-of-sight direction of the left eye based on the left eye on the image and detects the line-of-sight direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the pupil of the right eye, and the position of the pupil of the left eye and the position of the right eye pupil in real space, between the left eye and the right eye in real space. An interpupillary distance calculator that calculates the interpupillary distance;
A gaze position detecting device having
(Appendix 9)
Detecting each pupil of the left eye and the right eye from an image generated by the imaging unit and representing at least a part of the user's face including the left eye and the right eye;
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
Determining the face orientation of the user based on the image;
The positional relationship between the imaging unit and the left and right eyes, the line-of-sight direction of the left eye, and the line of sight of the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image The gaze based on the direction, the orientation of the user's face, the positional relationship between the imaging unit and the plane to be watched by the user, and the interpupillary distance between the left eye and the right eye in real space Detect the gaze position on the target surface,
A computer program for detecting a gaze position for causing a computer to execute the operation.
1 デジタルサイネージシステム(注視位置検出装置)
2 表示装置
2a 表示画面
3 カメラ
4 入力装置
5 記憶媒体アクセス装置
6 メモリ
7 プロセッサ
8 記憶媒体
21 瞳孔検出部
22 視線検出部
23 顔向き判定部
24 瞳孔間距離算出部
25 注視位置検出部
1 Digital signage system (gaze position detector)
DESCRIPTION OF
Claims (7)
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、
実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置から、実空間での前記左眼と前記右眼間の瞳孔間距離を算出する、
ことをコンピュータに実行させるための注視位置検出用コンピュータプログラム。 Determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and representing at least part of the user's face including the left eye and the right eye;
From the image when the user's face is directly facing the imaging unit, the respective pupils of the left eye and the right eye are detected,
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the right eye pupil,
Calculating the interpupillary distance between the left eye and the right eye in real space from the position of the pupil of the left eye and the position of the right eye pupil in real space;
A computer program for detecting a gaze position for causing a computer to execute the operation.
前記第2の画像上の前記左眼に基づいて前記左眼の第2の視線方向を検出し、
前記第2の画像上の前記右眼に基づいて前記右眼の第2の視線方向を検出し、
前記第2の画像に基づいて前記ユーザの顔向きを判定し、
前記第2の画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係、前記左眼の第2の視線方向及び前記右眼の第2の視線方向、前記ユーザの顔の向き、前記撮像部と前記注視対象となる面間の位置関係、及び、前記瞳孔間距離に基づいて、前記注視対象となる面上の注視位置を検出する、
ことをさらにコンピュータに実行させるための請求項1〜4の何れか一項に記載の注視位置検出用コンピュータプログラム。 From the second image generated by the imaging unit, which is different from the image in which the interpupillary distance is calculated, and which represents at least a part of the user's face including the left eye and the right eye, the left eye and the Detect each pupil of the right eye,
Detecting a second gaze direction of the left eye based on the left eye on the second image;
Detecting a second gaze direction of the right eye based on the right eye on the second image;
Determining the user's face orientation based on the second image;
The positional relationship between the imaging unit and the left and right eyes according to the position of the pupil of the left eye and the position of the pupil of the right eye on the second image, and the second line-of-sight direction of the left eye And the second eye-gaze direction of the right eye, the orientation of the user's face, the positional relationship between the imaging unit and the surface to be watched, and the inter-pupil distance on the surface to be watched Detect the gaze position of
The computer program for gaze position detection as described in any one of Claims 1-4 for making a computer perform this further.
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出し、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、
前記画像上の前記右眼に基づいて前記右眼の視線方向を検出し、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、
実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置から、実空間での前記左眼と前記右眼間の瞳孔間距離を算出する、
ことを含む注視位置検出方法。 Determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and representing at least part of the user's face including the left eye and the right eye;
From the image when the user's face is directly facing the imaging unit, the respective pupils of the left eye and the right eye are detected,
Detecting the gaze direction of the left eye based on the left eye on the image;
Detecting the gaze direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user And the position of the right eye pupil,
Calculating the interpupillary distance between the left eye and the right eye in real space from the position of the pupil of the left eye and the position of the right eye pupil in real space;
Gaze position detection method including the above.
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像から、前記左眼及び前記右眼のそれぞれの瞳孔を検出する瞳孔検出部と、
前記画像上の前記左眼に基づいて前記左眼の視線方向を検出し、かつ、前記画像上の前記右眼に基づいて前記右眼の視線方向を検出する視線検出部と、
前記ユーザの顔が前記撮像部に対して正対しているときの前記画像上の前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置に応じた前記撮像部と前記左眼及び前記右眼間の位置関係と、前記左眼の視線方向及び前記右眼の視線方向と、前記撮像部と前記ユーザによる注視対象となる面間の位置関係とに基づいて実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置を算出し、実空間での前記左眼の瞳孔の位置及び前記右眼の瞳孔の位置から、実空間での前記左眼と前記右眼間の瞳孔間距離を算出する瞳孔間距離算出部と、
を有する注視位置検出装置。 Face orientation for determining whether or not the user's face is facing the imaging unit from an image generated by the imaging unit and showing at least part of the user's face including the left eye and the right eye A determination unit;
A pupil detection unit that detects the pupils of the left eye and the right eye from the image when the user's face is facing the imaging unit;
A line-of-sight detection unit that detects the line-of-sight direction of the left eye based on the left eye on the image and detects the line-of-sight direction of the right eye based on the right eye on the image;
The imaging unit, the left eye, and the right eye according to the position of the pupil of the left eye and the position of the pupil of the right eye on the image when the user's face is facing the imaging unit The left-eye pupil in real space based on the positional relationship between the left-eye gaze direction and the right-eye gaze direction, and the positional relationship between the imaging unit and the surface to be watched by the user Between the left eye and the right eye in real space from the position of the left eye pupil and the position of the right eye pupil in real space. An interpupillary distance calculator that calculates the distance;
A gaze position detecting device having
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017106742A JP2018205819A (en) | 2017-05-30 | 2017-05-30 | Gazing position detection computer program, gazing position detection device, and gazing position detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017106742A JP2018205819A (en) | 2017-05-30 | 2017-05-30 | Gazing position detection computer program, gazing position detection device, and gazing position detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018205819A true JP2018205819A (en) | 2018-12-27 |
Family
ID=64957821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017106742A Pending JP2018205819A (en) | 2017-05-30 | 2017-05-30 | Gazing position detection computer program, gazing position detection device, and gazing position detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018205819A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111046744A (en) * | 2019-11-21 | 2020-04-21 | 深圳云天励飞技术有限公司 | Method and device for detecting attention area, readable storage medium and terminal equipment |
WO2020159077A1 (en) * | 2019-02-01 | 2020-08-06 | 주식회사 룩시드랩스 | Apparatus and method for measuring interpupillary distance |
CN111860292A (en) * | 2020-07-16 | 2020-10-30 | 科大讯飞股份有限公司 | Monocular camera-based human eye positioning method, device and equipment |
WO2020240976A1 (en) * | 2019-05-27 | 2020-12-03 | ソニー株式会社 | Artificial intelligence information processing device and artificial intelligence information processing method |
CN112101064A (en) * | 2019-06-17 | 2020-12-18 | 北京七鑫易维科技有限公司 | Sight tracking method, device, equipment and storage medium |
WO2021014868A1 (en) * | 2019-07-19 | 2021-01-28 | 株式会社Jvcケンウッド | Eyeball detection device, line-of-sight detection device, eyeball detection method, and eyeball detection program |
WO2023061822A1 (en) * | 2021-10-11 | 2023-04-20 | Fuel 3D Technologies Limited | Methods and systems for interpupillary distance measurement |
-
2017
- 2017-05-30 JP JP2017106742A patent/JP2018205819A/en active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020159077A1 (en) * | 2019-02-01 | 2020-08-06 | 주식회사 룩시드랩스 | Apparatus and method for measuring interpupillary distance |
KR20200096002A (en) * | 2019-02-01 | 2020-08-11 | 주식회사 룩시드랩스 | Apparatus and method for measuring distance between pupil centers |
KR102184972B1 (en) * | 2019-02-01 | 2020-12-01 | 주식회사 룩시드랩스 | Apparatus and method for measuring distance between pupil centers |
WO2020240976A1 (en) * | 2019-05-27 | 2020-12-03 | ソニー株式会社 | Artificial intelligence information processing device and artificial intelligence information processing method |
CN112101064A (en) * | 2019-06-17 | 2020-12-18 | 北京七鑫易维科技有限公司 | Sight tracking method, device, equipment and storage medium |
WO2021014868A1 (en) * | 2019-07-19 | 2021-01-28 | 株式会社Jvcケンウッド | Eyeball detection device, line-of-sight detection device, eyeball detection method, and eyeball detection program |
JP2021018574A (en) * | 2019-07-19 | 2021-02-15 | 株式会社Jvcケンウッド | Eyeball detection device, line-of-sight detection device, eyeball detection method, and eyeball detection program |
JP7263959B2 (en) | 2019-07-19 | 2023-04-25 | 株式会社Jvcケンウッド | Eyeball detection device, sight line detection device, eyeball detection method, and eyeball detection program |
CN111046744A (en) * | 2019-11-21 | 2020-04-21 | 深圳云天励飞技术有限公司 | Method and device for detecting attention area, readable storage medium and terminal equipment |
CN111046744B (en) * | 2019-11-21 | 2023-04-18 | 深圳云天励飞技术股份有限公司 | Method and device for detecting attention area, readable storage medium and terminal equipment |
CN111860292A (en) * | 2020-07-16 | 2020-10-30 | 科大讯飞股份有限公司 | Monocular camera-based human eye positioning method, device and equipment |
WO2023061822A1 (en) * | 2021-10-11 | 2023-04-20 | Fuel 3D Technologies Limited | Methods and systems for interpupillary distance measurement |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6930223B2 (en) | Pupil detection computer program, pupil detection device and pupil detection method | |
JP2017182739A (en) | Gaze detection device, gaze detection method and computer program for gaze detection | |
JP6056323B2 (en) | Gaze detection device, computer program for gaze detection | |
JP5949319B2 (en) | Gaze detection apparatus and gaze detection method | |
JP2018205819A (en) | Gazing position detection computer program, gazing position detection device, and gazing position detection method | |
US20200082555A1 (en) | ADAPTIVE SIMULTANEOUS LOCALIZATION AND MAPPING (SLAM) USING WORLD-FACING CAMERAS IN VIRTUAL, AUGMENTED, AND MIXED REALITY (xR) APPLICATIONS | |
CN112102389A (en) | Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object | |
KR20140125713A (en) | Apparatus and method of gaze tracking based on camera array | |
US10146306B2 (en) | Gaze position detection apparatus and gaze position detection method | |
US10254831B2 (en) | System and method for detecting a gaze of a viewer | |
JP6870474B2 (en) | Gaze detection computer program, gaze detection device and gaze detection method | |
JP5776323B2 (en) | Corneal reflection determination program, corneal reflection determination device, and corneal reflection determination method | |
US20220270287A1 (en) | Eye gaze detection method, eye gaze detection device, and non-transitory computer readable storage medium | |
US10928899B2 (en) | Handling multiple eye-gaze tracking (EGT) sources in virtual, augmented, or mixed reality (XR) applications | |
US10852819B2 (en) | Systems and methods for eye-gaze tracking (EGT) handoff | |
JP2017146938A (en) | Book detection device, book detection method, and computer program for book detection | |
JP2018099174A (en) | Pupil detector and pupil detection method | |
Drakopoulos et al. | Eye tracking interaction on unmodified mobile VR headsets using the selfie camera | |
Perra et al. | Adaptive eye-camera calibration for head-worn devices | |
KR101961266B1 (en) | Gaze Tracking Apparatus and Method | |
JPWO2018220963A1 (en) | Information processing apparatus, information processing method, and program | |
JP2017199148A (en) | Visual line detection device, visual line detection method and visual line detection-purpose computer program | |
JP2018120299A (en) | Line-of-sight detection computer program, line-of-sight detection device and line-of-sight detection method | |
Cao et al. | Gaze tracking on any surface with your phone | |
Huang et al. | Robust feature extraction for non-contact gaze tracking with eyeglasses |