JP2017131446A - Pupil detection apparatus and pupil detection method - Google Patents

Pupil detection apparatus and pupil detection method Download PDF

Info

Publication number
JP2017131446A
JP2017131446A JP2016014862A JP2016014862A JP2017131446A JP 2017131446 A JP2017131446 A JP 2017131446A JP 2016014862 A JP2016014862 A JP 2016014862A JP 2016014862 A JP2016014862 A JP 2016014862A JP 2017131446 A JP2017131446 A JP 2017131446A
Authority
JP
Japan
Prior art keywords
pupil
image
unit
center
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016014862A
Other languages
Japanese (ja)
Other versions
JP6693149B2 (en
Inventor
修二 箱嶋
Shuji Hakojima
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2016014862A priority Critical patent/JP6693149B2/en
Publication of JP2017131446A publication Critical patent/JP2017131446A/en
Application granted granted Critical
Publication of JP6693149B2 publication Critical patent/JP6693149B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a pupil detection apparatus and the like for detecting a pupil by simple processing.SOLUTION: The pupil detection apparatus includes: an imaging part for capturing an image including a pupil of a person; and a control part for extracting the pupil of the person from the image captured by the imaging part. The control part includes: a pattern matching part that matches a pattern corresponding to luminance changes in the pupil and a periphery of the pupil, with the image, and extracts candidate positions of the pupil; and a pupil detection part for analyzing the candidate positions of the pupil extracted by the pattern matching part and detecting whether or not the pupil is present thereon.SELECTED DRAWING: Figure 4

Description

本発明は、瞳孔検出装置、および瞳孔検出方法に関する。   The present invention relates to a pupil detection device and a pupil detection method.

カメラの高精度化、処理高速化、および小型化が進み、カメラで撮像した顔の画像から、被験者がモニタ画面などの観察面上で注視している位置を検出する視線検出装置が提案されている。当初は被験者の頭部を固定したり、頭部に検出装置を取り付けたりする技術が多かった。最近は被験者の負担を軽減するために、頭部に装置等を取り付けることが不要な非接触タイプが開発され、さらに精度の高い視線検出装置が求められている。非接触タイプの視線検出装置では、カメラ画像上の瞳孔と角膜反射の位置関係によって視線検出を行う。このため、カメラ画像上の瞳孔中心座標と角膜反射中心座標とを正確に求めることが重要である。特許文献1には、目を撮像した画像から、瞳孔領域と角膜反射領域とを特定する位置検出部を有する視線検出装置が記載されている。   With the advancement of high accuracy, high processing speed, and miniaturization of cameras, a line-of-sight detection device that detects the position where the subject is gazing on an observation surface such as a monitor screen from the face image captured by the camera has been proposed. Yes. Initially, there were many techniques for fixing the subject's head and attaching a detection device to the head. Recently, in order to reduce the burden on the subject, a non-contact type that does not require a device or the like to be attached to the head has been developed, and a highly accurate gaze detection device is required. In the non-contact type gaze detection apparatus, gaze detection is performed based on the positional relationship between the pupil on the camera image and the corneal reflection. For this reason, it is important to accurately obtain the pupil center coordinates and the corneal reflection center coordinates on the camera image. Patent Literature 1 describes a line-of-sight detection device having a position detection unit that identifies a pupil region and a corneal reflection region from an image obtained by capturing an eye.

特開2015−126850号公報JP2015-126850A

ここで、画像上の瞳孔を検出する場合、瞳孔があると推定される瞳孔を検出する。瞳孔検出装置は、例えば、画像に対して顔認識処理を行い、画面上の瞳孔領域を検出するが、処理の演算量が多くなる場合がある。   Here, when detecting a pupil on an image, a pupil estimated to have a pupil is detected. The pupil detection device, for example, performs face recognition processing on an image and detects a pupil region on the screen, but the amount of processing may increase.

本発明は、上記に鑑みてなされたものであって、より簡単な処理で瞳孔を検出できる瞳孔検出装置、および瞳孔検出方法を提供することを目的とする。   The present invention has been made in view of the above, and an object of the present invention is to provide a pupil detection device and a pupil detection method capable of detecting a pupil with simpler processing.

上述した課題を解決し、目的を達成するために、本発明の瞳孔検出装置は、人物の瞳孔を含む画像を撮像する撮像部と、前記撮像部が取得した画像から前記人物の瞳孔を抽出する制御部と、有し、前記制御部は、前記瞳孔と前記瞳孔の周囲の輝度変化に対応するパターンと前記画像とのマッチングを行い、前記瞳孔の候補位置を抽出するパターンマッチング部と、前記パターンマッチング部で抽出した前記瞳孔の候補位置を解析し、瞳孔があるかを検出する瞳孔検出部と、を有することを特徴とする。   In order to solve the above-described problems and achieve the object, a pupil detection device of the present invention extracts an image capturing unit that captures an image including a human pupil, and extracts the human pupil from the image acquired by the image capturing unit. A control unit, and the control unit performs matching between the pupil and a pattern corresponding to a luminance change around the pupil and the image, and extracts a candidate position of the pupil, and the pattern A pupil detection unit that analyzes the candidate position of the pupil extracted by the matching unit and detects whether there is a pupil.

本発明は、パターンマッチングで瞳孔の候補位置を抽出した後、候補位置から瞳孔を検出することで、少ない処理量で瞳孔を検出できるという効果を奏する。   The present invention produces an effect that a pupil can be detected with a small amount of processing by detecting a pupil from the candidate position after extracting the candidate position of the pupil by pattern matching.

図1は、1つの光源を使用した場合の被験者の目の様子を示す図である。FIG. 1 is a diagram showing a state of a subject's eyes when one light source is used. 図2は、2つの光源を使用した場合の被験者の目の様子を示す図である。FIG. 2 is a diagram showing the eye of the subject when two light sources are used. 図3は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。FIG. 3 is a diagram illustrating an example of the arrangement of the display unit, the stereo camera, the infrared light source, and the subject according to the present embodiment. 図4は、本実施形態の表示部、ステレオカメラ、赤外線光源および被験者の配置の一例を示す図である。FIG. 4 is a diagram illustrating an example of the arrangement of the display unit, the stereo camera, the infrared light source, and the subject according to the present embodiment. 図5は、診断支援装置の機能の概要を示す図である。FIG. 5 is a diagram illustrating an outline of functions of the diagnosis support apparatus. 図6は、図5に示す各部の詳細な機能の一例を示すブロック図である。FIG. 6 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. 図7は、1つの光源を用いると仮定した場合の処理の概要を説明する図である。FIG. 7 is a diagram for explaining an outline of processing when it is assumed that one light source is used. 図8は、本実施形態の診断支援装置により実行される処理の概要を説明する図である。FIG. 8 is a diagram for explaining an overview of processing executed by the diagnosis support apparatus of this embodiment. 図9は、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。FIG. 9 is a diagram for explaining calculation processing for calculating the distance between the pupil center position and the corneal curvature center position. 図10は、本実施形態の算出処理の一例を示すフローチャートである。FIG. 10 is a flowchart illustrating an example of calculation processing according to the present embodiment. 図11は、事前に求めた距離を使用して角膜曲率中心の位置を算出する方法を示した図である。FIG. 11 is a diagram showing a method of calculating the position of the corneal curvature center using the distance obtained in advance. 図12は、本実施形態の視線検出処理の一例を示すフローチャートである。FIG. 12 is a flowchart illustrating an example of a line-of-sight detection process according to the present embodiment. 図13は、変形例の算出処理を説明するための図である。FIG. 13 is a diagram for explaining a calculation process of the modification. 図14は、変形例の算出処理の一例を示すフローチャートである。FIG. 14 is a flowchart illustrating an example of a modification calculation process. 図15は、位置検出部の機能の概要を示す図である。FIG. 15 is a diagram illustrating an outline of functions of the position detection unit. 図16は、データベースに記憶されている識別器の一例を示す図である。FIG. 16 is a diagram illustrating an example of a classifier stored in a database. 図17は、位置検出部の処理の一例を示すフローチャートである。FIG. 17 is a flowchart illustrating an example of processing of the position detection unit. 図18は、位置検出部の処理を説明するための図である。FIG. 18 is a diagram for explaining the processing of the position detection unit. 図19は、位置検出部のパターンマッチングの処理を説明するための図である。FIG. 19 is a diagram for explaining the pattern matching processing of the position detection unit. 図20は、位置検出部のパターンマッチングの処理を説明するための図である。FIG. 20 is a diagram for explaining the pattern matching processing of the position detection unit. 図21は、位置検出部のパターンマッチングの処理を説明するための図である。FIG. 21 is a diagram for explaining the pattern matching processing of the position detection unit.

以下に、本発明にかかる瞳孔検出装置および瞳孔検出方法の実施形態を図面に基づいて詳細に説明する。なお、この実施形態によりこの発明が限定されるものではない。また、以下では、視線検出結果を用いて発達障がいなどの診断を支援する診断支援装置に瞳孔検出装置を用いた例を説明する。適用可能な装置は診断支援装置に限られるものではない。   Embodiments of a pupil detection device and a pupil detection method according to the present invention will be described below in detail with reference to the drawings. In addition, this invention is not limited by this embodiment. In the following, an example will be described in which a pupil detection device is used as a diagnosis support device that supports the diagnosis of developmental disabilities using the line-of-sight detection result. Applicable devices are not limited to diagnosis support devices.

本実施形態の診断支援装置は、2ヵ所に設置された照明部を用いて視線を検出する。また、本実施形態の診断支援装置は、視線検出前に被験者に1点を注視させて測定した結果を用いて、角膜曲率中心位置を高精度に算出する。   The diagnosis support apparatus according to the present embodiment detects a line of sight using illumination units installed at two locations. In addition, the diagnosis support apparatus according to the present embodiment calculates the corneal curvature center position with high accuracy by using a result obtained by gazing at one point on the subject before the line-of-sight detection.

なお、照明部とは、光源を含み、被験者の眼球に光を照射可能な要素である。光源とは、例えばLED(Light Emitting Diode)などの光を発生する素子である。光源は、1個のLEDから構成されてもよいし、複数のLEDを組み合わせて1ヵ所に配置することにより構成されてもよい。以下では、このように照明部を表す用語として「光源」を用いる場合がある。   In addition, an illumination part is an element which can irradiate light to a test subject's eyeball including a light source. The light source is an element that generates light, such as an LED (Light Emitting Diode). A light source may be comprised from one LED, and may be comprised by combining several LED and arrange | positioning in one place. Hereinafter, the “light source” may be used as a term representing the illumination unit in this way.

視点検出を精度よく行うためには、瞳孔位置を正しく検出できることが重要となっている。近赤外の光源を点灯させカメラで撮影した場合、カメラと光源の距離が一定以上離れていると、瞳孔は他の部分より暗くなることがわかっている。この特徴を用いて瞳孔位置が検出される。   In order to accurately detect the viewpoint, it is important that the pupil position can be detected correctly. It has been found that when the near-infrared light source is turned on and the image is taken with a camera, the pupil becomes darker than other parts if the distance between the camera and the light source is more than a certain distance. The pupil position is detected using this feature.

本実施形態では、2台のカメラに対して、光源をそれぞれのカメラの外側に2ヶ所配置する。そして、これらの2つの光源を相互に異なるタイミングで点灯させ、点灯している光源からの距離が長い方(遠い方)のカメラで撮影する。これにより、瞳孔をより暗く撮影し、瞳孔と他の部分とを、より高精度に区別することが可能となる。   In the present embodiment, two light sources are arranged outside each camera for two cameras. Then, these two light sources are turned on at different timings, and an image is taken with a camera having a longer (far) distance from the lit light source. This makes it possible to photograph the pupil more darkly and distinguish the pupil from other parts with higher accuracy.

この場合、点灯させる光源が異なるため、通常のステレオ方式による三次元計測を単純に適用することができない。すなわち、視点を求める際の光源と角膜反射を結ぶ直線を世界座標で算出することができない。そこで本実施形態では、2つのタイミングでの、撮像に用いるカメラ相互の位置関係、および、点灯させる光源相互の位置関係を、仮想的な光源の位置(仮想光源位置)に対してそれぞれ対称とする。そして、2つの光源それぞれの点灯時に得られる2つの座標値を、左カメラによる座標値および右カメラによる座標値として世界座標に変換する。これにより、2つの光源それぞれの点灯時に得られる角膜反射位置を用いて、仮想光源と角膜反射を結ぶ直線を世界座標で算出すること、および、この直線に基づき視点を算出することが可能となる。   In this case, since the light sources to be turned on are different, it is not possible to simply apply the normal stereo method for three-dimensional measurement. That is, the straight line connecting the light source and the corneal reflection when obtaining the viewpoint cannot be calculated in world coordinates. Therefore, in this embodiment, the positional relationship between the cameras used for imaging and the positional relationship between the light sources to be lit at two timings are symmetric with respect to the position of the virtual light source (virtual light source position). . Then, the two coordinate values obtained when each of the two light sources is turned on are converted into world coordinates as a coordinate value by the left camera and a coordinate value by the right camera. Accordingly, it is possible to calculate a straight line connecting the virtual light source and the corneal reflection in the world coordinates using the corneal reflection position obtained when each of the two light sources is turned on, and to calculate the viewpoint based on the straight line. .

図1は、1つの光源を使用した場合の被験者の目11の様子を示す図である。図1に示すように、虹彩12と瞳孔13との暗さの差が十分ではなく、区別が困難となる。図2は、2つの光源を使用した場合の被験者の目21の様子を示す図である。図2に示すように、虹彩22と瞳孔23との暗さの差は、図1と比較して大きくなっている。   FIG. 1 is a diagram showing a state of the eye 11 of a subject when one light source is used. As shown in FIG. 1, the difference in darkness between the iris 12 and the pupil 13 is not sufficient, making it difficult to distinguish. FIG. 2 is a diagram showing a state of the eye 21 of the subject when two light sources are used. As shown in FIG. 2, the difference in darkness between the iris 22 and the pupil 23 is larger than that in FIG.

図3および4は、本実施形態の表示部、ステレオカメラ(撮像部)、赤外線光源および被験者の配置の一例を示す図である。   3 and 4 are diagrams illustrating an example of the arrangement of the display unit, stereo camera (imaging unit), infrared light source, and subject of the present embodiment.

図3に示すように、本実施形態の診断支援装置は、表示部101と、ステレオカメラを構成する右カメラ102a、左カメラ102bと、LED光源103a、103bと、を含む。右カメラ102a、左カメラ102bは、表示部101の下に配置される。LED光源103a、103bは、右カメラ102a、左カメラ102bそれぞれの外側の位置に配置される。LED光源103a、103bは、例えば波長850nmの近赤外線を照射する光源である。図3では、9個のLEDによりLED光源103a、103b(照明部)を構成する例が示されている。なお、右カメラ102a、左カメラ102bは、波長850nmの近赤外光を透過できるレンズを使用する。なお、LED光源103a、103bと、右カメラ102a、左カメラ102bとの位置を逆にして、LED光源103a、103bを、右カメラ102a、左カメラ102bそれぞれの内側の位置に配置されていてもよい。   As shown in FIG. 3, the diagnosis support apparatus according to the present embodiment includes a display unit 101, a right camera 102a and a left camera 102b that constitute a stereo camera, and LED light sources 103a and 103b. The right camera 102a and the left camera 102b are disposed below the display unit 101. The LED light sources 103a and 103b are arranged at positions outside the right camera 102a and the left camera 102b, respectively. The LED light sources 103a and 103b are light sources that irradiate near infrared rays having a wavelength of 850 nm, for example. FIG. 3 shows an example in which LED light sources 103a and 103b (illuminating units) are configured by nine LEDs. The right camera 102a and the left camera 102b use lenses that can transmit near infrared light having a wavelength of 850 nm. The LED light sources 103a and 103b may be disposed at positions inside the right camera 102a and the left camera 102b by reversing the positions of the LED light sources 103a and 103b and the right camera 102a and the left camera 102b. .

図4に示すように、LED光源103a、103bは、被験者の眼球111に向かって近赤外光を照射する。LED光源103aを照射したときに左カメラ102bで撮影を行い、LED光源103bを照射したときに右カメラ102aで撮影を行う。右カメラ102aおよび左カメラ102bと、LED光源103a、103bとの位置関係を適切に設定することにより、撮影される画像では、瞳孔112が低輝度で反射して暗くなり、眼球111内に虚像として生じる角膜反射113が高輝度で反射して明るくなる。従って、瞳孔112および角膜反射113の画像上の位置を2台のカメラ(右カメラ102a、左カメラ102b)それぞれで取得することができる。   As shown in FIG. 4, the LED light sources 103 a and 103 b irradiate near-infrared light toward the eyeball 111 of the subject. When the LED light source 103a is irradiated, shooting is performed with the left camera 102b, and when the LED light source 103b is irradiated, shooting is performed with the right camera 102a. By appropriately setting the positional relationship between the right camera 102a and the left camera 102b and the LED light sources 103a and 103b, the pupil 112 is reflected with low brightness and darkens in the photographed image, and becomes a virtual image in the eyeball 111. The resulting corneal reflection 113 is reflected with high brightness and becomes brighter. Accordingly, the positions of the pupil 112 and the corneal reflection 113 on the image can be acquired by each of the two cameras (the right camera 102a and the left camera 102b).

さらに2台のカメラにより得られる瞳孔112および角膜反射113の位置から、瞳孔112および角膜反射113の位置の三次元世界座標値を算出する。本実施形態では、三次元世界座標として、表示部101の画面の中央位置を原点として、上下をY座標(上が+)、横をX座標(向かって右が+)、奥行きをZ座標(手前が+)としている。   Further, the three-dimensional world coordinate values of the positions of the pupil 112 and the corneal reflection 113 are calculated from the positions of the pupil 112 and the corneal reflection 113 obtained by the two cameras. In the present embodiment, as the three-dimensional world coordinates, the center position of the screen of the display unit 101 is set as the origin, the top and bottom are Y coordinates (up is +), the side is X coordinates (right is +), and the depth is Z coordinates ( The front is +).

図5は、診断支援装置100の機能の概要を示す図である。図5では、図3および4に示した構成の一部と、この構成の駆動などに用いられる構成を示している。図5に示すように、診断支援装置100は、右カメラ102aと、左カメラ102bと、左カメラ102b用のLED光源103aと、右カメラ102a用のLED光源103bと、スピーカ205と、駆動・IF(interface)部313と、制御部300と、記憶部150と、表示部101と、を含む。図5において、表示画面201は、右カメラ102aおよび左カメラ102bとの位置関係を分かりやすく示しているが、表示画面201は表示部101において表示される画面である。なお、駆動部とIF部は一体でもよいし、別体でもよい。   FIG. 5 is a diagram illustrating an outline of functions of the diagnosis support apparatus 100. FIG. 5 shows a part of the configuration shown in FIGS. 3 and 4 and a configuration used for driving the configuration. As shown in FIG. 5, the diagnosis support apparatus 100 includes a right camera 102a, a left camera 102b, an LED light source 103a for the left camera 102b, an LED light source 103b for the right camera 102a, a speaker 205, and a drive / IF. (Interface) section 313, control section 300, storage section 150, and display section 101 are included. In FIG. 5, the display screen 201 shows the positional relationship between the right camera 102 a and the left camera 102 b in an easy-to-understand manner, but the display screen 201 is a screen displayed on the display unit 101. The drive unit and the IF unit may be integrated or separate.

スピーカ205は、キャリブレーション時などに、被験者に注意を促すための音声などを出力する音声出力部として機能する。   The speaker 205 functions as an audio output unit that outputs an audio or the like for alerting the subject during calibration.

駆動・IF部313は、ステレオカメラに含まれる各部を駆動する。また、駆動・IF部313は、ステレオカメラに含まれる各部と、制御部300とのインタフェースとなる。   The drive / IF unit 313 drives each unit included in the stereo camera. The drive / IF unit 313 serves as an interface between each unit included in the stereo camera and the control unit 300.

制御部300は、例えば、CPU(Central Processing Unit)などの制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、ネットワークに接続して通信を行う通信IFと、各部を接続するバスを備えているコンピュータなどにより実現できる。   The control unit 300 includes, for example, a control device such as a CPU (Central Processing Unit), a storage device such as a ROM (Read Only Memory) and a RAM (Random Access Memory), a communication IF connected to a network for communication, It can be realized by a computer having a bus for connecting each part.

記憶部150は、制御プログラム、測定結果、診断支援結果など各種情報を記憶する。記憶部150は、例えば、表示部101に表示する画像等を記憶する。表示部101は、診断のための対象画像等、各種情報を表示する。   The storage unit 150 stores various information such as a control program, a measurement result, and a diagnosis support result. The storage unit 150 stores, for example, an image to be displayed on the display unit 101. The display unit 101 displays various information such as a target image for diagnosis.

図6は、図5に示す各部の詳細な機能の一例を示すブロック図である。図6に示すように、制御部300には、表示部101と、駆動・IF部313が接続される。駆動・IF部313は、カメラIF314、315と、LED駆動制御部316と、スピーカ駆動部322と、を備える。   FIG. 6 is a block diagram illustrating an example of detailed functions of the respective units illustrated in FIG. As shown in FIG. 6, the display unit 101 and the drive / IF unit 313 are connected to the control unit 300. The drive / IF unit 313 includes camera IFs 314 and 315, an LED drive control unit 316, and a speaker drive unit 322.

駆動・IF部313には、カメラIF314、315を介して、それぞれ、右カメラ102a、左カメラ102bが接続される。駆動・IF部313がこれらのカメラを駆動することにより、被験者を撮像する。右カメラ102aからはフレーム同期信号が出力される。フレーム同期信号は、左カメラ102bとLED駆動制御部316とに入力される。これにより、LED光源103a、103bを発光させ、それに対応して左右カメラによる画像を取り込んでいる。   The right camera 102a and the left camera 102b are connected to the drive / IF unit 313 via the camera IFs 314 and 315, respectively. The driving / IF unit 313 drives these cameras to image the subject. A frame synchronization signal is output from the right camera 102a. The frame synchronization signal is input to the left camera 102b and the LED drive control unit 316. As a result, the LED light sources 103a and 103b are caused to emit light, and corresponding images are captured by the left and right cameras.

スピーカ駆動部322は、スピーカ205を駆動する。なお、診断支援装置100が、印刷部としてのプリンタと接続するためのインタフェース(プリンタIF)を備えてもよい。また、プリンタを診断支援装置100の内部に備えるように構成してもよい。   The speaker driving unit 322 drives the speaker 205. The diagnosis support apparatus 100 may include an interface (printer IF) for connecting to a printer as a printing unit. In addition, the printer may be provided inside the diagnosis support apparatus 100.

制御部300は、診断支援装置100全体を制御する。制御部300は、点灯制御部351と、位置検出部352と、曲率中心算出部353と、視線検出部354と、視点検出部355と、出力制御部356と、評価部357と、を備えている。   The control unit 300 controls the entire diagnosis support apparatus 100. The control unit 300 includes a lighting control unit 351, a position detection unit 352, a curvature center calculation unit 353, a line-of-sight detection unit 354, a viewpoint detection unit 355, an output control unit 356, and an evaluation unit 357. Yes.

制御部300に含まれる各要素(点灯制御部351、位置検出部352、曲率中心算出部353、視線検出部354、視点検出部355、出力制御部356および評価部357)は、CPUなどにより実行されるソフトウェア(プログラム)で実現してもよいし、ハードウェア回路で実現してもよいし、ソフトウェアとハードウェア回路とを併用して実現してもよい。   Each element (lighting control unit 351, position detection unit 352, curvature center calculation unit 353, line-of-sight detection unit 354, viewpoint detection unit 355, output control unit 356, and evaluation unit 357) included in the control unit 300 is executed by a CPU or the like. May be realized by software (program) to be executed, may be realized by a hardware circuit, or may be realized by using software and a hardware circuit in combination.

プログラムで実現する場合、当該プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、プログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、プログラムを、ROM等に予め組み込んで提供するように構成してもよい。本実施形態の診断支援装置100で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。   When implemented by a program, the program is a file in an installable or executable format, such as a CD-ROM (Compact Disk Read Only Memory), a flexible disk (FD), a CD-R (Compact Disk Recordable), a DVD ( Digital Versatile Disk) is recorded on a computer-readable recording medium and provided as a computer program product. The program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The program may be provided or distributed via a network such as the Internet. The program may be provided by being incorporated in advance in a ROM or the like. The program executed by the diagnosis support apparatus 100 according to the present embodiment has a module configuration including the above-described units. As actual hardware, a CPU (processor) reads the program from the storage medium and executes it. Each of the above parts is loaded on the main storage device, and each part is generated on the main storage device.

点灯制御部351は、LED駆動制御部316を用いて、LED光源103a、103bの点灯を制御する。例えば点灯制御部351は、LED光源103a、103bを、相互に異なるタイミングで点灯するように制御する。タイミングの差(時間)は、例えば、被験者の視線の移動等による視線検出結果への影響が生じない時間として予め定められた時間とすればよい。   The lighting control unit 351 uses the LED drive control unit 316 to control lighting of the LED light sources 103a and 103b. For example, the lighting control unit 351 controls the LED light sources 103a and 103b to light at different timings. The timing difference (time) may be set to a time that is predetermined as a time that does not affect the visual line detection result due to movement of the visual line of the subject, for example.

位置検出部352は、ステレオカメラにより撮像された眼球の画像から、瞳孔領域を検出し、瞳孔領域から瞳孔を検出し、瞳孔の輪郭を検出し、瞳孔の輪郭から瞳孔の中心を示す瞳孔中心の位置を算出する。また位置検出部352は、撮像された眼球の画像から、角膜反射の中心を示す角膜反射中心の位置を算出する。   The position detection unit 352 detects the pupil region from the eyeball image captured by the stereo camera, detects the pupil from the pupil region, detects the pupil contour, and determines the pupil center indicating the pupil center from the pupil contour. Calculate the position. The position detection unit 352 calculates the position of the corneal reflection center indicating the center of corneal reflection from the captured image of the eyeball.

曲率中心算出部353は、仮想光源位置と角膜反射中心とを結ぶ直線から、角膜曲率中心を算出する。例えば、曲率中心算出部353は、この直線上で、角膜反射中心からの距離が所定値となる位置を、角膜曲率中心として算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値を用いることができる。   The curvature center calculation unit 353 calculates the corneal curvature center from a straight line connecting the virtual light source position and the corneal reflection center. For example, the curvature center calculation unit 353 calculates a position on the straight line where the distance from the corneal reflection center is a predetermined value as the corneal curvature center. As the predetermined value, a value determined in advance from a general radius of curvature of the cornea or the like can be used.

角膜の曲率半径値には個人差が生じうるため、事前に定められた値を用いて角膜曲率中心を算出すると誤差が大きくなる可能性がある。従って、曲率中心算出部353が、個人差を考慮して角膜曲率中心を算出してもよい。この場合、曲率中心算出部353は、まず目標位置を被験者に注視させたときに算出された瞳孔中心および角膜反射中心を用いて、瞳孔中心と目標位置とを結ぶ直線と、角膜反射中心と仮想光源位置とを結ぶ直線と、の交点を算出する。そして曲率中心算出部353は、瞳孔中心と算出した交点との距離を算出し、例えば記憶部150に記憶する。   Since there may be individual differences in the radius of curvature of the cornea, there is a possibility that an error will increase if the center of corneal curvature is calculated using a predetermined value. Therefore, the curvature center calculation unit 353 may calculate the corneal curvature center in consideration of individual differences. In this case, the curvature center calculation unit 353 first uses the pupil center and the corneal reflection center calculated when the target position is watched by the subject, the straight line connecting the pupil center and the target position, the corneal reflection center, and the virtual center. The intersection of the straight line connecting the light source positions is calculated. Then, the curvature center calculation unit 353 calculates the distance between the pupil center and the calculated intersection, and stores it in the storage unit 150, for example.

目標位置は、予め定められ、三次元世界座標値が算出できる位置であればよい。例えば、表示画面201の中央位置(三次元世界座標の原点)を目標位置とすることができる。この場合、例えば出力制御部356が、表示画面201上の目標位置(中央)に、被験者に注視させる画像(目標画像)等を表示する。これにより、被験者に目標位置を注視させることができる。   The target position may be a position that is determined in advance and can calculate a three-dimensional world coordinate value. For example, the center position of the display screen 201 (the origin of the three-dimensional world coordinates) can be set as the target position. In this case, for example, the output control unit 356 displays an image (target image) or the like that causes the subject to gaze at the target position (center) on the display screen 201. Thereby, a test subject can be made to gaze at a target position.

目標画像は、被験者を注目させることができる画像であればどのような画像であってもよい。例えば、輝度や色などの表示態様が変化する画像、および、表示態様が他の領域と異なる画像などを目標画像として用いることができる。   The target image may be any image as long as it can attract the attention of the subject. For example, an image in which a display mode such as luminance or color changes, an image in which the display mode is different from other regions, or the like can be used as the target image.

なお、目標位置は表示画面201の中央に限られるものではなく、任意の位置でよい。表示画面201の中央を目標位置とすれば、表示画面201の任意の端部との距離が最小になる。このため、例えば視線検出時の測定誤差をより小さくすることが可能となる。   The target position is not limited to the center of the display screen 201, and may be an arbitrary position. If the center of the display screen 201 is set as the target position, the distance from an arbitrary end of the display screen 201 is minimized. For this reason, it becomes possible to make the measurement error at the time of gaze detection smaller, for example.

距離の算出までの処理は、例えば実際の視線検出を開始するまでに事前に実行しておく。実際の視線検出時には、曲率中心算出部353は、仮想光源位置と角膜反射中心とを結ぶ直線上で、瞳孔中心からの距離が、事前に算出した距離となる位置を、角膜曲率中心として算出する。曲率中心算出部353が、仮想光源位置と、表示部上の目標画像を示す所定の位置と、瞳孔中心の位置と、角膜反射中心の位置と、から角膜曲率中心を算出する算出部に相当する。   The processing up to the calculation of the distance is executed in advance, for example, before the actual gaze detection is started. At the time of actual line-of-sight detection, the curvature center calculation unit 353 calculates, on the straight line connecting the virtual light source position and the corneal reflection center, a position where the distance from the pupil center is a previously calculated distance as the corneal curvature center. . The curvature center calculation unit 353 corresponds to a calculation unit that calculates the corneal curvature center from the virtual light source position, a predetermined position indicating the target image on the display unit, the pupil center position, and the corneal reflection center position. .

視線検出部354は、瞳孔中心と角膜曲率中心とから被験者の視線を検出する。例えば視線検出部354は、角膜曲率中心から瞳孔中心へ向かう方向を被験者の視線方向として検出する。   The gaze detection unit 354 detects the gaze of the subject from the pupil center and the corneal curvature center. For example, the gaze detection unit 354 detects the direction from the corneal curvature center to the pupil center as the gaze direction of the subject.

視点検出部355は、検出された視線方向を用いて被験者の視点を検出する。視点検出部355は、例えば、表示画面201で被験者が注視する点である視点(注視点)を検出する。視点検出部355は、例えば図2のような三次元世界座標系で表される視線ベクトルとXY平面との交点を、被験者の注視点として検出する。   The viewpoint detection unit 355 detects the viewpoint of the subject using the detected gaze direction. The viewpoint detection unit 355 detects, for example, a viewpoint (gaze point) that is a point on the display screen 201 where the subject gazes. The viewpoint detection unit 355 detects, for example, the intersection of the line-of-sight vector represented in the three-dimensional world coordinate system as shown in FIG. 2 and the XY plane as the gaze point of the subject.

出力制御部356は、表示部101およびスピーカ205などに対する各種情報の出力を制御する。例えば、出力制御部356は、表示部101上の目標位置に目標画像を出力させる。また、出力制御部356は、診断画像、および、評価部357による評価結果などの表示部101に対する出力を制御する。   The output control unit 356 controls the output of various information to the display unit 101, the speaker 205, and the like. For example, the output control unit 356 causes the target image to be output to the target position on the display unit 101. Further, the output control unit 356 controls the output to the display unit 101 such as a diagnostic image and an evaluation result by the evaluation unit 357.

診断画像は、視線(視点)検出結果に基づく評価処理に応じた画像であればよい。例えば発達障がいを診断する場合であれば、発達障がいの被験者が好む画像(幾何学模様映像など)と、それ以外の画像(人物映像など)と、を含む診断画像を用いてもよい。また、自閉スペクトラム症(ASD)で用いられる診断画像としては、少なくとも人の顔を含む画像となっている。   The diagnostic image may be an image corresponding to the evaluation process based on the line-of-sight (viewpoint) detection result. For example, in the case of diagnosing a developmental disorder, a diagnostic image including an image (such as a geometric pattern image) preferred by a subject with a developmental disorder and other images (such as a person image) may be used. Moreover, as a diagnostic image used in autism spectrum disease (ASD), it is an image including at least a human face.

評価部357は、診断画像と、視点検出部355により検出された注視点とに基づく評価処理を行う。例えば発達障がいを診断する場合であれば、評価部357は、診断画像と注視点とを解析し、発達障がいの被験者が好む画像部分を注視したか否かを評価する。   The evaluation unit 357 performs an evaluation process based on the diagnostic image and the gazing point detected by the viewpoint detection unit 355. For example, in the case of diagnosing a developmental disability, the evaluation unit 357 analyzes the diagnostic image and the gazing point, and evaluates whether or not the image portion preferred by the subject with the developmental disability has been gazed.

図7は、1つの光源を用いると仮定した場合の処理の概要を説明する図である。図3〜図6で説明した要素については同一の符号を付し説明を省略する。図7の例では、2つのLED光源103a、103bの代わりに、1つのLED光源203が用いられる。   FIG. 7 is a diagram for explaining an outline of processing when it is assumed that one light source is used. The elements described in FIGS. 3 to 6 are denoted by the same reference numerals and description thereof is omitted. In the example of FIG. 7, one LED light source 203 is used instead of the two LED light sources 103a and 103b.

瞳孔中心407および角膜反射中心408は、それぞれ、1つのLED光源203を点灯させた際に検出される瞳孔の中心、および、角膜反射点の中心を表している。角膜曲率半径409は、角膜表面から角膜曲率中心410までの距離を表す。LED光源203は、ここでは1個のLEDとしているが、数個の小さいLEDを組み合わせて1ヵ所に配置されたものであっても構わない。   The pupil center 407 and the corneal reflection center 408 respectively represent the center of the pupil and the center of the corneal reflection point detected when one LED light source 203 is turned on. The corneal curvature radius 409 represents the distance from the corneal surface to the corneal curvature center 410. Here, the LED light source 203 is a single LED, but it may be a combination of several small LEDs arranged in one place.

図8は、本実施形態の診断支援装置100により実行される処理の概要を説明する図である。図3〜図6で説明した要素については同一の符号を付し説明を省略する。   FIG. 8 is a diagram illustrating an outline of processing executed by the diagnosis support apparatus 100 according to the present embodiment. The elements described in FIGS. 3 to 6 are denoted by the same reference numerals and description thereof is omitted.

角膜反射点621は左カメラ102bで撮影したときの画像上の角膜反射点を表す。角膜反射点622は右カメラ102aで撮影したときの画像上の角膜反射点を表す。本実施形態では、右カメラ102aと右カメラ用のLED光源103b、および、左カメラ102bと左カメラ用のLED光源103aは、例えば右カメラ102aと左カメラ102bの中間位置を通る直線に対して左右対称の位置関係にある。このため、右カメラ102aと左カメラ102bの中間位置(仮想光源位置)に仮想光源303があるとみなすことができる。角膜反射点624は、仮想光源303に対応する角膜反射点を表す。角膜反射点621の座標値と角膜反射点622の座標値を、左右カメラの座標値を三次元世界座標に変換する変換パラメータを用いて変換することにより、角膜反射点624の世界座標値が算出できる。仮想光源303と角膜反射点624を結ぶ直線523上に角膜の曲率中心505が存在する。従って、図7で表した光源が1ヵ所の視線検出方法と同等の方法で視点検出が可能である。   A corneal reflection point 621 represents a corneal reflection point on the image taken by the left camera 102b. A corneal reflection point 622 represents a corneal reflection point on an image taken by the right camera 102a. In the present embodiment, the right camera 102a and the right camera LED light source 103b, and the left camera 102b and the left camera LED light source 103a are, for example, left and right with respect to a straight line passing through an intermediate position between the right camera 102a and the left camera 102b. Symmetric positional relationship. For this reason, it can be considered that the virtual light source 303 exists at an intermediate position (virtual light source position) between the right camera 102a and the left camera 102b. A corneal reflection point 624 represents a corneal reflection point corresponding to the virtual light source 303. The world coordinate value of the cornea reflection point 624 is calculated by converting the coordinate value of the cornea reflection point 621 and the coordinate value of the cornea reflection point 622 using a conversion parameter for converting the coordinate value of the left and right cameras into the three-dimensional world coordinates. it can. A center of curvature 505 of the cornea exists on a straight line 523 connecting the virtual light source 303 and the cornea reflection point 624. Therefore, the viewpoint can be detected by a method equivalent to the method of detecting the line of sight shown in FIG.

なお右カメラ102aと左カメラ102bとの位置関係、および、LED光源103aとLED光源103bとの位置関係は、上述の位置関係に限られるものではない。例えば同一の直線に対して、それぞれの位置関係が左右対称となる関係であってもよいし、右カメラ102aと左カメラ102bと、LED光源103aとLED光源103bとは同一直線上になくてもよい。   The positional relationship between the right camera 102a and the left camera 102b and the positional relationship between the LED light source 103a and the LED light source 103b are not limited to the above-described positional relationship. For example, the positional relationship may be symmetrical with respect to the same straight line, and the right camera 102a, the left camera 102b, the LED light source 103a, and the LED light source 103b may not be on the same straight line. Good.

図9は、視点検出(視線検出)を行う前に、角膜曲率中心位置と、瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理を説明するための図である。図3〜図6で説明した要素については同一の符号を付し説明を省略する。   FIG. 9 is a diagram for explaining calculation processing for calculating the corneal curvature center position and the distance between the pupil center position and the corneal curvature center position before performing viewpoint detection (line-of-sight detection). The elements described in FIGS. 3 to 6 are denoted by the same reference numerals and description thereof is omitted.

目標位置605は、表示部101上の一点に目標画像等を出して、被験者に見つめさせるための位置である。本実施形態では表示部101の画面の中央位置としている。直線613は、仮想光源303と角膜反射中心612とを結ぶ直線である。直線614は、被験者が見つめる目標位置605(注視点)と瞳孔中心611とを結ぶ直線である。角膜曲率中心615は、直線613と直線614との交点である。曲率中心算出部353は、瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。   The target position 605 is a position for displaying a target image or the like at one point on the display unit 101 and causing the subject to stare. In this embodiment, the center position of the screen of the display unit 101 is set. A straight line 613 is a straight line connecting the virtual light source 303 and the corneal reflection center 612. A straight line 614 is a straight line connecting the target position 605 (gaze point) that the subject looks at and the pupil center 611. A corneal curvature center 615 is an intersection of the straight line 613 and the straight line 614. The curvature center calculation unit 353 calculates and stores the distance 616 between the pupil center 611 and the corneal curvature center 615.

図10は、本実施形態の算出処理の一例を示すフローチャートである。   FIG. 10 is a flowchart illustrating an example of calculation processing according to the present embodiment.

まず出力制御部356は、表示部101の画面上の1点に目標画像を再生し(ステップS101)、被験者にその1点を注視させる。次に、点灯制御部351は、LED駆動制御部316を用いてLED光源103a、103bのうち一方を被験者の目に向けて点灯させる(ステップS102)。制御部300は、左右カメラ(右カメラ102a、左カメラ102b)のうち点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像する(ステップS103)。次に、点灯制御部351は、LED光源103a、103bのうち他方を被験者の目に向けて点灯させる(ステップS104)。制御部300は、左右カメラのうち点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像する(ステップS105)。   First, the output control unit 356 reproduces the target image at one point on the screen of the display unit 101 (step S101), and causes the subject to gaze at the one point. Next, the lighting control unit 351 uses the LED drive control unit 316 to light one of the LED light sources 103a and 103b toward the eyes of the subject (step S102). The control unit 300 images the eyes of the subject with the camera having the longer distance from the lit LED light source among the left and right cameras (the right camera 102a and the left camera 102b) (step S103). Next, the lighting control unit 351 lights the other of the LED light sources 103a and 103b toward the eyes of the subject (step S104). The control unit 300 images the eyes of the subject with the camera having the longer distance from the lit LED light source among the left and right cameras (step S105).

なお、点灯したLED光源からの距離が長いカメラ以外のカメラによる撮像を停止しなくてもよい。すなわち、少なくとも点灯したLED光源からの距離が長い方のカメラで被験者の目を撮像し、撮像した画像が座標算出等に利用可能となっていればよい。   Note that it is not necessary to stop imaging by a camera other than the camera having a long distance from the lit LED light source. That is, it is only necessary that the subject's eyes are imaged with a camera having a longer distance from the lit LED light source and the captured image can be used for coordinate calculation or the like.

LED光源103aまたはLED光源103bの照射により、瞳孔部分(瞳孔領域)は暗い部分(暗瞳孔)として検出される。またLED照射の反射として、角膜反射の虚像が発生し、明るい部分として角膜反射点(角膜反射中心)が検出される。すなわち、位置検出部352は、撮像された画像から瞳孔部分を検出し、瞳孔中心の位置を示す座標を算出する。位置検出部352は、例えば目を含む一定領域の中で最も暗い部分を含む所定の明るさ以下の領域を瞳孔部分として検出し、最も明るい部分を含む所定の明るさ以上の領域を角膜反射として検出する。また、位置検出部352は、撮像された画像から角膜反射部分(角膜反射領域)を検出し、角膜反射中心の位置を示す座標を算出する。なお、位置検出部352は、左右カメラで取得した2つの画像それぞれに対して、各座標値を算出する(ステップS106)。   By irradiation with the LED light source 103a or the LED light source 103b, the pupil part (pupil region) is detected as a dark part (dark pupil). Further, a corneal reflection virtual image is generated as a reflection of LED irradiation, and a corneal reflection point (corneal reflection center) is detected as a bright portion. That is, the position detection unit 352 detects the pupil portion from the captured image, and calculates coordinates indicating the position of the pupil center. The position detection unit 352 detects, for example, a region below a predetermined brightness including the darkest part in a certain region including the eyes as a pupil part, and a region above the predetermined brightness including the brightest part as corneal reflection. To detect. In addition, the position detection unit 352 detects a corneal reflection portion (corneal reflection region) from the captured image, and calculates coordinates indicating the position of the corneal reflection center. Note that the position detection unit 352 calculates each coordinate value for each of the two images acquired by the left and right cameras (step S106).

なお、左右カメラは、三次元世界座標を取得するために、事前にステレオ較正法によるカメラ較正が行われており、変換パラメータが算出されている。ステレオ較正法は、Tsaiのカメラキャリブレーション理論を用いた方法など従来から用いられているあらゆる方法を適用できる。   Note that the left and right cameras are pre-calibrated with a stereo calibration method to obtain three-dimensional world coordinates, and conversion parameters are calculated. As the stereo calibration method, any conventionally used method such as a method using Tsai's camera calibration theory can be applied.

位置検出部352は、この変換パラメータを使用して、左右カメラの座標から、瞳孔中心と角膜反射中心の三次元世界座標に変換を行う(ステップS107)。例えば位置検出部352は、LED光源103aが点灯されたときに左カメラ102bにより撮像された画像から得られた座標を左カメラの座標とし、LED光源103bが点灯されたときに右カメラ102aにより撮像された画像から得られた座標を右カメラの座標として、変換パラメータを用いて三次元世界座標への変換を行う。この結果得られる世界座標値は、仮想光源303から光が照射されたと仮定したときに左右カメラで撮像された画像から得られる世界座標値に対応する。曲率中心算出部353は、求めた角膜反射中心の世界座標と、仮想光源303の中心位置の世界座標とを結ぶ直線を求める(ステップS108)。次に、曲率中心算出部353は、表示部101の画面上の1点に表示される目標画像の中心の世界座標と、瞳孔中心の世界座標とを結ぶ直線を算出する(ステップS109)。曲率中心算出部353は、ステップS108で算出した直線とステップS109で算出した直線との交点を求め、この交点を角膜曲率中心とする(ステップS110)。曲率中心算出部353は、このときの瞳孔中心と角膜曲率中心との間の距離を算出して記憶部150などに記憶する(ステップS111)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。   Using this conversion parameter, the position detection unit 352 converts the coordinates of the left and right cameras into the three-dimensional world coordinates of the pupil center and the corneal reflection center (step S107). For example, the position detection unit 352 uses the coordinates obtained from the image captured by the left camera 102b when the LED light source 103a is turned on as the coordinates of the left camera, and images by the right camera 102a when the LED light source 103b is turned on. Using coordinates obtained from the image as coordinates of the right camera, conversion to three-dimensional world coordinates is performed using conversion parameters. The world coordinate value obtained as a result corresponds to the world coordinate value obtained from the image captured by the left and right cameras when it is assumed that light is emitted from the virtual light source 303. The curvature center calculation unit 353 obtains a straight line connecting the obtained world coordinates of the corneal reflection center and the world coordinates of the center position of the virtual light source 303 (step S108). Next, the curvature center calculation unit 353 calculates a straight line connecting the world coordinates of the center of the target image displayed at one point on the screen of the display unit 101 and the world coordinates of the pupil center (step S109). The curvature center calculation unit 353 obtains an intersection between the straight line calculated in step S108 and the straight line calculated in step S109, and sets the intersection as the corneal curvature center (step S110). The curvature center calculation unit 353 calculates the distance between the pupil center and the corneal curvature center at this time, and stores it in the storage unit 150 or the like (step S111). The stored distance is used to calculate the corneal curvature center at the time of subsequent detection of the viewpoint (line of sight).

算出処理で表示部101上の1点を見つめる際の瞳孔中心と角膜曲率中心との間の距離は、表示部101内の視点を検出する範囲で一定に保たれている。瞳孔中心と角膜曲率中心との間の距離は、目標画像を再生中に算出された値全体の平均から求めてもよいし、再生中に算出された値のうち何回かの値の平均から求めてもよい。   The distance between the pupil center and the corneal curvature center when looking at one point on the display unit 101 in the calculation process is kept constant within a range in which the viewpoint in the display unit 101 is detected. The distance between the center of the pupil and the center of corneal curvature may be obtained from the average of all the values calculated during playback of the target image, or from the average of several values of the values calculated during playback. You may ask for it.

図11は、視点検出を行う際に、事前に求めた瞳孔中心と角膜曲率中心との距離を使用して、補正された角膜曲率中心の位置を算出する方法を示した図である。注視点805は、一般的な曲率半径値を用いて算出した角膜曲率中心から求めた注視点を表す。注視点806は、事前に求めた距離を用いて算出した角膜曲率中心から求めた注視点を表す。   FIG. 11 is a diagram illustrating a method of calculating the corrected position of the corneal curvature center using the distance between the pupil center and the corneal curvature center that is obtained in advance when performing viewpoint detection. A gazing point 805 represents a gazing point obtained from a corneal curvature center calculated using a general curvature radius value. A gazing point 806 represents a gazing point obtained from a corneal curvature center calculated using a distance obtained in advance.

瞳孔中心811および角膜反射中心812は、それぞれ、視点検出時に算出された瞳孔中心の位置、および、角膜反射中心の位置を示す。直線813は、仮想光源303と角膜反射中心812とを結ぶ直線である。角膜曲率中心814は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離815は、事前の算出処理により算出した瞳孔中心と角膜曲率中心との距離である。角膜曲率中心816は、事前に求めた距離を用いて算出した角膜曲率中心の位置である。角膜曲率中心816は、角膜曲率中心が直線813上に存在すること、および、瞳孔中心と角膜曲率中心との距離が距離815であることから求められる。これにより一般的な曲率半径値を用いる場合に算出される視線817は、視線818に補正される。また、表示部101の画面上の注視点は、注視点805から注視点806に補正される。   The pupil center 811 and the corneal reflection center 812 indicate the position of the pupil center and the position of the corneal reflection center calculated at the time of viewpoint detection, respectively. A straight line 813 is a straight line connecting the virtual light source 303 and the corneal reflection center 812. The corneal curvature center 814 is the position of the corneal curvature center calculated from a general curvature radius value. The distance 815 is the distance between the pupil center and the corneal curvature center calculated by the prior calculation process. The corneal curvature center 816 is the position of the corneal curvature center calculated using the distance obtained in advance. The corneal curvature center 816 is obtained from the fact that the corneal curvature center exists on the straight line 813 and the distance between the pupil center and the corneal curvature center is the distance 815. Thus, the line of sight 817 calculated when a general radius of curvature value is used is corrected to the line of sight 818. Also, the gazing point on the screen of the display unit 101 is corrected from the gazing point 805 to the gazing point 806.

図12は、本実施形態の視線検出処理の一例を示すフローチャートである。例えば、診断画像を用いた診断処理の中で視線を検出する処理として、図12の視線検出処理を実行することができる。診断処理では、図12の各ステップ以外に、診断画像を表示する処理、および、注視点の検出結果を用いた評価部357による評価処理などが実行される。   FIG. 12 is a flowchart illustrating an example of a line-of-sight detection process according to the present embodiment. For example, the line-of-sight detection process of FIG. 12 can be executed as a process of detecting the line of sight in the diagnostic process using the diagnostic image. In the diagnosis process, in addition to the steps in FIG. 12, a process of displaying a diagnostic image, an evaluation process by the evaluation unit 357 using the detection result of the gazing point, and the like are executed.

ステップS201〜ステップS207は、図10のステップS102〜ステップS108と同様であるため説明を省略する。   Steps S201 to S207 are the same as steps S102 to S108 in FIG.

曲率中心算出部353は、ステップS207で算出した直線上であって、瞳孔中心からの距離が、事前の算出処理によって求めた距離と等しい位置を角膜曲率中心として算出する(ステップS208)。   The curvature center calculation unit 353 calculates, as the corneal curvature center, a position that is on the straight line calculated in step S207 and whose distance from the pupil center is equal to the distance obtained by the previous calculation process (step S208).

視線検出部354は、瞳孔中心と角膜曲率中心とを結ぶベクトル(視線ベクトル)を求める(ステップS209)。このベクトルが、被験者が見ている視線方向を示している。視点検出部355は、この視線方向と表示部101の画面との交点の三次元世界座標値を算出する(ステップS210)。この値が、被験者が注視する表示部101上の1点を世界座標で表した座標値である。視点検出部355は、求めた三次元世界座標値を、表示部101の二次元座標系で表される座標値(x,y)に変換する(ステップS211)。これにより、被験者が見つめる表示部101上の視点(注視点)を算出することができる。   The line-of-sight detection unit 354 determines a vector (line-of-sight vector) connecting the pupil center and the corneal curvature center (step S209). This vector indicates the line-of-sight direction viewed by the subject. The viewpoint detection unit 355 calculates the three-dimensional world coordinate value of the intersection between the line-of-sight direction and the screen of the display unit 101 (step S210). This value is a coordinate value representing one point on the display unit 101 that the subject gazes in world coordinates. The viewpoint detection unit 355 converts the obtained three-dimensional world coordinate value into a coordinate value (x, y) represented in the two-dimensional coordinate system of the display unit 101 (step S211). Thereby, the viewpoint (gaze point) on the display part 101 which a test subject looks at can be calculated.

(変形例)
瞳孔中心位置と角膜曲率中心位置との距離を算出する算出処理は、図9および図10で説明した方法に限られるものではない。以下では、算出処理の他の例について図13および図14を用いて説明する。
(Modification)
The calculation process for calculating the distance between the pupil center position and the corneal curvature center position is not limited to the method described with reference to FIGS. Hereinafter, another example of the calculation process will be described with reference to FIGS. 13 and 14.

図13は、本変形例の算出処理を説明するための図である。図3〜図6および図9で説明した要素については同一の符号を付し説明を省略する。   FIG. 13 is a diagram for explaining the calculation process of the present modification. The elements described in FIGS. 3 to 6 and FIG. 9 are denoted by the same reference numerals and description thereof is omitted.

線分1101は、目標位置605と仮想光源位置とを結ぶ線分である。線分1102は、線分1101と平行で、瞳孔中心611と直線613とを結ぶ線分である。本変形例では、以下のように、線分1101、線分1102を用いて瞳孔中心611と角膜曲率中心615との距離616を算出して記憶しておく。   A line segment 1101 is a line segment connecting the target position 605 and the virtual light source position. A line segment 1102 is a line segment that is parallel to the line segment 1101 and connects the pupil center 611 and the straight line 613. In this modification, the distance 616 between the pupil center 611 and the corneal curvature center 615 is calculated and stored using the line segment 1101 and the line segment 1102 as follows.

図14は、本変形例の算出処理の一例を示すフローチャートである。   FIG. 14 is a flowchart illustrating an example of calculation processing according to the present modification.

ステップS301〜ステップS309は、図10のステップS101〜ステップS109と同様であるため説明を省略する。   Steps S301 to S309 are the same as steps S101 to S109 in FIG.

曲率中心算出部353は、表示部101の画面上の1点に表示される目標画像の中心と、仮想光源位置とを結ぶ線分(図13では線分1101)を算出するとともに、算出した線分の長さ(L1101とする)を算出する(ステップS310)。   The curvature center calculation unit 353 calculates a line segment (the line segment 1101 in FIG. 13) that connects the center of the target image displayed at one point on the screen of the display unit 101 and the virtual light source position, and the calculated line. The length of minutes (referred to as L1101) is calculated (step S310).

曲率中心算出部353は、瞳孔中心611を通り、ステップS310で算出した線分と平行な線分(図13では線分1102)を算出するとともに、算出した線分の長さ(L1102とする)を算出する(ステップS311)。   The curvature center calculation unit 353 calculates a line segment (line segment 1102 in FIG. 13) that passes through the pupil center 611 and is parallel to the line segment calculated in step S310, and calculates the length of the calculated line segment (L1102). Is calculated (step S311).

曲率中心算出部353は、角膜曲率中心615を頂点とし、ステップS310で算出した線分を下辺とする三角形と、角膜曲率中心615を頂点とし、ステップS311で算出した線分を下辺とする三角形とが相似関係にあることに基づき、瞳孔中心611と角膜曲率中心615との間の距離616を算出する(ステップS312)。例えば曲率中心算出部353は、線分1101の長さに対する線分1102の長さの比率と、目標位置605と角膜曲率中心615との間の距離に対する距離616の比率と、が等しくなるように、距離616を算出する。   The curvature center calculation unit 353 includes a triangle having the corneal curvature center 615 as a vertex and the line segment calculated in step S310 as a lower side, and a triangle having the corneal curvature center 615 as a vertex and the line segment calculated in step S311 as a lower side. Is a similar relationship, the distance 616 between the pupil center 611 and the corneal curvature center 615 is calculated (step S312). For example, the curvature center calculation unit 353 makes the ratio of the length of the line segment 1102 to the length of the line segment 1101 equal to the ratio of the distance 616 to the distance between the target position 605 and the corneal curvature center 615. The distance 616 is calculated.

距離616は、以下の(1)式により算出することができる。なおL614は、目標位置605から瞳孔中心611までの距離である。
距離616=(L614×L1102)/(L1101−L1102)・・・(1)
The distance 616 can be calculated by the following equation (1). L614 is the distance from the target position 605 to the pupil center 611.
Distance 616 = (L614 × L1102) / (L1101−L1102) (1)

曲率中心算出部353は、算出した距離616を記憶部150などに記憶する(ステップS313)。記憶された距離は、その後の視点(視線)検出時に、角膜曲率中心を算出するために使用される。   The curvature center calculation unit 353 stores the calculated distance 616 in the storage unit 150 or the like (step S313). The stored distance is used to calculate the corneal curvature center at the time of subsequent detection of the viewpoint (line of sight).

次に、図15から図21を用いて、位置検出部352で瞳孔を検出する対象の領域である瞳孔領域を特定する処理を説明する。位置検出部352は、上述したように、検出した瞳孔領域から瞳孔中心を検出し、角膜反射の位置を検出する。図15は、位置検出部の機能の概要を示す図である。図16は、データベースに記憶されている識別器の一例を示す図である。図17は、位置検出部の処理の一例を示すフローチャートである。図18は、位置検出部の処理を説明するための図である。図19から図21は、位置検出部のパターンマッチングの処理を説明するための図である。   Next, with reference to FIGS. 15 to 21, processing for specifying a pupil region, which is a target region for which the position detection unit 352 detects a pupil, will be described. As described above, the position detection unit 352 detects the center of the pupil from the detected pupil region, and detects the position of corneal reflection. FIG. 15 is a diagram illustrating an outline of functions of the position detection unit. FIG. 16 is a diagram illustrating an example of a classifier stored in a database. FIG. 17 is a flowchart illustrating an example of processing of the position detection unit. FIG. 18 is a diagram for explaining the processing of the position detection unit. 19 to 21 are diagrams for explaining the pattern matching processing of the position detection unit.

位置検出部352は、パターンマッチング部370と、瞳孔検出部372と、データベース374と、を有する。ここで、位置検出部352が処理する対象の画像は、モノクロ画像であることが好ましい。パターンマッチング部370は、瞳孔と瞳孔の周囲の輝度変化に対応するパターンと画像とのマッチングを行い、瞳孔の候補位置を抽出する。パターンマッチング部370は、パターン制御部380と、比較部382と、を有する。パターン制御部380は、使用するパターン(識別器)を選択し、パターンを画像上で移動させる。比較部382は、複数のパターンを用いて抽出処理を行い、抽出処理によって抽出された候補を比較する。パターンマッチング部370は、抽出処理として、1つのパターンを特定する。パターンマッチング部370は、特定したパターンと画像の各領域とを比較し、パターンの輝度分布と一致する領域を抽出する。パターンマッチング部370は、複数のパターンで抽出処理を行った結果に基づいて、パターンと一致すると抽出した領域の優先順位を決定し、優先順位が高い候補を瞳孔の候補位置とする。   The position detection unit 352 includes a pattern matching unit 370, a pupil detection unit 372, and a database 374. Here, the image to be processed by the position detection unit 352 is preferably a monochrome image. The pattern matching unit 370 performs matching between the pupil and the pattern corresponding to the luminance change around the pupil and the image, and extracts candidate positions of the pupil. The pattern matching unit 370 includes a pattern control unit 380 and a comparison unit 382. The pattern control unit 380 selects a pattern (identifier) to be used and moves the pattern on the image. The comparison unit 382 performs extraction processing using a plurality of patterns, and compares the candidates extracted by the extraction processing. The pattern matching unit 370 identifies one pattern as the extraction process. The pattern matching unit 370 compares the identified pattern with each region of the image, and extracts a region that matches the luminance distribution of the pattern. The pattern matching unit 370 determines the priority order of the extracted region when it matches the pattern based on the result of the extraction process with a plurality of patterns, and sets the candidate with the higher priority order as the candidate position of the pupil.

瞳孔検出部372は、パターンマッチング部370で抽出した前記瞳孔の候補位置を解析し、瞳孔があるかを検出する。瞳孔検出部372は、瞳孔の候補位置の画像から瞳孔の境界と角膜反射の存在を確認できた位置を瞳孔として検出する。   The pupil detection unit 372 analyzes the candidate position of the pupil extracted by the pattern matching unit 370 and detects whether there is a pupil. The pupil detection unit 372 detects a position where the presence of the pupil boundary and corneal reflection can be confirmed from the image of the candidate position of the pupil as a pupil.

データベース374は、パターンマッチング部370でパターンマッチングに用いるパターン(識別器)を記憶している。本実施形態のデータベース374は、図16に示すように第1識別器220、第2識別器222、第3識別器224、第4識別器226、第5識別器228、第6識別器230、第7識別器232、第8識別器234の8つの識別器を記憶している。識別器は、第一領域と第二領域とを有する。識別器は、第一領域に第一輝度が対応つけられ、第二領域に第二輝度が対応つけられている。識別器は、第一輝度が第二輝度より明るいと設定されており、パターン(識別器)の第一輝度と第二輝度の分布が画像の各領域の輝度分布と一致する場合に当該領域を瞳孔の候補位置として抽出する。第一輝度と第二輝度とは、それぞれの領域の平均輝度である。例えば、パターンの第一領域に重畳される画像の平均輝度である第一輝度が、パターンの第二領域に重畳される画像の平均輝度である第二輝度よりも高い場合は、瞳孔の候補位置として抽出する。   The database 374 stores patterns (identifiers) used for pattern matching by the pattern matching unit 370. As shown in FIG. 16, the database 374 of the present embodiment includes a first discriminator 220, a second discriminator 222, a third discriminator 224, a fourth discriminator 226, a fifth discriminator 228, a sixth discriminator 230, Eight classifiers of the seventh classifier 232 and the eighth classifier 234 are stored. The discriminator has a first area and a second area. In the discriminator, the first area is associated with the first luminance, and the second area is associated with the second luminance. The discriminator is set so that the first luminance is brighter than the second luminance, and the distribution of the first luminance and the second luminance of the pattern (discriminator) matches the luminance distribution of each region of the image. Extracted as a candidate position of the pupil. The first luminance and the second luminance are average luminances of the respective areas. For example, when the first luminance that is the average luminance of the image that is superimposed on the first region of the pattern is higher than the second luminance that is the average luminance of the image that is superimposed on the second region of the pattern, the candidate position of the pupil Extract as

図16に示す8つの識別器は、予め設定された向きで画像に対して重ねられる。第1識別器220は、第一領域250aと、第二領域250bと、を有する。第1識別器220は、第一領域250aと第二領域250bとが画像上下方向に分離されている。第1識別器220は、第一領域250aが第二領域250bの画像上下方向の上側に配置されている。第1識別器220は、一辺がa画素の正方形のパターンである。第2識別器222は、第一領域252aと、第二領域252bと、を有する。第2識別器222は、第一領域252aと第二領域252bとが画像左右方向に分離されている。第2識別器222は、第一領域252aが第二領域252bの画像左右方向の右側に配置されている。   The eight discriminators shown in FIG. 16 are superimposed on the image in a preset direction. The first discriminator 220 has a first area 250a and a second area 250b. In the first discriminator 220, the first area 250a and the second area 250b are separated in the vertical direction of the image. In the first discriminator 220, the first area 250a is arranged above the second area 250b in the image vertical direction. The first discriminator 220 is a square pattern with one side of a pixel. The second discriminator 222 has a first area 252a and a second area 252b. In the second discriminator 222, the first region 252a and the second region 252b are separated in the left-right direction of the image. In the second discriminator 222, the first area 252a is disposed on the right side of the second area 252b in the horizontal direction of the image.

第3識別器224は、第一領域254a、254bと第二領域250cとを有する。第3識別器224は、第一領域254a、254bと第二領域250cとが画像上下方向に分離されている。第3識別器224は、第二領域254cの画像上下方向の上側に第一領域254aが配置され、第二領域254cの画像上下方向の下側に第一領域254bが配置されている。第3識別器224は、第一領域254a、254bの画像上下方向の長さが第二領域254cよりも短い。   The third discriminator 224 has first regions 254a, 254b and a second region 250c. In the third discriminator 224, the first areas 254a, 254b and the second area 250c are separated in the vertical direction of the image. In the third discriminator 224, the first region 254a is disposed above the second region 254c in the image vertical direction, and the first region 254b is disposed below the second region 254c in the image vertical direction. In the third discriminator 224, the length of the first area 254a, 254b in the vertical direction of the image is shorter than that of the second area 254c.

第4識別器226は、第一領域256a、256bと第二領域256cとを有する。第4識別器226は、第一領域256a、256bと第二領域256cとが画像上下方向に分離されている。第4識別器226は、第二領域256cの画像上下方向の上側に第一領域256aが配置され、第二領域256cの画像上下方向の下側に第一領域256bが配置されている。第4識別器226は、第一領域256a、256bの画像上下方向の長さが第二領域256cよりも長い。   The fourth discriminator 226 has first regions 256a, 256b and a second region 256c. In the fourth discriminator 226, the first areas 256a, 256b and the second area 256c are separated in the vertical direction of the image. In the fourth discriminator 226, the first region 256a is disposed above the second region 256c in the image vertical direction, and the first region 256b is disposed below the second region 256c in the image vertical direction. In the fourth discriminator 226, the lengths of the first regions 256a and 256b in the vertical direction of the image are longer than those of the second region 256c.

第5識別器228は、第一領域258a、258bと第二領域258cとを有する。第5識別器228は、第一領域258a、258bと第二領域258cとが画像左右方向に分離されている。第5識別器228は、第二領域258cの画像左右方向の左側に第一領域258aが配置され、第二領域258cの画像左右方向の右側に第一領域258bが配置されている。第5識別器228は、第一領域258a、258bの画像左右方向の長さが第二領域258cよりも短い。   The fifth discriminator 228 has first regions 258a, 258b and a second region 258c. In the fifth discriminator 228, the first regions 258a, 258b and the second region 258c are separated in the left-right direction of the image. In the fifth discriminator 228, the first area 258a is arranged on the left side of the second area 258c in the horizontal direction of the image, and the first area 258b is arranged on the right side of the second area 258c in the horizontal direction of the image. In the fifth discriminator 228, the length of the first region 258a, 258b in the left-right direction of the image is shorter than that of the second region 258c.

第6識別器230は、第一領域260a、260bと第二領域260cと、を有する。第6識別器230は、第一領域260a、260bと第二領域260cとが画像左右方向に分離されている。第6識別器230は、第二領域260cの画像左右方向の左側に第一領域260aが配置され、第二領域260cの画像左右方向の右側に第一領域260bが配置されている。第6識別器230は、第一領域260a、260bの画像左右方向の長さが第二領域260cよりも長い。   The sixth discriminator 230 has first regions 260a and 260b and a second region 260c. In the sixth discriminator 230, the first areas 260a and 260b and the second area 260c are separated in the horizontal direction of the image. In the sixth discriminator 230, the first area 260a is arranged on the left side of the second area 260c in the horizontal direction of the image, and the first area 260b is arranged on the right side of the second area 260c in the horizontal direction of the image. In the sixth discriminator 230, the length of the first regions 260a and 260b in the left-right direction of the image is longer than that of the second region 260c.

第7識別器232は、第一領域262aと第二領域262bとを有する。第7識別器232は、四角形であり、四角形の対角線を境界として、第一領域262aと第二領域262bとが分離されている。第7識別器232は、第一領域262aが第二領域262bの画像左上側に配置されている。   The seventh discriminator 232 has a first area 262a and a second area 262b. The seventh discriminator 232 is a quadrangle, and the first region 262a and the second region 262b are separated with a diagonal line of the quadrangle as a boundary. In the seventh discriminator 232, the first area 262a is arranged on the upper left side of the image of the second area 262b.

第8識別器234は、第一領域264aと第二領域264bとを有する。第8識別器234は、四角形であり、四角形の対角線を境界として、第一領域264aと第二領域264bとが分離されている。第8識別器234は、第一領域264aが第二領域264bの画像左上側に配置されている。   The eighth discriminator 234 has a first area 264a and a second area 264b. The eighth discriminator 234 is a quadrangle, and the first region 264a and the second region 264b are separated from each other with a quadrilateral diagonal as a boundary. In the eighth discriminator 234, the first area 264a is arranged on the upper left side of the image of the second area 264b.

次に、図17及び図18を用いて、位置検出部352で画像に対して実行する処理の一例について説明する。図17は、処理の流れを示すフローチャートである。図18は、画面に対する処理を模式的に示す図である。位置検出部352は、パターンマッチングに用いるパターン(識別器)を決定する(ステップS401)。次に、位置検出部352は、決定したパターンでパターンマッチングを実行する(ステップS402)。具体的には、図18及び図19に示すように、画像290の対象領域291を特定し、特定した対象領域291に第2識別器222を重ね、第2識別器222と、画像290の重なる位置とでパターンマッチングを行う。ここで、画像290は、上下方向b画素、左右方向c画素の画像である。例えば、第1識別器220のa画素のaが64画素とすると、画像290のb画素が480画素であり、c画素が752画素である。   Next, an example of processing executed on the image by the position detection unit 352 will be described with reference to FIGS. 17 and 18. FIG. 17 is a flowchart showing the flow of processing. FIG. 18 is a diagram schematically illustrating processing for a screen. The position detection unit 352 determines a pattern (identifier) used for pattern matching (step S401). Next, the position detection unit 352 performs pattern matching with the determined pattern (step S402). Specifically, as shown in FIGS. 18 and 19, the target area 291 of the image 290 is specified, the second classifier 222 is overlaid on the specified target area 291, and the second classifier 222 and the image 290 overlap. Pattern matching is performed with the position. Here, the image 290 is an image having b pixels in the vertical direction and c pixels in the horizontal direction. For example, if a of the a pixel of the first discriminator 220 is 64 pixels, the b pixel of the image 290 is 480 pixels and the c pixel is 752 pixels.

位置検出部352は、全てのパターンの処理が終了したかを判定する(ステップS403)。位置検出部352は、全てのパターンの処理が終了していない(ステップS403でNo)と判定した場合、ステップS401に戻り、パターンマッチングを行っていないパターンについて、ステップS401からステップS402の処理を実行する。位置検出部352は、対象領域に対して8つのパターンで順番にパターンマッチングを行う。   The position detection unit 352 determines whether all the patterns have been processed (step S403). If the position detection unit 352 determines that all the patterns have not been processed (No in step S403), the position detection unit 352 returns to step S401, and performs the processes from step S401 to step S402 on the pattern that has not been subjected to pattern matching. To do. The position detection unit 352 sequentially performs pattern matching with eight patterns on the target region.

位置検出部352は、全てのパターンの処理が終了した(ステップS403でYes)と判定した場合、本実施形態では、8つの識別器でのパターンマッチングを行ったと判定した場合、画像の全域の検出を終了したかを判定する(ステップS404)。   If the position detection unit 352 determines that all the patterns have been processed (Yes in step S403), in this embodiment, if it is determined that pattern matching has been performed with eight discriminators, the entire area of the image is detected. Is determined (step S404).

位置検出部352は、画像の全域を検出していない(ステップS404でNo)と判定した場合、パターンマッチングを行う対象領域を移動させ(ステップS405)、ステップS401に戻り、移動させた対象領域に対してステップS401からステップS404の処理を行う。   If it is determined that the entire area of the image has not been detected (No in step S404), the position detection unit 352 moves the target area for pattern matching (step S405), returns to step S401, and moves to the moved target area. On the other hand, the processing from step S401 to step S404 is performed.

位置検出部352は、パターンでパターンマッチングを行う対象領域290を画像左右方向に移動させる。位置検出部352は、対象領域291を対称領域291aに示すように、画像290の左右方向の一端から他端までマッチングを行ったら、対象領域291bのように画像下方向に移動させる。これにより、位置検出部352は、画像290の各位置と第1識別器220とを重ねる。なお、対象領域の移動量は、1画素としてもよいが、数画素、例えば8画素とすることが好ましい。対象領域を複数画素分移動させることで処理をより少なくすることができる。つまり、図18に示すように、対象領域を決定したら、ステップS401からステップS405の処理、つまり8つの識別器で順番にパターンマッチングを行い、対象領域を数画素移動させる処理を行う。次に、移動させた対象領域に対してもステップS401からステップS405の処理、つまり8つの識別器で順番にパターンマッチングを行い、対象領域を数画素移動させる処理を行う。対象領域291を画面上で移動させつつ、画像全体に対してパターンマッチングを行う。   The position detection unit 352 moves the target region 290 to be subjected to pattern matching with a pattern in the left-right direction of the image. When the position detection unit 352 performs matching from one end to the other end in the left-right direction of the image 290 as indicated by the symmetry region 291a, the position detection unit 352 moves the image 290 downward as in the target region 291b. Thereby, the position detection unit 352 overlaps each position of the image 290 with the first discriminator 220. Note that the amount of movement of the target region may be one pixel, but is preferably several pixels, for example, eight pixels. By moving the target area by a plurality of pixels, the processing can be reduced. That is, as shown in FIG. 18, when the target area is determined, the processing from step S401 to step S405, that is, the pattern matching is sequentially performed by the eight discriminators and the target area is moved by several pixels. Next, the processing from step S401 to step S405 is also performed on the moved target region, that is, the pattern matching is performed in order by the eight discriminators, and the target region is moved by several pixels. Pattern matching is performed on the entire image while moving the target area 291 on the screen.

位置検出部352は、画像の全域を検出した(ステップS404でYes)と判定した場合、各パターンで抽出した瞳孔の候補位置から解析対象の瞳孔の候補位置を決定する(ステップS406)。具体的には位置検出部352は、複数の識別器のパターンマッチングの結果に基づいて、より多くのパターンで瞳孔の候補位置となった位置をより優先度が高い瞳孔の候補位置に決定する。位置検出部352は、図20に示すように第4識別器226のパターンマッチングで領域292を瞳孔の候補位置として抽出され(ステップS501)、第1識別器220のパターンマッチングで領域292を瞳孔の候補位置として抽出され(ステップS502)、第7識別器232のパターンマッチングで領域292を瞳孔の候補位置として抽出されない(ステップS503)場合、瞳孔の候補位置として解析対象とはしない。位置検出部352は、図21に示すように第4識別器226のパターンマッチングで領域294を瞳孔の候補位置として抽出され(ステップS601)、第1識別器220のパターンマッチングで領域294を瞳孔の候補位置として抽出され(ステップS602)、第7識別器232のパターンマッチングで領域294を瞳孔の候補位置として抽出される(ステップS603)場合、瞳孔の候補位置として解析対象とする。これにより、図18の画像290aに示すように、画像から複数の瞳孔の候補位置295を抽出する。瞳孔の候補位置295には、瞳孔以外の領域に含まれる場合がある。   If it is determined that the entire area of the image has been detected (Yes in step S404), the position detection unit 352 determines the candidate position of the analysis target pupil from the candidate position of the pupil extracted in each pattern (step S406). Specifically, the position detection unit 352 determines a position that has become a candidate position for a pupil with more patterns as a candidate position for a pupil having a higher priority based on the pattern matching results of a plurality of discriminators. As shown in FIG. 20, the position detection unit 352 extracts the region 292 as a pupil candidate position by pattern matching of the fourth discriminator 226 (step S501), and the region 292 of the pupil by pattern matching of the first discriminator 220. When extracted as a candidate position (step S502) and the region 292 is not extracted as a candidate position of the pupil by pattern matching of the seventh discriminator 232 (step S503), the candidate position of the pupil is not set as an analysis target. As shown in FIG. 21, the position detector 352 extracts the region 294 as a candidate pupil position by pattern matching of the fourth discriminator 226 (step S601), and the region 294 of the pupil by pattern matching of the first discriminator 220. When extracted as a candidate position (step S602) and the region 294 is extracted as a candidate position of the pupil by pattern matching of the seventh discriminator 232 (step S603), it is set as an analysis target as a candidate position of the pupil. Thereby, as shown in an image 290a in FIG. 18, a plurality of candidate positions 295 of the pupil are extracted from the image. The candidate pupil position 295 may be included in a region other than the pupil.

位置検出部352は、解析対象の瞳孔の候補位置を決定した場合、瞳孔の候補位置以外の領域にマスキングを行う(ステップS407)。具体的には、図18の画面290bに示すように瞳孔の候補位置295以外の領域をマスクで覆う処理、具体的には、瞳孔の候補位置295以外の領域を同じ色の画素にする。位置検出部352は、マスキング処理を行ったら、マスキング処理を画像に対して、瞳孔検出部372で瞳孔の候補位置を解析し、瞳孔を検出する(ステップS408)。具体的には、図18に示すようにマスキング処理を行い、瞳孔の候補位置295の画像のみが残った画像290cに対して、瞳孔を検出する処理を行う。一例としては、画像290cの中で最も暗い位置を検出し、暗い位置が瞳孔の条件を満たすかを判定する。瞳孔を検出する処理を行うことで、画像290dに示すように、瞳孔の位置296を検出する。画像290dでは、画像290の中に人物が1名いるので、一人の人物の両目を瞳孔の位置296として検出する。   When the candidate position of the pupil to be analyzed is determined, the position detection unit 352 performs masking on a region other than the candidate position of the pupil (Step S407). Specifically, as shown in the screen 290b of FIG. 18, a process of covering the area other than the candidate pupil position 295 with a mask, specifically, the area other than the candidate pupil position 295 is made the same color pixel. After performing the masking process, the position detection unit 352 analyzes the candidate position of the pupil with the pupil detection unit 372 for the masking process, and detects the pupil (step S408). Specifically, a masking process is performed as shown in FIG. 18, and a process for detecting a pupil is performed on an image 290c in which only the image at the candidate position 295 of the pupil remains. As an example, the darkest position in the image 290c is detected, and it is determined whether the dark position satisfies the pupil condition. By performing the process of detecting the pupil, the position 296 of the pupil is detected as shown in the image 290d. In the image 290d, since there is one person in the image 290, both eyes of one person are detected as the pupil position 296.

位置検出部352は、以上のようにパターンマッチング部370で、領域の輝度分布から、瞳孔の候補位置を特定し、特定した候補位置のみ瞳孔検出部で瞳孔の検出を行うことで、瞳孔の検出に必要な処理量を少なくすることができる。本実施形態では、パターンの各領域の輝度の比較のみでパターンマッチングを行うため、パターンマッチングでの処理量の増加を抑制することができる。また、複数のパターンを用いて、パターンマッチングを行い、その結果に基づいて、優先順位を決定し優先順位の高い位置を瞳孔の候補位置とすることで、瞳孔の検出漏れを抑制することができる。なお、本実施形態では8つの識別器のパターンを説明しているが、個数やパターンは上記に限らない。また、パターンマッチングの処理についても、上述した処理に限らず、パターンの第一領域に重畳される画像が第一輝度であるかを判断し、パターンの第二領域に重畳される画像が第二輝度であるかを判断して、どちらも一致した場合は瞳孔の候補位置として抽出してもよい。   As described above, the position detection unit 352 uses the pattern matching unit 370 to identify candidate positions of the pupil from the luminance distribution of the region, and the pupil detection unit detects the pupil only at the identified candidate position, thereby detecting the pupil. It is possible to reduce the processing amount required for the process. In the present embodiment, since pattern matching is performed only by comparing the brightness of each region of the pattern, an increase in the processing amount in pattern matching can be suppressed. In addition, pattern matching is performed using a plurality of patterns, and based on the result, priority is determined, and a position having a high priority is set as a candidate position of the pupil, so that pupil detection omission can be suppressed. . In the present embodiment, the pattern of eight discriminators is described, but the number and pattern are not limited to the above. Further, the pattern matching process is not limited to the above-described process, and it is determined whether the image superimposed on the first area of the pattern has the first luminance, and the image superimposed on the second area of the pattern is the second. It is possible to determine whether or not the brightness is the same, and if both match, the candidate positions may be extracted.

また、位置検出部352は、パターンマッチングを実行した際、2つの領域の輝度差がない、例えば黒、白の領域を、マスキングし、パターンマッチングの処理の対象から除外してもよい。これにより、処理量をより少なくすることができる。また、位置検出部352は、パターンマッチングで検出されやすいパターンから処理を実行し、所定数のパターンを実行した後は、瞳孔の候補位置のみパターンマッチングを行うようにしてもよい。   Further, when the pattern matching is executed, the position detection unit 352 may mask, for example, a black and white area where there is no luminance difference between the two areas and exclude it from the pattern matching processing target. Thereby, the processing amount can be further reduced. Further, the position detection unit 352 may perform processing from patterns that are easily detected by pattern matching, and after performing a predetermined number of patterns, may perform pattern matching only on candidate positions of the pupil.

位置検出部352は、パターンマッチング部370で抽出した瞳孔の候補位置以外の位置をマスキングすることで、処理をより簡単にすることができる。なお、マスキング処理は行わなくてもよい。   The position detection unit 352 can simplify processing by masking positions other than the candidate positions of the pupils extracted by the pattern matching unit 370. Note that the masking process may not be performed.

100 診断支援装置
101 表示部
102a 右カメラ
102b 左カメラ
103a、103b LED光源
150 記憶部
201 表示画面
205 スピーカ
300 制御部
313 駆動・IF部
316 LED駆動制御部
322 スピーカ駆動部
351 点灯制御部
352 位置検出部
353 曲率中心算出部
354 視線検出部
355 視点検出部
356 出力制御部
357 評価部
370 パターンマッチング部
372 瞳孔検出部
374 データベース
380 パターン制御部
382 比較部
DESCRIPTION OF SYMBOLS 100 Diagnosis support apparatus 101 Display part 102a Right camera 102b Left camera 103a, 103b LED light source 150 Storage part 201 Display screen 205 Speaker 300 Control part 313 Drive / IF part 316 LED drive control part 322 Speaker drive part 351 Lighting control part 352 Position detection Unit 353 center of curvature calculation unit 354 gaze detection unit 355 viewpoint detection unit 356 output control unit 357 evaluation unit 370 pattern matching unit 372 pupil detection unit 374 database 380 pattern control unit 382 comparison unit

Claims (6)

人物の瞳孔を含む画像を撮像する撮像部と、
前記撮像部が取得した画像から前記人物の瞳孔を抽出する制御部と、
を有し、
前記制御部は、前記瞳孔と前記瞳孔の周囲の輝度変化に対応するパターンと前記画像とのマッチングを行い、前記瞳孔の候補位置を抽出するパターンマッチング部と、
前記パターンマッチング部で抽出した前記瞳孔の候補位置を解析し、瞳孔があるかを検出する瞳孔検出部と、を有することを特徴とする瞳孔検出装置。
An imaging unit that captures an image including a human pupil;
A control unit that extracts the pupil of the person from the image acquired by the imaging unit;
Have
The control unit performs matching between the image corresponding to a luminance change around the pupil and the pupil and the image, and a pattern matching unit that extracts the candidate position of the pupil;
A pupil detection unit that analyzes a candidate position of the pupil extracted by the pattern matching unit and detects whether there is a pupil;
前記パターンマッチング部は、複数のパターンを用いて抽出処理を行い、複数のパターンを用いて抽出した候補を比較する比較部をさらに有し、
前記パターンは、第一輝度の第一領域と前記第一輝度よりも輝度が低い第二輝度の第二領域とを含む請求項1に記載の瞳孔検出装置。
The pattern matching unit further includes a comparison unit that performs extraction processing using a plurality of patterns and compares candidates extracted using a plurality of patterns,
The pupil detection device according to claim 1, wherein the pattern includes a first region having a first luminance and a second region having a second luminance lower than the first luminance.
前記抽出処理は、1つのパターンを抽出し、抽出されたパターンの輝度分布の領域を読み出して、前記画像とのマッチングを行い、複数のパターンのマッチングの結果に基づいて、優先順位を決定し、優先順位が高い候補を前記瞳孔の候補位置とすることを特徴とする請求項1または2に記載の瞳孔検出装置。   The extraction process extracts one pattern, reads a luminance distribution area of the extracted pattern, performs matching with the image, determines a priority order based on a result of matching a plurality of patterns, The pupil detection apparatus according to claim 1, wherein a candidate having a high priority is set as a candidate position of the pupil. 前記制御部は、前記パターンマッチング部で抽出した前記瞳孔の候補位置以外の位置をマスキングするマスキング部をさらに有し、
前記瞳孔検出部は、前記マスキング部でマスキングした画像を処理することを特徴とする請求項1から3のいずれか1項に記載の瞳孔検出装置。
The control unit further includes a masking unit that masks positions other than the candidate positions of the pupil extracted by the pattern matching unit,
The pupil detection device according to claim 1, wherein the pupil detection unit processes an image masked by the masking unit.
前記瞳孔検出部は、前記瞳孔の候補位置の画像から瞳孔の境界と角膜反射の存在を確認できた位置を前記瞳孔として検出することを特徴とする請求項1から4のいずれか一項に記載の瞳孔検出装置。   The said pupil detection part detects the position which confirmed the presence of the boundary of a pupil and corneal reflection from the image of the said candidate position of a pupil as said pupil. Pupil detection device. 人物の瞳孔を含む画像と前記瞳孔と前記瞳孔の周囲の輝度変化に対応するパターンとのマッチングを行い、前記瞳孔の候補位置を抽出するパターンマッチングステップと、
前記パターンマッチングステップで抽出した前記瞳孔の候補位置を解析し、瞳孔があるかを検出する瞳孔検出ステップと、を有することを特徴とする瞳孔検出方法。
A pattern matching step of performing matching between an image including a human pupil and a pattern corresponding to a change in luminance around the pupil and the pupil, and extracting candidate positions of the pupil;
A pupil detection method, comprising: analyzing a candidate position of the pupil extracted in the pattern matching step and detecting whether or not there is a pupil.
JP2016014862A 2016-01-28 2016-01-28 Pupil detection device and pupil detection method Active JP6693149B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016014862A JP6693149B2 (en) 2016-01-28 2016-01-28 Pupil detection device and pupil detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016014862A JP6693149B2 (en) 2016-01-28 2016-01-28 Pupil detection device and pupil detection method

Publications (2)

Publication Number Publication Date
JP2017131446A true JP2017131446A (en) 2017-08-03
JP6693149B2 JP6693149B2 (en) 2020-05-13

Family

ID=59504586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016014862A Active JP6693149B2 (en) 2016-01-28 2016-01-28 Pupil detection device and pupil detection method

Country Status (1)

Country Link
JP (1) JP6693149B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019118548A (en) * 2017-12-28 2019-07-22 株式会社Jvcケンウッド Cornea reflection position detection device, visual line detection device, and cornea reflection position detection method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019118548A (en) * 2017-12-28 2019-07-22 株式会社Jvcケンウッド Cornea reflection position detection device, visual line detection device, and cornea reflection position detection method

Also Published As

Publication number Publication date
JP6693149B2 (en) 2020-05-13

Similar Documents

Publication Publication Date Title
US10722113B2 (en) Gaze detection apparatus and gaze detection method
US10896324B2 (en) Line-of-sight detection device and method for detecting line of sight
JP6217445B2 (en) Diagnosis support apparatus and diagnosis support method
US11023039B2 (en) Visual line detection apparatus and visual line detection method
JP6201956B2 (en) Gaze detection device and gaze detection method
JP6900994B2 (en) Line-of-sight detection device and line-of-sight detection method
US9672422B2 (en) Pupil detection device and pupil detection method
US10748301B2 (en) Corneal reflex position detection device, eye-gaze tracking device, and corneal reflex position detection method
JP6593133B2 (en) Diagnosis support apparatus and diagnosis support method
JP6693149B2 (en) Pupil detection device and pupil detection method
JP6471533B2 (en) Gaze detection device and gaze detection method
JP6269177B2 (en) Pupil detection device, gaze detection device, and pupil detection method
JP6909391B2 (en) Line-of-sight detection device and line-of-sight detection method
JP6003277B2 (en) Diagnosis support apparatus and diagnosis support method
JP2016157326A (en) Line of sight detection device and line of sight detection method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200317

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200330

R150 Certificate of patent or registration of utility model

Ref document number: 6693149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150