JP6322991B2 - Gaze detection device and gaze detection method - Google Patents

Gaze detection device and gaze detection method Download PDF

Info

Publication number
JP6322991B2
JP6322991B2 JP2013261878A JP2013261878A JP6322991B2 JP 6322991 B2 JP6322991 B2 JP 6322991B2 JP 2013261878 A JP2013261878 A JP 2013261878A JP 2013261878 A JP2013261878 A JP 2013261878A JP 6322991 B2 JP6322991 B2 JP 6322991B2
Authority
JP
Japan
Prior art keywords
line
sight
gaze
image
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013261878A
Other languages
Japanese (ja)
Other versions
JP2015118579A (en
Inventor
洋一 成瀬
洋一 成瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013261878A priority Critical patent/JP6322991B2/en
Priority to PCT/JP2014/005903 priority patent/WO2015092977A1/en
Publication of JP2015118579A publication Critical patent/JP2015118579A/en
Application granted granted Critical
Publication of JP6322991B2 publication Critical patent/JP6322991B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、運転者の視線が到達する視線位置を検出する技術に関する。   The present invention relates to a technique for detecting a line-of-sight position where a driver's line of sight arrives.

運転者の顔画像を解析することによって、運転者の視線位置を検出する技術が知られている。この技術を用いれば、運転者の脇見運転を監視することが可能である。更に、視線位置の検出精度が十分に高ければ、車両に搭載された各種の機器(カーナビなど)を視線で操作することも可能となる(たとえば特許文献1)。   A technique for detecting a driver's line-of-sight position by analyzing a driver's face image is known. If this technique is used, it is possible to monitor the driver's aside driving. Furthermore, if the detection accuracy of the line-of-sight position is sufficiently high, various devices (such as a car navigation system) mounted on the vehicle can be operated with the line of sight (for example, Patent Document 1).

各種の機器を視線で操作することができれば、運転者が運転中に手を伸ばして機器を操作する必要がなくなるので、運転者の負担を軽減することが可能と考えられる。その一方で、視線位置の検出精度が低下すると、運転者の意図とは異なる操作が行われてしまう。そこで、運転中にたとえば前方車両を検出したら、その前方車両を運転者が注視しているものとして、検出した視線位置が前方車両の位置となるように、視線位置を校正する技術が提案されている(特許文献2)。   If various devices can be operated with a line of sight, it is not necessary for the driver to reach out and operate the device while driving, so the burden on the driver can be reduced. On the other hand, when the detection accuracy of the line-of-sight position decreases, an operation different from the driver's intention is performed. Therefore, for example, when a forward vehicle is detected during driving, a technique has been proposed that calibrates the line-of-sight position so that the detected line-of-sight position becomes the position of the vehicle ahead, assuming that the driver is gazing at the vehicle ahead. (Patent Document 2).

特開2013−143012号公報JP2013-143012A 特開2009−015533号公報JP 2009-015533 A

しかし、提案されている技術では、視線位置の検出精度が低下していても前方車両が検出されないときは校正ができないので、視線位置の検出精度を高く保つことができないという問題があった。   However, the proposed technique has a problem that even if the detection accuracy of the line-of-sight position is lowered, calibration cannot be performed when the preceding vehicle is not detected, and thus the detection accuracy of the line-of-sight position cannot be kept high.

この発明は、上述した問題に鑑みてなされたものであり、視線位置の検出精度を高く保つことが可能な技術の提供を目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique capable of maintaining high eye-gaze position detection accuracy.

上述した問題を解決するために、本発明の視線検出装置および視線検出方法は、視線位置を校正すると、校正したときの車両周辺の明るさを記憶しておく。そして、車両周辺の明るさを検出して、車両周辺の明るさと、記憶されている明るさとの差が所定量より大きくなった場合に、視線検出手段によって検出された視線位置を校正する。 In order to solve the above-described problem, the line-of-sight detection device and the line-of-sight detection method of the present invention store the brightness around the vehicle when the line-of-sight position is calibrated. Then, the brightness around the vehicle is detected, and the line-of-sight position detected by the line-of-sight detection means is calibrated when the difference between the brightness around the vehicle and the stored brightness exceeds a predetermined amount .

車両周辺の明るさは、トンネルの出入り時のように急変する場合だけでなく、時間の経過とともに徐々に変化する場合があり、何れの場合でも、視線位置の検出精度が低下しやすくなると考えられる。そこで、視線位置を校正した時の車両周辺の明るさを記憶しておき、その時の明るさから、車両周辺の明るさが所定量以上変化した場合に校正することとすれば、明るさが急変する場合にも、あるいは時間の経過と共に徐々に変化する場合にも、視線位置の検出精度が低下したタイミングで校正を行って検出精度を高めることができる。その結果、視線位置の検出精度を高く保つことができる。 The brightness around the vehicle may change not only suddenly as when entering and exiting a tunnel, but also gradually change over time. In either case, the detection accuracy of the line of sight is likely to decrease. . Therefore, if the brightness around the vehicle when the line-of-sight position is calibrated is stored, and the brightness around the vehicle changes by a predetermined amount or more from the brightness at that time, the brightness will change suddenly. In the case where the detection accuracy is changed or gradually changes with the passage of time, the detection accuracy can be improved by performing calibration at the timing when the detection accuracy of the line-of-sight position is lowered. As a result, the detection accuracy of the line-of-sight position can be kept high.

また、上述した本発明の視線検出装置においては、次のようにしてもよい。運転者に対して注視用画像を表示して、この注視用画像を表示した位置と、視線検出手段が検出した視線位置とに基づいて、視線位置を校正する。   Further, in the above-described line-of-sight detection device of the present invention, the following may be performed. The gaze image is displayed to the driver, and the gaze position is calibrated based on the position where the gaze image is displayed and the gaze position detected by the gaze detection means.

注視用画像を表示すれば、運転者はその注視用画像に視線を移動させると考えて良い。従って、注視用画像を表示すれば、必要となったタイミングで視線位置を校正することができる。その結果、視線位置の検出精度を確実に高く保つことができる。   If the gaze image is displayed, the driver may think that the line of sight is moved to the gaze image. Therefore, if the gaze image is displayed, the line-of-sight position can be calibrated at the required timing. As a result, the detection accuracy of the line-of-sight position can be reliably kept high.

本実施例の視線検出装置の構成を示す説明図である。It is explanatory drawing which shows the structure of the gaze detection apparatus of a present Example. 本実施例の視線検出装置が実施する視線位置検出処理のフローチャートである。It is a flowchart of the gaze position detection process which the gaze detection apparatus of a present Example implements. 運転者の右目を撮像した画像に写った瞳孔および角膜反射像を例示した説明図である。It is explanatory drawing which illustrated the pupil and the cornea reflection image which were reflected in the image which imaged the driver | operator's right eye. 瞳孔相対位置を検出する方法を示す説明図である。It is explanatory drawing which shows the method of detecting a pupil relative position. 視線位置決定テーブルを例示した説明図である。It is explanatory drawing which illustrated the gaze position determination table. 本実施例の視線検出装置が実施する校正処理のフローチャートである。It is a flowchart of the calibration process which the gaze detection apparatus of a present Example implements. 運転者に対して表示される注視用画像を例示した説明図である。It is explanatory drawing which illustrated the image for gaze displayed with respect to a driver | operator. 視線位置決定テーブルを校正する様子を概念的に示す説明図である。It is explanatory drawing which shows notionally a mode that a gaze position determination table is calibrated. 運転者に対して表示される注視用画像の別例を示した説明図である。It is explanatory drawing which showed another example of the image for gaze displayed with respect to a driver | operator. 本実施例における車両周辺の明るさと視線位置の検出精度との関係を示す説明図である。It is explanatory drawing which shows the relationship between the brightness of the vehicle periphery in a present Example, and the detection precision of a gaze position.

以下では、上述した本願発明の内容を明確にするために実施例について説明する。本実施例の視線検出装置は、車両に搭載され、車両の運転者の視線が到達する視線位置を検出する装置である。
A.装置構成 :
図1(a)には、本実施例の視線検出装置10の構成が示されている。図示されるように、視線検出装置10は、CPU11を中心として、CPU11が実行するプログラム等が記憶されているフラッシュメモリ12や、CPU11の作業領域であるRAM13などが、バス14を介して接続されている。CPU11は、各種のプログラムやプログラムの実行に必要なデータをフラッシュメモリ12から読み出し、視線位置を検出する処理を行う。
Hereinafter, examples will be described in order to clarify the contents of the present invention described above. The line-of-sight detection apparatus according to the present embodiment is an apparatus that is mounted on a vehicle and detects a line-of-sight position where the line of sight of the driver of the vehicle reaches.
A. Device configuration :
FIG. 1A shows the configuration of the line-of-sight detection device 10 of the present embodiment. As shown in the figure, the line-of-sight detection device 10 is connected to a flash memory 12 that stores a program executed by the CPU 11 and a RAM 13 that is a work area of the CPU 11 via a bus 14. ing. The CPU 11 reads out various programs and data necessary for executing the programs from the flash memory 12 and performs processing for detecting the line-of-sight position.

視線位置を検出する方法としては、各種の方法を採用することができるが、本実施例では、運転者の目の画像に写った角膜反射像と瞳孔との位置関係に基づいて視線位置を検出する方法(詳細は後述)を採用することとする。
このような方法を採用することに対応して、バス14には、近赤外光を用いて撮像する近赤外光カメラ16や、近赤外光照射用のLED(近赤外光LED)17が、カメラ用インターフェース15を介して接続されている。近赤外光カメラ16および近赤外光LED17は、運転者を撮像すべく、運転席の前方に運転席側を向けて設けられている。CPU11は、近赤外光カメラ16および近赤外光LED17を制御することで、近赤外光を照射した状態で撮像された運転者の目の画像を取得する。
Various methods can be adopted as a method for detecting the line-of-sight position. In this embodiment, the line-of-sight position is detected based on the positional relationship between the cornea reflection image captured in the driver's eye image and the pupil. This method (details will be described later) is adopted.
Corresponding to adopting such a method, the bus 14 includes a near-infrared light camera 16 for imaging using near-infrared light, and a near-infrared light irradiation LED (near-infrared light LED) 17 is connected via the camera interface 15. The near-infrared light camera 16 and the near-infrared light LED 17 are provided with the driver's seat side facing the front of the driver's seat in order to image the driver. The CPU 11 controls the near-infrared light camera 16 and the near-infrared light LED 17 to acquire an image of the driver's eyes imaged in a state where the near-infrared light is irradiated.

また、バス14には、照度センサー用インターフェース18を介して、照度センサー19が接続されており、CPU11は、照度センサー19を用いて車両周辺の明るさを検出する。さらに、バス14には、HUD装置用インターフェース20を介して、HUD装置(ヘッドアップディスプレイ装置)21が接続されている。HUD装置21は、CPU11からの指示に基づいて、車両のフロントガラス(以下「ウィンドシールド」)に所定の画像を投影することが可能である。   An illuminance sensor 19 is connected to the bus 14 via an illuminance sensor interface 18, and the CPU 11 detects the brightness around the vehicle using the illuminance sensor 19. Further, a HUD device (head-up display device) 21 is connected to the bus 14 via a HUD device interface 20. The HUD device 21 can project a predetermined image on the windshield (hereinafter “windshield”) of the vehicle based on an instruction from the CPU 11.

図1(b)には、CPU11が有する機能を示すブロック図が示されている。これらの機能は、CPU11がフラッシュメモリ12に記憶されているプログラムを実行することによって実現される。図1(b)に示されるように、CPU11は、視線位置の検出処理を行う視線位置検出機能11aと、詳しくは後述するが、検出処理によって検出された視線位置の校正を行う校正機能11bと、車両周辺の明るさを検出する周辺環境検出機能11cと、運転者に対して所定の画像を表示する画像表示機能11dとを有する。
尚、本実施例の視線位置検出機能11aは、本発明の「視線検出手段」に相当し、本実施例の校正機能11bは、本発明の「校正手段」に相当し、本実施例の周辺環境検出機能11cは、本発明の「周辺環境検出手段」に相当し、本実施例の画像表示機能11dは、本発明の「画像表示手段」に相当する。
FIG. 1B is a block diagram illustrating functions of the CPU 11. These functions are realized by the CPU 11 executing a program stored in the flash memory 12. As shown in FIG. 1B, the CPU 11 has a gaze position detection function 11a that performs gaze position detection processing, and a calibration function 11b that calibrates the gaze position detected by the detection processing, which will be described in detail later. The vehicle has a surrounding environment detection function 11c that detects the brightness around the vehicle and an image display function 11d that displays a predetermined image for the driver.
The line-of-sight position detection function 11a of the present embodiment corresponds to the “line-of-sight detection means” of the present invention, and the calibration function 11b of the present embodiment corresponds to the “calibration means” of the present invention. The environment detection function 11c corresponds to “peripheral environment detection means” of the present invention, and the image display function 11d of the present embodiment corresponds to “image display means” of the present invention.

B.視線位置検出処理 :
図2には、本実施例のCPU11によって実行される視線位置検出処理のフローチャートが示されている。視線位置検出処理では、運転者の視線位置を検出するための処理が行われる。また、この処理は、所定の条件が成立した場合(たとえば、車両のエンジンが起動された場合や、運転者によって所定の開始操作が行われた場合)に開始される。
CPU11は、視線位置検出処理を開始すると、先ず、近赤外光カメラ16および近赤外光LED17を制御することで、近赤外光を照射した状態で運転者の目を撮像して、撮像された目の画像をRAM13の所定アドレスに記憶する(S100)。
B. Gaze position detection processing:
FIG. 2 shows a flowchart of the eye gaze position detection process executed by the CPU 11 of this embodiment. In the line-of-sight position detection process, a process for detecting the driver's line-of-sight position is performed. This process is started when a predetermined condition is satisfied (for example, when a vehicle engine is started or when a predetermined start operation is performed by the driver).
When starting the line-of-sight position detection process, the CPU 11 first controls the near-infrared light camera 16 and the near-infrared light LED 17 to image the eyes of the driver while irradiating near-infrared light. The obtained eye image is stored in a predetermined address of the RAM 13 (S100).

続いて、CPU11は、S100の処理で撮像された目の画像から、エッジ検出等の周知の方法を用いて、「瞳孔」の中心、および「角膜反射像」の中心を検出する(S102)。「角膜反射像」とは、近赤外光LED17から照射された光が角膜で反射したもの(いわゆるプルキンエ像)であり、角膜の部分に明るく写っている。
図3には、運転者の右目を撮像した画像に写った「瞳孔」および「角膜反射像」が例示されている。このうち、図3(a)には、視線が正面に向けられたときに撮像した画像が示されており、図示された例では、「瞳孔」の真下に「角膜反射像」が写っている。CPU11は、このようにして目の画像に写った「瞳孔」および「角膜反射像」の中心を検出する。
Subsequently, the CPU 11 detects the center of the “pupil” and the center of the “corneal reflection image” from the eye image captured in the process of S100 using a known method such as edge detection (S102). The “corneal reflection image” is a light reflected from the near-infrared light LED 17 reflected by the cornea (so-called Purkinje image), and is brightly reflected in the cornea.
FIG. 3 illustrates a “pupil” and a “corneal reflection image” in an image obtained by imaging the right eye of the driver. Among these, FIG. 3A shows an image captured when the line of sight is directed to the front. In the illustrated example, a “corneal reflection image” is shown directly below the “pupil”. . The CPU 11 detects the centers of the “pupil” and “corneal reflection image” in the eye image in this way.

ここで、目の画像に写った「瞳孔」と「角膜反射像」との位置関係は、視線位置に応じて変化する。たとえば、大まかに説明すると、図3(a)に例示したように、視線が正面に向けられたときに瞳孔が角膜反射像の「真上」に位置していたとしても、視線が左側に向けられると、図3(b)に例示するように、瞳孔が角膜反射像の「右上」に位置することとなる。また、視線が右側に向けられると、図3(c)に例示するように、瞳孔が角膜反射像の「左上」に位置することとなる。
このように視線位置に応じて「角膜反射像」と「瞳孔」との位置関係が変化するので、「角膜反射像の中心に対する相対的な瞳孔の中心の位置」に基づき視線位置を検出することができる。
Here, the positional relationship between the “pupil” reflected in the eye image and the “corneal reflection image” changes according to the line-of-sight position. For example, roughly speaking, as illustrated in FIG. 3A, even if the pupil is positioned “directly above” the cornea reflection image when the line of sight is directed to the front, the line of sight is directed to the left side. Then, as illustrated in FIG. 3B, the pupil is positioned on the “upper right” of the cornea reflection image. When the line of sight is directed to the right side, the pupil is positioned “upper left” of the cornea reflection image as illustrated in FIG.
Since the positional relationship between the “corneal reflection image” and the “pupil” changes in accordance with the line-of-sight position in this way, the line-of-sight position is detected based on “the position of the center of the pupil relative to the center of the cornea reflection image”. Can do.

そこでCPU11は、S102の処理で「瞳孔」および「角膜反射像」の中心を検出したら、続いて、「角膜反射像の中心に対する相対的な瞳孔の中心の位置」(以下「瞳孔相対位置」)を検出する(S104)。尚、瞳孔相対位置は、図4に示されるように、角膜反射像の中心から瞳孔の中心までの水平方向(x方向)の距離、および垂直方向(y方向)の距離で表される。また、これらの距離は、画素数で表される。   Therefore, when the CPU 11 detects the center of the “pupil” and the “corneal reflection image” in the process of S102, subsequently, “the position of the center of the pupil relative to the center of the cornea reflection image” (hereinafter, “pupil relative position”). Is detected (S104). As shown in FIG. 4, the relative pupil position is represented by the distance in the horizontal direction (x direction) and the distance in the vertical direction (y direction) from the center of the cornea reflection image to the center of the pupil. These distances are represented by the number of pixels.

こうして、瞳孔相対位置を検出したら(S104)、CPU11は、視線位置決定テーブルを参照して、運転者の視線位置を検出する(S106)。視線位置決定テーブルには、図5に例示するように、瞳孔相対位置が取り得る全ての値(ax、ay)に対して、運転者の視線位置(bx、by)が設定されている。CPU11は、この視線位置決定テーブルを参照して、上述のS104の処理で得られた瞳孔相対位置に対応する視線位置を検出する。   When the pupil relative position is thus detected (S104), the CPU 11 refers to the line-of-sight position determination table to detect the driver's line-of-sight position (S106). In the line-of-sight position determination table, as illustrated in FIG. 5, the line-of-sight positions (bx, by) of the driver are set for all values (ax, ay) that the relative position of the pupil can take. The CPU 11 refers to this line-of-sight position determination table and detects the line-of-sight position corresponding to the pupil relative position obtained by the process of S104 described above.

尚、視線位置決定テーブルは、車両のエンジンが起動された後など、視線位置検出処理を開始する前に、次のようにして生成し、フラッシュメモリ12に予め記憶しておく。先ず、運転者に所定の位置を注視させた状態で(たとえば、HUD装置21が所定の位置に表示した画像を注視させた状態で)運転者の目を撮像し、上述と同様の方法で瞳孔相対位置を検出する。そして、注視させた位置(視線位置)と、得られた瞳孔相対位置とを対応付けて記憶する。このような処理を、注視させる位置を変更しながら複数回(たとえば、5〜10回)繰り返す。また、注視させていない位置(視線位置)については、周知の補間処理や捕外処理等を行うことで瞳孔相対位置を演算する。これにより、「瞳孔相対位置」と「視線位置」との対応関係、すなわち視線位置決定テーブルが生成される。   The line-of-sight position determination table is generated as follows and stored in advance in the flash memory 12 before starting the line-of-sight position detection process, for example, after the vehicle engine is started. First, the driver's eyes are imaged while the driver is gazing at a predetermined position (for example, the image displayed by the HUD device 21 at the predetermined position), and the pupil is captured in the same manner as described above. Detect relative position. Then, the gaze position (line-of-sight position) and the obtained pupil relative position are stored in association with each other. Such processing is repeated a plurality of times (for example, 5 to 10 times) while changing the position to be watched. In addition, for a position (gaze position) that is not gazed, the pupil relative position is calculated by performing known interpolation processing, extrapolation processing, or the like. Thereby, a correspondence relationship between the “pupil relative position” and the “line-of-sight position”, that is, a line-of-sight position determination table is generated.

このように、本実施例の視線検出装置10では、目の画像から得られた瞳孔相対位置に基づいて視線位置を検出する。CPU11は、こうして検出された視線位置に関するデータを、各種の運転支援装置(図示省略)からの求めに応じて該装置へ出力する。これにより、運転者の視線位置を利用した各種の運転支援が行われる。
たとえば、運転者の視線位置が、操舵角センサー(図示省略)で検出された車両の進行方向から大きく外れている場合、運転者に警告することで脇見運転を防止することが行われる。あるいは、カーナビ等の機器を、運転者の視線の動きで操作することが行われる。この場合は、指で操作するのに比べて身体的な負担を軽減することができ、手が塞がっている状況でも機器の操作が可能となる。
As described above, the line-of-sight detection apparatus 10 according to the present embodiment detects the line-of-sight position based on the pupil relative position obtained from the eye image. The CPU 11 outputs data relating to the line-of-sight position detected in this way to the device in response to requests from various driving support devices (not shown). Thereby, various driving assistances using the driver's line-of-sight position are performed.
For example, when the driver's line-of-sight position is greatly deviated from the traveling direction of the vehicle detected by a steering angle sensor (not shown), the driver is warned to prevent the driver from looking aside. Alternatively, a device such as a car navigation system is operated by the movement of the driver's line of sight. In this case, the physical burden can be reduced as compared with the case of operating with a finger, and the device can be operated even when the hand is closed.

以上のように、視線位置を検出するための一連の処理を行ったら(S100〜S106)、CPU11は、校正処理を行う(図2のS200)。この校正処理では、視線位置の検出精度が低下したと推定された場合に、次回からの視線位置の検出精度を高めるべく、上述した視線位置決定テーブルを校正する。   As described above, after performing a series of processes for detecting the line-of-sight position (S100 to S106), the CPU 11 performs a calibration process (S200 in FIG. 2). In this calibration process, when it is estimated that the detection accuracy of the gaze position has been lowered, the above-described gaze position determination table is calibrated in order to increase the detection accuracy of the gaze position from the next time.

C.校正処理 :
図6には、CPU11によって行われる校正処理のフローチャートが示されている。CPU11は、校正処理を開始すると、照度センサー19を用いて車両周辺の明るさを検出する(S202)。そして、前回校正を行った時からの車両周辺の明るさの変化量が所定量を超えたか否かを判断する(S204)。詳しくは後述するが、本実施例の視線検出装置10では、視線位置決定テーブルの校正を行うたびに、車両周辺の明るさをRAM13に記憶する。そこで、S204の処理では、前回校正を行ったときにRAM13に記憶された明るさと、今回検出された明るさとを比較し、これらの明るさの差が所定量より大きくなったか否かを判断する(S204)。尚、所定量としては、数100〜数1000lxを例示することができる。
C. Calibration process:
FIG. 6 shows a flowchart of the calibration process performed by the CPU 11. When starting the calibration process, the CPU 11 detects the brightness around the vehicle using the illuminance sensor 19 (S202). Then, it is determined whether or not the amount of change in brightness around the vehicle since the previous calibration exceeded a predetermined amount (S204). As will be described in detail later, in the visual line detection device 10 of the present embodiment, the brightness around the vehicle is stored in the RAM 13 every time the visual line position determination table is calibrated. Therefore, in the process of S204, the brightness stored in the RAM 13 when the previous calibration was performed is compared with the brightness detected this time, and it is determined whether or not the difference between these brightnesses exceeds a predetermined amount. (S204). In addition, several hundred to several thousand lx can be illustrated as the predetermined amount.

ここで、車両周辺の明るさが変化すると、次のような理由により、視線位置の検出精度が低下することがある。すなわち、車両周辺の明るさが変化すると、車室内の運転者の目に入る光の明るさも変化するので、運転者の目の瞳孔径の大きさが変化する。すると、実際の視線位置が変化していなくても、目の画像から得られる「瞳孔相対位置」が変化することがある。「瞳孔相対位置」には、該「瞳孔相対位置」に応じた視線位置が対応付けられているので、瞳孔相対位置が異なれば、当然ながら、対応する視線位置は異なったものとなる。このように、車両周辺の明るさが変化すると、実際の視線位置が変化していなくても目の画像から得られる「瞳孔相対位置」が変化し、ひいては該「瞳孔相対位置」に基づいて検出される視線位置が、実際の視線位置からずれてしまうことがある。   Here, when the brightness around the vehicle changes, the detection accuracy of the line-of-sight position may decrease for the following reason. That is, when the brightness around the vehicle changes, the brightness of light entering the eyes of the driver in the passenger compartment also changes, so the pupil diameter of the driver's eyes changes. Then, even if the actual line-of-sight position does not change, the “pupil relative position” obtained from the eye image may change. Since the “pupil relative position” is associated with the line-of-sight position corresponding to the “pupil relative position”, the corresponding line-of-sight position is naturally different if the pupil relative position is different. As described above, when the brightness around the vehicle changes, the “pupil relative position” obtained from the eye image changes even if the actual line-of-sight position does not change, and is thus detected based on the “pupil relative position”. The sight line position may be shifted from the actual sight line position.

したがって、上述したS204の判断処理で、車両周辺の明るさの変化量が所定量を超えたと判断された場合は(S204:yes)、視線位置の検出精度が低下したと推定することができる。そこで、CPU11は、車両周辺の明るさの変化量が所定量を超えたと判断したら(S204:yes)、S202の処理で検出した車両周辺の明るさを「今回校正時の明るさ」としてRAM13に記憶した後(S206)、視線位置の検出精度を高めるべく、次のようにして視線位置決定テーブルの校正を行う。   Therefore, if it is determined in the determination process of S204 described above that the amount of change in brightness around the vehicle has exceeded a predetermined amount (S204: yes), it can be estimated that the detection accuracy of the line-of-sight position has decreased. Therefore, when the CPU 11 determines that the amount of change in brightness around the vehicle has exceeded a predetermined amount (S204: yes), the brightness around the vehicle detected in the processing of S202 is stored in the RAM 13 as "brightness at the time of current calibration". After storing (S206), the gaze position determination table is calibrated as follows in order to increase the gaze position detection accuracy.

先ず、CPU11は、所定の制御信号をHUD装置21に出力することで、運転者の前方に「注視用画像30a」を表示する(S208)。図7には、運転者の前方のウィンドシールドに注視用画像30aが表示された様子が例示されている。尚、図7は、運転席から車両前方を見たときの様子を示しており、矩形形状の破線は、HUD装置21によるウィンドシールド上での画像表示領域を表している。そして、図示された例では、画像表示領域の右下部分に注視用画像30aが表示されている。HUD装置21は、CPU11からの制御信号に基づいて、普段表示する画像よりも目立つような態様で(たとえば、点滅させたり輝度を高くしたりして)注視用画像30aを表示する。こうして運転者の前方に注視用画像30aを表示すると、前方を見ながら運転する運転者は、その注視用画像30aを注視するものと考えられる。   First, the CPU 11 outputs a predetermined control signal to the HUD device 21 to display the “gazing image 30a” in front of the driver (S208). FIG. 7 illustrates a state in which the gaze image 30a is displayed on the windshield in front of the driver. FIG. 7 shows a state when the front of the vehicle is viewed from the driver's seat, and a rectangular broken line represents an image display area on the windshield by the HUD device 21. In the illustrated example, the gaze image 30a is displayed in the lower right part of the image display area. Based on the control signal from the CPU 11, the HUD device 21 displays the gaze image 30a in a manner that stands out from the image that is normally displayed (for example, blinking or increasing the brightness). When the gaze image 30a is displayed in front of the driver in this manner, it is considered that the driver driving while looking at the front gazes at the gaze image 30a.

そこで、CPU11は、運転者が注視用画像30aを注視している状態での瞳孔相対位置、すなわち注視用画像30aを表示したときの瞳孔相対位置を検出する(S210)。瞳孔相対位置の検出は、図2を用いて前述した視線位置検出処理と同様の方法で行う。すなわち、近赤外光を照射した状態で運転者の目を撮像し、目の画像から検出された瞳孔および角膜反射像の中心に基づいて瞳孔相対位置を検出する。   Therefore, the CPU 11 detects the pupil relative position when the driver is gazing at the gaze image 30a, that is, the pupil relative position when the gaze image 30a is displayed (S210). The detection of the pupil relative position is performed by the same method as the visual line position detection process described above with reference to FIG. That is, the driver's eyes are imaged in the state of irradiating near infrared light, and the pupil relative position is detected based on the pupil and the center of the cornea reflection image detected from the eye image.

こうして、注視用画像30aを表示したときの「瞳孔相対位置」を検出したら(S210)、CPU11は、注視用画像30aを表示した位置、および注視用画像30aを表示したときに得られた「瞳孔相対位置」に基づいて、視線位置決定テーブルを校正する(S212)。すなわち、今回得られた「瞳孔相対位置」は、運転者が注視用画像30aを注視している状態での「瞳孔相対位置」であると推定できるので、該「瞳孔相対位置」が検出された場合に、「注視用画像30aを表示した位置」が視線位置として検出されるように、視線位置決定テーブルにおける該「瞳孔相対位置」に対応する視線位置を、「注視用画像30aを表示した位置」に対応する視線位置に更新する。
たとえば、図8に示すように、今回得られた「瞳孔相対位置」(注視用画像30aを表示したときに得られた「瞳孔相対位置」)の値が(120,250)であった場合、この瞳孔相対位置(120、250)に対応する視線位置を、「注視用画像30aを表示した位置」に対応する視線位置(bx80、by80)に更新する。
Thus, when the “pupil relative position” when the gaze image 30a is displayed is detected (S210), the CPU 11 obtains the position where the gaze image 30a is displayed and the “pupil” obtained when the gaze image 30a is displayed. Based on the “relative position”, the line-of-sight position determination table is calibrated (S212). In other words, the “pupil relative position” obtained this time can be estimated to be the “pupil relative position” in a state where the driver is gazing at the gaze image 30a, and thus the “pupil relative position” is detected. In this case, the line-of-sight position corresponding to the “pupil relative position” in the line-of-sight position determination table is set to “the position where the line-of-sight image 30a is displayed” so that the “position where the line-of-sight image 30a is displayed” is detected as the line-of-sight position. To the line-of-sight position corresponding to “”.
For example, as shown in FIG. 8, when the value of “pupil relative position” obtained this time (“pupil relative position” obtained when displaying the gaze image 30a) is (120, 250), The line-of-sight position corresponding to the pupil relative position (120, 250) is updated to the line-of-sight position (bx80, by80) corresponding to the “position where the gaze image 30a is displayed”.

こうして、注視用画像30aを表示したときに得られた「瞳孔相対位置」に対応する視線位置を更新したら、これに連動して、その他の「瞳孔相対位置」に対応する視線位置も、周知の補間処理や捕外処理等を行うことによって更新する。こうして視線位置決定テーブルを校正することで、視線位置検出処理で検出される視線位置と実際の視線位置とのズレが解消され、視線位置の検出精度が高められる。
尚、本実施例では、視線位置決定テーブルを校正することにより、視線位置の検出精度が高められる。したがって、本実施例において「視線位置決定テーブルを校正する」ことは、本発明における「視線位置を校正する」ことに相当する。
Thus, when the line-of-sight position corresponding to the “pupil relative position” obtained when the gaze image 30a is displayed is updated, the line-of-sight positions corresponding to the other “pupil relative positions” are also known. It is updated by performing interpolation processing and extrapolation processing. By calibrating the line-of-sight position determination table in this manner, the deviation between the line-of-sight position detected in the line-of-sight position detection process and the actual line-of-sight position is eliminated, and the line-of-sight position detection accuracy is improved.
In the present embodiment, the accuracy of detecting the line-of-sight position can be improved by calibrating the line-of-sight position determination table. Therefore, in the present embodiment, “calibrating the line-of-sight position determination table” corresponds to “calibrating the line-of-sight position” in the present invention.

尚、視線位置決定テーブルを上述のようにして校正するのではなく、視線位置決定テーブルを生成し直すこととしてもよい。すなわち、図9に示されるように、S208の処理で説明した注視用画像30aを表示する処理を、表示位置を変更しながら複数回繰り返す。図9に示す例では、HUD装置21の画像表示領域の5カ所(四隅、および中央の部分)に注視用画像30b〜30fを順次表示する。運転者は、順次表示された注視用画像30b〜30fを注視すると考えられるので、CPU11は、注視用画像30b〜30fを表示したときに撮像した目の画像から、瞳孔相対位置を検出する。そして、注視用画像30b〜30fの表示位置(視線位置)と、検出された瞳孔相対位置とを対応付けて記憶する。また、注視用画像30b〜30fを表示していない位置(視線位置)については、周知の補間処理や捕外処理等を行うことによって瞳孔相対位置を演算する。   Note that, instead of calibrating the line-of-sight position determination table as described above, the line-of-sight position determination table may be regenerated. That is, as shown in FIG. 9, the process of displaying the gaze image 30a described in the process of S208 is repeated a plurality of times while changing the display position. In the example illustrated in FIG. 9, the gaze images 30b to 30f are sequentially displayed at five locations (four corners and a central portion) of the image display area of the HUD device 21. Since the driver is considered to gaze at the sequentially displayed gaze images 30b to 30f, the CPU 11 detects the pupil relative position from the eye image captured when the gaze images 30b to 30f are displayed. And the display position (line-of-sight position) of the images for gaze 30b-30f and the detected pupil relative position are stored in association with each other. In addition, for the positions (line-of-sight positions) where the images for gaze 30b-30f are not displayed, the relative position of the pupil is calculated by performing known interpolation processing, extrapolation processing, and the like.

こうして、視線位置決定テーブルを生成し直すと、視線位置検出処理で検出される視線位置と実際の視線位置とのズレが確実に解消され、視線位置の検出精度を確実に高めることができる。尚、このように視線位置決定テーブルを生成し直した場合は、「視線位置決定テーブルを生成し直す」ことが、本発明における「視線位置を校正する」ことに相当する。   In this way, when the line-of-sight position determination table is regenerated, the deviation between the line-of-sight position detected by the line-of-sight position detection process and the actual line-of-sight position is reliably eliminated, and the line-of-sight position detection accuracy can be reliably increased. When the line-of-sight position determination table is regenerated in this way, “re-generation of the line-of-sight position determination table” corresponds to “calibrate the line-of-sight position” in the present invention.

以上に説明したように、本実施例の視線検出装置10は、視線位置決定テーブルの校正(あるいは生成し直し)を行うに際し、運転者に対して注視用画像30aを表示する。運転者に対して注視用画像30aを表示する処理は、HUD装置21を用いていつでも行うことができる。また、前方を見ながら運転する運転者は、運転者に対して表示された(運転者の前方に表示された)注視用画像30aを注視すると考えられる。これらのことから、運転者に対して注視用画像30aを表示する処理により、所望のタイミングで運転者の「実際の視線位置」を取得することができる。
そこで、本実施例の視線検出装置10では、前述したように、運転者に対して注視用画像30aを表示して、その注視用画像30aを表示した位置と、視線位置検出処理(と同様の方法)で検出した瞳孔相対位置とに基づいて、視線位置決定テーブルを校正する。こうすれば、車両周辺の明るさの変化量が所定量を超えたタイミングを逃すことなく、運転者の「実際の視線位置」を取得して、その「実際の視線位置」が視線位置検出処理によって検出されるように視線位置決定テーブルを校正することができる。その結果、視線位置の検出精度を確実に高く保つことができる。
尚、本実施例では、注視用画像30aを表示した位置と、視線位置検出処理(と同様の方法)で検出した「瞳孔相対位置」とに基づいて、視線位置決定テーブルを校正したが、この「瞳孔相対位置」は、視線位置検出処理によって検出される「視線位置」に対応するものである。したがって、本実施例における「注視用画像30aを表示した位置と、視線位置検出処理(と同様の方法)で検出した「瞳孔相対位置」とに基づいて、視線位置決定テーブルを校正する」ことは、本発明における「注視用画像を表示した位置と、視線検出手段が検出した「視線位置」とに基づいて、視線位置を校正する」ことに相当する。
As described above, the line-of-sight detection device 10 according to the present embodiment displays the gaze image 30a to the driver when the line-of-sight position determination table is calibrated (or regenerated). The process of displaying the gaze image 30a for the driver can be performed at any time using the HUD device 21. Further, it is considered that the driver who drives while looking forward looks at the gaze image 30a displayed to the driver (displayed in front of the driver). For these reasons, the driver's “actual line-of-sight position” can be acquired at a desired timing by the process of displaying the gaze image 30a to the driver.
Therefore, as described above, in the line-of-sight detection device 10 of the present embodiment, the gaze image 30a is displayed to the driver, the position where the gaze image 30a is displayed, and the gaze position detection process (similar to the same). The line-of-sight position determination table is calibrated based on the pupil relative position detected in (Method). In this way, the driver's “actual gaze position” is acquired without missing the timing when the amount of change in brightness around the vehicle exceeds the predetermined amount, and the “actual gaze position” is detected by the gaze position detection process. The line-of-sight position determination table can be calibrated to be detected by As a result, the detection accuracy of the line-of-sight position can be reliably kept high.
In this embodiment, the gaze position determination table is calibrated based on the position where the gaze image 30a is displayed and the “pupil relative position” detected by the gaze position detection process (similar method). The “pupil relative position” corresponds to the “line-of-sight position” detected by the line-of-sight position detection process. Therefore, in the present embodiment, “calibrating the gaze position determination table based on the position where the gaze image 30a is displayed and the“ pupil relative position ”detected by the gaze position detection process (similar method)” This corresponds to “calibrating the line-of-sight position based on the position where the gaze image is displayed and the“ line-of-sight position ”detected by the line-of-sight detection means” in the present invention.

また、前方を見ながら運転する運転者は、運転者に対して表示された(運転者の前方に表示された)注視用画像30aを、視線を大きく動かすことなく無意識のうちに注視するものと考えられる。このため、運転者の運転を妨げることがないので、視線位置決定テーブルの校正を安全に行うことができる。   In addition, a driver who drives while looking forward looks at the gaze image 30a displayed to the driver (displayed in front of the driver) unconsciously without greatly moving his line of sight. Conceivable. For this reason, since a driver | operator's driving | operation is not prevented, the calibration of a gaze position determination table can be performed safely.

さらに、上述した説明では、運転者を所定の位置に注視させるために、注視用画像30aを表示することとしたが、注視用画像30aのように専用の画像を用いるのではなく、HUD装置21によって普段から表示される画像を用いることとしてもよい。なかでも、運転者に警告するための警告画像(たとえば、前方に障害物を検出したことを警告する警告画像や、道路標識を提示して注意を促す警告画像)は、一般的に、運転者の注意を引き付けるような表示態様が採用されている。このため、警告画像は、注視用画像30aと同様に、運転者を所定の位置に注視させることができる。   Further, in the above description, the gaze image 30a is displayed in order to cause the driver to gaze at a predetermined position. However, instead of using a dedicated image like the gaze image 30a, the HUD device 21 is used. The image displayed normally may be used. In particular, a warning image for warning the driver (for example, a warning image for warning that an obstacle has been detected ahead or a warning image for displaying a road sign to call attention) is generally used by the driver. A display mode that attracts the attention of is adopted. For this reason, the warning image can make the driver gaze at a predetermined position in the same manner as the gaze image 30a.

そこで、CPU11は、車両周辺の明るさの変化量が所定量を超えた場合、視線位置決定テーブルの校正を、警告画像の表示位置に基づいて行うこととしてもよい。このように、専用の画像(注視用画像30a)ではなく、普段から表示される警告画像を利用することとすれば、運転者に対して表示される画像は普段と何ら変わることがない。このため、運転者の運転を妨げることなく、視線位置決定テーブルの校正をより安全に行うことができる。   Therefore, the CPU 11 may calibrate the line-of-sight position determination table based on the display position of the warning image when the amount of change in brightness around the vehicle exceeds a predetermined amount. As described above, if the warning image displayed normally is used instead of the dedicated image (gaze image 30a), the image displayed to the driver does not change at all. For this reason, the line-of-sight position determination table can be calibrated more safely without disturbing the driving of the driver.

また、前述したように、本実施例の視線検出装置10では、車両周辺の明るさの変化量が所定量を超えた場合に視線位置の検出精度が低下したと推定して、視線位置決定テーブルの校正を行うこととした。以下では、この点について補足して説明する。   Further, as described above, in the line-of-sight detection device 10 according to the present embodiment, it is estimated that the detection accuracy of the line-of-sight position has decreased when the amount of change in brightness around the vehicle exceeds a predetermined amount, and the line-of-sight position determination table It was decided to calibrate. In the following, this point will be supplementarily described.

図10には、本実施例における「車両周辺の明るさ」と「視線位置の検出精度」との関係が概念的に示されている。図10中の上側には、車両周辺の明るさが示されており、図10中の下側には、視線位置の検出精度が示されている。   FIG. 10 conceptually shows the relationship between “brightness around the vehicle” and “detection accuracy of the line-of-sight position” in the present embodiment. The upper side in FIG. 10 shows the brightness around the vehicle, and the lower side in FIG. 10 shows the detection accuracy of the line-of-sight position.

車両が日中に走行しているとき、図10中の時刻t1で示されるように、トンネル内に進入することで車両周辺の明るさが大きく低下することがある。これにより、車室内の運転者の目に入る光の明るさが低下すると、実際には視線位置が変化していなくても、目の画像から得られる瞳孔相対位置が変化してしまい、視線位置の検出精度が低下することがある。そこで、CPU11は、車両周辺の明るさの変化量が所定量を超えた(所定量を超えて低下した)と判断したら、視線位置決定テーブルの校正を行う。これにより、図10中の時刻t2で示されるように、視線位置の検出精度を高めることができる。   When the vehicle is traveling during the day, as shown at time t1 in FIG. 10, the brightness around the vehicle may be greatly reduced by entering the tunnel. As a result, when the brightness of light entering the eyes of the driver in the passenger compartment decreases, the relative position of the pupil obtained from the eye image changes even if the line-of-sight position does not actually change. The detection accuracy may be reduced. Therefore, if the CPU 11 determines that the amount of change in brightness around the vehicle has exceeded a predetermined amount (decreased beyond a predetermined amount), the CPU 11 calibrates the line-of-sight position determination table. Thereby, as shown at time t2 in FIG. 10, the detection accuracy of the line-of-sight position can be improved.

そして、図10中の時刻t3で示されるように、いずれ、車両がトンネルの外に出ると、車両周辺の明るさが元の明るさに戻り、運転者の目に入る光の明るさも元に戻る。すると、実際には視線位置が変化していなくても、瞳孔相対位置が変化してしまい、視線位置の検出精度が低下することがある。そこで、CPU11は、車両周辺の明るさの変化量が所定量を超えた(所定量を超えて上昇した)と判断したら、視線位置決定テーブルの校正を行う。これにより、図10中の時刻t4で示されるように、視線位置の検出精度を高めることができる。   Then, as shown at time t3 in FIG. 10, when the vehicle goes outside the tunnel, the brightness around the vehicle returns to the original brightness, and the brightness of the light entering the driver's eyes is also based on the brightness. Return. Then, even if the line-of-sight position does not actually change, the pupil relative position changes, and the line-of-sight position detection accuracy may decrease. Therefore, when the CPU 11 determines that the amount of change in brightness around the vehicle has exceeded a predetermined amount (increased beyond the predetermined amount), the CPU 11 calibrates the line-of-sight position determination table. Thereby, as shown at time t4 in FIG. 10, the detection accuracy of the line-of-sight position can be increased.

このように、車両周辺の明るさの変化量が所定量を超えた場合に視線位置決定テーブルの校正を行うこととすれば、視線位置の検出精度が低下したタイミングで校正を行って検出精度を高めることができる。この結果、視線位置の検出精度を高く保つことができる。   As described above, if the gaze position determination table is calibrated when the amount of change in brightness around the vehicle exceeds a predetermined amount, calibration is performed at the timing when the gaze position detection accuracy is reduced, and the detection accuracy is increased. Can be increased. As a result, the detection accuracy of the line-of-sight position can be kept high.

また、車両が日没時に走行しているとき、図10中の時刻t5から、時刻t6,t7,t8にかけて示されているように、車両周辺の明るさが徐々に低下することがある。この場合、たとえば、単位時間当たりの明るさの変化量だけでは、車両周辺の明るさの変化量が所定量を超えたか否かを適切に判断することができない虞がある。
そこで、本実施例の視線検出装置10(CPU11)は、視線位置決定テーブルを校正したときの車両周辺の明るさをRAM13に記憶することとし、視線位置決定テーブルの校正は、検出された車両周辺の明るさと、RAM13に記憶されている明るさとの差が所定量より大きくなった場合に行うこととする。
こうすれば、車両周辺の明るさが徐々に変化する場合であっても、記憶されている明るさ(すなわち、前回校正を行ったときの明るさ)と、今回検出された明るさとを比較することができるので、車両周辺の明るさの変化量が所定量を超えたか否かを適切に判断することができる。これにより、車両周辺の明るさが徐々に変化することで視線位置の検出精度が徐々に低下するような場合でも、検出精度が前回の校正により高められた状態から大きく低下する前に校正を行って、視線位置の検出精度を高く保つことができる(図10中の時刻t6,t7,t8を参照)。尚、本実施例におけるRAM13は、本発明における「記憶手段」に相当する。
Further, when the vehicle is traveling at sunset, the brightness around the vehicle may gradually decrease as shown from time t5 to time t6, t7, t8 in FIG. In this case, for example, it may not be possible to appropriately determine whether or not the amount of change in brightness around the vehicle exceeds a predetermined amount only by the amount of change in brightness per unit time.
Therefore, the line-of-sight detection device 10 (CPU 11) of the present embodiment stores the brightness around the vehicle when the line-of-sight position determination table is calibrated in the RAM 13, and the line-of-sight position determination table is calibrated by detecting the vehicle periphery. And the brightness stored in the RAM 13 is greater than a predetermined amount.
In this way, even if the brightness around the vehicle gradually changes, the stored brightness (that is, the brightness at the time of previous calibration) and the brightness detected this time are compared. Therefore, it is possible to appropriately determine whether or not the amount of change in brightness around the vehicle exceeds a predetermined amount. As a result, even when the gaze position detection accuracy gradually decreases due to the gradual change in brightness around the vehicle, calibration is performed before the detection accuracy greatly decreases from the state that was increased by the previous calibration. Thus, the detection accuracy of the line-of-sight position can be kept high (see times t6, t7, and t8 in FIG. 10). Note that the RAM 13 in this embodiment corresponds to the “storage means” in the present invention.

以上、本実施例では、視線位置を検出する方法として、運転者の目の画像に写った角膜反射像と瞳孔との位置関係を利用する方法を用いて説明した。しかし、視線位置を検出する方法としては、この方法に限られるものではない。すなわち、視線位置を検出する各種方法において、車両周辺の明るさの変化量が大きくなると、視線位置の検出精度が低下しやすくなると考えられる。そこで、視線位置を検出する各種方法において、車両周辺の明るさの変化量が所定量を超えた場合に、視線位置の検出で行われる処理を校正することとすれば、上述した実施例と同様の効果を得ることができる。尚、視線位置の検出で行われる処理の校正は、検出方法に対応した方法で行われる。たとえば、視線位置の検出を、視線位置決定テーブルではなく、所定の関係式に基づいて行っている場合、その関係式を校正する。   As described above, in this embodiment, as a method for detecting the line-of-sight position, the method using the positional relationship between the cornea reflection image reflected in the driver's eye image and the pupil has been described. However, the method for detecting the line-of-sight position is not limited to this method. That is, in various methods for detecting the line-of-sight position, it is considered that the detection accuracy of the line-of-sight position is likely to decrease when the amount of change in brightness around the vehicle increases. Therefore, in various methods for detecting the line-of-sight position, when the amount of change in the brightness around the vehicle exceeds a predetermined amount, if the processing performed in the line-of-sight position detection is calibrated, it is the same as the above-described embodiment. The effect of can be obtained. It should be noted that the calibration of the processing performed when detecting the line-of-sight position is performed by a method corresponding to the detection method. For example, when the line-of-sight position is detected based on a predetermined relational expression instead of the line-of-sight position determination table, the relational expression is calibrated.

また、本実施例では、視線位置決定テーブルを例として、「視線位置を検出する際に行われる処理」を校正するものとして説明したが、もちろん、検出して得られた結果物である「視線位置」を校正することとしてもよい。すなわち、本発明における「視線位置を校正する」とは、「視線位置を検出する際に行われる処理」を校正するのか、検出して得られた結果物である「視線位置」を校正するのかに拘らず、結果的に視線位置の検出精度が高められるように校正することを表す。尚、検出して得られた結果物である「視線位置」を校正する方法としては、注視用画像30aを表示した位置(すなわち、実際の視線位置)と、検出された視線位置とに基づいて、該視線位置が「実際の視線位置」となるように、該視線位置をオフセットする方法を例示することができる。   In the present embodiment, the gaze position determination table is taken as an example to calibrate the “processing performed when the gaze position is detected”, but of course, the “gaze line” that is a result obtained by detection is used. The “position” may be calibrated. That is, in the present invention, “calibrate the line-of-sight position” refers to whether to calibrate “the process performed when detecting the line-of-sight position” or to calibrate the “line-of-sight position” that is a result obtained by detection. Regardless of whether or not, as a result, the calibration is performed so that the detection accuracy of the line-of-sight position is improved. In addition, as a method of calibrating the “sight line position” which is a result obtained by detection, based on the position where the gaze image 30a is displayed (that is, the actual line-of-sight position) and the detected line-of-sight position. A method of offsetting the line-of-sight position so that the line-of-sight position becomes the “actual line-of-sight position” can be exemplified.

10…視線検出装置、 11…CPU、
11a…視線位置検出機能、 11b…校正機能、
11c…周辺環境検出機能、 11d…画像表示機能、
12…フラッシュメモリ、 13…RAM、
14…バス、 15…カメラ用インターフェース、
16…近赤外光カメラ、 17…近赤外光LED、
18…照度センサー用インターフェース、 19…照度センサー、
20…HUD装置用インターフェース、 21…HUD装置、
30a〜30f…注視用画像。
10 ... gaze detection device, 11 ... CPU,
11a: Line-of-sight position detection function, 11b: Calibration function,
11c: Ambient environment detection function, 11d: Image display function,
12 ... Flash memory, 13 ... RAM,
14 ... bus, 15 ... camera interface,
16 ... Near-infrared light camera, 17 ... Near-infrared light LED,
18 ... Illuminance sensor interface, 19 ... Illuminance sensor,
20 ... HUD device interface, 21 ... HUD device,
30a to 30f ... Gaze images.

Claims (2)

車両に設けられ、運転者の視線が到達する視線位置を検出する視線検出装置であって、
前記運転者の前記視線位置を検出する視線検出手段(11a)と、
前記視線検出手段によって検出された前記視線位置を校正する校正手段(11b)と、
前記車両の周辺の明るさを検出する周辺環境検出手段(11c)と
前記視線位置を校正した時の前記車両の周辺の明るさを記憶する記憶手段(13)と
を備え、
前記校正手段は、前記周辺環境検出手段で検出された前記車両の周辺の明るさと、前記記憶手段に記憶されている明るさとの差が所定量より大きくなった場合に、前記視線位置を校正する手段である視線検出装置。
A gaze detection device that is provided in a vehicle and detects a gaze position where a driver's gaze arrives,
Gaze detection means (11a) for detecting the gaze position of the driver;
Calibration means (11b) for calibrating the line-of-sight position detected by the line-of-sight detection means;
A surrounding environment detecting means (11c) for detecting brightness around the vehicle ;
Storage means (13) for storing brightness around the vehicle when the line-of-sight position is calibrated ,
The calibration means calibrates the line-of-sight position when the difference between the brightness around the vehicle detected by the surrounding environment detection means and the brightness stored in the storage means exceeds a predetermined amount. A line-of-sight detection device as means.
請求項1に記載の視線検出装置であって、
前記運転者に対して注視用画像を表示する画像表示手段(11d)を備え、
前記校正手段は、前記画像表示手段が前記注視用画像を表示した位置と、前記視線検出手段が検出した前記視線位置とに基づいて、該視線位置を校正する手段である視線検出装置。
The line-of-sight detection device according to claim 1,
Image display means (11d) for displaying a gaze image for the driver ;
The calibration means includes a position in which the image display unit displaying the gaze image, on the basis of the said sight position the line of sight detecting unit detects, sight line detection device is a means for calibrating the gaze position.
JP2013261878A 2013-12-18 2013-12-18 Gaze detection device and gaze detection method Active JP6322991B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013261878A JP6322991B2 (en) 2013-12-18 2013-12-18 Gaze detection device and gaze detection method
PCT/JP2014/005903 WO2015092977A1 (en) 2013-12-18 2014-11-26 Sight line detection device and sight line detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013261878A JP6322991B2 (en) 2013-12-18 2013-12-18 Gaze detection device and gaze detection method

Publications (2)

Publication Number Publication Date
JP2015118579A JP2015118579A (en) 2015-06-25
JP6322991B2 true JP6322991B2 (en) 2018-05-16

Family

ID=53402358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013261878A Active JP6322991B2 (en) 2013-12-18 2013-12-18 Gaze detection device and gaze detection method

Country Status (2)

Country Link
JP (1) JP6322991B2 (en)
WO (1) WO2015092977A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108243332B (en) * 2016-12-23 2024-04-12 深圳点石创新科技有限公司 Image adjusting method of vehicle-mounted head-up display system and vehicle-mounted head-up display system
JP2019100995A (en) 2017-12-08 2019-06-24 株式会社トプコン Measurement image display control unit, measurement image display control method, and program for measurement image display control
JP2020071773A (en) * 2018-11-01 2020-05-07 アイシン精機株式会社 Line-of-sight detection apparatus

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0735543A (en) * 1993-07-20 1995-02-07 Nissan Motor Co Ltd Eye point measuring device for vehicle
JPH09212082A (en) * 1996-01-30 1997-08-15 Nissan Motor Co Ltd Visual line input device
US6927694B1 (en) * 2001-08-20 2005-08-09 Research Foundation Of The University Of Central Florida Algorithm for monitoring head/eye motion for driver alertness with one camera
JP2004012607A (en) * 2002-06-04 2004-01-15 Canon Inc Optical equipment with function to detect line of sight and camera
JP4052081B2 (en) * 2002-10-10 2008-02-27 日産自動車株式会社 Gaze direction detection device
JP4252938B2 (en) * 2004-07-07 2009-04-08 株式会社デンソー Vehicle cabin lighting system
JP2009015533A (en) * 2007-07-03 2009-01-22 Toyota Motor Corp Gaze direction detecting device

Also Published As

Publication number Publication date
JP2015118579A (en) 2015-06-25
WO2015092977A1 (en) 2015-06-25

Similar Documents

Publication Publication Date Title
US10795166B2 (en) Head up display system and control method thereof
US10510276B1 (en) Apparatus and method for controlling a display of a vehicle
US9463743B2 (en) Vehicle information display device and vehicle information display method
US20170166131A1 (en) Signal processing device, signal processing method, and monitoring system
JP5092776B2 (en) Gaze direction detection device and gaze direction detection method
US10706585B2 (en) Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program
US10306154B2 (en) Image display device
JP2010018201A (en) Driver assistant device, driver assistant method, and driver assistant processing program
JP6152833B2 (en) Vehicle driving sense adjustment device
JP2016055801A (en) On-vehicle display device
JP6482975B2 (en) Image generating apparatus and image generating method
JP2017004117A (en) Line-of-sight detection apparatus and line-of-sight detection method
JP6322991B2 (en) Gaze detection device and gaze detection method
US10222613B2 (en) Display apparatus for a vehicle
JP2018022958A (en) Vehicle display controller and vehicle monitor system
JP2009248812A (en) Driving assistance device
WO2018051685A1 (en) Luminance control device, luminance control system, and luminance control method
JP7268526B2 (en) VEHICLE DISPLAY CONTROL DEVICE AND VEHICLE DISPLAY SYSTEM
KR101825450B1 (en) Vehicle control apparatus and method thereof
KR20170056100A (en) Objects displaying apparatus of head up display and method thereof
JP6512080B2 (en) Display correction device
JP6136891B2 (en) Gaze detection device and gaze detection method
JP7293990B2 (en) Vehicle display control device, vehicle display control method, and program
JP2019095892A (en) Vehicle drive supporting device and vehicle drive supporting program
JP6405930B2 (en) In-vehicle display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R151 Written notification of patent or utility model registration

Ref document number: 6322991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151