JP6322991B2 - Gaze detection device and gaze detection method - Google Patents
Gaze detection device and gaze detection method Download PDFInfo
- Publication number
- JP6322991B2 JP6322991B2 JP2013261878A JP2013261878A JP6322991B2 JP 6322991 B2 JP6322991 B2 JP 6322991B2 JP 2013261878 A JP2013261878 A JP 2013261878A JP 2013261878 A JP2013261878 A JP 2013261878A JP 6322991 B2 JP6322991 B2 JP 6322991B2
- Authority
- JP
- Japan
- Prior art keywords
- line
- sight
- gaze
- image
- driver
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
- G01C21/3664—Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Description
本発明は、運転者の視線が到達する視線位置を検出する技術に関する。 The present invention relates to a technique for detecting a line-of-sight position where a driver's line of sight arrives.
運転者の顔画像を解析することによって、運転者の視線位置を検出する技術が知られている。この技術を用いれば、運転者の脇見運転を監視することが可能である。更に、視線位置の検出精度が十分に高ければ、車両に搭載された各種の機器(カーナビなど)を視線で操作することも可能となる(たとえば特許文献1)。 A technique for detecting a driver's line-of-sight position by analyzing a driver's face image is known. If this technique is used, it is possible to monitor the driver's aside driving. Furthermore, if the detection accuracy of the line-of-sight position is sufficiently high, various devices (such as a car navigation system) mounted on the vehicle can be operated with the line of sight (for example, Patent Document 1).
各種の機器を視線で操作することができれば、運転者が運転中に手を伸ばして機器を操作する必要がなくなるので、運転者の負担を軽減することが可能と考えられる。その一方で、視線位置の検出精度が低下すると、運転者の意図とは異なる操作が行われてしまう。そこで、運転中にたとえば前方車両を検出したら、その前方車両を運転者が注視しているものとして、検出した視線位置が前方車両の位置となるように、視線位置を校正する技術が提案されている(特許文献2)。 If various devices can be operated with a line of sight, it is not necessary for the driver to reach out and operate the device while driving, so the burden on the driver can be reduced. On the other hand, when the detection accuracy of the line-of-sight position decreases, an operation different from the driver's intention is performed. Therefore, for example, when a forward vehicle is detected during driving, a technique has been proposed that calibrates the line-of-sight position so that the detected line-of-sight position becomes the position of the vehicle ahead, assuming that the driver is gazing at the vehicle ahead. (Patent Document 2).
しかし、提案されている技術では、視線位置の検出精度が低下していても前方車両が検出されないときは校正ができないので、視線位置の検出精度を高く保つことができないという問題があった。 However, the proposed technique has a problem that even if the detection accuracy of the line-of-sight position is lowered, calibration cannot be performed when the preceding vehicle is not detected, and thus the detection accuracy of the line-of-sight position cannot be kept high.
この発明は、上述した問題に鑑みてなされたものであり、視線位置の検出精度を高く保つことが可能な技術の提供を目的とする。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique capable of maintaining high eye-gaze position detection accuracy.
上述した問題を解決するために、本発明の視線検出装置および視線検出方法は、視線位置を校正すると、校正したときの車両周辺の明るさを記憶しておく。そして、車両周辺の明るさを検出して、車両周辺の明るさと、記憶されている明るさとの差が所定量より大きくなった場合に、視線検出手段によって検出された視線位置を校正する。 In order to solve the above-described problem, the line-of-sight detection device and the line-of-sight detection method of the present invention store the brightness around the vehicle when the line-of-sight position is calibrated. Then, the brightness around the vehicle is detected, and the line-of-sight position detected by the line-of-sight detection means is calibrated when the difference between the brightness around the vehicle and the stored brightness exceeds a predetermined amount .
車両周辺の明るさは、トンネルの出入り時のように急変する場合だけでなく、時間の経過とともに徐々に変化する場合があり、何れの場合でも、視線位置の検出精度が低下しやすくなると考えられる。そこで、視線位置を校正した時の車両周辺の明るさを記憶しておき、その時の明るさから、車両周辺の明るさが所定量以上変化した場合に校正することとすれば、明るさが急変する場合にも、あるいは時間の経過と共に徐々に変化する場合にも、視線位置の検出精度が低下したタイミングで校正を行って検出精度を高めることができる。その結果、視線位置の検出精度を高く保つことができる。 The brightness around the vehicle may change not only suddenly as when entering and exiting a tunnel, but also gradually change over time. In either case, the detection accuracy of the line of sight is likely to decrease. . Therefore, if the brightness around the vehicle when the line-of-sight position is calibrated is stored, and the brightness around the vehicle changes by a predetermined amount or more from the brightness at that time, the brightness will change suddenly. In the case where the detection accuracy is changed or gradually changes with the passage of time, the detection accuracy can be improved by performing calibration at the timing when the detection accuracy of the line-of-sight position is lowered. As a result, the detection accuracy of the line-of-sight position can be kept high.
また、上述した本発明の視線検出装置においては、次のようにしてもよい。運転者に対して注視用画像を表示して、この注視用画像を表示した位置と、視線検出手段が検出した視線位置とに基づいて、視線位置を校正する。 Further, in the above-described line-of-sight detection device of the present invention, the following may be performed. The gaze image is displayed to the driver, and the gaze position is calibrated based on the position where the gaze image is displayed and the gaze position detected by the gaze detection means.
注視用画像を表示すれば、運転者はその注視用画像に視線を移動させると考えて良い。従って、注視用画像を表示すれば、必要となったタイミングで視線位置を校正することができる。その結果、視線位置の検出精度を確実に高く保つことができる。 If the gaze image is displayed, the driver may think that the line of sight is moved to the gaze image. Therefore, if the gaze image is displayed, the line-of-sight position can be calibrated at the required timing. As a result, the detection accuracy of the line-of-sight position can be reliably kept high.
以下では、上述した本願発明の内容を明確にするために実施例について説明する。本実施例の視線検出装置は、車両に搭載され、車両の運転者の視線が到達する視線位置を検出する装置である。
A.装置構成 :
図1(a)には、本実施例の視線検出装置10の構成が示されている。図示されるように、視線検出装置10は、CPU11を中心として、CPU11が実行するプログラム等が記憶されているフラッシュメモリ12や、CPU11の作業領域であるRAM13などが、バス14を介して接続されている。CPU11は、各種のプログラムやプログラムの実行に必要なデータをフラッシュメモリ12から読み出し、視線位置を検出する処理を行う。
Hereinafter, examples will be described in order to clarify the contents of the present invention described above. The line-of-sight detection apparatus according to the present embodiment is an apparatus that is mounted on a vehicle and detects a line-of-sight position where the line of sight of the driver of the vehicle reaches.
A. Device configuration :
FIG. 1A shows the configuration of the line-of-
視線位置を検出する方法としては、各種の方法を採用することができるが、本実施例では、運転者の目の画像に写った角膜反射像と瞳孔との位置関係に基づいて視線位置を検出する方法(詳細は後述)を採用することとする。
このような方法を採用することに対応して、バス14には、近赤外光を用いて撮像する近赤外光カメラ16や、近赤外光照射用のLED(近赤外光LED)17が、カメラ用インターフェース15を介して接続されている。近赤外光カメラ16および近赤外光LED17は、運転者を撮像すべく、運転席の前方に運転席側を向けて設けられている。CPU11は、近赤外光カメラ16および近赤外光LED17を制御することで、近赤外光を照射した状態で撮像された運転者の目の画像を取得する。
Various methods can be adopted as a method for detecting the line-of-sight position. In this embodiment, the line-of-sight position is detected based on the positional relationship between the cornea reflection image captured in the driver's eye image and the pupil. This method (details will be described later) is adopted.
Corresponding to adopting such a method, the
また、バス14には、照度センサー用インターフェース18を介して、照度センサー19が接続されており、CPU11は、照度センサー19を用いて車両周辺の明るさを検出する。さらに、バス14には、HUD装置用インターフェース20を介して、HUD装置(ヘッドアップディスプレイ装置)21が接続されている。HUD装置21は、CPU11からの指示に基づいて、車両のフロントガラス(以下「ウィンドシールド」)に所定の画像を投影することが可能である。
An
図1(b)には、CPU11が有する機能を示すブロック図が示されている。これらの機能は、CPU11がフラッシュメモリ12に記憶されているプログラムを実行することによって実現される。図1(b)に示されるように、CPU11は、視線位置の検出処理を行う視線位置検出機能11aと、詳しくは後述するが、検出処理によって検出された視線位置の校正を行う校正機能11bと、車両周辺の明るさを検出する周辺環境検出機能11cと、運転者に対して所定の画像を表示する画像表示機能11dとを有する。
尚、本実施例の視線位置検出機能11aは、本発明の「視線検出手段」に相当し、本実施例の校正機能11bは、本発明の「校正手段」に相当し、本実施例の周辺環境検出機能11cは、本発明の「周辺環境検出手段」に相当し、本実施例の画像表示機能11dは、本発明の「画像表示手段」に相当する。
FIG. 1B is a block diagram illustrating functions of the
The line-of-sight
B.視線位置検出処理 :
図2には、本実施例のCPU11によって実行される視線位置検出処理のフローチャートが示されている。視線位置検出処理では、運転者の視線位置を検出するための処理が行われる。また、この処理は、所定の条件が成立した場合(たとえば、車両のエンジンが起動された場合や、運転者によって所定の開始操作が行われた場合)に開始される。
CPU11は、視線位置検出処理を開始すると、先ず、近赤外光カメラ16および近赤外光LED17を制御することで、近赤外光を照射した状態で運転者の目を撮像して、撮像された目の画像をRAM13の所定アドレスに記憶する(S100)。
B. Gaze position detection processing:
FIG. 2 shows a flowchart of the eye gaze position detection process executed by the
When starting the line-of-sight position detection process, the
続いて、CPU11は、S100の処理で撮像された目の画像から、エッジ検出等の周知の方法を用いて、「瞳孔」の中心、および「角膜反射像」の中心を検出する(S102)。「角膜反射像」とは、近赤外光LED17から照射された光が角膜で反射したもの(いわゆるプルキンエ像)であり、角膜の部分に明るく写っている。
図3には、運転者の右目を撮像した画像に写った「瞳孔」および「角膜反射像」が例示されている。このうち、図3(a)には、視線が正面に向けられたときに撮像した画像が示されており、図示された例では、「瞳孔」の真下に「角膜反射像」が写っている。CPU11は、このようにして目の画像に写った「瞳孔」および「角膜反射像」の中心を検出する。
Subsequently, the
FIG. 3 illustrates a “pupil” and a “corneal reflection image” in an image obtained by imaging the right eye of the driver. Among these, FIG. 3A shows an image captured when the line of sight is directed to the front. In the illustrated example, a “corneal reflection image” is shown directly below the “pupil”. . The
ここで、目の画像に写った「瞳孔」と「角膜反射像」との位置関係は、視線位置に応じて変化する。たとえば、大まかに説明すると、図3(a)に例示したように、視線が正面に向けられたときに瞳孔が角膜反射像の「真上」に位置していたとしても、視線が左側に向けられると、図3(b)に例示するように、瞳孔が角膜反射像の「右上」に位置することとなる。また、視線が右側に向けられると、図3(c)に例示するように、瞳孔が角膜反射像の「左上」に位置することとなる。
このように視線位置に応じて「角膜反射像」と「瞳孔」との位置関係が変化するので、「角膜反射像の中心に対する相対的な瞳孔の中心の位置」に基づき視線位置を検出することができる。
Here, the positional relationship between the “pupil” reflected in the eye image and the “corneal reflection image” changes according to the line-of-sight position. For example, roughly speaking, as illustrated in FIG. 3A, even if the pupil is positioned “directly above” the cornea reflection image when the line of sight is directed to the front, the line of sight is directed to the left side. Then, as illustrated in FIG. 3B, the pupil is positioned on the “upper right” of the cornea reflection image. When the line of sight is directed to the right side, the pupil is positioned “upper left” of the cornea reflection image as illustrated in FIG.
Since the positional relationship between the “corneal reflection image” and the “pupil” changes in accordance with the line-of-sight position in this way, the line-of-sight position is detected based on “the position of the center of the pupil relative to the center of the cornea reflection image”. Can do.
そこでCPU11は、S102の処理で「瞳孔」および「角膜反射像」の中心を検出したら、続いて、「角膜反射像の中心に対する相対的な瞳孔の中心の位置」(以下「瞳孔相対位置」)を検出する(S104)。尚、瞳孔相対位置は、図4に示されるように、角膜反射像の中心から瞳孔の中心までの水平方向(x方向)の距離、および垂直方向(y方向)の距離で表される。また、これらの距離は、画素数で表される。
Therefore, when the
こうして、瞳孔相対位置を検出したら(S104)、CPU11は、視線位置決定テーブルを参照して、運転者の視線位置を検出する(S106)。視線位置決定テーブルには、図5に例示するように、瞳孔相対位置が取り得る全ての値(ax、ay)に対して、運転者の視線位置(bx、by)が設定されている。CPU11は、この視線位置決定テーブルを参照して、上述のS104の処理で得られた瞳孔相対位置に対応する視線位置を検出する。
When the pupil relative position is thus detected (S104), the
尚、視線位置決定テーブルは、車両のエンジンが起動された後など、視線位置検出処理を開始する前に、次のようにして生成し、フラッシュメモリ12に予め記憶しておく。先ず、運転者に所定の位置を注視させた状態で(たとえば、HUD装置21が所定の位置に表示した画像を注視させた状態で)運転者の目を撮像し、上述と同様の方法で瞳孔相対位置を検出する。そして、注視させた位置(視線位置)と、得られた瞳孔相対位置とを対応付けて記憶する。このような処理を、注視させる位置を変更しながら複数回(たとえば、5〜10回)繰り返す。また、注視させていない位置(視線位置)については、周知の補間処理や捕外処理等を行うことで瞳孔相対位置を演算する。これにより、「瞳孔相対位置」と「視線位置」との対応関係、すなわち視線位置決定テーブルが生成される。
The line-of-sight position determination table is generated as follows and stored in advance in the
このように、本実施例の視線検出装置10では、目の画像から得られた瞳孔相対位置に基づいて視線位置を検出する。CPU11は、こうして検出された視線位置に関するデータを、各種の運転支援装置(図示省略)からの求めに応じて該装置へ出力する。これにより、運転者の視線位置を利用した各種の運転支援が行われる。
たとえば、運転者の視線位置が、操舵角センサー(図示省略)で検出された車両の進行方向から大きく外れている場合、運転者に警告することで脇見運転を防止することが行われる。あるいは、カーナビ等の機器を、運転者の視線の動きで操作することが行われる。この場合は、指で操作するのに比べて身体的な負担を軽減することができ、手が塞がっている状況でも機器の操作が可能となる。
As described above, the line-of-
For example, when the driver's line-of-sight position is greatly deviated from the traveling direction of the vehicle detected by a steering angle sensor (not shown), the driver is warned to prevent the driver from looking aside. Alternatively, a device such as a car navigation system is operated by the movement of the driver's line of sight. In this case, the physical burden can be reduced as compared with the case of operating with a finger, and the device can be operated even when the hand is closed.
以上のように、視線位置を検出するための一連の処理を行ったら(S100〜S106)、CPU11は、校正処理を行う(図2のS200)。この校正処理では、視線位置の検出精度が低下したと推定された場合に、次回からの視線位置の検出精度を高めるべく、上述した視線位置決定テーブルを校正する。
As described above, after performing a series of processes for detecting the line-of-sight position (S100 to S106), the
C.校正処理 :
図6には、CPU11によって行われる校正処理のフローチャートが示されている。CPU11は、校正処理を開始すると、照度センサー19を用いて車両周辺の明るさを検出する(S202)。そして、前回校正を行った時からの車両周辺の明るさの変化量が所定量を超えたか否かを判断する(S204)。詳しくは後述するが、本実施例の視線検出装置10では、視線位置決定テーブルの校正を行うたびに、車両周辺の明るさをRAM13に記憶する。そこで、S204の処理では、前回校正を行ったときにRAM13に記憶された明るさと、今回検出された明るさとを比較し、これらの明るさの差が所定量より大きくなったか否かを判断する(S204)。尚、所定量としては、数100〜数1000lxを例示することができる。
C. Calibration process:
FIG. 6 shows a flowchart of the calibration process performed by the
ここで、車両周辺の明るさが変化すると、次のような理由により、視線位置の検出精度が低下することがある。すなわち、車両周辺の明るさが変化すると、車室内の運転者の目に入る光の明るさも変化するので、運転者の目の瞳孔径の大きさが変化する。すると、実際の視線位置が変化していなくても、目の画像から得られる「瞳孔相対位置」が変化することがある。「瞳孔相対位置」には、該「瞳孔相対位置」に応じた視線位置が対応付けられているので、瞳孔相対位置が異なれば、当然ながら、対応する視線位置は異なったものとなる。このように、車両周辺の明るさが変化すると、実際の視線位置が変化していなくても目の画像から得られる「瞳孔相対位置」が変化し、ひいては該「瞳孔相対位置」に基づいて検出される視線位置が、実際の視線位置からずれてしまうことがある。 Here, when the brightness around the vehicle changes, the detection accuracy of the line-of-sight position may decrease for the following reason. That is, when the brightness around the vehicle changes, the brightness of light entering the eyes of the driver in the passenger compartment also changes, so the pupil diameter of the driver's eyes changes. Then, even if the actual line-of-sight position does not change, the “pupil relative position” obtained from the eye image may change. Since the “pupil relative position” is associated with the line-of-sight position corresponding to the “pupil relative position”, the corresponding line-of-sight position is naturally different if the pupil relative position is different. As described above, when the brightness around the vehicle changes, the “pupil relative position” obtained from the eye image changes even if the actual line-of-sight position does not change, and is thus detected based on the “pupil relative position”. The sight line position may be shifted from the actual sight line position.
したがって、上述したS204の判断処理で、車両周辺の明るさの変化量が所定量を超えたと判断された場合は(S204:yes)、視線位置の検出精度が低下したと推定することができる。そこで、CPU11は、車両周辺の明るさの変化量が所定量を超えたと判断したら(S204:yes)、S202の処理で検出した車両周辺の明るさを「今回校正時の明るさ」としてRAM13に記憶した後(S206)、視線位置の検出精度を高めるべく、次のようにして視線位置決定テーブルの校正を行う。
Therefore, if it is determined in the determination process of S204 described above that the amount of change in brightness around the vehicle has exceeded a predetermined amount (S204: yes), it can be estimated that the detection accuracy of the line-of-sight position has decreased. Therefore, when the
先ず、CPU11は、所定の制御信号をHUD装置21に出力することで、運転者の前方に「注視用画像30a」を表示する(S208)。図7には、運転者の前方のウィンドシールドに注視用画像30aが表示された様子が例示されている。尚、図7は、運転席から車両前方を見たときの様子を示しており、矩形形状の破線は、HUD装置21によるウィンドシールド上での画像表示領域を表している。そして、図示された例では、画像表示領域の右下部分に注視用画像30aが表示されている。HUD装置21は、CPU11からの制御信号に基づいて、普段表示する画像よりも目立つような態様で(たとえば、点滅させたり輝度を高くしたりして)注視用画像30aを表示する。こうして運転者の前方に注視用画像30aを表示すると、前方を見ながら運転する運転者は、その注視用画像30aを注視するものと考えられる。
First, the
そこで、CPU11は、運転者が注視用画像30aを注視している状態での瞳孔相対位置、すなわち注視用画像30aを表示したときの瞳孔相対位置を検出する(S210)。瞳孔相対位置の検出は、図2を用いて前述した視線位置検出処理と同様の方法で行う。すなわち、近赤外光を照射した状態で運転者の目を撮像し、目の画像から検出された瞳孔および角膜反射像の中心に基づいて瞳孔相対位置を検出する。
Therefore, the
こうして、注視用画像30aを表示したときの「瞳孔相対位置」を検出したら(S210)、CPU11は、注視用画像30aを表示した位置、および注視用画像30aを表示したときに得られた「瞳孔相対位置」に基づいて、視線位置決定テーブルを校正する(S212)。すなわち、今回得られた「瞳孔相対位置」は、運転者が注視用画像30aを注視している状態での「瞳孔相対位置」であると推定できるので、該「瞳孔相対位置」が検出された場合に、「注視用画像30aを表示した位置」が視線位置として検出されるように、視線位置決定テーブルにおける該「瞳孔相対位置」に対応する視線位置を、「注視用画像30aを表示した位置」に対応する視線位置に更新する。
たとえば、図8に示すように、今回得られた「瞳孔相対位置」(注視用画像30aを表示したときに得られた「瞳孔相対位置」)の値が(120,250)であった場合、この瞳孔相対位置(120、250)に対応する視線位置を、「注視用画像30aを表示した位置」に対応する視線位置(bx80、by80)に更新する。
Thus, when the “pupil relative position” when the
For example, as shown in FIG. 8, when the value of “pupil relative position” obtained this time (“pupil relative position” obtained when displaying the
こうして、注視用画像30aを表示したときに得られた「瞳孔相対位置」に対応する視線位置を更新したら、これに連動して、その他の「瞳孔相対位置」に対応する視線位置も、周知の補間処理や捕外処理等を行うことによって更新する。こうして視線位置決定テーブルを校正することで、視線位置検出処理で検出される視線位置と実際の視線位置とのズレが解消され、視線位置の検出精度が高められる。
尚、本実施例では、視線位置決定テーブルを校正することにより、視線位置の検出精度が高められる。したがって、本実施例において「視線位置決定テーブルを校正する」ことは、本発明における「視線位置を校正する」ことに相当する。
Thus, when the line-of-sight position corresponding to the “pupil relative position” obtained when the
In the present embodiment, the accuracy of detecting the line-of-sight position can be improved by calibrating the line-of-sight position determination table. Therefore, in the present embodiment, “calibrating the line-of-sight position determination table” corresponds to “calibrating the line-of-sight position” in the present invention.
尚、視線位置決定テーブルを上述のようにして校正するのではなく、視線位置決定テーブルを生成し直すこととしてもよい。すなわち、図9に示されるように、S208の処理で説明した注視用画像30aを表示する処理を、表示位置を変更しながら複数回繰り返す。図9に示す例では、HUD装置21の画像表示領域の5カ所(四隅、および中央の部分)に注視用画像30b〜30fを順次表示する。運転者は、順次表示された注視用画像30b〜30fを注視すると考えられるので、CPU11は、注視用画像30b〜30fを表示したときに撮像した目の画像から、瞳孔相対位置を検出する。そして、注視用画像30b〜30fの表示位置(視線位置)と、検出された瞳孔相対位置とを対応付けて記憶する。また、注視用画像30b〜30fを表示していない位置(視線位置)については、周知の補間処理や捕外処理等を行うことによって瞳孔相対位置を演算する。
Note that, instead of calibrating the line-of-sight position determination table as described above, the line-of-sight position determination table may be regenerated. That is, as shown in FIG. 9, the process of displaying the
こうして、視線位置決定テーブルを生成し直すと、視線位置検出処理で検出される視線位置と実際の視線位置とのズレが確実に解消され、視線位置の検出精度を確実に高めることができる。尚、このように視線位置決定テーブルを生成し直した場合は、「視線位置決定テーブルを生成し直す」ことが、本発明における「視線位置を校正する」ことに相当する。 In this way, when the line-of-sight position determination table is regenerated, the deviation between the line-of-sight position detected by the line-of-sight position detection process and the actual line-of-sight position is reliably eliminated, and the line-of-sight position detection accuracy can be reliably increased. When the line-of-sight position determination table is regenerated in this way, “re-generation of the line-of-sight position determination table” corresponds to “calibrate the line-of-sight position” in the present invention.
以上に説明したように、本実施例の視線検出装置10は、視線位置決定テーブルの校正(あるいは生成し直し)を行うに際し、運転者に対して注視用画像30aを表示する。運転者に対して注視用画像30aを表示する処理は、HUD装置21を用いていつでも行うことができる。また、前方を見ながら運転する運転者は、運転者に対して表示された(運転者の前方に表示された)注視用画像30aを注視すると考えられる。これらのことから、運転者に対して注視用画像30aを表示する処理により、所望のタイミングで運転者の「実際の視線位置」を取得することができる。
そこで、本実施例の視線検出装置10では、前述したように、運転者に対して注視用画像30aを表示して、その注視用画像30aを表示した位置と、視線位置検出処理(と同様の方法)で検出した瞳孔相対位置とに基づいて、視線位置決定テーブルを校正する。こうすれば、車両周辺の明るさの変化量が所定量を超えたタイミングを逃すことなく、運転者の「実際の視線位置」を取得して、その「実際の視線位置」が視線位置検出処理によって検出されるように視線位置決定テーブルを校正することができる。その結果、視線位置の検出精度を確実に高く保つことができる。
尚、本実施例では、注視用画像30aを表示した位置と、視線位置検出処理(と同様の方法)で検出した「瞳孔相対位置」とに基づいて、視線位置決定テーブルを校正したが、この「瞳孔相対位置」は、視線位置検出処理によって検出される「視線位置」に対応するものである。したがって、本実施例における「注視用画像30aを表示した位置と、視線位置検出処理(と同様の方法)で検出した「瞳孔相対位置」とに基づいて、視線位置決定テーブルを校正する」ことは、本発明における「注視用画像を表示した位置と、視線検出手段が検出した「視線位置」とに基づいて、視線位置を校正する」ことに相当する。
As described above, the line-of-
Therefore, as described above, in the line-of-
In this embodiment, the gaze position determination table is calibrated based on the position where the
また、前方を見ながら運転する運転者は、運転者に対して表示された(運転者の前方に表示された)注視用画像30aを、視線を大きく動かすことなく無意識のうちに注視するものと考えられる。このため、運転者の運転を妨げることがないので、視線位置決定テーブルの校正を安全に行うことができる。
In addition, a driver who drives while looking forward looks at the
さらに、上述した説明では、運転者を所定の位置に注視させるために、注視用画像30aを表示することとしたが、注視用画像30aのように専用の画像を用いるのではなく、HUD装置21によって普段から表示される画像を用いることとしてもよい。なかでも、運転者に警告するための警告画像(たとえば、前方に障害物を検出したことを警告する警告画像や、道路標識を提示して注意を促す警告画像)は、一般的に、運転者の注意を引き付けるような表示態様が採用されている。このため、警告画像は、注視用画像30aと同様に、運転者を所定の位置に注視させることができる。
Further, in the above description, the
そこで、CPU11は、車両周辺の明るさの変化量が所定量を超えた場合、視線位置決定テーブルの校正を、警告画像の表示位置に基づいて行うこととしてもよい。このように、専用の画像(注視用画像30a)ではなく、普段から表示される警告画像を利用することとすれば、運転者に対して表示される画像は普段と何ら変わることがない。このため、運転者の運転を妨げることなく、視線位置決定テーブルの校正をより安全に行うことができる。
Therefore, the
また、前述したように、本実施例の視線検出装置10では、車両周辺の明るさの変化量が所定量を超えた場合に視線位置の検出精度が低下したと推定して、視線位置決定テーブルの校正を行うこととした。以下では、この点について補足して説明する。
Further, as described above, in the line-of-
図10には、本実施例における「車両周辺の明るさ」と「視線位置の検出精度」との関係が概念的に示されている。図10中の上側には、車両周辺の明るさが示されており、図10中の下側には、視線位置の検出精度が示されている。 FIG. 10 conceptually shows the relationship between “brightness around the vehicle” and “detection accuracy of the line-of-sight position” in the present embodiment. The upper side in FIG. 10 shows the brightness around the vehicle, and the lower side in FIG. 10 shows the detection accuracy of the line-of-sight position.
車両が日中に走行しているとき、図10中の時刻t1で示されるように、トンネル内に進入することで車両周辺の明るさが大きく低下することがある。これにより、車室内の運転者の目に入る光の明るさが低下すると、実際には視線位置が変化していなくても、目の画像から得られる瞳孔相対位置が変化してしまい、視線位置の検出精度が低下することがある。そこで、CPU11は、車両周辺の明るさの変化量が所定量を超えた(所定量を超えて低下した)と判断したら、視線位置決定テーブルの校正を行う。これにより、図10中の時刻t2で示されるように、視線位置の検出精度を高めることができる。
When the vehicle is traveling during the day, as shown at time t1 in FIG. 10, the brightness around the vehicle may be greatly reduced by entering the tunnel. As a result, when the brightness of light entering the eyes of the driver in the passenger compartment decreases, the relative position of the pupil obtained from the eye image changes even if the line-of-sight position does not actually change. The detection accuracy may be reduced. Therefore, if the
そして、図10中の時刻t3で示されるように、いずれ、車両がトンネルの外に出ると、車両周辺の明るさが元の明るさに戻り、運転者の目に入る光の明るさも元に戻る。すると、実際には視線位置が変化していなくても、瞳孔相対位置が変化してしまい、視線位置の検出精度が低下することがある。そこで、CPU11は、車両周辺の明るさの変化量が所定量を超えた(所定量を超えて上昇した)と判断したら、視線位置決定テーブルの校正を行う。これにより、図10中の時刻t4で示されるように、視線位置の検出精度を高めることができる。
Then, as shown at time t3 in FIG. 10, when the vehicle goes outside the tunnel, the brightness around the vehicle returns to the original brightness, and the brightness of the light entering the driver's eyes is also based on the brightness. Return. Then, even if the line-of-sight position does not actually change, the pupil relative position changes, and the line-of-sight position detection accuracy may decrease. Therefore, when the
このように、車両周辺の明るさの変化量が所定量を超えた場合に視線位置決定テーブルの校正を行うこととすれば、視線位置の検出精度が低下したタイミングで校正を行って検出精度を高めることができる。この結果、視線位置の検出精度を高く保つことができる。 As described above, if the gaze position determination table is calibrated when the amount of change in brightness around the vehicle exceeds a predetermined amount, calibration is performed at the timing when the gaze position detection accuracy is reduced, and the detection accuracy is increased. Can be increased. As a result, the detection accuracy of the line-of-sight position can be kept high.
また、車両が日没時に走行しているとき、図10中の時刻t5から、時刻t6,t7,t8にかけて示されているように、車両周辺の明るさが徐々に低下することがある。この場合、たとえば、単位時間当たりの明るさの変化量だけでは、車両周辺の明るさの変化量が所定量を超えたか否かを適切に判断することができない虞がある。
そこで、本実施例の視線検出装置10(CPU11)は、視線位置決定テーブルを校正したときの車両周辺の明るさをRAM13に記憶することとし、視線位置決定テーブルの校正は、検出された車両周辺の明るさと、RAM13に記憶されている明るさとの差が所定量より大きくなった場合に行うこととする。
こうすれば、車両周辺の明るさが徐々に変化する場合であっても、記憶されている明るさ(すなわち、前回校正を行ったときの明るさ)と、今回検出された明るさとを比較することができるので、車両周辺の明るさの変化量が所定量を超えたか否かを適切に判断することができる。これにより、車両周辺の明るさが徐々に変化することで視線位置の検出精度が徐々に低下するような場合でも、検出精度が前回の校正により高められた状態から大きく低下する前に校正を行って、視線位置の検出精度を高く保つことができる(図10中の時刻t6,t7,t8を参照)。尚、本実施例におけるRAM13は、本発明における「記憶手段」に相当する。
Further, when the vehicle is traveling at sunset, the brightness around the vehicle may gradually decrease as shown from time t5 to time t6, t7, t8 in FIG. In this case, for example, it may not be possible to appropriately determine whether or not the amount of change in brightness around the vehicle exceeds a predetermined amount only by the amount of change in brightness per unit time.
Therefore, the line-of-sight detection device 10 (CPU 11) of the present embodiment stores the brightness around the vehicle when the line-of-sight position determination table is calibrated in the
In this way, even if the brightness around the vehicle gradually changes, the stored brightness (that is, the brightness at the time of previous calibration) and the brightness detected this time are compared. Therefore, it is possible to appropriately determine whether or not the amount of change in brightness around the vehicle exceeds a predetermined amount. As a result, even when the gaze position detection accuracy gradually decreases due to the gradual change in brightness around the vehicle, calibration is performed before the detection accuracy greatly decreases from the state that was increased by the previous calibration. Thus, the detection accuracy of the line-of-sight position can be kept high (see times t6, t7, and t8 in FIG. 10). Note that the
以上、本実施例では、視線位置を検出する方法として、運転者の目の画像に写った角膜反射像と瞳孔との位置関係を利用する方法を用いて説明した。しかし、視線位置を検出する方法としては、この方法に限られるものではない。すなわち、視線位置を検出する各種方法において、車両周辺の明るさの変化量が大きくなると、視線位置の検出精度が低下しやすくなると考えられる。そこで、視線位置を検出する各種方法において、車両周辺の明るさの変化量が所定量を超えた場合に、視線位置の検出で行われる処理を校正することとすれば、上述した実施例と同様の効果を得ることができる。尚、視線位置の検出で行われる処理の校正は、検出方法に対応した方法で行われる。たとえば、視線位置の検出を、視線位置決定テーブルではなく、所定の関係式に基づいて行っている場合、その関係式を校正する。 As described above, in this embodiment, as a method for detecting the line-of-sight position, the method using the positional relationship between the cornea reflection image reflected in the driver's eye image and the pupil has been described. However, the method for detecting the line-of-sight position is not limited to this method. That is, in various methods for detecting the line-of-sight position, it is considered that the detection accuracy of the line-of-sight position is likely to decrease when the amount of change in brightness around the vehicle increases. Therefore, in various methods for detecting the line-of-sight position, when the amount of change in the brightness around the vehicle exceeds a predetermined amount, if the processing performed in the line-of-sight position detection is calibrated, it is the same as the above-described embodiment. The effect of can be obtained. It should be noted that the calibration of the processing performed when detecting the line-of-sight position is performed by a method corresponding to the detection method. For example, when the line-of-sight position is detected based on a predetermined relational expression instead of the line-of-sight position determination table, the relational expression is calibrated.
また、本実施例では、視線位置決定テーブルを例として、「視線位置を検出する際に行われる処理」を校正するものとして説明したが、もちろん、検出して得られた結果物である「視線位置」を校正することとしてもよい。すなわち、本発明における「視線位置を校正する」とは、「視線位置を検出する際に行われる処理」を校正するのか、検出して得られた結果物である「視線位置」を校正するのかに拘らず、結果的に視線位置の検出精度が高められるように校正することを表す。尚、検出して得られた結果物である「視線位置」を校正する方法としては、注視用画像30aを表示した位置(すなわち、実際の視線位置)と、検出された視線位置とに基づいて、該視線位置が「実際の視線位置」となるように、該視線位置をオフセットする方法を例示することができる。
In the present embodiment, the gaze position determination table is taken as an example to calibrate the “processing performed when the gaze position is detected”, but of course, the “gaze line” that is a result obtained by detection is used. The “position” may be calibrated. That is, in the present invention, “calibrate the line-of-sight position” refers to whether to calibrate “the process performed when detecting the line-of-sight position” or to calibrate the “line-of-sight position” that is a result obtained by detection. Regardless of whether or not, as a result, the calibration is performed so that the detection accuracy of the line-of-sight position is improved. In addition, as a method of calibrating the “sight line position” which is a result obtained by detection, based on the position where the
10…視線検出装置、 11…CPU、
11a…視線位置検出機能、 11b…校正機能、
11c…周辺環境検出機能、 11d…画像表示機能、
12…フラッシュメモリ、 13…RAM、
14…バス、 15…カメラ用インターフェース、
16…近赤外光カメラ、 17…近赤外光LED、
18…照度センサー用インターフェース、 19…照度センサー、
20…HUD装置用インターフェース、 21…HUD装置、
30a〜30f…注視用画像。
10 ... gaze detection device, 11 ... CPU,
11a: Line-of-sight position detection function, 11b: Calibration function,
11c: Ambient environment detection function, 11d: Image display function,
12 ... Flash memory, 13 ... RAM,
14 ... bus, 15 ... camera interface,
16 ... Near-infrared light camera, 17 ... Near-infrared light LED,
18 ... Illuminance sensor interface, 19 ... Illuminance sensor,
20 ... HUD device interface, 21 ... HUD device,
30a to 30f ... Gaze images.
Claims (2)
前記運転者の前記視線位置を検出する視線検出手段(11a)と、
前記視線検出手段によって検出された前記視線位置を校正する校正手段(11b)と、
前記車両の周辺の明るさを検出する周辺環境検出手段(11c)と、
前記視線位置を校正した時の前記車両の周辺の明るさを記憶する記憶手段(13)と
を備え、
前記校正手段は、前記周辺環境検出手段で検出された前記車両の周辺の明るさと、前記記憶手段に記憶されている明るさとの差が所定量より大きくなった場合に、前記視線位置を校正する手段である視線検出装置。 A gaze detection device that is provided in a vehicle and detects a gaze position where a driver's gaze arrives,
Gaze detection means (11a) for detecting the gaze position of the driver;
Calibration means (11b) for calibrating the line-of-sight position detected by the line-of-sight detection means;
A surrounding environment detecting means (11c) for detecting brightness around the vehicle ;
Storage means (13) for storing brightness around the vehicle when the line-of-sight position is calibrated ,
The calibration means calibrates the line-of-sight position when the difference between the brightness around the vehicle detected by the surrounding environment detection means and the brightness stored in the storage means exceeds a predetermined amount. A line-of-sight detection device as means.
前記運転者に対して注視用画像を表示する画像表示手段(11d)を備え、
前記校正手段は、前記画像表示手段が前記注視用画像を表示した位置と、前記視線検出手段が検出した前記視線位置とに基づいて、該視線位置を校正する手段である視線検出装置。 The line-of-sight detection device according to claim 1,
Image display means (11d) for displaying a gaze image for the driver ;
The calibration means includes a position in which the image display unit displaying the gaze image, on the basis of the said sight position the line of sight detecting unit detects, sight line detection device is a means for calibrating the gaze position.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013261878A JP6322991B2 (en) | 2013-12-18 | 2013-12-18 | Gaze detection device and gaze detection method |
PCT/JP2014/005903 WO2015092977A1 (en) | 2013-12-18 | 2014-11-26 | Sight line detection device and sight line detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013261878A JP6322991B2 (en) | 2013-12-18 | 2013-12-18 | Gaze detection device and gaze detection method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015118579A JP2015118579A (en) | 2015-06-25 |
JP6322991B2 true JP6322991B2 (en) | 2018-05-16 |
Family
ID=53402358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013261878A Active JP6322991B2 (en) | 2013-12-18 | 2013-12-18 | Gaze detection device and gaze detection method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6322991B2 (en) |
WO (1) | WO2015092977A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108243332B (en) * | 2016-12-23 | 2024-04-12 | 深圳点石创新科技有限公司 | Image adjusting method of vehicle-mounted head-up display system and vehicle-mounted head-up display system |
JP2019100995A (en) | 2017-12-08 | 2019-06-24 | 株式会社トプコン | Measurement image display control unit, measurement image display control method, and program for measurement image display control |
JP2020071773A (en) * | 2018-11-01 | 2020-05-07 | アイシン精機株式会社 | Line-of-sight detection apparatus |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0735543A (en) * | 1993-07-20 | 1995-02-07 | Nissan Motor Co Ltd | Eye point measuring device for vehicle |
JPH09212082A (en) * | 1996-01-30 | 1997-08-15 | Nissan Motor Co Ltd | Visual line input device |
US6927694B1 (en) * | 2001-08-20 | 2005-08-09 | Research Foundation Of The University Of Central Florida | Algorithm for monitoring head/eye motion for driver alertness with one camera |
JP2004012607A (en) * | 2002-06-04 | 2004-01-15 | Canon Inc | Optical equipment with function to detect line of sight and camera |
JP4052081B2 (en) * | 2002-10-10 | 2008-02-27 | 日産自動車株式会社 | Gaze direction detection device |
JP4252938B2 (en) * | 2004-07-07 | 2009-04-08 | 株式会社デンソー | Vehicle cabin lighting system |
JP2009015533A (en) * | 2007-07-03 | 2009-01-22 | Toyota Motor Corp | Gaze direction detecting device |
-
2013
- 2013-12-18 JP JP2013261878A patent/JP6322991B2/en active Active
-
2014
- 2014-11-26 WO PCT/JP2014/005903 patent/WO2015092977A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
JP2015118579A (en) | 2015-06-25 |
WO2015092977A1 (en) | 2015-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10795166B2 (en) | Head up display system and control method thereof | |
US10510276B1 (en) | Apparatus and method for controlling a display of a vehicle | |
US9463743B2 (en) | Vehicle information display device and vehicle information display method | |
US20170166131A1 (en) | Signal processing device, signal processing method, and monitoring system | |
JP5092776B2 (en) | Gaze direction detection device and gaze direction detection method | |
US10706585B2 (en) | Eyeball information estimation device, eyeball information estimation method, and eyeball information estimation program | |
US10306154B2 (en) | Image display device | |
JP2010018201A (en) | Driver assistant device, driver assistant method, and driver assistant processing program | |
JP6152833B2 (en) | Vehicle driving sense adjustment device | |
JP2016055801A (en) | On-vehicle display device | |
JP6482975B2 (en) | Image generating apparatus and image generating method | |
JP2017004117A (en) | Line-of-sight detection apparatus and line-of-sight detection method | |
JP6322991B2 (en) | Gaze detection device and gaze detection method | |
US10222613B2 (en) | Display apparatus for a vehicle | |
JP2018022958A (en) | Vehicle display controller and vehicle monitor system | |
JP2009248812A (en) | Driving assistance device | |
WO2018051685A1 (en) | Luminance control device, luminance control system, and luminance control method | |
JP7268526B2 (en) | VEHICLE DISPLAY CONTROL DEVICE AND VEHICLE DISPLAY SYSTEM | |
KR101825450B1 (en) | Vehicle control apparatus and method thereof | |
KR20170056100A (en) | Objects displaying apparatus of head up display and method thereof | |
JP6512080B2 (en) | Display correction device | |
JP6136891B2 (en) | Gaze detection device and gaze detection method | |
JP7293990B2 (en) | Vehicle display control device, vehicle display control method, and program | |
JP2019095892A (en) | Vehicle drive supporting device and vehicle drive supporting program | |
JP6405930B2 (en) | In-vehicle display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160808 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180313 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180326 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6322991 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |