JP4452833B2 - Gaze movement detection method and gaze movement detection apparatus - Google Patents

Gaze movement detection method and gaze movement detection apparatus Download PDF

Info

Publication number
JP4452833B2
JP4452833B2 JP2006100344A JP2006100344A JP4452833B2 JP 4452833 B2 JP4452833 B2 JP 4452833B2 JP 2006100344 A JP2006100344 A JP 2006100344A JP 2006100344 A JP2006100344 A JP 2006100344A JP 4452833 B2 JP4452833 B2 JP 4452833B2
Authority
JP
Japan
Prior art keywords
pupil
nostril
subject
frames
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006100344A
Other languages
Japanese (ja)
Other versions
JP2007268164A (en
Inventor
嘉伸 海老澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shizuoka University NUC
Original Assignee
Shizuoka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shizuoka University NUC filed Critical Shizuoka University NUC
Priority to JP2006100344A priority Critical patent/JP4452833B2/en
Publication of JP2007268164A publication Critical patent/JP2007268164A/en
Application granted granted Critical
Publication of JP4452833B2 publication Critical patent/JP4452833B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、対象者の視線移動を検出する視線移動検出方法及び視線移動検出装置に関するものである。   The present invention relates to a line-of-sight movement detection method and a line-of-sight movement detection device for detecting line-of-sight movement of a subject.

近年、自動車等において運転者の運転状況のモニターや、パーソナルコンピュータの視線による操作を目的として、人間の視線方向を検出する技術が開発されている。例えば、対象者の瞳孔の位置を測定する第1のカメラと、瞳孔の中心と角膜反射点間の距離及び角度を取得する第2のカメラとを用いて、対象者の視線方向を演算する技術が開示されている(下記特許文献1参照)。この技術は、対象者の瞳孔移動が検出された場合に眼球が回転したのか頭部自体が動いたのかを区別するために、瞳孔中心と角膜反射中心の相対的位置関係から視線方向を判定するものである。これは、対象者がカメラの光軸方向を見ている時には瞳孔中心と角膜反射中心の位置がほぼ一致し、対象者が眼を回転させるとその回転角に応じて瞳孔中心と角膜反射中心との間の距離が長くなるという知見に基づいている。   2. Description of the Related Art In recent years, a technology for detecting a human gaze direction has been developed for the purpose of monitoring a driver's driving situation in a car or the like and performing a gaze operation of a personal computer. For example, a technique for calculating the gaze direction of a subject using a first camera that measures the position of the pupil of the subject and a second camera that acquires the distance and angle between the center of the pupil and the corneal reflection point Is disclosed (see Patent Document 1 below). This technique determines the line-of-sight direction from the relative positional relationship between the pupil center and the corneal reflection center in order to distinguish whether the eyeball has rotated or the head itself has moved when the pupil movement of the subject is detected. Is. This is because when the subject is looking at the optical axis direction of the camera, the positions of the pupil center and the corneal reflection center are substantially the same, and when the subject rotates the eye, the pupil center and the corneal reflection center are changed according to the rotation angle. Based on the finding that the distance between

一方、視線によりパーソナルコンピュータの画面上のカーソルを移動させるポインティング方法に関する技術も知られている(下記非特許文献1及び下記特許文献2〜4参照)。これらの技術はカメラによって撮像された顔画像から瞳孔を検出するものである。また、一台のカメラで対象者の瞳孔中心及び角膜反射中心の位置を得て視線ベクトルを求める装置(下記特許文献5参照)、及び2台のカメラを用いて瞳孔と鼻孔を検出することにより頭部の方向を検出する方法(下記特許文献6及び下記非特許文献2参照)も開示されている。
特開2005−185431号公報 特開2005−182247号公報 特開2005−352580号公報 特開2005−348832号公報 特開2005−230049号公報 特開2005−266868号公報 Y. Ebisawa, D. Ishima, S. Inoue, Y. Murayama, “PupilMouse: Cursor Controlby Head Rotation Using Pupil Detection Technique”,(米国), Proceedings of InternationalConference on Computing, Communications and Control Technologies: CCCT’04, August 14-17, 2004-Austin, Texas, USA, pp. 209-214 Y.Ebisawa, Y.Nurikabe,“Face Pose EstimationBased on 3D Detection of Pupils and Nostrils”,2005 IEEE INTERNATIONAL CONFERENCE ONVIRTUAL ENVIRONMENTS, HUMAN-COMPUTER INTERFACES, AND MEASUREMENT SYSTEMS, 2005, pp.92-97
On the other hand, a technique related to a pointing method for moving a cursor on the screen of a personal computer by a line of sight is also known (see Non-Patent Document 1 and Patent Documents 2 to 4 below). These techniques detect a pupil from a face image captured by a camera. In addition, by detecting the pupil and nostril using a camera (see Patent Document 5 below) that obtains the position of the subject's pupil center and corneal reflection center by using one camera and the two cameras. A method for detecting the direction of the head (see Patent Document 6 and Non-Patent Document 2 below) is also disclosed.
JP 2005-185431 A JP 2005-182247 A JP 2005-352580 A JP 2005-348832 A JP 2005-230049 A JP 2005-266868 A Y. Ebisawa, D. Ishima, S. Inoue, Y. Murayama, “PupilMouse: Cursor Control by Head Rotation Using Pupil Detection Technique” (USA), Proceedings of International Conference on Computing, Communications and Control Technologies: CCCT'04, August 14 -17, 2004-Austin, Texas, USA, pp. 209-214 Y. Ebisawa, Y. Nurikabe, “Face Pose Estimation Based on 3D Detection of Pupils and Nostrils”, 2005 IEEE INTERNATIONAL CONFERENCE ONVIRTUAL ENVIRONMENTS, HUMAN-COMPUTER INTERFACES, AND MEASUREMENT SYSTEMS, 2005, pp.92-97

しかしながら、上述したように、角膜反射の中心及び瞳孔中心の位置を検出することによって視線方向を検出する場合には、検出精度を上げるために使用するカメラの解像度を比較的高くする必要があり、カメラの撮像範囲が小さくなりがちである。従って、頭が大きく動きがちな運転者をモニターする場合等において、顔全体を広い範囲で撮影する必要がある場合であっても、検出精度を確保するためには検出範囲が比較的狭い範囲に限定されてしまう。さらに、この場合に、カメラと瞳孔とを結ぶ線と視線との許容角度は、水平方向で±30〜±40度程度と比較的狭い。これは、撮影角度が大きくなると角膜反射が角膜の領域からはみ出して白目が光るようになるため、事実上角膜反射の検出が不可能となるからである。従って、対象者の視線の移動をモニターする場合で、視線方向を高い精度で検出する必要が無いときは、角膜反射を検出する意義が小さい。同様に、2台のカメラを用いて対象者の顔の特徴点の位置を検出する場合も、検出範囲が狭くなる傾向がある。   However, as described above, when detecting the line-of-sight direction by detecting the position of the center of corneal reflection and the center of the pupil, it is necessary to relatively increase the resolution of the camera used to increase the detection accuracy. The imaging range of the camera tends to be small. Therefore, when monitoring a driver whose head tends to move, even if the entire face needs to be photographed in a wide range, the detection range is set to a relatively narrow range in order to ensure detection accuracy. It will be limited. Further, in this case, the allowable angle between the line connecting the camera and the pupil and the line of sight is relatively narrow, about ± 30 to ± 40 degrees in the horizontal direction. This is because, as the imaging angle increases, the corneal reflection protrudes from the corneal region and the white eye shines, making it impossible to detect the corneal reflection in effect. Therefore, when monitoring the movement of the line of sight of the subject and there is no need to detect the line of sight with high accuracy, the significance of detecting corneal reflection is small. Similarly, when detecting the position of the feature point of the subject's face using two cameras, the detection range tends to be narrow.

これに対して、対象者の瞳孔等の目の位置をモニターして対象者の視線移動を判定することも考えられるが、頭部自体の動きが加わった場合に瞳孔位置をモニターしただけでは、その動きが視線の動きによるものか、頭部の動きによるものかを安定して判別することが困難である。   On the other hand, it is also possible to determine the eye movement of the subject by monitoring the position of the eye such as the pupil of the subject, but just by monitoring the pupil position when the movement of the head itself is added, It is difficult to stably determine whether the movement is caused by the movement of the line of sight or the movement of the head.

そこで、本発明は、かかる課題に鑑みて為されたものであり、対象者の視線移動を広い範囲で安定して検出することが可能な視線移動検出方法及び視線移動検出装置を提供することを目的とする。   Therefore, the present invention has been made in view of such problems, and provides a gaze movement detection method and a gaze movement detection apparatus that can stably detect a gaze movement of a subject in a wide range. Objective.

上記課題を解決するため、本発明の視線移動検出方法は、対象者の顔画像を撮像して該顔画像に基づいて対象者の視線移動の有無を検出する視線移動検出方法であって、対象者の顔画像を複数のフレーム分撮像して、複数のフレームのそれぞれを対象に対象者の瞳孔位置及び鼻孔位置を検出する検出ステップと、複数のフレームを対象にして検出された瞳孔位置と鼻孔位置とに基づいて、複数のフレーム中の前後のフレーム間における対象者の鼻孔に対する瞳孔の相対的位置の変化量を算出する算出ステップと、当該算出した変化量と所定の閾値とを用いて視線移動の有無を判定する判定ステップとを備える。   In order to solve the above-described problem, a gaze movement detection method of the present invention is a gaze movement detection method that captures a face image of a target person and detects the presence or absence of the gaze movement of the target person based on the face image. Detecting a face image of a person for a plurality of frames, detecting a pupil position and a nostril position of the subject for each of the plurality of frames, and a pupil position and a nostril detected for the plurality of frames Based on the position, the calculation step of calculating the amount of change in the relative position of the pupil with respect to the nostril of the subject between the previous and next frames in the plurality of frames, and the line of sight using the calculated amount of change and a predetermined threshold And a determination step for determining presence or absence of movement.

或いは、本発明の視線移動検出装置は、対象者の顔画像を撮像して該顔画像に基づいて対象者の視線移動の有無を検出する視線移動検出装置であって、対象者の顔画像を複数のフレーム分撮像して、複数のフレームのそれぞれを対象に対象者の瞳孔位置及び鼻孔位置を検出する手段と、複数のフレームを対象にして検出された瞳孔位置と鼻孔位置とに基づいて、複数のフレーム中の前後のフレーム間における対象者の鼻孔に対する瞳孔の相対的位置の変化量を算出する手段と、当該算出した変化量と所定の閾値とを用いて視線移動の有無を判定する手段とを備える。   Alternatively, the line-of-sight movement detection device of the present invention is a line-of-sight movement detection device that captures a face image of a subject and detects the presence or absence of the subject's eye movement based on the face image. Based on the means for capturing a plurality of frames, detecting the pupil position and nostril position of the subject for each of the plurality of frames, and the pupil position and nostril position detected for the plurality of frames, Means for calculating the amount of change in the relative position of the pupil with respect to the nostril of the subject between frames before and after the plurality of frames, and means for determining the presence or absence of eye movement using the calculated amount of change and a predetermined threshold value With.

このような視線移動検出方法及び視線移動検出装置によれば、対象者の顔画像を動画像として複数フレーム取得して、その複数フレーム内の瞳孔位置と鼻孔位置とを検出し、前後のフレーム間の鼻孔に対する瞳孔の相対的位置の変化を算出し、その変化の大小をもって視線移動の有無を判定するので、1台の撮像手段を使った顔画像であっても広い範囲で視線移動の有無を判定できるとともに、鼻孔位置を基準とした瞳孔位置をモニタすることで運転者等の頭自体が動きがちな対象者に関しても安定した視線移動の検出を実現することができる。   According to such a line-of-sight movement detection method and line-of-sight movement detection apparatus, a plurality of frames are acquired as moving images of the subject's face image, the pupil position and nostril position in the plurality of frames are detected, and The change in the relative position of the pupil with respect to the nostril of the subject is calculated, and the presence / absence of the eye movement is determined based on the magnitude of the change, so the presence / absence of the eye movement in a wide range can be determined even for a face image using one imaging means. In addition to being able to determine, by monitoring the pupil position based on the nostril position, it is possible to realize stable detection of gaze movement even for a subject whose head itself such as a driver tends to move.

算出ステップでは、前後のフレーム間の瞳孔位置の変化量及び鼻孔位置の変化量を求め、瞳孔位置の変化量と鼻孔位置の変化量との差分をとることによって相対的位置の変化量を算出することが好ましい。この場合、対象者の動画像を参照しながら効率的に瞳孔と鼻孔の相対的位置の変化を算出でき、視線移動検出のリアルタイム性が高くなる。   In the calculation step, the change amount of the pupil position and the change amount of the nostril position between the previous and next frames are obtained, and the change amount of the relative position is calculated by taking the difference between the change amount of the pupil position and the change amount of the nostril position. It is preferable. In this case, it is possible to efficiently calculate the change in the relative position of the pupil and nostril while referring to the moving image of the subject, and the real-time property of the eye movement detection is improved.

また、算出ステップでは、複数のフレームにわたって相対的位置の変化量を連続して算出すると共に、該変化量の移動平均値を導出し、判定ステップでは、相対的位置の変化量を移動平均値を基準にして設定した閾値と比較することによって、視線移動の有無を判定することも好ましい。こうすれば、眼球の回転角の変位の大小に応じた適切な閾値を設定することで、より精度の高い視線移動の検出が可能となる。   In the calculation step, the change amount of the relative position is continuously calculated over a plurality of frames, and the moving average value of the change amount is derived. In the determination step, the change amount of the relative position is calculated as the moving average value. It is also preferable to determine the presence or absence of eye movement by comparing with a threshold value set as a reference. In this way, it is possible to detect the movement of the line of sight with higher accuracy by setting an appropriate threshold value according to the magnitude of the displacement of the rotation angle of the eyeball.

本発明による視線移動検出方法及び視線移動検出装置によれば、対象者の視線移動を広い範囲で安定して検出することができる。   According to the line-of-sight movement detection method and line-of-sight movement detection apparatus according to the present invention, it is possible to stably detect the line-of-sight movement of a subject in a wide range.

以下、図面を参照しつつ本発明に係る視線移動検出方法及び視線移動検出装置の好適な実施形態について詳細に説明する。なお、図面の説明においては同一又は相当部分には同一符号を付し、重複する説明を省略する。   Hereinafter, preferred embodiments of a line-of-sight movement detection method and a line-of-sight movement detection device according to the present invention will be described in detail with reference to the drawings. In the description of the drawings, the same or corresponding parts are denoted by the same reference numerals, and redundant description is omitted.

本発明の視線移動検出方法及び視線移動検出装置は、観察対象者の目の方向(視線方向)が変わったかどうかを検出するためのものである。ここでいう視線方向とは、顔の方向を基準にした目の動きのことである。本発明は、例えば、大型トラック等の自動車に代表される乗り物内において、運転者や操縦者が運転中に覚醒状態にあるか否かを判断するために利用される。具体的には、運転者が正常に運転しているときは周囲に注意を払うため視線は頻繁に変化するが、眠気を催しているときには運転者の視線の動きが止まる傾向にあるので、視線移動の頻度に基づいて運転者の覚醒状態を判定することができる。   The line-of-sight movement detection method and line-of-sight movement detection apparatus of the present invention are for detecting whether the direction of the eye (line-of-sight direction) of the observation subject has changed. The line-of-sight direction here refers to eye movement based on the face direction. The present invention is used, for example, to determine whether a driver or a driver is in an awake state during driving in a vehicle typified by an automobile such as a large truck. Specifically, when the driver is driving normally, the gaze changes frequently to pay attention to the surroundings, but when the driver is drowsy, the driver's gaze tends to stop, so the gaze Based on the frequency of movement, the driver's arousal state can be determined.

まず、本発明にかかる視線移動検出装置1の構成について、図1を参照しながら説明する。図1は、視線移動検出装置1と対象者Aとの位置関係を示す平面図である。同図に示すように、視線移動検出装置1は、対象者Aの顔画像を撮像する1台のカメラ2と、カメラ2の前面2aの撮像レンズの光軸L1の近傍に設けられた光源3aと、カメラ2の前面2aの光軸L1から離れた位置に設けられた光源3bと、カメラ2に接続されてカメラ2において生成された画像データを処理する画像処理端末4とを備えている。この視線移動検出装置1は、本発明にかかる視線移動検出方法を実施する。   First, the configuration of the eye movement detection device 1 according to the present invention will be described with reference to FIG. FIG. 1 is a plan view showing the positional relationship between the line-of-sight movement detection device 1 and the subject A. As shown in the figure, the line-of-sight movement detection device 1 includes a single camera 2 that captures the face image of the subject A and a light source 3a provided in the vicinity of the optical axis L1 of the imaging lens on the front surface 2a of the camera 2. And a light source 3b provided at a position away from the optical axis L1 of the front surface 2a of the camera 2, and an image processing terminal 4 connected to the camera 2 and processing image data generated by the camera 2. This line-of-sight movement detection apparatus 1 implements the line-of-sight movement detection method according to the present invention.

カメラ2は、対象者Aの顔画像を生成できる撮像手段であれば特定の種類のものには限定されないが、画像データをリアルタイム性が高く処理できるという点で、CCD、CMOS等の撮像素子を内蔵するデジタルカメラを用いる。また、カメラ2は、対象者Aの顔画像を動画像として連続して撮像することが可能とされ、その動画像を構成する複数のフレーム画像をリアルタイムで画像処理端末4に出力する。   The camera 2 is not limited to a specific type as long as it is an imaging means capable of generating the face image of the subject A, but an image sensor such as a CCD or CMOS is used in that the image data can be processed with high real-time properties. Use the built-in digital camera. The camera 2 can continuously capture the face image of the subject A as a moving image, and outputs a plurality of frame images constituting the moving image to the image processing terminal 4 in real time.

光源3aは、カメラ2の光軸L1に沿って、光軸L1上に位置する対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。光源3bは、光軸L1からの距離が光源3aよりも離れた位置に固定され、光軸L1に沿って対象者Aをカバーする範囲に向けて、近赤外光成分を有する照明光を照射可能に構成されている。ここで、光源3a,3bから照射される照明光は、瞳孔の部分に輝度差を生じさせるような異なる波長成分(例えば、中心波長が850nmと950nm)を有する光であり、かつ、光源3bは光軸L1からの距離が光源3aと等しい位置に固定されていてもよい。この場合は、瞳孔の部分に輝度差を生じさせながら、光源の構成を簡略化及び小型化することができる。   The light source 3a is configured to be able to irradiate illumination light having a near-infrared light component toward a range covering the subject A located on the optical axis L1 along the optical axis L1 of the camera 2. The light source 3b is fixed at a position where the distance from the optical axis L1 is further away from the light source 3a, and irradiates illumination light having a near-infrared light component toward a range covering the subject A along the optical axis L1. It is configured to be possible. Here, the illumination light emitted from the light sources 3a and 3b is light having different wavelength components (for example, center wavelengths of 850 nm and 950 nm) that cause a luminance difference in the pupil portion, and the light source 3b The distance from the optical axis L1 may be fixed at a position equal to the light source 3a. In this case, the configuration of the light source can be simplified and reduced in size while causing a luminance difference in the pupil portion.

なお、カメラ2及び光源3a,3bは、対象者Aが眼鏡をかけていたときの顔画像における反射光の写り込みを防止し、対象者Aの瞳孔及び鼻孔を検出し易くする目的で、対象者Aの顔の高さよりも低い位置(例えば、光軸L1の水平面に対する傾斜角20度〜30度)に設けられることが好ましい。この設置位置としては、車両内に設置される場合は運転席側のダッシュボードの下等、トラック等の座席位置が高い場合はダッシュボードの上等が考えられる。   The camera 2 and the light sources 3a and 3b are used for the purpose of preventing reflection of reflected light in the face image when the subject A is wearing glasses and easily detecting the pupil and nostril of the subject A. It is preferable to be provided at a position lower than the height of the face of the person A (for example, an inclination angle of 20 degrees to 30 degrees with respect to the horizontal plane of the optical axis L1). As the installation position, when installed in a vehicle, it may be under the dashboard on the driver's seat side, or above the dashboard when the seat position of a truck or the like is high.

画像処理端末4は、カメラ2から出力された複数のフレーム画像からなる顔画像に画像処理を施す情報処理端末であり、CPU等の演算処理装置、ROM、RAM等の記憶装置を内蔵するコンピュータ端末である。画像処理端末4は、対象者Aの視線移動の有無を検出する視線移動検出処理を実行するとともに、カメラ2による対象者Aの撮像を制御する。   The image processing terminal 4 is an information processing terminal that performs image processing on a face image composed of a plurality of frame images output from the camera 2, and is a computer terminal that includes an arithmetic processing device such as a CPU and a storage device such as a ROM and a RAM. It is. The image processing terminal 4 executes a line-of-sight movement detection process for detecting the presence or absence of the line-of-sight movement of the subject A and controls the imaging of the subject A by the camera 2.

次に、上述した各処理について説明する前に、対象者の眼球運動(眼球の回転運動)の種類について説明する。一般に、広視野のビデオカメラで顔を撮影した場合に検出可能な眼球運動としては、(1)サッカード(saccade, 跳躍性眼球運動)、(2)滑動性眼球運動(smooth pursuit movement, 随従運動)、(3)前庭性眼球運動(vestibular reflex)、(4)輻輳開散眼球運動(vergence eye movement) が存在する。   Next, before describing each processing described above, the type of eye movement (rotation movement of the eyeball) of the subject will be described. In general, eye movements that can be detected when a face is photographed with a wide-field video camera include (1) saccade, (2) smooth pursuit movement, and follow-up movement. ), (3) vestibular reflex, and (4) vergence eye movement.

サッカードは、静止した物体に対して、見たい対象を変えたいときに生じる高速のいわばステップ状の運動である。運転中であれば、前方の車を見ている間に標識が視野の周辺に見えたときに、その詳細を見るために標識を見ようとするときなどに生じる。また、滑動性眼球運動は、運動物体を見続けようとするときに生じる。この場合の眼球回転速度は、サッカードに比較して小さい。また、前庭性眼球運動は、基本的に一点を見つめているときに頭部が回転すると、頭部の回転に対してちょうど反対方向に同じ回転速度で眼球が回転し、目の網膜に投影される像がぶれないようにするための運動である。この運動は、頭部が左右に上下に平行移動した場合にも、同様に網膜像がぶれないような方向に生じる。この眼球運動もサッカードに比較して眼球回転速度は小さい。さらに、輻輳開散眼球運動は、近くのものを見るときに両目が寄り(両眼球が内向きに回転する)、遠くのものを見るときに両目が離れる方向に回転する(両眼球が外向きに回転する)。従って、この運動は、両眼が互いに反対方向に回転する運動である。この眼球運動も、ゆっくりとした動きであり、サッカードより速度が小さい。   Saccade is a high-speed, step-like motion that occurs when you want to change the object you want to see for a stationary object. If you are driving, this happens when you see the sign in the vicinity of the field of view while looking at the car ahead and you want to see the sign to see its details. Also, sliding eye movement occurs when trying to keep looking at a moving object. In this case, the eyeball rotation speed is smaller than that of the saccade. In vestibular eye movements, basically, when the head rotates while looking at one point, the eye rotates at the same rotational speed in the opposite direction to the rotation of the head and is projected onto the retina of the eye. This is an exercise to prevent the image from blurring. This movement also occurs in a direction in which the retinal image is not blurred even when the head is translated left and right up and down. This eye movement also has a lower eyeball rotation speed than saccade. In addition, the vergence eye movement moves both eyes when looking at nearby objects (both eyes rotate inward) and away when looking at distant objects (both eyes outward). To rotate). Therefore, this movement is a movement in which both eyes rotate in opposite directions. This eye movement is also a slow movement and is slower than saccade.

以上の4種類の運動は、車両の運転中に重畳して生じ、サッカード以外のそれぞれの眼球運動の中に、サッカードが度々混在する。この際、サッカード以外の比較的滑らかな運動に高速な運動であるサッカードが割り込んで生ずるため、サッカードは他の運動に比較して検出が容易である。ここで、特筆すべき点は、サッカード以外の運動は、運転中でも通常はゆっくりとした運動であるが、サッカードは、比較的高速であり、視線を動かしたときは瞳孔の瞬間的な動きとして際だって現れる点である。このサッカードは、10度程度の回転でも約40msec程度で完了するため、通常の30フレーム/秒のカメラでも2フレーム以内に収まる。従って、他の眼球運動が混在していても、回転角度がある程度以上(例えば、10度以上)であれば十分にサッカードを他の運動から判別することができ、サッカードの発生の有無は容易に判断できる。なお、ある方向から別の方向へ視線を動かすときに頭部の回転を伴う場合もあるが、このような場合であっても頭部の回転速度よりも眼球の回転速度のほうが高速であるため、サッカードは明確に現れる。   The above four types of movements are generated while driving the vehicle, and saccades are often mixed in eye movements other than saccades. At this time, since a saccade, which is a high-speed motion, is interrupted by a relatively smooth motion other than the saccade, the saccade is easier to detect than other motions. Here, it should be noted that exercises other than saccades are usually slow motions while driving, but saccades are relatively fast, and the momentary movement of the pupil when the line of sight is moved. It is a point that appears prominently. This saccade is completed in about 40 msec even with a rotation of about 10 degrees, so even a normal 30 frame / second camera can fit within 2 frames. Therefore, even if other eye movements are mixed, if the rotation angle is more than a certain degree (for example, 10 degrees or more), the saccade can be sufficiently distinguished from other movements. Easy to judge. There are cases where the head is rotated when moving the line of sight from one direction to another, but even in such a case, the rotational speed of the eyeball is faster than the rotational speed of the head. The saccade appears clearly.

上述したサッカードは、運転者が注意を向ける対象を移すときに生じることから、明らかに運転者が覚醒しているときに生じると考えられる。サッカード以外の眼球運動も覚醒状態でなければ生じないが、この場合もサッカードが混在して生じる確率が高い。例えて言えば、運転者が運転中に、前方や、バックミラー、ルームミラー、メーター等を見るときには、サッカードは必ず生じる。逆に、運転中にサッカードが生じないということは、少なくとも覚醒状態が低下していると判断してよい。   Since the saccade described above occurs when the driver shifts his / her attention, it is apparent that the saccade is generated when the driver is awake. Eye movements other than saccades do not occur unless they are awake, but in this case as well, there is a high probability that saccades coexist. For example, a saccade always occurs when a driver looks at the front, rearview mirror, room mirror, meter, etc. while driving. Conversely, if saccade does not occur during driving, it may be determined that at least the arousal state has decreased.

そこで、画像処理端末4は、以下のようにして、対象者Aの鼻孔に対する瞳孔の相対的位置の変化量(視線移動量)を算出した後、視線移動の有無を判定して運転者の覚醒状態を判断する。   Therefore, the image processing terminal 4 calculates the amount of change in the relative position of the pupil with respect to the nostril of the subject A (line-of-sight movement amount) as described below, and then determines whether or not the line-of-sight movement has occurred, and wakes up the driver. Determine the state.

まず、画像処理端末4は、カメラ2を制御して対象者Aの顔画像を連続して撮像して、その結果生成された複数フレームからなる動画像を受けて、その複数フレームのそれぞれを対象に対象者Aの左右の瞳孔中心の位置及び左右の鼻孔中心の位置を検出する。図2は、画像処理装置4による対象者Aの検出状態を示す概念図である。   First, the image processing terminal 4 controls the camera 2 to continuously capture a face image of the subject A, receives a moving image composed of a plurality of frames generated as a result, and targets each of the plurality of frames. In addition, the left and right pupil center positions and the left and right nostril center positions of the subject A are detected. FIG. 2 is a conceptual diagram illustrating a detection state of the subject A by the image processing device 4.

(瞳孔中心の検出)
画像処理端末4は、複数フレームからなる顔画像の撮像時には、光源3a,3bを交互に点灯させて、それぞれの点灯に同期したフレームを生成させることによって、明瞳孔画像及び暗瞳孔画像を得る。明瞳孔画像は、光源3aの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に明るくなっている。これに対し、暗瞳孔画像は、光源3bの照射に伴って得られる画像であり、瞳孔部分の輝度が相対的に暗くなっている。これらの2種類の画像は、2つの光源3a,3bからの照明光の照射に伴う瞳孔からの反射光の強度が異なることに起因して得られる。ここで、フィールド走査を採用するカメラの場合は、光源3a,3bをカメラ2のフィールド信号に同期させて点灯させることで、奇数フィールドと偶数フィールド間で明瞳孔画像と暗瞳孔画像とを分離してもよい。そして、明瞳孔画像と暗瞳孔画像との差分を取った後に瞳孔部分の範囲を判別する。このような差分処理を行うことで、ロバスト性の高い瞳孔の検出を行うことができる。
(Detection of pupil center)
The image processing terminal 4 obtains a bright pupil image and a dark pupil image by alternately lighting the light sources 3a and 3b and generating a frame synchronized with each lighting when a face image composed of a plurality of frames is captured. The bright pupil image is an image obtained with the irradiation of the light source 3a, and the luminance of the pupil portion is relatively bright. On the other hand, the dark pupil image is an image obtained with the irradiation of the light source 3b, and the luminance of the pupil portion is relatively dark. These two types of images are obtained due to differences in the intensity of reflected light from the pupil accompanying irradiation of illumination light from the two light sources 3a and 3b. Here, in the case of a camera employing field scanning, the light sources 3a and 3b are turned on in synchronization with the field signal of the camera 2 to separate the bright pupil image and the dark pupil image between the odd field and the even field. May be. Then, after taking the difference between the bright pupil image and the dark pupil image, the range of the pupil portion is determined. By performing such difference processing, it is possible to detect a highly robust pupil.

その後、検出した瞳孔の輪郭を特定して、その輪郭に近似できる楕円を算出してその楕円の中心を瞳孔の中心位置として求める。また、差分処理を施されたフレーム画像を用いて、そのフレーム画像を2値化した後に重心法を用いて瞳孔中心の位置を算出してもよい。このとき、画像中に目蓋等の動く対象があると瞳孔以外も明るく写る場合があるので、重心を求める際の画像領域の広さの選択が問題となる。そこで、特開2005−348832号公報に記載にように、分離度フィルタを用いて瞳孔中心の位置を算出してもよい。すなわち、円形に近いパターンを用いて分離度が最大になる中心座標を求める。   After that, the contour of the detected pupil is specified, an ellipse that can be approximated to the contour is calculated, and the center of the ellipse is obtained as the center position of the pupil. Alternatively, the position of the pupil center may be calculated using the center of gravity method after binarizing the frame image that has been subjected to the difference processing. At this time, if there is a moving target such as an eyelid in the image, the area other than the pupil may appear brightly, so the selection of the size of the image area when obtaining the center of gravity becomes a problem. Therefore, as described in JP-A-2005-348832, the position of the pupil center may be calculated using a separability filter. That is, the center coordinate that maximizes the degree of separation is obtained using a pattern close to a circle.

(鼻孔中心の検出)
画像処理端末4は、左右の鼻孔中心の2次元座標を、上記の明瞳孔画像又は暗瞳孔画像を参照して検出する。すなわち、左右の瞳孔中心の中点を求め、それより下の位置に、対象者Aが正面を向いていたと仮定した場合に中心がほぼ鼻孔位置に一致する大ウィンドウを設定し、その大ウィンドウ内で鼻孔を検出する。そして、フレーム画像の大ウィンドウ内を対象にP−tile法により輝度が低いほうから0.8%の画素を検出し、HIGH画素及びLOW画素からなる2値化画像に変換する。その後、検出された2値化画像の膨張処理及び収縮処理(モルフォロジー処理)を繰り返し画像内の領域を明確化させた後、ラベリング処理を施して大きなほうから2つの領域を選び出し、それぞれの領域について上下左右の端点より形成される長方形の中心、縦横比、及び面積を算出する。ここで、膨張処理とは、2値画像中で対象画素の近傍の8画素の1つでもHIGH画素がある場合に、対象画素をHIGH画素に変換する処理であり、収縮処理とは、2値画像中で対象画素の近傍の8画素の1つでもLOW画素がある場合に、対象画素をLOW画素に変換する処理である。そして、縦横比が0.5より小さいか0.7より大きく、かつ、全体の画像サイズが640×240画素に対して面積が100画素より小さいか300画素より大きい場合は、鼻孔像を示す領域ではないと判断する。そうでない場合は、上記長方形の中心を中心に30×30画素の小ウィンドウを設定し、もとのフレーム画像の小ウィンドウ内を対象に、P−tile法により輝度が低いほうから5%の画素を抽出する。その後、上記のモルフォロジー処理及びラベリング処理を繰り返し、最大面積の領域を求める。その領域の面積が130画素以上か70画素以下の場合は鼻孔像でないと判断し、そうでない場合は鼻孔像であると判断し、領域の上下左右の端点より形成される長方形の中心を鼻孔の中心として求める。その結果、2つの鼻孔中心が検出されたら、それぞれの座標値の大きさから左右の鼻孔の対応関係を判断する。
(Detection of nostril center)
The image processing terminal 4 detects the two-dimensional coordinates of the left and right nostril centers with reference to the bright pupil image or the dark pupil image. That is, the center point of the left and right pupil centers is obtained, and a large window whose center substantially coincides with the nostril position when the subject A is assumed to face the front is set at a position below that. Detect nostrils with. Then, 0.8% of pixels with lower luminance are detected by the P-tile method in the large window of the frame image, and converted into a binary image composed of HIGH pixels and LOW pixels. After that, the detected binarized image is repeatedly expanded and contracted (morphological processing) to clarify the area in the image, and then the labeling process is performed to select the two areas from the larger one. The center, aspect ratio, and area of the rectangle formed from the top, bottom, left, and right end points are calculated. Here, the expansion process is a process of converting a target pixel into a HIGH pixel when at least one of the eight pixels in the vicinity of the target pixel is present in the binary image, and the contraction process is a binary process. This is processing for converting a target pixel into a LOW pixel when at least one of the eight pixels near the target pixel is present in the image. If the aspect ratio is smaller than 0.5 or larger than 0.7, and the entire image size is 640 × 240 pixels, the area is smaller than 100 pixels or larger than 300 pixels, the region indicating the nostril image Judge that is not. Otherwise, a small window of 30 × 30 pixels is set around the center of the rectangle, and 5% pixels from the lower brightness by the P-tile method are targeted in the small window of the original frame image. To extract. Thereafter, the above morphological process and labeling process are repeated to obtain a region having the maximum area. If the area of the region is 130 pixels or more and 70 pixels or less, it is determined that the image is not a nostril image. Otherwise, it is determined that the image is a nostril image, and the center of the rectangle formed from the upper, lower, left and right end points of the region is determined. Seek as the center. As a result, when two nostril centers are detected, the correspondence between the left and right nostrils is determined from the size of each coordinate value.

上記のように、大ウィンドウと小ウィンドウとを用いて鼻孔検出を行うと、撮像条件の異なる2つの鼻孔のそれぞれを検出するのに最適な閾値を与えることができ、確実に鼻孔を検出できる。なお、鼻孔を検出し難くするような影などが画像に写った場合の鼻孔の誤認識の防止、及び鼻孔の素早い動きへの対応を目的として、カルマンフィルタなどの予測モデルを利用して各鼻孔位置を予測して、小ウィンドウの位置を設定してもよい。   As described above, when the nostril detection is performed using the large window and the small window, an optimum threshold value can be given for detecting each of the two nostrils having different imaging conditions, and the nostril can be detected reliably. Each nostril position is predicted using a predictive model such as a Kalman filter for the purpose of preventing false recognition of the nostrils when shadows that make it difficult to detect the nostrils appear in the image and responding to quick movement of the nostrils. And the position of the small window may be set.

このような鼻孔検出時において左右どちらかの鼻孔のみしか検出できなかった場合は、距離導出ステップで実測された距離と、検出された左右の瞳孔中心の位置及び片方の鼻孔中心の位置とを用いて、他方の鼻孔中心の位置を推定する。今、右瞳孔中心の座標を(xRP,yRP)、左瞳孔中心の座標を(xLP,yLP)、右鼻孔中心の座標を(xRN,yRN)、左鼻孔中心の座標を(xLN,yLN)、予め測定しておいた左右の瞳孔中心間の距離をDP0、左右の鼻孔中心間の距離をDN0とし、左鼻孔を検出できなかった場合を考える。このときの顔画像における左右の瞳孔間の傾斜率IP、及び瞳孔中心間距離Dは、下記式(1)及び(2);
=(yRP−yLP)/(xRP−xLP) …(1)
={(xRP−xLP+(yRP−yLP1/2 …(2)
と考えることができる。
If only one of the right and left nostrils can be detected during such nostril detection, the distance measured in the distance deriving step and the detected positions of the left and right pupil centers and the center of one nostril are used. Then, the position of the other nostril center is estimated. Now, the coordinates of the right pupil center are (x RP , y RP ), the coordinates of the left pupil center are (x LP , y LP ), the coordinates of the right nostril center are (x RN , y RN ), and the coordinates of the left nostril center are Assume that (x LN , y LN ), the distance between the left and right pupil centers measured in advance is D P0 , the distance between the left and right nostril centers is D N0 , and the left nostril cannot be detected. Ramp rate I P, and the pupil center distance D P between left and right pupils in the face image at this time, the following equation (1) and (2);
I P = (y RP −y LP ) / (x RP −x LP ) (1)
D P = {(x RP -x LP) 2 + (y RP -y LP) 2} 1/2 ... (2)
Can be considered.

ここで、左右の瞳孔中心を結ぶ線と左右の鼻孔中心を結ぶ線とは常に平行であると考えられるので、左右の鼻孔間の傾斜率I=Iとなる。また、顔画像上の鼻孔中心間距離Dは、左右の瞳孔中心間の距離DP0、左右の鼻孔中心間の距離DN0、及び瞳孔中心間距離Dから、下記式(3);
=(DN0/DP0)×D…(3)
により求まる。鼻孔中心間距離Dは下記式(4);
={(xRN−xLN+(yRN−yLN1/2 …(4)
と表されるので、左の鼻孔中心の座標(xLN,yLN)は、下記式(5)及び(6);
LN=xRN−{D /(1+I )}1/2 …(5)
LN=yRN−{(D .I )/(1+I )}1/2 …(6)
によって求めることができる。逆に右の鼻孔中心が検出されなかった場合も、下記式(7)及び(8);
RN=xLN+{D /(1+I )}1/2 …(7)
RN=yLN+{(D .I )/(1+I )}1/2 …(8)
によって求めることができる。
Here, since the line connecting the left and right pupil centers and the line connecting the left and right nostril centers are considered to be always parallel, the slope ratio I N = I P between the left and right nostrils. Further, the nostrils center distance D N on the face image, the distance D P0 between the left and right pupil center, the distance D N0, and pupil center distance D P between the left and right nostrils center, formula (3);
D N = (D N0 / D P0 ) × D P (3)
It is obtained by. The nostril center distance DN is expressed by the following formula (4);
D N = {(x RN -x LN) 2 + (y RN -y LN) 2} 1/2 ... (4)
Therefore, the coordinates of the center of the left nostril (x LN , y LN ) are the following formulas (5) and (6);
x LN = x RN - {D N 2 / (1 + I N 2)} 1/2 ... (5)
y LN = y RN - {( D N 2 .I N 2) / (1 + I N 2)} 1/2 ... (6)
Can be obtained. Conversely, when the right nostril center is not detected, the following formulas (7) and (8);
x RN = x LN + {D N 2 / (1 + I N 2)} 1/2 ... (7)
y RN = y LN + {( D N 2 .I N 2) / (1 + I N 2)} 1/2 ... (8)
Can be obtained.

(視線移動量の算出)
画像処理端末4は、各フレーム画像中の前後のフレーム画像における左右の瞳孔中心の位置及び左右の鼻孔中心の位置に基づいて、対象者Aの視線移動量を計算する。この場合、一方の鼻孔に対して他方の鼻孔が大きく動くことは現実的に考えられないため、一方の鼻孔が検出できれば十分である。仮に、両方の鼻孔が検出できたときも左右どちらかの鼻孔中心の位置を視線移動の基準となる位置として選択すればよい。また、左右の鼻孔中心の位置の中点を基準としてもよい。ただし、一方の鼻孔位置から他方の鼻孔位置又は中点の位置に基準位置が切り替わってしまうと、瞳孔の相対的位置の変化が正確に検出できなくなってしまう。そこで、以下のようにして、複数のフレーム画像中の前後フレーム画像間の鼻孔中心位置の変化量Dif及び瞳孔中心位置の変化量Difを、時間的に連続して求める。
(Calculation of eye movement)
The image processing terminal 4 calculates the line-of-sight movement amount of the subject A based on the positions of the left and right pupil centers and the positions of the left and right nostrils in the previous and next frame images in each frame image. In this case, it is impossible to realistically think that the other nostril moves greatly with respect to one nostril. Therefore, it is sufficient that one nostril can be detected. Even if both nostrils can be detected, the position of either the left or right nostril center may be selected as the position that becomes the reference for eye movement. Alternatively, the midpoint of the position of the center of the left and right nostrils may be used as a reference. However, if the reference position is switched from one nostril position to the other nostril position or midpoint position, a change in the relative position of the pupil cannot be detected accurately. Therefore, in the following, a variation Dif P of variation Dif N and pupil center position of the nostrils center position between the front and rear frame images of the plurality of frame images obtained successively in time.

具体的には、左右の鼻孔が検出されているときは、左右の鼻孔中心毎の変化量を算出する。もし、(i)両鼻孔が検出され続けているときには、前後フレーム間の各鼻孔中心の変化量を計算し、それらの平均を鼻孔中心の変化量Difとする。(ii)片方の鼻孔のみが検出され続けているときは、検出されている側の鼻孔中心のみのフレーム間変化量を鼻孔中心の変化量Difとする。(iii)1つ前のフレームまで両鼻孔が検出されており、現フレームになって片方の鼻孔のみが検出されるようになったとき、現フレームにおいて検出された側の鼻孔中心の座標と1つ前フレームにおける同じ側の鼻孔中心の座標との変化量を鼻孔中心の変化量Difとする。(iv)1つ前のフレームまで片方の鼻孔のみが検出されており、現フレームで両鼻孔が検出されるようになったとき、1つ前のフレームにおいて検出されていた鼻孔中心の座標と現フレームにおける同じ側の鼻孔中心の座標との変化量を鼻孔中心の変化量Difとする。 Specifically, when the left and right nostrils are detected, the amount of change for each center of the left and right nostrils is calculated. If (i) both nostrils continue to be detected, the amount of change in the center of each nostril between the previous and next frames is calculated, and the average of these is defined as the amount of change Dif N in the nostril center. When (ii) only one nostril is continuously detected, the inter-frame variation of only nostrils center of the side that has been detected and the variation Dif N nostril center. (Iii) When both nostrils have been detected up to the previous frame and only one of the nostrils is detected in the current frame, the coordinates of the nostril center on the side detected in the current frame and 1 One prior to the change amount of the coordinates of the nostril center on the same side as the variation Dif N nostrils center of the frame. (iv) When only one nostril is detected up to the previous frame, and both nostrils are detected in the current frame, the coordinates of the nostril center detected in the previous frame and the current nostril are detected. the variation of the coordinates of the nostril center on the same side of the frame and the variation Dif N nostril center.

一方、瞳孔中心の検出においても、片方の瞳孔が検出できなくなったり、両方の瞳孔が検出できなくなることもある。したがって、瞳孔中心の変化量Difの算出についても鼻孔と同様のことを行う。すなわち、左右の瞳孔が検出されているときは、左右の瞳孔中心毎の変化量を算出する。(i)両瞳孔が検出され続けているときには、両瞳孔中心のそれぞれのフレーム間変化量の平均を瞳孔中心の移動量Difとする。(ii)片方の瞳孔のみが検出され続けているときは、検出されている瞳孔中心のみのフレーム間変化量を瞳孔中心の変化量Difとする。(iii)1つ前のフレームまで両瞳孔が検出されており、現フレームになって片方の瞳孔のみが検出されるようになったとき、現フレームにおいて検出された瞳孔中心の座標と1つ前フレームにおける同じ側の瞳孔中心の座標への変化量を瞳孔中心の変化量Difとする。(iv)1つ前のフレームまで片方の瞳孔のみが検出されており、現フレームで両瞳孔が検出されるようになったとき、1つ前のフレームにおいて検出されていた瞳孔中心の座標と現フレームにおける同じ側の瞳孔中心の座標との変化量を瞳孔中心の変化量Difとする。 (v)両瞳孔ともが検出されない状態が続いているときには、瞳孔中心の変化量Difを零とすると同時に“フラグ=0”とする。(vi)1つ前のフレームで両瞳孔が検出されていなかったときに、現フレームで両方若しくは片方の瞳孔が検出できたとき、瞳孔中心の変化量Difを零とすると同時に“フラグ=0”とする。ここで、“フラグ=0”とは、両瞳孔か片瞳孔が検出されていても瞳孔移動が無い場合と、両瞳孔とも検出されていない場合を識別するために画像処理端末4で設定するフラグであり、上記(i)〜(iv)の場合には、“フラグ=1”と設定される。 On the other hand, in the detection of the center of the pupil, one pupil may not be detected or both pupils may not be detected. Therefore, the pupil center change amount Dif P is calculated in the same manner as the nostril. That is, when the left and right pupils are detected, the amount of change for each of the left and right pupil centers is calculated. When (i) both the pupil is continuously detected, the average of each of the inter-frame variation of both the pupil center and the movement amount Dif P of the pupil center. When (ii) only one of the pupils is continuously detected, the inter-frame variation of only the pupil center is detected and the variation Dif P of the pupil center. (Iii) When both pupils are detected up to the previous frame and only one pupil is detected in the current frame, the coordinates of the center of the pupil detected in the current frame and the previous frame are detected. the amount of change to the same side of the pupil center coordinates in the frame and the variation Dif P of the pupil center. (iv) When only one pupil is detected up to the previous frame and both pupils are detected in the current frame, the coordinates of the pupil center detected in the previous frame and the current pupil center are detected. the amount of change in the pupil center coordinates of the same side of the frame and the variation Dif P of the pupil center. (v) When the state where both pupils are not detected continues, the pupil center change amount Dif P is set to zero, and at the same time, “flag = 0” is set. (Vi) When both pupils have not been detected in the previous frame and both or one of the pupils has been detected in the current frame, the change amount Dif P of the pupil center is set to zero and “flag = 0” ". Here, “flag = 0” is a flag that is set in the image processing terminal 4 in order to distinguish between the case where both pupils or one pupil are detected and no pupil movement and the case where both pupils are not detected. In the above cases (i) to (iv), “flag = 1” is set.

なお、瞳孔の変化量算出処理において鼻孔の場合と異なるのは、(v)と(vi)であるが、これは瞬きによって、両瞳孔とも消失する場合があるからである。従って、鼻孔の場合よりも処理が複雑になる。しかし、何らかの理由で画像処理が正しく動作しない場合に、瞳孔と同様に両鼻孔ともに検出されないことがあり得るため、鼻孔の変化量の算出の場合にも、(v)(vi)と同様の処理を併せて行うことが好ましい。   Note that in the pupil change amount calculation processing, the difference from the case of the nostrils is (v) and (vi) because both pupils may disappear due to blinking. Therefore, the process is more complicated than in the case of a nostril. However, if the image processing does not work correctly for some reason, both nostrils may not be detected as with the pupil, so the same processing as in (v) (vi) can be performed when calculating the amount of change in the nostrils. It is preferable to carry out in combination.

そして、画像処理端末4は、算出した複数のフレーム画像中の鼻孔中心位置の変化量Dif及び瞳孔中心位置の変化量Difから、下記式(9);
Dif=Dif−Dif …(9)
を用いて、変化量DifとDifかの差分を取ることによって視線移動量Difを連続して求める。この際、該当フレームにおいて“フラグ=0”の場合は、視線移動量Difは検出できなかったと判断する。
Then, the image processing terminal 4 calculates the following expression (9) from the calculated change amount Dif N of the nostril center position and the change amount Dif P of the pupil center position in the calculated plurality of frame images;
Dif = Dif P −Dif N (9)
Using a determined continuously vision shift amount Dif by taking the variation Dif N and Dif P Kano difference. At this time, if “flag = 0” in the corresponding frame, it is determined that the line-of-sight movement amount Dif could not be detected.

(視線移動量の算出)
画像処理端末4は、求めた視線移動量Difを予め設定した閾値と比較することによって視線移動の有無を判定し、視線移動が無いと判定された場合はブザー鳴動手段等に警報を出力する等によって外部に通知する。
(Calculation of eye movement)
The image processing terminal 4 determines the presence or absence of eye movement by comparing the obtained eye movement amount Dif with a preset threshold value, and outputs an alarm to a buzzer sounding means or the like when it is determined that there is no eye movement. To notify outside.

図3(a)は、対象者Aがカメラ2に対して正面を見た状態で、頭部を左右に交互に動かしたときに検出される左右の瞳孔中心の水平方向の位置XPL,XPR、左右の鼻孔中心の位置XNL,XNR、左右瞳孔位置の平均値XPA、及び左右鼻孔位置の平均値XNAの時間変化を示すグラフである。図3(b)は、このときの瞳孔と鼻孔との相対的位置DX、及び画像処理端末4が算出した視線移動量Dif(=瞳孔の鼻孔に対する相対的速度)の時間変化を示している。同図に示すように、左右の鼻孔は互いにほとんど同じ動きをし、左右の瞳孔も互いにほとんど同じ動きをするので、視線移動量Difの絶対値はそれほど大きくない。ここでは、簡単にするために、左右の鼻孔と左右の瞳孔が常に検出できているものとして示した。 3 (a) shows a state in which the subject A is viewed front the camera 2, the horizontal positions of the left and right pupil center detected when you move alternately head to the left and right X PL, X It is a graph showing temporal changes in PR , left and right nostril center positions X NL and X NR , left and right pupil position average value X PA , and left and right nostril position average value X NA . FIG. 3B shows temporal changes in the relative position DX between the pupil and the nostril at this time and the line-of-sight movement amount Dif calculated by the image processing terminal 4 (= relative speed of the pupil with respect to the nostril). As shown in the figure, the left and right nostrils move almost the same and the left and right pupils move almost the same, so the absolute value of the line-of-sight movement amount Dif is not so large. Here, for simplicity, the left and right nostrils and the left and right pupils are shown as being always detected.

一方、図4(a)は、頭部の動きに高速なサッカードの眼球運動が混在して起こっているときに検出される左右の瞳孔中心の位置XPL,XPR、左右の鼻孔中心の位置XNL,XNR、左右瞳孔位置の平均値XPA、及び左右鼻孔位置の平均値XNAの時間変化を示すグラフである。図4(b)は、このときの瞳孔の位置と鼻孔の位置との相対的位置DX、及び画像処理端末4が算出した視線移動量Difを示している。このように、サッカードが生じている時点において、視線移動量Difの絶対値が瞬間的に大きくなっていることがわかる。この場合は、正負の一定の閾値を設けることで、サッカードの生じている部分は比較的容易に検出できる。しかし、サッカードのサイズ(サッカードの開始から終了までの眼球回転角度変位)が小さいときには、サッカードが生じた時点の視線移動量Difが、頭部の運動による移動量に比べて突出して大きく検出されないため、一定の閾値では検出しにくい。また、検出する位置データに対するノイズの混入により、一定の閾値では検出しにくい傾向にある。 On the other hand, FIG. 4A shows the positions X PL and X PR of the left and right pupil centers detected when high-speed saccade eye movements are mixed with the movement of the head, and the center of the right and left nostrils. position X NL, X NR, is a graph showing mean values X PA of the left and right pupil position, and the time variation of the average value X NA of the left and right nostrils position. FIG. 4B shows the relative position DX between the pupil position and the nostril position at this time, and the line-of-sight movement amount Dif calculated by the image processing terminal 4. Thus, it can be seen that the absolute value of the line-of-sight movement amount Dif increases momentarily when the saccade is generated. In this case, a portion where saccade is generated can be detected relatively easily by providing a certain positive and negative threshold. However, when the size of the saccade (the eyeball rotation angle displacement from the start to the end of the saccade) is small, the line-of-sight movement amount Dif at the time of occurrence of the saccade is larger than the movement amount due to the movement of the head. Since it is not detected, it is difficult to detect with a certain threshold. Also, noise tends to be difficult to detect with a certain threshold due to the presence of noise in the position data to be detected.

そこで、画像処理端末4は、次のようにして適切な可変閾値を設定して、それに基づいて視線移動の有無を検出する。   Therefore, the image processing terminal 4 sets an appropriate variable threshold as follows, and detects the presence or absence of eye movement based on it.

すなわち、画像処理端末4は、視線移動量Difの時間変化に対して移動平均処理を施して移動平均値Difを算出する。その後、移動平均後の移動平均値Difの信号波形S(t)を基準に所定の一定閾値幅Thを設定して、下記式(10)を用いて2つの閾値波形Th(t)とTh(t)を求める。
Th(t)=S(t)+Th,Th(t)=S(t)−Th …(10)
That is, the image processing terminal 4 calculates the moving average value Dif A by performing a moving average process on the temporal change of the line-of-sight movement amount Dif. Thereafter, a predetermined constant threshold width Th is set based on the signal waveform S (t) of the moving average value Dif A after the moving average, and two threshold waveforms Th + (t) and Th - find a (t).
Th + (t) = S ( t) + Th, Th - (t) = S (t) -Th ... (10)

最後に、画像処理端末4は、移動平均前の視線移動量Difの信号波形をV(t)としたときに、下記式(11);
V(t)>Th(t) or V(t)<Th(t) …(11)
を満たすか否かに基づいて、視線移動の有無を判定する。また、移動平均値Difは、視線移動量Difを示す信号が生成されてから、移動平均処理による遅延が生じた信号として出力される場合がある。このような場合は、画像処理端末4は、視線移動量Difの信号を移動平均幅の半分の時間だけ遅延させて、信号波形をV(t)として生成しても式(11)を適用してもよい。
Finally, when the signal waveform of the line-of-sight movement amount Dif before the moving average is V (t), the image processing terminal 4 has the following formula (11);
V (t)> Th + ( t) or V (t) <Th - (t) ... (11)
The presence / absence of eye movement is determined based on whether or not the above condition is satisfied. In addition, the moving average value Dif A may be output as a signal in which a delay due to the moving average process occurs after a signal indicating the line-of-sight movement amount Dif is generated. In such a case, the image processing terminal 4 applies Equation (11) even if the signal waveform is generated as V (t) by delaying the signal of the line-of-sight movement amount Dif by half the moving average width. May be.

また、画像処理端末4は、視線移動量Difの信号波形にノイズが混入している場合には、視線移動量Difに1回目の移動平均処理を施し移動平均値Difの信号波形V(t)を算出し、さらに移動平均値Difに2回目の移動平均処理を施し移動平均値DifAAの信号波形S(t)を算出し、この信号波形V(t),S(t)を用いて式(10)及び(11)を適用して、視線移動の有無を判定することもできる。この場合、視線移動量Difに画像処理や信号処理の過程で混入したノイズレベルが大きくても、視線移動の有無を精度よく検出することができる。 In addition, when noise is mixed in the signal waveform of the line-of-sight movement amount Dif, the image processing terminal 4 performs the first moving average process on the line-of-sight movement amount Dif to obtain the signal waveform V (t of the movement average value Dif A. ), And the moving average value Dif A is subjected to a second moving average process to calculate a signal waveform S (t) of the moving average value Dif AA , and the signal waveforms V (t) and S (t) are used. The presence or absence of eye movement can also be determined by applying equations (10) and (11). In this case, even if the noise level mixed in the process of image processing or signal processing is large in the line-of-sight movement amount Dif, it is possible to accurately detect the presence or absence of the line-of-sight movement.

図5(a)は、移動平均前後の視線移動量Difの時間変化を示すグラフ、図5(b)は、視線移動量Difと閾値Th,Thの時間変化を示すグラフである。この例においては、サッカードの発生を、視線移動量Difのレベルから正常に検出することができている。 FIG. 5A is a graph showing the time change of the line-of-sight movement amount Dif before and after the moving average, and FIG. 5B is a graph showing the time change of the line-of-sight movement amount Dif and the threshold values Th + and Th . In this example, the occurrence of saccade can be normally detected from the level of the line-of-sight movement amount Dif.

以上説明した視線移動検出装置、及び視線移動検出方法によれば、対象者Aの顔画像を動画像として複数フレーム取得して、その複数フレーム内の瞳孔中心位置と鼻孔中心位置とを検出し、前後のフレーム間の鼻孔中心に対する瞳孔中心の相対的位置の変化Difを算出し、その変化の大小をもって視線移動の有無を判定するので、1台のカメラを使った顔画像であっても広い範囲で視線移動の有無を判定できるとともに、鼻孔位置を基準とした瞳孔位置をモニタすることで運転者等の頭自体が動きがちな対象者に関しても安定した視線移動の検出を実現することができる。   According to the line-of-sight movement detection device and the line-of-sight movement detection method described above, a plurality of frames are acquired as a moving image of the face image of the subject A, and the pupil center position and nostril center position in the plurality of frames are detected, Since the change Dif of the relative position of the pupil center with respect to the nostril center between the previous and next frames is calculated and the presence or absence of gaze movement is determined based on the magnitude of the change, a wide range can be obtained even for a face image using one camera. Thus, it is possible to determine the presence or absence of line-of-sight movement, and by monitoring the pupil position based on the nostril position, it is possible to realize stable detection of line-of-sight movement even for a subject whose head itself is likely to move.

また、視線移動の検出の基準として鼻孔位置を検出することで、検出時に周囲に対して暗い条件が作りやすく、画像処理に多少の工夫をすることでテンプレートマッチング法を使用しなくてもよいので、より容易に視線移動を検出できる。   In addition, by detecting the nostril position as a reference for detecting eye movement, it is easy to create a dark condition with respect to the surroundings at the time of detection, and it is not necessary to use the template matching method with some contrivance in image processing Therefore, it is possible to detect the movement of the line of sight more easily.

また、目の周囲に電極を取り付け顔の向きに対する視線の動きを計測する方法として古くから知られているEOG(眼電位図)法を採用する場合に比して、顔に付属物を装着しなくても済むため、ユーザにとって抵抗感が少なく、特に自動車などの運転手のモニターには最適である。   Compared to the long-known EOG (electro-oculogram) method for attaching eye electrodes to the face and measuring the movement of the line of sight relative to the face direction, attach accessories to the face. Since it is not necessary, there is little resistance for the user, and it is particularly suitable for monitoring a driver of a car or the like.

また、前後のフレーム間の瞳孔位置の変化量Dif及び鼻孔位置の変化量Difを求め、瞳孔位置の変化量と鼻孔位置の変化量との差分をとることによって相対的位置の変化量Difを算出するので、対象者の動画像を参照しながら効率的に瞳孔と鼻孔の相対的位置の変化を算出でき、視線移動検出のリアルタイム性が高くなる。 In addition, the change amount Dif P of the pupil position between the previous and next frames and the change amount Dif N of the nostril position are obtained, and the difference between the change amount of the pupil position and the change amount of the nostril position is obtained, thereby changing the relative position change amount Dif. Therefore, it is possible to efficiently calculate the change in the relative position of the pupil and nostril while referring to the moving image of the subject, and the real-time property of eye movement detection is improved.

また、複数のフレームにわたって相対的位置の変化量Difを連続して算出すると共に、該変化量の移動平均値Difを導出し、相対的位置の変化量Difを移動平均値Difを基準にして設定した閾値Th,Thと比較することによって、視線移動の有無を判定するので、眼球の回転角の変位の大小に応じた適切な閾値を設定することで、より精度の高い視線移動の検出が可能となる。 In addition, the relative position change amount Dif is continuously calculated over a plurality of frames, the moving average value Dif A of the change amount is derived, and the relative position change amount Dif is determined based on the moving average value Dif A. Since the presence or absence of eye movement is determined by comparing with the set threshold values Th + and Th , the eye movement with higher accuracy can be achieved by setting an appropriate threshold according to the magnitude of the displacement of the rotation angle of the eyeball. Can be detected.

本発明の好適に一実施形態にかかる視線移動検出装置と対象者との位置関係を示す平面図である。It is a top view which shows the positional relationship of the gaze movement detection apparatus concerning a suitable one Embodiment of this invention, and a subject. 図1の画像処理装置による対象者の検出状態を示す概念図である。It is a conceptual diagram which shows the detection state of the subject by the image processing apparatus of FIG. (a)は、左右の瞳孔中心の位置、左右の鼻孔中心の位置、瞳孔位置の平均値、及び鼻孔位置の平均値の時間変化を示すグラフ、(b)は、瞳孔位置と鼻孔位置との相対的位置、及び視線移動量の時間変化を示すグラフである。(A) is a graph showing the temporal changes in the left and right pupil center positions, the left and right nostril center positions, the average value of the pupil positions, and the average value of the nostril positions, and (b) is the graph of the pupil position and the nostril position. It is a graph which shows the time change of a relative position and a gaze movement amount. (a)は、左右の瞳孔中心の位置、左右の鼻孔中心の位置、瞳孔位置の平均値、及び鼻孔位置の平均値の時間変化を示すグラフ、(b)は、瞳孔と鼻孔との相対的位置、及び視線移動量の時間変化を示すグラフである。(A) is a graph showing the position of the left and right pupil centers, the position of the center of the right and left nostrils, the average value of the pupil positions, and the time variation of the average value of the nostril positions, and (b) is the relative relationship between the pupil and the nostrils. It is a graph which shows a time change of a position and a gaze movement amount. (a)は、移動平均前後の視線移動量の時間変化を示すグラフ、(b)は、視線移動量と閾値の時間変化を示すグラフである。(A) is a graph which shows the time change of the gaze movement amount before and behind the moving average, and (b) is a graph which shows the time change of the gaze movement amount and the threshold value.

符号の説明Explanation of symbols

1…視線移動検出装置、2…カメラ、3a,3b…光源、4…画像処理端末。   DESCRIPTION OF SYMBOLS 1 ... Eye movement detection apparatus, 2 ... Camera, 3a, 3b ... Light source, 4 ... Image processing terminal.

Claims (4)

対象者の顔画像を撮像して該顔画像に基づいて前記対象者の視線移動の有無を検出する視線移動検出方法であって、
前記対象者の顔画像を複数のフレーム分撮像して、前記複数のフレームのそれぞれを対象に前記対象者の瞳孔位置及び鼻孔位置を検出する検出ステップと、
前記複数のフレームを対象にして検出された前記瞳孔位置と前記鼻孔位置とに基づいて、前記複数のフレーム中の前後のフレーム間における前記対象者の鼻孔に対する瞳孔の相対的位置の変化量を算出する算出ステップと、
当該算出した変化量と所定の閾値とを用いて前記視線移動の有無を判定する判定ステップと、
を備えることを特徴とする視線移動検出方法。
A gaze movement detection method for capturing a face image of a subject and detecting the presence or absence of the gaze movement of the subject based on the face image,
Detecting a face image of the subject for a plurality of frames, and detecting a pupil position and a nostril position of the subject for each of the plurality of frames;
Based on the pupil position and the nostril position detected for the plurality of frames, the amount of change in the relative position of the pupil with respect to the subject's nostril between the previous and next frames in the plurality of frames is calculated. A calculating step to
A determination step of determining the presence or absence of the eye movement using the calculated change amount and a predetermined threshold;
A line-of-sight movement detection method comprising:
前記算出ステップでは、前記前後のフレーム間の前記瞳孔位置の変化量及び前記鼻孔位置の変化量を求め、前記瞳孔位置の変化量と前記鼻孔位置の変化量との差分をとることによって前記相対的位置の変化量を算出する、
ことを特徴とする請求項1記載の視線移動検出方法。
In the calculating step, a change amount of the pupil position and a change amount of the nostril position between the preceding and following frames are obtained, and the relative difference is obtained by taking a difference between the change amount of the pupil position and the change amount of the nostril position. Calculate the amount of change in position,
The line-of-sight movement detection method according to claim 1.
前記算出ステップでは、前記複数のフレームにわたって前記相対的位置の変化量を連続して算出すると共に、該変化量の移動平均値を導出し、
前記判定ステップでは、前記相対的位置の変化量を前記移動平均値を基準にして設定した閾値と比較することによって、前記視線移動の有無を判定する、
ことを特徴とする請求項1又は2に記載の視線移動検出方法。
In the calculating step, the change amount of the relative position is continuously calculated over the plurality of frames, and a moving average value of the change amount is derived,
In the determination step, the presence or absence of the eye movement is determined by comparing the amount of change in the relative position with a threshold value set based on the moving average value.
The method of detecting gaze movement according to claim 1 or 2.
対象者の顔画像を撮像して該顔画像に基づいて前記対象者の視線移動の有無を検出する視線移動検出装置であって、
前記対象者の顔画像を複数のフレーム分撮像して、前記複数のフレームのそれぞれを対象に前記対象者の瞳孔位置及び鼻孔位置を検出する手段と、
前記複数のフレームを対象にして検出された前記瞳孔位置と前記鼻孔位置とに基づいて、前記複数のフレーム中の前後のフレーム間における前記対象者の鼻孔に対する瞳孔の相対的位置の変化量を算出する手段と、
当該算出した変化量と所定の閾値とを用いて前記視線移動の有無を判定する手段と、
を備えることを特徴とする視線移動検出装置。
A gaze movement detection device that captures a face image of a subject and detects presence or absence of gaze movement of the subject based on the face image,
Means for capturing the face image of the subject for a plurality of frames and detecting the pupil position and nostril position of the subject for each of the plurality of frames;
Based on the pupil position and the nostril position detected for the plurality of frames, the amount of change in the relative position of the pupil with respect to the subject's nostril between the previous and next frames in the plurality of frames is calculated. Means to
Means for determining the presence or absence of the eye movement using the calculated change amount and a predetermined threshold;
A line-of-sight movement detection device comprising:
JP2006100344A 2006-03-31 2006-03-31 Gaze movement detection method and gaze movement detection apparatus Active JP4452833B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006100344A JP4452833B2 (en) 2006-03-31 2006-03-31 Gaze movement detection method and gaze movement detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006100344A JP4452833B2 (en) 2006-03-31 2006-03-31 Gaze movement detection method and gaze movement detection apparatus

Publications (2)

Publication Number Publication Date
JP2007268164A JP2007268164A (en) 2007-10-18
JP4452833B2 true JP4452833B2 (en) 2010-04-21

Family

ID=38671557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006100344A Active JP4452833B2 (en) 2006-03-31 2006-03-31 Gaze movement detection method and gaze movement detection apparatus

Country Status (1)

Country Link
JP (1) JP4452833B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5004099B2 (en) * 2008-07-11 2012-08-22 国立大学法人静岡大学 Cursor movement control method and cursor movement control apparatus
JP5483152B2 (en) * 2009-03-05 2014-05-07 国立大学法人 宮崎大学 Mouse cursor control system using electrooculogram
JP5426943B2 (en) * 2009-06-29 2014-02-26 パナソニック株式会社 Dimming control device for LED and lighting apparatus using the same
JP5490664B2 (en) * 2009-11-18 2014-05-14 パナソニック株式会社 Electrooculogram estimation device, electrooculogram calculation method, eye gaze detection device, wearable camera, head mounted display, and electronic glasses
JP5466610B2 (en) * 2010-09-27 2014-04-09 パナソニック株式会社 Gaze estimation device
US8503737B2 (en) 2010-09-27 2013-08-06 Panasonic Corporation Visual line estimating apparatus
WO2012068040A2 (en) * 2010-11-15 2012-05-24 Massachusetts Eye & Ear Infirmary Detection of vestibular disorders based on vestibular noise
US9795335B2 (en) 2012-04-06 2017-10-24 Massachusetts Eye And Ear Infirmary Data collection for vestibulogram construction
JP6303297B2 (en) 2013-06-14 2018-04-04 富士通株式会社 Terminal device, gaze detection program, and gaze detection method
JP6006179B2 (en) * 2013-06-20 2016-10-12 株式会社パスコ Data analysis apparatus, data analysis method, and program
JP2015207163A (en) * 2014-04-21 2015-11-19 株式会社デンソー State estimation device and state estimation program
JP2016167038A (en) * 2015-03-10 2016-09-15 ホヤ レンズ タイランド リミテッドHOYA Lens Thailand Ltd Spectacle wearing parameter measuring device, spectacle wearing parameter measuring program and imaging control method
KR101763110B1 (en) * 2017-01-25 2017-07-31 유한회사 이엔원 이엔지 Control system for stage setting apparatus
KR101794288B1 (en) 2017-07-24 2017-11-16 사단법인 꿈드래장애인협회 Control system for stage setting apparatus
JP7311257B2 (en) * 2018-09-27 2023-07-19 株式会社アイシン Eyeball information detection device, eyeball information detection method, and occupant monitoring device
CN113052064B (en) * 2021-03-23 2024-04-02 北京思图场景数据科技服务有限公司 Attention detection method based on face orientation, facial expression and pupil tracking

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224637A (en) * 1988-11-16 1990-09-06 A T R Tsushin Syst Kenkyusho:Kk System for detecting glance
JP3293308B2 (en) * 1994-03-10 2002-06-17 三菱電機株式会社 Person state detection device
JPH11282617A (en) * 1998-03-27 1999-10-15 Shimadzu Corp Sight line input device
JP4337131B2 (en) * 1999-06-10 2009-09-30 マツダ株式会社 Mobile control device
JP3797253B2 (en) * 2002-03-14 2006-07-12 日産自動車株式会社 Gaze direction detection device
JP2004017889A (en) * 2002-06-19 2004-01-22 Advics:Kk Automatic brake
JP4765008B2 (en) * 2004-03-16 2011-09-07 国立大学法人静岡大学 A method to detect head direction using pupil and nostril
JP2006075348A (en) * 2004-09-09 2006-03-23 Fuji Xerox Co Ltd Eye contact analyzing apparatus, eye contact analyzing method and eye contact analyzing program
JP2006204855A (en) * 2005-01-28 2006-08-10 Tokyo Institute Of Technology Device for detecting gaze motion

Also Published As

Publication number Publication date
JP2007268164A (en) 2007-10-18

Similar Documents

Publication Publication Date Title
JP4452833B2 (en) Gaze movement detection method and gaze movement detection apparatus
JP6577454B2 (en) On-axis gaze tracking system and method
US7819525B2 (en) Automatic direct gaze detection based on pupil symmetry
JP5230748B2 (en) Gaze direction determination device and gaze direction determination method
US20180160079A1 (en) Pupil detection device
JP5694161B2 (en) Pupil detection device and pupil detection method
JP6346525B2 (en) Gaze detection device
WO2018000020A1 (en) Systems and methods for performing eye gaze tracking
JP6535223B2 (en) Blink measurement method, blink measurement apparatus, and blink measurement program
EP3011894B1 (en) Eye gaze detection apparatus and eye gaze detection method
CN107960989B (en) Pulse wave measurement device and pulse wave measurement method
US11455810B2 (en) Driver attention state estimation
JP4770218B2 (en) Visual behavior determination device
JPWO2016027627A1 (en) Corneal reflection position estimation system, corneal reflection position estimation method, corneal reflection position estimation program, pupil detection system, pupil detection method, pupil detection program, gaze detection system, gaze detection method, gaze detection program, face posture detection system, face posture detection Method and face posture detection program
JP2007026073A (en) Face posture detection system
JP2010191793A (en) Alarm display and alarm display method
JP5429885B2 (en) Feature point tracking method and feature point tracking device
JP6957048B2 (en) Eye image processing device
JP2020162873A (en) Pulse wave detection device and pulse wave detection program
JP4552636B2 (en) Driver monitor system and processing method thereof
JP2016028669A (en) Pupil detection device and pupil detection method
JP5004099B2 (en) Cursor movement control method and cursor movement control apparatus
Hoshino et al. High-accuracy measurement of rotational eye movement by tracking of blood vessel images
JP2017102731A (en) Gaze detection device and gaze detection method
JP2020140637A (en) Pupil detection device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100105

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150