JP2006268189A - Visual inspection action determining device - Google Patents

Visual inspection action determining device Download PDF

Info

Publication number
JP2006268189A
JP2006268189A JP2005082661A JP2005082661A JP2006268189A JP 2006268189 A JP2006268189 A JP 2006268189A JP 2005082661 A JP2005082661 A JP 2005082661A JP 2005082661 A JP2005082661 A JP 2005082661A JP 2006268189 A JP2006268189 A JP 2006268189A
Authority
JP
Japan
Prior art keywords
eye
coordinates
visual
subject
opening
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005082661A
Other languages
Japanese (ja)
Other versions
JP4770218B2 (en
Inventor
Haruo Matsuo
治夫 松尾
Masayuki Kaneda
雅之 金田
Kinya Iwamoto
欣也 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005082661A priority Critical patent/JP4770218B2/en
Publication of JP2006268189A publication Critical patent/JP2006268189A/en
Application granted granted Critical
Publication of JP4770218B2 publication Critical patent/JP4770218B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To positively distinguish whether change of eye coordinates obtained by a face image of a subject is due to a visual inspection action of the subject, or it is due to an action of changing a direction of a face of the subject. <P>SOLUTION: A visual inspection action determining device 12 is provided with a face image acquiring part 20 acquiring the face image of the subject, an eye position detecting part 21, and an eye position tracking part 22 detecting the eye coordinates indicating an eye position of the subject, and carrying out tracking of the eye coordinates on the basis of the face image, and an opened and closed eye learning part 23, and an opened and closed eye determining part 24 calculating an eye opening of the subject on the basis of the face image and the eye coordinates, and determining an opened/closed state of the eyes of the subject from the eye opening. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、例えば車両を運転する運転者等の被験者の視認行動を判定する視認行動判定装置に関する。   The present invention relates to a visual behavior determination device that determines visual behavior of a subject such as a driver driving a vehicle.

従来より、運転者の顔を撮影し、運転者の状態を判断する技術として、脇見検出装置、居眠り検出装置、漫然運転検出装置、安全確認検出装置等の運転者監視装置が知られている。   Conventionally, driver monitoring devices such as an armpit detection device, a snooze detection device, a casual driving detection device, and a safety confirmation detection device are known as techniques for photographing a driver's face and determining the state of the driver.

この脇見検出装置においては、特許文献1において、運転者の顔画像を動画像として撮影し、画像処理によって連続する顔画像から順次眼の座標を検出し、当該眼の座標の動きから脇見を判定している。   In this armpit detection device, in Patent Document 1, a driver's face image is captured as a moving image, eye coordinates are sequentially detected from successive face images by image processing, and the armpit look is determined from the movement of the eye coordinates. is doing.

また、脇見運転を検出する他の技術としては、特許文献2に記載されている運転者の視線方向を検出する技術と、特許文献3に記載されている眼の瞳孔の反射を利用して眼の座標を検出する技術と、特許文献4に記載されている差分画像によって運転者の顔の向きを推定する技術とを利用して、運転者が視認すべき方向と実際の視認方向との比較によって、視認すべき方向を見ているかを判定することが提案されている。
特開平6−262959号公報 特開2002−83400号公報 特開平7−61257号公報 特開2000−113164号公報
In addition, as another technique for detecting the side-view driving, the technique for detecting the driver's line-of-sight direction described in Patent Document 2 and the reflection of the pupil of the eye described in Patent Document 3 are used. Using the technology for detecting the coordinates of the vehicle and the technology for estimating the direction of the driver's face based on the difference image described in Patent Document 4, the direction that the driver should visually recognize is compared with the actual viewing direction. It is proposed to determine whether the user is looking in the direction to be viewed.
JP-A-6-262959 JP 2002-83400 A JP-A-7-61257 JP 2000-113164 A

上述した特許文献1に記載の視線方向の検出処理は、眼の座標から視方向を推定することにより、正面を向いている時の視認行動と、脇見をしようとしている視認行動とを分離して判定するものである。しかしながら、運転者の頭部は、回転運動であるロール運動と上下動作であるピッチ運動、左右運動であるヨー運動の三種類からなり、更に、当該三種類の運動と、体全体の前後、左右、上下の移動による頭部のオフセット運動の三種類とを組み合わせると複雑な動きとなってしまう。   The gaze direction detection process described in Patent Document 1 described above separates the visual behavior when facing the front and the visual behavior that is looking aside by estimating the visual direction from the eye coordinates. Judgment. However, the driver's head consists of three types: a roll motion that is a rotational motion, a pitch motion that is a vertical motion, and a yaw motion that is a left-right motion. When combined with three types of head offset movements by vertical movement, the movement becomes complicated.

このため、運転者が横を見ようとして顔部のヨー運動を行った場合と、車室内の振動により顔部のロール運動を生じた場合とを、眼の座標位置の変化だけで検出すると、顔のロールによる挙動と、顔のヨーによる挙動が同じような移動量として検出されしまう。したがって、従来では、運転者が横を見ようとして眼の座標が変化したのか、振動によって眼の座標が変化したのかを区別することが困難であるという問題があった。   For this reason, if the driver performs a yaw movement of the face to look sideways and a roll movement of the face caused by vibration in the passenger compartment is detected only by a change in the coordinate position of the eye, The behavior due to the roll and the behavior due to the yaw of the face are detected as the same movement amount. Therefore, conventionally, there has been a problem that it is difficult to distinguish whether the driver has changed the eye coordinates when looking sideways or whether the eye coordinates have changed due to vibration.

これに対し、眼の座標のみならず、顔の他の部位として鼻座標や顔の輪郭座標を合わせて追跡して、顔部位間の距離の比を用いた場合には、ヨー運動とロール運動を区別できるが、この場合、眼座標だけでなく顔の他の部位の座標を合わせて追跡しなければならなくなり、計算負荷が高くなるという問題があった。更に、顔の向きを推定することはできるが、運転者が視線方向を変えたか否かを判定することができないという問題があった。   On the other hand, not only eye coordinates but also other parts of the face are tracked together with nose coordinates and face contour coordinates, and the distance ratio between face parts is used, the yaw motion and roll motion However, in this case, not only the eye coordinates but also the coordinates of other parts of the face must be tracked, resulting in a problem that the calculation load increases. Furthermore, although the face direction can be estimated, there is a problem that it cannot be determined whether or not the driver has changed the direction of the line of sight.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、被験者の顔画像から得られる眼座標の変化が、被験者の視認行動によるものか、被験者の顔の向きを変える行動によるものかを確実に区別することができる視認行動判定装置を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and whether the change in eye coordinates obtained from the face image of the subject is due to the visual behavior of the subject or the behavior of changing the orientation of the subject's face. It is an object of the present invention to provide a visual action determination device capable of reliably distinguishing whether or not.

本発明に係る視認行動判定装置は、撮像手段から出力された映像信号に含まれる被験者の顔画像を取得する顔画像取得手段と、顔画像に基づいて、被験者の眼位置を示す眼座標を検出すると共に、当該眼座標の追跡を行う眼座標取得手段と、顔画像と眼座標とに基づいて被験者の眼開度を演算し、当該眼開度から被験者の眼の開閉状態を判定する開閉眼判定手段とを備えており、上述の課題を解決するために、眼座標取得手段で追跡されている眼座標の時系列変化及び開閉眼判定手段で判定されている眼の開閉状態の時系列変化から、当該眼座標の時系列変化が、被験者の視認行動であることによるものか否かを判定する視認行動判定手段と、視認行動判定手段の判定結果を信号として出力する視認結果出力手段とを備える。   A visual recognition behavior determination apparatus according to the present invention detects a face image acquisition unit that acquires a face image of a subject included in a video signal output from an imaging unit, and detects eye coordinates that indicate the eye position of the subject based on the face image In addition, the eye coordinate acquisition means for tracking the eye coordinates, the eye opening of the subject is calculated based on the face image and the eye coordinates, and the opening / closing eye for determining the opening / closing state of the subject's eye from the eye opening In order to solve the above-mentioned problem, a time-series change of the eye coordinates tracked by the eye coordinate acquisition means and a time-series change of the eye open / closed state determined by the open / close eye determination means The visual behavior determination means for determining whether the time-series change of the eye coordinates is due to the visual behavior of the subject, and the visual recognition result output means for outputting the determination result of the visual behavior determination means as a signal. Prepare.

本発明に係る視認行動判定装置によれば、眼座標の時系列変化及び眼の開閉状態の時系列変化から、当該眼座標の時系列変化が、被験者の視認行動であることによるものか否かを判定するので、被験者の眼座標の位置変化に加え、被験者が視線方向を往復させる際には眼のピント補正をするために瞬目行為をするという生理現象を検出して視認行動を判定することができ、顔の向きを変えた場合などを視認行動であると判定することを確実に回避することができ、被験者の顔画像から得られる眼座標の変化が、被験者の視認行動によるものか、被験者の顔の向きを変える行動によるものかを確実に区別することができる。   According to the visual recognition behavior determination device according to the present invention, whether or not the time-series change of the eye coordinates is due to the visual behavior of the subject based on the time-series changes of the eye coordinates and the time-series changes of the eye open / closed state. Therefore, in addition to the change in the position of the eye coordinate of the subject, the visual behavior is determined by detecting the physiological phenomenon of blinking in order to correct the focus of the eye when the subject reciprocates the eye direction. It is possible to reliably avoid the case where the face orientation is changed, and to determine that it is a visual action, and whether the change in eye coordinates obtained from the face image of the subject is due to the visual behavior of the subject. Therefore, it is possible to reliably distinguish whether it is due to an action that changes the orientation of the face of the subject.

以下、本発明の実施の形態について図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態]
本発明は、例えば図1に示すように構成された第1実施形態に係る視認行動判定システムの視認行動判定装置12に適用される。なお、本実施形態において、視認行動判定システムは、車両を運転する運転者(被験者)の運転操作を支援する目的で車両に搭載されることを想定する。この視認行動判定システムにおける視認行動判定装置は、人(運転者)が視認行動を行い、例えば車両側方を見ていた状態から車両前方を視認方向に戻す行動のように、視線方向を戻す際には、眼のピントを補正するために瞬目を行うという生理現象を検出することにより、眼の状態としての眼座標の時系列変化及び開閉状態の時系列変化を検出して、運転者の行動が、「視認行動」であるか、「視認行動ではなく顔の向きを変えた行動」であるかを区別するものである。
[First Embodiment]
The present invention is applied to the visual recognition behavior determination device 12 of the visual behavior determination system according to the first embodiment configured as shown in FIG. 1, for example. In the present embodiment, it is assumed that the visual recognition behavior determination system is mounted on a vehicle for the purpose of supporting the driving operation of a driver (subject) driving the vehicle. The visual behavior determination device in this visual behavior determination system is a method in which a person (driver) performs a visual behavior, for example, when returning the line-of-sight direction like an action of returning the front of the vehicle to the visual recognition direction from a state of looking at the side of the vehicle. By detecting the physiological phenomenon of blinking in order to correct the focus of the eye, the time series change of the eye coordinates as the eye state and the time series change of the open / close state are detected, and the driver's It is distinguished whether the action is “visual action” or “action in which the face direction is changed instead of the visual action”.

[視認行動判定システムの構成]
視認行動判定システムは、図1に示すように、運転者の顔画像を撮像する撮像手段としてのビデオカメラ10と、運転者の顔周辺を照明する照明装置11と、運転者の視認行動を判定する視認行動判定装置12とを有している。
[Configuration of visual recognition judgment system]
As shown in FIG. 1, the visual behavior determination system determines a video camera 10 as an imaging unit that captures a driver's face image, an illumination device 11 that illuminates the periphery of the driver's face, and a driver's visual behavior. And a visual recognition behavior determination device 12 that performs the visual recognition behavior determination.

ビデオカメラ10は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)センサなどの受光素子、この受光素子を制御するドライバ回路、光学フィルタ及びレンズなどが装着された鏡頭部を有しており、撮像した映像(運転者の顔画像)をビデオ信号として視認行動判定装置12に出力する。   The video camera 10 has a light receiving element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) sensor, a driver circuit that controls the light receiving element, a mirror head on which an optical filter, a lens, and the like are mounted. The captured image (driver's face image) is output as a video signal to the visual recognition action determination device 12.

照明装置11は、例えばLED(Light Emitting Diode)やハロゲンランプなどの光源、光源を制御するドライバ回路、光学フィルタ及びレンズ等の光学素子を有しており、近赤外光を運転者の顔面に照射して照明する。   The illuminating device 11 includes a light source such as an LED (Light Emitting Diode) or a halogen lamp, a driver circuit that controls the light source, an optical element such as an optical filter, and a lens, and applies near infrared light to the driver's face. Irradiate and illuminate.

つぎに、視認行動判定装置12について、図2を参照しながら説明する。第1実施形態に係る視認行動判定装置12は、図2に示すように、顔画像取得部20と、眼位置検出部21と、眼位置追跡部22と、開閉眼学習部23と、開閉眼判定部24と、視認行動判定部25と、視認結果出力部26とを有している。   Next, the visual recognition behavior determination device 12 will be described with reference to FIG. As shown in FIG. 2, the visual recognition behavior determination device 12 according to the first embodiment includes a face image acquisition unit 20, an eye position detection unit 21, an eye position tracking unit 22, an open / close eye learning unit 23, and an open / close eye. It has the determination part 24, the visual recognition action determination part 25, and the visual recognition result output part 26.

顔画像取得部20は、ビデオカメラ10から出力されたビデオ信号が入力され、このビデオ信号に含まれる一連の画像フレームのうちの1枚或いは複数枚の画像フレームを用いて、運転者の顔画像を抽出して取得する。このとき、顔画像取得部20は、ビデオカメラ10から入力されたビデオ信号にデジタル処理を施し、顔画像をデジタル画像としてキャプチャして、ビデオメモリ内に蓄積する。ここで、ビデオカメラ10の取付位置や画角等から運転者の顔が撮像される画像内位置が決められており、顔画像取得部20は、当該画像内位置のデジタル画像をキャプチャすることになる。   The face image acquisition unit 20 receives the video signal output from the video camera 10 and uses one or a plurality of image frames in a series of image frames included in the video signal, thereby using the face image of the driver. Extract and get. At this time, the face image acquisition unit 20 performs digital processing on the video signal input from the video camera 10, captures the face image as a digital image, and stores the digital image in the video memory. Here, the position in the image at which the driver's face is imaged is determined from the mounting position and angle of view of the video camera 10, and the face image acquisition unit 20 captures a digital image of the position in the image. Become.

眼座標出力部21は、例えば所定期間ごとに顔画像取得部20で撮像された顔画像を取得し、当該顔画像に基づいて、運転者の眼位置を示す眼座標を検出して、眼位置追跡部22に出力する。   The eye coordinate output unit 21 acquires, for example, the face image captured by the face image acquisition unit 20 every predetermined period, detects eye coordinates indicating the driver's eye position based on the face image, and detects the eye position. Output to the tracking unit 22.

眼位置追跡部22は、時間的に前後する一連の顔画像を比較(複数の画像フレーム間で比較)して眼座標の追跡を行う。そして、眼位置追跡部22は、追跡結果である現在の眼座標を開閉眼学習部23,開閉眼判定部24及び視認行動判定部25に出力する。   The eye position tracking unit 22 tracks eye coordinates by comparing a series of facial images that are temporally changed (comparison between a plurality of image frames). Then, the eye position tracking unit 22 outputs the current eye coordinates as the tracking result to the open / close eye learning unit 23, the open / close eye determination unit 24, and the visual recognition behavior determination unit 25.

開閉眼学習部23は、顔画像取得部20により取得された顔画像と、眼座標出力部21により検出された眼座標の追跡結果である現在の眼座標とに基づいて、運転者の眼の開閉状態を学習する。このとき、開閉眼学習部23は、眼座標から眼開度を取得して、学習結果を得て、開閉眼判定部24に出力する。   Based on the face image acquired by the face image acquisition unit 20 and the current eye coordinates that are the tracking result of the eye coordinates detected by the eye coordinate output unit 21, the open / close eye learning unit 23 Learn opening and closing states. At this time, the open / close eye learning unit 23 acquires the eye opening from the eye coordinates, obtains a learning result, and outputs the learning result to the open / close eye determination unit 24.

開閉眼判定部24は、運転者の眼開度に基づく開閉状態の判定を行い、眼開度を視認行動判定部25に出力する。   The open / close eye determination unit 24 determines the open / closed state based on the driver's eye opening, and outputs the eye opening to the visual action determination unit 25.

視認行動判定部25は、開閉眼判定部24からの眼開度及び眼位置追跡部22からの追跡結果である現在の眼座標から、運転者の視認行動を判定する。具体的には、視認行動判定部25は、眼開度の変化及び現在の眼座標の時系列的な変化から、運転者の行動が視認行動であるか、顔の位置変動や顔の向き変動などの視認行動以外の行動であるかを判定する。   The visual recognition behavior determination unit 25 determines the visual behavior of the driver from the eye opening degree from the open / close eye determination unit 24 and the current eye coordinates that are the tracking result from the eye position tracking unit 22. Specifically, the visual recognition behavior determination unit 25 determines whether the driver's behavior is visual behavior based on a change in the eye opening and a time-series change in the current eye coordinates, a change in face position and a change in face direction. It is determined whether the behavior is other than visual behavior such as.

視認結果出力部26は、視認行動判定部25により判定された結果を信号として出力する。   The visual recognition result output unit 26 outputs the result determined by the visual recognition behavior determination unit 25 as a signal.

「眼位置検出処理」
つぎに、眼位置検出部21における眼位置検出処理について説明する。
"Eye position detection process"
Next, the eye position detection process in the eye position detection unit 21 will be described.

眼位置検出部21は、眼位置検出処理が開始されると、図3に示すように、現在の検出モードが、片側候補の検出処理か、或いは両側確定処理かを判断することにより、現在設定されている検出モードを確認する(ステップS10)。   When the eye position detection process is started, the eye position detection unit 21 determines whether the current detection mode is a one-side candidate detection process or a two-sided determination process as shown in FIG. The detected detection mode is confirmed (step S10).

そして、眼位置検出部21は、ステップS1で確認された検出モードに応じて、顔画像の画面全体から片眼となる候補を検出する片眼候補検出処理(ステップS11)、片眼候補の座標によって局所領域から両眼を検出し両眼を確定する両眼確定処理(ステップS12)のいずれかに処理を進める。また、ステップS11或いはステップS12における処理が完了すると、眼位置検出部21は、眼位置検出処理を終了する。   Then, the eye position detection unit 21 detects a candidate for one eye from the entire screen of the face image according to the detection mode confirmed in step S1 (step S11), the coordinates of the one eye candidate The process proceeds to one of the binocular confirmation processing (step S12) for detecting both eyes from the local region and confirming both eyes. Further, when the process in step S11 or step S12 is completed, the eye position detection unit 21 ends the eye position detection process.

ステップS2において片眼候補検出処理が開始されると、眼位置検出部21は、図4のフローチャートに示すように、片眼の候補を検出するための処理エリアを設定する処理(ステップS20)と、当該処理エリア内に存在する濃度変化点の連続データを検出する処理(ステップS21)と、片眼候補を絞り込む処理(ステップS22)と、次の画像フレームにおいて片眼候補の検出処理を行うか、両眼確定の処理を行うかを判断する処理(ステップS23)とを順次行う。   When the one-eye candidate detection process is started in step S2, the eye position detection unit 21 sets a processing area for detecting one-eye candidates (step S20), as shown in the flowchart of FIG. Whether to perform continuous data detection of density change points existing in the processing area (step S21), narrowing down one eye candidate (step S22), and detecting one eye candidate in the next image frame Then, the process of determining whether to perform the binocular determination process (step S23) is sequentially performed.

ここで、ステップS20において設定される処理エリアは、図5に示すように、顔画像の右半分又は左半分の領域として設定される。なお、図5においては、顔画像の右半分の領域に設定された場合の一例を示す。そして、この顔画像の右半分又は左半分の領域の眼付近では、例えば図6に示すように、眼の輪郭を示す横方向に隣接した濃度変化点群である連続データ(グループA)や、眉などの眼ではない濃度変化点群である連続データ(グループB)が検出されることになる。   Here, the processing area set in step S20 is set as a right half region or a left half region of the face image as shown in FIG. Note that FIG. 5 shows an example when the face image is set to the right half region. Then, in the vicinity of the eyes in the right half or left half of the face image, for example, as shown in FIG. 6, continuous data (group A) that is a density change point group adjacent in the horizontal direction indicating the outline of the eye, Continuous data (group B) that is a density change point group that is not an eye such as an eyebrow is detected.

また、ステップS21は、眼位置検出部21により、ステップS20で設定された処理エリア内の縦ライン毎(図7(a))に、光量の濃度変化を検出し(図7(b))、当該検出された白(淡)→黒(濃)と変化する濃度変化点が、横方向に連続する濃度変化点群を検出することにより、当該濃度変化点群を連続データとして検出する処理を行う(図7(c))。なお、図7(a)では、処理エリア内に設定された複数の縦ラインのうちの1本のみを図示しており、この1本の縦ラインについての光量の濃度変化を図7(b)に示す。図7(b)に示す光量の濃度変化において、「眼」であると検出された両端点に注目し、複数の縦ラインについて両端点を並べた状態を図7(c)に示す。なお、図7(c)においては、「眼」であると検出された両端点をそれぞれ「○」「×」で示す。   In step S21, the eye position detection unit 21 detects a change in the light amount density for each vertical line (FIG. 7A) in the processing area set in step S20 (FIG. 7B). By detecting a density change point group in which the detected density change points changing from white (light) to black (dark) in the horizontal direction are detected, the density change point group is detected as continuous data. (FIG. 7 (c)). In FIG. 7A, only one of the plurality of vertical lines set in the processing area is shown, and the change in the light amount density for the single vertical line is shown in FIG. Shown in FIG. 7C shows a state in which both end points are arranged for a plurality of vertical lines while paying attention to the end points detected as “eye” in the change in the light intensity density shown in FIG. 7B. In FIG. 7C, both end points detected as “eye” are indicated by “◯” and “x”, respectively.

また、ステップS22における片眼候補を絞り込む処理においては、眼位置検出部21により、ステップS21で検出された連続データが、上瞼のラインであれば、上凸の形状をしているという仮定に基づいて形状認識を行い、上凸の形状と合致した濃度変化点のみを、眼を示す画像として残すように処理する。   In the process of narrowing down one eye candidate in step S22, if the continuous data detected in step S21 by the eye position detection unit 21 is an upper eyelid line, it is assumed that it has an upward convex shape. Based on the shape recognition, only the density change points that match the convex shape are left as an image showing the eye.

ステップS23においては、眼位置検出部21により、片眼候補座標が検出されていない場合には次の画像フレームにおいて再度図4に示す片眼候補の検出処理を行うと判断し、或いは、片眼候補座標が検出された場合には次の画像フレームにおいてステップS12における両眼確定の処理を行うと判断する。   In step S23, when the one-eye candidate coordinates are not detected by the eye position detection unit 21, it is determined that the one-eye candidate detection process shown in FIG. 4 is performed again in the next image frame, or one eye If the candidate coordinates are detected, it is determined that the binocular confirmation process in step S12 is performed in the next image frame.

ステップS12における両眼確定処理を行うと判断されると、同一座標近辺に連続して上凸の形状をし、連続データとして検出される濃度変化点を片眼候補点として、両眼確定処理に遷移する。このステップS12においては、図8に示すように、片眼候補の座標に両眼を検出するための処理エリアを設定する処理(ステップS30)と、処理エリア内の濃度変化点の連続データを検出する処理(ステップS31)と、両眼候補として検出された連続データと予め用意されたテンプレートとの比較によるパターン認識により両眼を判定する処理(ステップS32)と、次の画像フレームにおいて片眼候補の検出処理に戻るか、引き続き両眼確定の処理を行うか、眼位置追跡の処理を行うかを判断する処理(ステップS33)とを順次行う。   If it is determined that the binocular confirmation process is to be performed in step S12, the binocular confirmation process is performed with the density change point detected as continuous data having a continuously convex shape in the vicinity of the same coordinate and being detected as continuous data. Transition. In this step S12, as shown in FIG. 8, the process of setting a processing area for detecting both eyes at the coordinates of one eye candidate (step S30) and the continuous data of density change points in the processing area are detected. Processing (step S31), processing for determining both eyes by pattern recognition by comparing continuous data detected as a binocular candidate and a template prepared in advance (step S32), and one eye candidate in the next image frame The process of determining whether to return to the detection process, to continue the binocular determination process, or to perform the eye position tracking process (step S33) is sequentially performed.

ここで、ステップS30において設定される処理エリアは、図9に示すように、顔画像において、運転者の両眼を含む領域が設定される。なお、この図9においては、鼻を検出するための領域も設定されていて、当該領域内に鼻から検出される濃度変化点も示している。   Here, as the processing area set in step S30, as shown in FIG. 9, an area including both eyes of the driver is set in the face image. In FIG. 9, a region for detecting the nose is also set, and the density change point detected from the nose is also shown in the region.

また、ステップS32で採用しているパターン認識処理は、予め複数の眼の画像からテンプレートとなる眼の画像を生成した画像データを用意しておき、当該テンプレートと、ステップS31で検出した連続データとの相関を求める相互相関法を用いる手法が使用可能である。又は、このステップS32では、予め複数の眼の画像と眼ではない顔部位画像(眼鏡のフレームや眉毛、鼻など)をニューラルネットワークによって学習し、眼か否かを判定するための画像をニューラルネットワークより判定する手法などを利用することができる。   The pattern recognition processing employed in step S32 prepares in advance image data that generates a template eye image from a plurality of eye images, and the template and the continuous data detected in step S31. It is possible to use a method using a cross-correlation method for obtaining the correlation. Alternatively, in this step S32, a plurality of eye images and non-eye face part images (glass frame, eyebrows, nose, etc.) are learned in advance by a neural network, and an image for determining whether or not the eye is present is used as the neural network. A method for determining more can be used.

「眼位置追跡処理」
つぎに、眼位置追跡部22における眼位置追跡処理について、図10に示すフローチャートを参照しながら説明する。
"Eye position tracking process"
Next, the eye position tracking process in the eye position tracking unit 22 will be described with reference to the flowchart shown in FIG.

眼位置追跡部22は、眼位置追跡処理が開始されると、図11(a)に示すように、前回の眼位置検出処理又は両眼確定処理によって検出された眼座標近辺の領域から、基準眼を検出する(ステップS40)。ここで、上述した眼位置検出処理における基準眼の検出位置とは、眼位置検出部21によって検出された「眼(図7(c))」について、図11(c)に示すように、「上端」「下端」「左端」「右端」を設定して、これらの中心位置を基準眼の位置として検出する処理である。   When the eye position tracking process is started, the eye position tracking unit 22 uses a reference area from the vicinity of the eye coordinates detected by the previous eye position detection process or the binocular determination process as shown in FIG. Eyes are detected (step S40). Here, the detection position of the reference eye in the above-described eye position detection process refers to “eye (FIG. 7C)” detected by the eye position detection unit 21, as shown in FIG. The upper end, the lower end, the left end, and the right end are set, and the center position is detected as the reference eye position.

次に、眼位置追跡部22は、基準眼が検出できたか否か判定し(ステップS41)、検出できた場合には、図11(b)に示すように、当該検出した今回の基準眼の座標から、前回の眼位置検出処理又は両眼確定処理により検出された眼の座標までの眼間距離を求めて、反対眼の検出領域を設定し、当該検出領域から反対眼を検出する(ステップS42)。   Next, the eye position tracking unit 22 determines whether or not the reference eye has been detected (step S41). If the eye has been detected, as shown in FIG. 11B, the detected current reference eye is detected. The interocular distance from the coordinates to the coordinates of the eyes detected by the previous eye position detection process or the binocular confirmation process is obtained, a detection area for the opposite eye is set, and the opposite eye is detected from the detection area (step) S42).

ステップS41において、眼位置追跡部22は、基準眼が検出できないと判定された場合には、反対眼を基準眼に変え(ステップS43)、再び基準眼の検出を行う(ステップS44)。次に、眼位置追跡部22は、反対眼を基準眼として検出できたか否か判定し(ステップS45)、検出できないと判定された場合には、当該画像フレームでの追跡に失敗したとみなして(ステップS46)、眼位置追跡処理を終了する。また、ステップS45において、眼位置追跡部22は、反対眼を基準眼として検出できたと判定された場合には、処理をステップS42に進める。   In step S41, if it is determined that the reference eye cannot be detected, the eye position tracking unit 22 changes the opposite eye to the reference eye (step S43) and detects the reference eye again (step S44). Next, the eye position tracking unit 22 determines whether or not the opposite eye can be detected as the reference eye (step S45). If it is determined that the eye cannot be detected, it is considered that tracking in the image frame has failed. (Step S46), the eye position tracking process is terminated. In step S45, when it is determined that the eye position tracking unit 22 has detected the opposite eye as the reference eye, the process proceeds to step S42.

ステップS42において反対眼の検出を行った後、眼位置追跡部22は、反対眼が検出できたか否か判定し(ステップS47)、検出できた場合には、検出した基準眼及び反対眼の座標を確定して(ステップS48)、眼位置追跡処理を終了する。また、ステップS47において、反対眼を検出できないと判定された場合には、眼位置追跡部22は、前回の眼座標から眼間距離を求めて、基準眼の座標から眼間距離相当分の移動位置を反対眼の座標として確定し(ステップS49)、眼位置検出処理を終了する。   After detecting the opposite eye in step S42, the eye position tracking unit 22 determines whether or not the opposite eye has been detected (step S47), and if detected, the coordinates of the detected reference eye and the opposite eye are detected. Is determined (step S48), and the eye position tracking process is terminated. When it is determined in step S47 that the opposite eye cannot be detected, the eye position tracking unit 22 obtains the interocular distance from the previous eye coordinates and moves the interocular distance corresponding to the reference eye coordinates. The position is determined as the coordinates of the opposite eye (step S49), and the eye position detection process is terminated.

「開閉眼判断処理」
つぎに、開閉眼学習部23による開閉眼学習処理及び開閉眼判定部24による開閉眼判定(決定)処理について、図12に示すフローチャートを参照しながら説明する。
"Open / close eye judgment process"
Next, the opening / closing eye learning process by the opening / closing eye learning unit 23 and the opening / closing eye determination (determination) process by the opening / closing eye determination unit 24 will be described with reference to the flowchart shown in FIG.

開閉眼学習部23及び開閉眼判定部24は、開閉眼学習処理及び開閉眼判断処理が開始されると、眼位置追跡部22による眼位置追跡処理によって得られた眼座標近辺の画像領域から、画像の濃淡値により2値化閾値を決定し、顔画像から眼領域を切り出すことにより、眼の「左端」「右端」「上端」「下端」を取得して、開閉眼判断用パラメータを設定する(ステップS50)。ここで、開閉眼判断用パラメータとして設定される眼の「左端」「右端」「上端」「下端」の各座標は、開眼時と閉眼時とではその相対位置関係が異なるように設定されることになる。   When the opening / closing eye learning process and the opening / closing eye determination process are started, the opening / closing eye learning unit 23 and the opening / closing eye determination unit 24 start from the image region around the eye coordinates obtained by the eye position tracking process by the eye position tracking unit 22. By determining the binarization threshold based on the gray value of the image and cutting out the eye area from the face image, the “left end”, “right end”, “upper end”, and “lower end” of the eye are acquired, and the open / close eye determination parameters are set. (Step S50). Here, the coordinates of the “left end”, “right end”, “upper end”, and “lower end” of the eye that are set as the open / closed eye determination parameters should be set so that the relative positional relationship differs between when the eye is opened and when the eye is closed. become.

次に、開閉眼学習部23及び開閉眼判定部24は、眼の「上端」と「下端」との間の距離(眼の縦幅)を眼の開度として求める(ステップS51)。ここで、ステップS50で設定された開閉眼判断用パラメータから、眼の「上端」と「下端」との相対位置関係は、眼の開閉状態が閉眼に近づくに従って、近接した関係となる。   Next, the open / close eye learning unit 23 and the open / close eye determination unit 24 obtain the distance (vertical width of the eye) between the “upper end” and the “lower end” of the eye as the eye opening (step S51). Here, from the open / closed eye determination parameters set in step S50, the relative positional relationship between the “upper end” and “lower end” of the eye becomes closer as the open / closed state of the eye approaches the closed eye.

次に、開閉眼判定部24は、眼の「右端」「左端」「上端」による上瞼の形状に基づいて、「右端」と「左端」とを結ぶ線分に対して「上端」の座標が上方にあるか下方にあるかを判定する。そして、開閉眼判定部24は、この判定結果に基づいて眼の形状が上凸状であるか、下凸(凹)状であるか、或いは水平であるかを判定する(ステップS52)。   Next, the open / close eye determination unit 24 coordinates the “upper end” with respect to the line segment connecting the “right end” and the “left end” based on the shape of the upper eyelid by the “right end”, “left end”, and “upper end” of the eye. Is determined to be above or below. Then, the open / close eye determination unit 24 determines whether the eye shape is upward, downward (concave), or horizontal based on the determination result (step S52).

次に、開閉眼判定部24は、眼の開閉学習が終了しているか否かを判定し(ステップS53)、開閉眼学習部23による終了していない場合には眼の開閉学習を行わせる(ステップS54)。一方、眼の開閉学習が終了している場合には、眼の形状と眼の学習結果によって得られる眼の縦幅閾値と、検出した現在の眼の縦幅とに基づき、検出した現在の眼の縦幅が眼の縦幅閾値以下の場合を閉眼、縦幅閾値以上の場合を開眼として判断する(ステップS55)。具体的には、図13に示すように、開閉眼判定部24は、現在の眼の縦幅(開眼開度値)が予め設定し閾値以上である場合には、運転者の眼が開状態であると判定し、現在の眼の縦幅が閾値以下に下降した場合に、運転者の眼が閉状態であると判定する。   Next, the open / close eye determination unit 24 determines whether or not the eye open / close learning has been completed (step S53), and when the open / close eye learning unit 23 has not ended, the open / close eye learning is performed (step S53). Step S54). On the other hand, when the eye opening / closing learning has been completed, the detected current eye is detected based on the eye height threshold obtained from the eye shape and the eye learning result and the detected current eye height. When the vertical width is equal to or smaller than the vertical threshold of the eye, it is determined that the eye is closed and when the vertical width is equal to or larger than the vertical threshold (step S55). Specifically, as shown in FIG. 13, when the current eye vertical width (opening opening value) is equal to or greater than a predetermined threshold, the open / close eye determination unit 24 opens the driver's eyes. It is determined that the driver's eyes are in a closed state when the current eye height drops below a threshold value.

開閉眼学習部23及び開閉眼判定部24は、ステップS54或いはステップS55の処理の後に、一連の処理を終了する。   The open / close eye learning unit 23 and the open / close eye determination unit 24 end the series of processes after the process of step S54 or step S55.

ステップS54における開閉眼学習部23による眼の開閉学習処理は、以下のようにして行われる。すなわち、図12のフローチャートに示す一連の処理で得られた眼の縦幅と、眼の形状とから、眼の形状が上凸であるときの開度値を、図14に示すような開度値ごとに用意したカウンタ用メモリ配列にてカウントし、各開度値の左右のカウンタ用メモリの合計値が予め設定された設定値(本実施形態においては「20」とする)以上となった開度値を、開眼開度値として学習する。また、開眼開度値から予め設定された所定の割合(本実施形態においては「30%」とする)を、図13で説明したように、開眼と閉眼を区別するための閾値として設定する。   The eye opening / closing learning process by the opening / closing eye learning unit 23 in step S54 is performed as follows. That is, the opening degree value when the eye shape is upwardly convex from the vertical width of the eye and the eye shape obtained by the series of processes shown in the flowchart of FIG. The counter memory array prepared for each value is counted, and the total value of the left and right counter memories for each opening value is equal to or greater than a preset setting value (in this embodiment, “20”). The opening value is learned as an eye opening value. Further, a predetermined ratio (in this embodiment, “30%”) set in advance from the eye opening degree value is set as a threshold value for distinguishing between opening and closing as described with reference to FIG.

「視認行動判定処理」
つぎに、視認行動判定部25における処理について説明する。
"Visibility action determination process"
Next, processing in the visual recognition behavior determination unit 25 will be described.

視認行動判定部25は、視認行動の判定を行うために、眼位置追跡によって得られる眼の座標を眼位置追跡部22から入力し、開閉眼判定によって得られる眼の開閉状態を開閉眼判定部24から入力する。そして、視認行動判定部25は、双方の検出結果の時系列な変化によって、運転者の行動が視認行動であるか、顔の位置変動や顔の向き変動などの視認行動以外の行動であるかを判定する。   The visual behavior determination unit 25 inputs eye coordinates obtained by eye position tracking from the eye position tracking unit 22 to determine the visual behavior, and opens and closes the eye open / close state obtained by the open / close eye determination. Input from 24. Then, the visual recognition behavior determination unit 25 determines whether the driver's behavior is visual behavior or behavior other than visual behavior such as face position variation and face orientation variation, based on a time-series change in both detection results. Determine.

図15に、眼位置追跡処理によって得られる左右の眼の座標(X軸方向、Y軸方向)と、開閉眼判定処理によって得られる眼の開閉状態を時系列に示す。この図15(a)に示すように、X軸における眼座標の変化、すなわち視線方向変化がフレーム番号1300〜1400で検出されているが、当該視線方向変化の開始時及び終了時において開眼→閉眼→開眼となる変化が短い期間でなされる瞬目行為を検出している。また、図15(a)とは逆方向の眼座標変化を図15(b)に示すが、この場合であっても、X軸における眼座標の変化、すなわち視線方向変化がフレーム番号700〜800で検出されており、当該視線方向変化の開始時及び終了時において開眼→閉眼→開眼となる変化が短い期間でなされる瞬目行為を検出している。このような結果から、運転者(被験者)が眼座標が変化する視認行動時には、所定の眼座標から他の眼座標に眼座標が移動する時及び他の眼座標から所定の眼座標に戻る時に瞬目行為を伴う生理現象を検出できていることがわかる。   FIG. 15 shows in time series the left and right eye coordinates (X-axis direction and Y-axis direction) obtained by the eye position tracking process and the eye open / closed state obtained by the open / closed eye determination process. As shown in FIG. 15 (a), a change in eye coordinates on the X axis, that is, a change in gaze direction, is detected at frame numbers 1300 to 1400. → Detects blinking action that occurs in a short period of time when the eye opening changes. FIG. 15B shows a change in eye coordinates in the direction opposite to that in FIG. 15A. Even in this case, the change in eye coordinates on the X axis, that is, the change in the line-of-sight direction is frame numbers 700 to 800. The eyeblink action in which the change from eye-opening to eye-closing to eye-opening is performed in a short period at the start and end of the line-of-sight direction change is detected. From such a result, when the driver (subject) is visually recognizing when the eye coordinates are changed, when the eye coordinates are moved from a predetermined eye coordinate to another eye coordinate, and when the eye coordinate is returned from the other eye coordinate to the predetermined eye coordinate. It turns out that the physiological phenomenon accompanying a blink action is detected.

これに対し、視認行動判定部25は、眼座標の移動を所定期間ごとに眼位置追跡部22から入力することによって、時系列で眼座標の変化を検出して、当該眼座標の移動が一定距離以上となり、その後、眼座標の移動が一定距離未満となった場合、すなわち、一定時間区間における眼座標の分散値が設定値以上となる区間と、次の一定時間区間における眼座標の分散値が設定値未満となる区間とを検出する。また、視認行動判定部25は、当該眼座標の分散値が設定値以上となる区間と、眼座標の分散値が設定値未満となる区間との間付近における、開閉眼判定部24からの開閉状態の判定結果を入力して、開眼→閉眼→開眼となる変化が短い期間でなされる瞬目行為がなされていたか否かを判定して、瞬目行為があった場合には、眼座標の分散値が設定値以上となった行動が視認行動であると判定し、瞬目行為がなかった場合には、眼座標の分散値が設定値以上となった行動が視認行動ではないと判定できる。   On the other hand, the visual recognition behavior determination unit 25 detects the change of the eye coordinate in time series by inputting the movement of the eye coordinate from the eye position tracking unit 22 every predetermined period, and the movement of the eye coordinate is constant. When the eye coordinate movement is less than a certain distance after that, that is, when the variance value of the eye coordinates in a certain time interval is greater than or equal to the set value, and the variance value of the eye coordinates in the next certain time interval Detects a section where is less than the set value. Further, the visual recognition behavior determination unit 25 opens / closes from the open / closed eye determination unit 24 in the vicinity between a section where the variance value of the eye coordinates is greater than or equal to a set value and a section where the variance value of the eye coordinates is less than the set value. Enter the state determination result, and determine whether or not the blink action has been performed in a short period of time when the change from opening to closing to closing to opening has been performed. It can be determined that an action with a variance value greater than or equal to a set value is a visual action, and if there is no blink action, it can be determined that an action with an eye coordinate variance value greater than or equal to a set value is not a visual action .

したがって、視認行動判定部25は、所定の眼座標から他の眼座標に眼座標が移動する時及び他の眼座標から所定の眼座標に戻る時に、瞬目行為が検知された場合には、視認行動がなされたことを判定でき、瞬目行為が検知されていない場合には、視認行動がなされていないことを判定できる。   Therefore, when the eye movement is detected when the eye coordinate moves from the predetermined eye coordinate to the other eye coordinate and when the eye coordinate moves from the other eye coordinate to the predetermined eye coordinate, It can be determined that the visual recognition action has been performed, and when the blink action is not detected, it can be determined that the visual recognition action has not been performed.

又は、視認行動判定部25は、瞬目行為間における眼座標の分散値の平均値を求めて、瞬目行為間での眼座標の分散値が設定値以上であった場合には、当該瞬目行為間で視認行動があったと判定し、瞬目行為間での眼座標の分散値が設定値以上ではなかった場合には、当該瞬目行為間で視認行動がなかったと判定しても良い。   Alternatively, the visual recognition behavior determination unit 25 obtains an average value of the variance value of the eye coordinates between the blink actions, and when the variance value of the eye coordinates between the blink actions is equal to or larger than the set value, If it is determined that there is a visual action between eye actions, and the variance of eye coordinates between blink actions is not equal to or greater than a set value, it may be determined that there is no visual action between the blink actions. .

更に、視認行動判定部25は、視認行動の有無を判断するために、図16に示すような眼座標の移動量と瞬目行為の有無との関係による視認行動の有無の可能性を記したテーブルデータを使用しても良い。この図16によれば、(1)眼座標移動が大きく且つ眼座標移動の前後の何れかに瞬目行為が検出された場合には視認行動が有った可能性が高い、(2)眼座標移動が少なく眼座標移動の前後の何れにも瞬目行為が検出されていない場合には視認行動が有った可能性が低い、(3)眼座標移動は大きいが、眼座標移動の前後に瞬目行為が検出されていない場合、又は、眼座標移動は少ないが、眼座標移動の前後に瞬目行為が検出されていた場合には視認行動が有った可能性が中程度である、という(1)〜(3)の3個の条件を使用する。そして、視認行動判定部25は、このような3個の条件と、眼座標の移動量及び瞬目行為の有無とを比較して、当該眼座標の移動が視認行動である可能性の高、中、低が判定できる。   Furthermore, in order to determine the presence / absence of the visual behavior, the visual behavior determination unit 25 described the possibility of the visual behavior based on the relationship between the movement amount of the eye coordinates and the presence / absence of the blink action as shown in FIG. Table data may be used. According to FIG. 16, (1) the eye coordinate movement is large and there is a high possibility that there is a visual action when the blink action is detected either before or after the eye coordinate movement. When there is little coordinate movement and no blink action is detected before or after the eye coordinate movement, it is unlikely that there was a visual action. (3) Although the eye coordinate movement is large, before and after the eye coordinate movement If the blinking action is not detected or if the eye coordinate movement is small but the blinking action is detected before and after the eye coordinate movement, there is a moderate possibility that there was a visual action. The three conditions (1) to (3) are used. And the visual recognition action determination part 25 compares such three conditions with the movement amount of an eye coordinate, and the presence or absence of a blink action, and there is a high possibility that the movement of the eye coordinate is a visual action, Medium or low can be judged.

[第1実施形態の効果]
以上詳細に説明したように、本発明を適用した視認行動判定装置によれば、眼座標の時系列変化及び眼の開閉状態の時系列変化から、当該眼座標の時系列変化が、被験者の視認行動であることによるものか否かを判定するので、運転者の眼座標の位置変化に加え、運転者が視線方向を往復させる際には眼のピント補正をするために瞬目行為をするという生理現象を検出して視認行動を判定することができ、顔の向きを変えた場合などを視認行動であると判定することを確実に回避することができる。
[Effect of the first embodiment]
As described above in detail, according to the visual recognition behavior determination device to which the present invention is applied, the time-series change of the eye coordinate is determined by the visual recognition of the subject from the time-series change of the eye coordinate and the time-series change of the eye open / closed state. Since it is determined whether or not it is due to behavior, in addition to the change in the position of the driver's eye coordinates, when the driver reciprocates in the direction of the line of sight, he / she acts to blink to correct the focus of the eyes The visual behavior can be determined by detecting a physiological phenomenon, and it can be surely avoided that the visual behavior is determined when the face direction is changed.

また、視認行動判定システムによれば、眼座標の移動量が設定値以上であるかを判定し、当該眼座標の移動時に瞬目行為の有ったと判定した場合には、当該眼座標の時系列変化が、被験者の視認行動であることによるものと判定することができ、視線移動時には瞬目行為を伴うという生理現象を利用して、確実に視認行動と顔の向きを変える等の行為とを区別することができる。   Further, according to the visual recognition behavior determination system, it is determined whether the movement amount of the eye coordinates is equal to or larger than the set value, and when it is determined that there is a blink action at the time of movement of the eye coordinates, It can be determined that the series change is due to the subject's visual recognition behavior, and using the physiological phenomenon that accompanies blinking action when moving the line of sight, Can be distinguished.

更に、視認行動判定システムによれば、瞬目行為が有ったと判定した場合に、当該瞬目行為間における眼座標の移動量の平均値を求めて、当該瞬目行為間での眼座標の移動量が設定値以上であった場合には、当該眼座標の時系列変化が、被験者の視認行動であることによるものと判定することができ、視線移動時には瞬目行為を伴うという生理現象を利用して、確実に視認行動と顔の向きを変える等の行為とを区別することができる。   Furthermore, according to the visual recognition behavior determination system, when it is determined that there is a blink action, an average value of the movement amount of the eye coordinates between the blink actions is obtained, and the eye coordinate between the blink actions is calculated. When the amount of movement is greater than or equal to the set value, it can be determined that the time-series change in the eye coordinates is due to the visual behavior of the subject, and the physiological phenomenon that accompanies blinking when moving the line of sight By using this, it is possible to reliably distinguish the visual action and the action such as changing the face direction.

また、視認行動判定システムは、眼座標のみから視線方向を推定して正面を向いている時の視認行動と、脇見をしようとしている視認行動とを分離して判定する場合のように複雑な処理を行う必要なく、眼座標の変化が、視認行動によるものか、顔の向きを変えたことによるものかを確実に判定することができる。   In addition, the visual recognition behavior determination system estimates the line-of-sight direction from the eye coordinates alone and performs complicated processing as in the case of separately determining the visual behavior when facing the front and the visual behavior that is looking aside. It is possible to reliably determine whether the change in the eye coordinates is due to a visual recognition action or a change in the face orientation.

すなわち、この視認行動判定システムによれば、運転者の頭部が、回転運動であるロール運動と上下動作であるピッチ運動、左右運動であるヨー運動の三種類からなり、更に、当該三種類の運動と、体全体の前後、左右、上下の移動による頭部のオフセット運動と三種類とを組み合わせると複雑な動きとなってしまうが、このような複雑な動きを眼座標の変化だけで判定する必要がない。更に、眼座標、鼻座標や顔の輪郭座標を合わせて追跡して、顔部位間の距離の比を用いる場合のように、複数の顔部位を追跡する必要なく、視認行動判定システムによれば、眼座標の追跡のみで、視認行動か、顔の向きを変えたかを確実に判定することができる。   That is, according to this visual recognition behavior determination system, the driver's head consists of three types of roll motion, which is rotational motion, pitch motion, which is vertical motion, and yaw motion, which is lateral motion. Combining movement with the three types of head offset movements by moving the entire body back and forth, left and right, and up and down results in complex movements. Such complex movements are determined only by changes in eye coordinates. There is no need. Further, according to the visual recognition behavior determination system, it is not necessary to track a plurality of face parts as in the case of using a ratio of distances between face parts by tracking eye coordinates, nose coordinates and face contour coordinates together. Only by tracking the eye coordinates, it is possible to reliably determine whether the visual action or the face orientation has been changed.

更にまた、視認行動判定システムによれば、眼座標を取得するために、顔画像全体の右半分又は左半分から片眼の候補を検出する処理エリアを設定し、当該処理エリアから片眼候補座標の検出を行って片眼候補座標が検出された場合に、当該片眼候補座標を基準にして両眼を検出するための領域を設定し、当該領域内で片眼候補座標に対する両眼の確定処理を行うので、顔画像全体から両眼を探すよりも少ない計算量により両眼を検出することができ、処理負荷を低減させることができる。   Furthermore, according to the visual recognition behavior determination system, in order to acquire the eye coordinates, a processing area for detecting one eye candidate from the right half or the left half of the entire face image is set, and the one eye candidate coordinates are determined from the processing area. When one eye candidate coordinate is detected, a region for detecting both eyes is set with reference to the one eye candidate coordinate, and both eyes are determined for the one eye candidate coordinate in the region. Since processing is performed, both eyes can be detected with a smaller amount of calculation than searching for both eyes from the entire face image, and the processing load can be reduced.

更にまた、視認行動判定システムによれば、眼座標を取得するために、顔画像中における眼を検出するための処理エリア内に複数の縦ラインを設定し、当該縦ラインごとに、光量の濃度変化の微分値を求めて濃度変化点を検出し、当該縦ライン間の濃度変化点が横方向で連続する連続データの中心座標を眼座標として取得するので、例えば太陽光の影響による影や、逆光による影響に左右されずに、眼座標の候補を検出することができる。   Furthermore, according to the visual recognition behavior determination system, in order to acquire the eye coordinates, a plurality of vertical lines are set in the processing area for detecting eyes in the face image, and the light intensity density is set for each vertical line. Obtaining the differential value of the change to detect the density change point, and acquiring the center coordinates of the continuous data in which the density change points between the vertical lines continue in the horizontal direction as eye coordinates, for example, shadows due to the influence of sunlight, Eye coordinate candidates can be detected regardless of the influence of backlight.

更にまた、視認行動判定システムによれば、時間的に前に取得した眼座標を中心とした領域から現在の基準となる眼座標が検出された場合には、当該基準となる眼座標から、時間的に前に取得した両眼間距離だけ離れた座標付近に存在する反対眼を求めて両眼を追跡するので、顔画像のフレームごとに眼座標の検出を行う必要がなくなり、前回のフレームで得た眼座標と眼間距離によって、簡単に眼座標の追跡を行うことができる。   Furthermore, according to the visual recognition behavior determination system, when the current reference eye coordinate is detected from the region centered on the eye coordinate acquired in time, the time is determined from the reference eye coordinate. Since the opposite eye that exists in the vicinity of the coordinates that are separated by the interocular distance acquired previously is tracked, both eyes are tracked, eliminating the need to detect eye coordinates for each frame of the face image. The eye coordinates can be easily traced based on the obtained eye coordinates and the interocular distance.

更にまた、視認行動判定システムによれば、眼の左端座標、上端座標、右端座標から眼の形状が上凸であるかを判定し、眼の形状が上凸である場合の眼の上端座標と下端座標との距離を開眼開度値として記録し、当該開眼開度値から予め設定された所定の割合を減じた値を開眼と閉眼とを区別するための閾値として設定する学習を行い、当該閾値と眼開度とから運転者の眼の開閉状態を判定するので、眼の縦幅のみを開眼開度値の学習に使用することができ、眼(上瞼)の形状が水平や下凸(凹)といった閉眼の可能性のあるときの開度値を学習データから排除して、精度の高い開閉判定を行うことができる。   Furthermore, according to the visual recognition behavior determination system, it is determined whether the eye shape is upwardly convex from the left end coordinate, upper end coordinate, and right end coordinate of the eye, and the upper end coordinate of the eye when the eye shape is upwardly convex The distance from the lower end coordinate is recorded as an eye opening value, learning to set a value obtained by subtracting a predetermined ratio set in advance from the eye opening value as a threshold value for distinguishing between eye opening and closing, Since the open / closed state of the driver's eye is determined from the threshold and the eye opening, only the vertical width of the eye can be used for learning the eye opening value, and the shape of the eye (upper eyelid) is horizontal or downward convex It is possible to make an open / close determination with high accuracy by excluding the opening value when there is a possibility of eye closure such as (concave) from the learning data.

[第2実施形態]
つぎに、第2実施形態に係る視認行動判定システムについて説明する。なお、上述の第1実施形態と同様の部分については同一符号を付することによりその詳細な説明を省略する。
[Second Embodiment]
Next, a visual recognition behavior determination system according to the second embodiment will be described. In addition, about the part similar to the above-mentioned 1st Embodiment, the detailed description is abbreviate | omitted by attaching | subjecting the same code | symbol.

第2実施形態に係る視認行動判定システムは、図17に示すように、眼位置追跡部22及び視認行動判定部25に接続された車両信号取得部31と、視認行動判定部25に接続された周囲環境取得部32とを備えた点で、第1実施形態に係る視認行動判定システムとは異なる。車両信号取得部31は、車速や操舵角を車両信号として取得して、眼位置追跡部22及び視認行動判定部25に出力する。また、周囲環境取得部32は、GPS信号に基づく車両位置、ナビゲーションシステムからの走行道路環境情報、車間距離センサからの車間距離などを、車両周囲環境情報として取得して、視認行動判定部25に出力する。   As shown in FIG. 17, the visual behavior determination system according to the second embodiment is connected to the vehicle signal acquisition unit 31 connected to the eye position tracking unit 22 and the visual behavior determination unit 25, and to the visual behavior determination unit 25. It differs from the visual recognition behavior determination system according to the first embodiment in that it includes an ambient environment acquisition unit 32. The vehicle signal acquisition unit 31 acquires the vehicle speed and the steering angle as vehicle signals and outputs them to the eye position tracking unit 22 and the visual action determination unit 25. In addition, the ambient environment acquisition unit 32 acquires the vehicle position based on the GPS signal, the traveling road environment information from the navigation system, the inter-vehicle distance from the inter-vehicle distance sensor, and the like as the vehicle ambient environment information, and the visual behavior determination unit 25 Output.

眼位置追跡部22は、車速信号、操舵角信号を受信すると、当該車速信号、操舵角信号に基づいて眼座標の追跡処理を保留するか、継続して実行するかを判定する。すなわち、眼位置追跡部22は、車速が一定速度以下、例えば車両が停止状態である場合には、眼座標の追跡処理を保留する。また、眼位置追跡部22は、操舵角が一定値以上、例えば右左折動作状態である場合には、眼座標の追跡処理を保留する。   When the eye position tracking unit 22 receives the vehicle speed signal and the steering angle signal, the eye position tracking unit 22 determines whether to suspend the eye coordinate tracking process based on the vehicle speed signal and the steering angle signal. That is, the eye position tracking unit 22 suspends the eye coordinate tracking process when the vehicle speed is equal to or lower than a certain speed, for example, when the vehicle is in a stopped state. Further, the eye position tracking unit 22 suspends the eye coordinate tracking process when the steering angle is equal to or greater than a certain value, for example, in a right / left turn operation state.

これにより、車両が停止している状態や、右左折動作状態のように運転者が大きく顔を移動させる可能性がある場合には、眼座標の追跡処理を保留させることができる。具体的には、車速がない場合や、駐車場内等の視線方向が定まりずらい場合には、顔の動きが大きくて眼座標が捕らえられない場面を特定して、眼位置追跡部22の誤検出を防ぐことができる。そして、車速が所定値以上となり、且つ操舵角が所定値以下となったら、眼位置追跡部22による眼座標の追跡を開始することになる。   As a result, the eye coordinate tracking process can be suspended when the driver may move the face greatly, such as when the vehicle is stopped or when the vehicle is turning right or left. Specifically, when there is no vehicle speed, or when the direction of the line of sight is difficult to determine in a parking lot or the like, a scene in which the face movement is large and the eye coordinates cannot be captured is specified, and the eye position tracking unit 22 detects an error. Detection can be prevented. When the vehicle speed becomes equal to or higher than the predetermined value and the steering angle becomes equal to or lower than the predetermined value, tracking of the eye coordinates by the eye position tracking unit 22 is started.

また、視認行動判定部25は、車両信号取得部31からの車速信号、周囲環境取得部32からの車間距離信号を受信すると、当該車速信号、車間距離信号の時系列変化によって、自車両が前方車両に急接近したか否かを判定する。そして、視認行動判定部25は、自車両が前方車両に急接近したと判定した場合には、眼位置追跡部22から現在の眼座標標を取得して、当該現在の眼座標によって運転者が車両前方の正面を視認しているかを判定する。この結果、視認行動判定部25は、運転者が車両前方を視認していない場合には、当該結果を視認結果出力部26から図示しない警報装置に出力させる。ここで、視認行動判定部25は、上述したように、眼座標の移動量と瞬目行為の有無とに基づいて視認行動により変化したと判定できる眼座標によって、運転者が車両前方を視認しているか否かを判定することになる。   In addition, when the visual behavior determination unit 25 receives the vehicle speed signal from the vehicle signal acquisition unit 31 and the inter-vehicle distance signal from the surrounding environment acquisition unit 32, the self-vehicle is moved forward by the time series change of the vehicle speed signal and the inter-vehicle distance signal. It is determined whether or not the vehicle has suddenly approached. When the visual behavior determination unit 25 determines that the host vehicle has suddenly approached the preceding vehicle, the visual behavior determination unit 25 acquires the current eye coordinate mark from the eye position tracking unit 22, and the driver uses the current eye coordinate. It is determined whether the front in front of the vehicle is visible. As a result, when the driver does not visually recognize the front side of the vehicle, the visual recognition behavior determination unit 25 outputs the result from the visual recognition result output unit 26 to an alarm device (not shown). Here, as described above, the visual action determination unit 25 allows the driver to visually recognize the front of the vehicle based on the eye coordinates that can be determined to have changed due to the visual action based on the movement amount of the eye coordinates and the presence or absence of the blink action. It will be determined whether or not.

これにより、前方車両に対する急接近時には、前方と見ているか否かを判定することが主な課題となるため、開閉眼判定の結果を用いず、眼の座標位置から正面を向いているか否かを判定して、必要に応じて警報をさせることができる。   This makes it a major challenge to determine whether or not the vehicle is ahead when suddenly approaching the vehicle ahead. Therefore, whether or not the eye is positioned from the coordinate position of the eye without using the result of the open / closed eye determination. Can be determined and an alarm can be issued as necessary.

また、周囲環境取得部32によって車両前方の障害物情報を取得する障害物センサを使用し、図18に示すように、前方車両と歩行者が検出されている場合に、眼座標に応じて、視認行動判定部25によって現視認領域が前方車両となっており、非視認領域が歩行者となっていることを判定することができる。ここで、視認行動判定部25は、上述したように、眼座標の移動量と瞬目行為の有無とに基づいて視認行動により変化したと判定できる眼座標によって、運転者が歩行者を視認しているか否かを判定することになる。   Further, when an obstacle sensor that acquires obstacle information in front of the vehicle is used by the surrounding environment acquisition unit 32 and a front vehicle and a pedestrian are detected as shown in FIG. 18, according to the eye coordinates, The visual recognition behavior determination unit 25 can determine that the current visual recognition area is a forward vehicle and the non-visual recognition area is a pedestrian. Here, as described above, the visual behavior determination unit 25 allows the driver to visually recognize the pedestrian based on the eye coordinates that can be determined to have changed due to the visual behavior based on the movement amount of the eye coordinates and the presence or absence of the blinking action. It will be determined whether or not.

これにより、視認行動判定システムでは、現視認領域が前方車両であり、非視認領域が歩行者であることを示す信号を視認結果出力部26を介して図示しない警報装置に出力することにより、視認領域を歩行者とすることを報知することができる。   Thereby, in the visual recognition behavior determination system, the current visual recognition area is a forward vehicle, and a signal indicating that the non-visual recognition area is a pedestrian is output to an alarm device (not shown) via the visual recognition result output unit 26, thereby enabling visual recognition. It can be notified that the area is a pedestrian.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

本発明を適用した視認行動判定装置を含む視認行動判定システムの概略ブロック図である。It is a schematic block diagram of the visual recognition action determination system containing the visual recognition action determination apparatus to which this invention is applied. 本発明を適用した第1実施形態に係る視認行動判定システムの構成を示すブロック図である。It is a block diagram which shows the structure of the visual recognition action determination system which concerns on 1st Embodiment to which this invention is applied. 眼位置検出部による眼位置検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the eye position detection process by an eye position detection part. 片眼候補検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of a single eye candidate detection process. 片眼候補検出処理により設定される処理エリアの一例を示す模式図である。It is a schematic diagram which shows an example of the process area set by one eye candidate detection process. 眼座標の候補となる連続データの取得について説明するための図である。It is a figure for demonstrating acquisition of the continuous data used as the candidate of an eye coordinate. 片眼候補検出処理を説明するための模式図であり、(a)は処理エリア内に設定される縦ラインを示す図であり、(b)は縦ラインにおいて光量の濃度変化が検出された状態を示す図であり、(c)は顔画像に含まれる「眼」が検出された状態を示す図である。It is a schematic diagram for demonstrating a single eye candidate detection process, (a) is a figure which shows the vertical line set in a process area, (b) is the state by which the density change of the light quantity was detected in the vertical line (C) is a figure which shows the state from which the "eye" contained in the face image was detected. 両眼確定処理の一例を示すフローチャートである。It is a flowchart which shows an example of a binocular confirmation process. 両眼確定処理により設定される処理エリアの一例を示す模式図である。It is a schematic diagram which shows an example of the process area set by a binocular confirmation process. 眼位置追跡処理の一例を示すフローチャートである。It is a flowchart which shows an example of an eye position tracking process. 眼位置追跡処理を説明するための模式図であり、(a)は基準眼の検出を説明するための模式図であり、(b)は反対眼の検出を説明するための模式図であり、(c)は基準眼の検出を説明するための模式図である。It is a schematic diagram for explaining eye position tracking processing, (a) is a schematic diagram for explaining detection of a reference eye, (b) is a schematic diagram for explaining detection of an opposite eye, (C) is a schematic diagram for demonstrating the detection of a reference | standard eye. 開閉眼判定部による処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process by an opening-and-closing eye determination part. 眼の開度値と閾値との比較によって開眼、閉眼を判定することを説明するための模式図である。It is a schematic diagram for demonstrating determination of an open eye and a closed eye by comparison with the opening degree value of an eye, and a threshold value. 開閉眼判定部による学習処理について説明するための模式図である。It is a schematic diagram for demonstrating the learning process by an opening-and-closing eye determination part. (a)は眼座標の時系列変化と瞬目行為との関係を示す図であり、(b)は(a)とは逆方向を視認した場合の眼座標の時系列変化と瞬目行為との関係を示す図である。(A) is a figure which shows the relationship between the time-sequential change of an eye coordinate, and a blink action, (b) is a time series change of the eye coordinate at the time of visually recognizing the opposite direction to (a), and a blink action. It is a figure which shows the relationship. 眼座標の移動量と、眼座標移動前後における瞬目行為の有無によって、視認行動の可能性が高、中、低の程度で分類できることを説明するための図である。It is a figure for demonstrating that the possibility of a visual action can be classify | categorized with the grade of high, medium, and low by the movement amount of eye coordinates, and the presence or absence of the blink action before and after eye coordinate movement. 本発明を適用した第2実施形態に係る視認行動判定システムの構成を示すブロック図である。It is a block diagram which shows the structure of the visual recognition action determination system which concerns on 2nd Embodiment to which this invention is applied. 視認行動判定部によって現視認領域と非視認領域を設定することを説明するための図である。It is a figure for demonstrating setting a current visual recognition area | region and a non-visual recognition area | region by a visual recognition action determination part.

符号の説明Explanation of symbols

10 ビデオカメラ
11 照明装置
12 視認行動判定装置
20 顔画像取得部
21 眼位置検出部
21 眼座標出力部
22 眼位置追跡部
23 開閉眼学習部
24 開閉眼判定部
25 視認行動判定部
26 視認結果出力部
31 車両信号取得部
32 周囲環境取得部
DESCRIPTION OF SYMBOLS 10 Video camera 11 Illuminating device 12 Visual action determination apparatus 20 Face image acquisition part 21 Eye position detection part 21 Eye coordinate output part 22 Eye position tracking part 23 Open / close eye learning part 24 Open / close eye determination part 25 Visual action determination part 26 Visual result output Section 31 Vehicle signal acquisition section 32 Ambient environment acquisition section

Claims (11)

撮像手段から出力された映像信号に含まれる被験者の顔画像を取得する顔画像取得手段と、
前記顔画像に基づいて、前記被験者の眼位置を示す眼座標を検出すると共に、当該眼座標の追跡を行う眼座標取得手段と、
前記顔画像と前記眼座標とに基づいて前記被験者の眼開度を演算し、当該眼開度から被験者の眼の開閉状態を判定する開閉眼判定手段と、
前記眼座標取得手段で追跡されている眼座標の時系列変化及び前記開閉眼判定手段で判定されている眼の開閉状態の時系列変化から、当該眼座標の時系列変化が、被験者の視認行動であることによるものか否かを判定する視認行動判定手段と、
前記視認行動判定手段の判定結果を信号として出力する視認結果出力手段と
を備えることを特徴とする視認行動判定装置。
Face image acquisition means for acquiring the face image of the subject included in the video signal output from the imaging means;
Eye coordinate acquisition means for detecting eye coordinates indicating the eye position of the subject based on the face image and tracking the eye coordinates;
Opening / closing eye determination means for calculating the eye opening of the subject based on the face image and the eye coordinates, and determining the opening / closing state of the eye of the subject from the eye opening;
From the time series change of the eye coordinates tracked by the eye coordinate acquisition means and the time series change of the eye open / closed state determined by the open / close eye determination means, the time series change of the eye coordinates indicates the visual behavior of the subject. Visual action determination means for determining whether or not it is due to being,
And a visual recognition result output unit that outputs the determination result of the visual recognition behavior determination unit as a signal.
前記視認行動判定手段は、前記眼座標取得手段で取得された眼座標の移動量が設定値以上であると判定した場合に、当該設定値以上の眼座標の移動時に、前記開閉眼判定手段により判定された開閉状態から瞬目行為が有ったと判定した場合には、当該眼座標の時系列変化が、被験者の視認行動であることによるものと判定することを特徴とする請求項1に記載の視認行動判定装置。   When the eye movement determination unit determines that the movement amount of the eye coordinates acquired by the eye coordinate acquisition unit is greater than or equal to a set value, the eye movement determination unit determines whether the eye movement determination unit moves the eye coordinates greater than or equal to the set value. 2. The method according to claim 1, wherein when it is determined that there is a blink action from the determined open / closed state, it is determined that the time-series change of the eye coordinates is due to the visual behavior of the subject. Visual recognition behavior determination device. 前記視認行動判定手段は、前記開閉眼判定手段により判定された開閉状態から瞬目行為が有ったと判定した場合に、当該瞬目行為間における眼座標の移動量の平均値を求めて、当該瞬目行為間での眼座標の移動量が設定値以上であった場合には、当該眼座標の時系列変化が、被験者の視認行動であることによるものと判定することを特徴とする請求項1に記載の視認行動判定装置。   When it is determined that there is a blink action from the open / closed state determined by the opening / closing eye determination means, the visual action determination means obtains an average value of the movement amount of the eye coordinates between the blink actions, When the movement amount of the eye coordinates between blink actions is greater than or equal to a set value, it is determined that the time-series change of the eye coordinates is due to the visual behavior of the subject. The visual recognition behavior determination device according to 1. 前記眼座標取得手段は、
顔画像全体の右半分又は左半分から片眼の候補を検出する処理エリアを設定し、当該処理エリアから片眼候補座標の検出を行う片眼候補検出手段と、
前記片眼候補検出手段により片眼候補座標が検出された場合に、当該片眼候補座標を基準にして両眼を検出するための領域を設定し、当該領域内で片眼候補座標に対する両眼の確定処理を行う両眼確定処理手段と
を備えることを特徴とする請求項1乃至請求項3の何れか一項に記載の視認行動判定装置。
The eye coordinate acquisition means includes
A single eye candidate detecting means for setting a processing area for detecting a single eye candidate from the right half or the left half of the entire face image, and detecting single eye candidate coordinates from the processing area;
When one-eye candidate coordinates are detected by the one-eye candidate detection means, an area for detecting both eyes is set based on the one-eye candidate coordinates, and both eyes for the one-eye candidate coordinates are set in the area. The visual-behavior determination device according to claim 1, further comprising: a binocular confirmation processing unit that performs the confirmation processing.
前記眼座標取得手段は、顔画像中における眼を検出するための処理エリア内に複数の縦ラインを設定し、当該縦ラインごとに、光量の濃度変化の微分値を求めて濃度変化点を検出し、当該縦ライン間の濃度変化点が横方向で連続する連続データの中心座標を眼座標として取得すること特徴とする請求項1乃至請求項3の何れか一項に記載の視認行動判定装置。   The eye coordinate acquisition means sets a plurality of vertical lines in a processing area for detecting an eye in a face image, and detects a density change point by obtaining a differential value of the density change of the light amount for each vertical line. 4. The visual behavior determination device according to claim 1, wherein the center coordinates of continuous data in which density change points between the vertical lines are continuous in the horizontal direction are acquired as eye coordinates. 5. . 前記眼座標取得手段は、時間的に前に取得した眼座標を中心とした領域から現在の基準となる眼座標が検出された場合には、当該基準となる眼座標から、時間的に前に取得した両眼間距離だけ離れた座標付近に存在する反対眼を求めて、両眼を追跡することを特徴とする請求項1乃至請求項3の何れか一項に記載の視認行動判定装置。   If the current reference eye coordinates are detected from an area centered on the eye coordinates acquired in time earlier, the eye coordinate acquisition means determines whether the eye coordinates from the reference eye coordinates in time The visual behavior determination device according to any one of claims 1 to 3, wherein the opposite eye existing in the vicinity of the coordinates separated by the acquired distance between both eyes is obtained and both eyes are tracked. 前記開閉眼判定手段は、
前記眼座標取得手段で取得された眼座標のうち、眼の左端座標、上端座標、右端座標から眼の形状が上凸であるかを判定し、眼の形状が上凸である場合の眼の上端座標と下端座標との距離を、開眼開度値として記録し、当該開眼開度値から予め設定された所定の割合を減じた値を開眼と閉眼とを区別するための閾値として設定する学習を行い、当該閾値と眼開度とから被験者の眼の開閉状態を判定することを特徴とする請求項1乃至請求項3の何れか一項に記載の視認行動判定装置。
The opening / closing eye determination means includes
Of the eye coordinates acquired by the eye coordinate acquisition means, it is determined whether the eye shape is upwardly convex from the left edge coordinates, upper edge coordinates, and right edge coordinates of the eye, and the eye shape when the eye shape is upwardly convex Learning to record the distance between the upper and lower coordinates as the eye opening value, and to set a value obtained by subtracting a predetermined ratio from the eye opening value as a threshold for distinguishing between opening and closing The visual behavior determination device according to any one of claims 1 to 3, wherein the eye opening / closing state of the subject is determined from the threshold value and the eye opening.
前記眼座標取得手段は、車速センサで検出された自車両の車速が所定値以下である場合、又は、操舵角センサで検出された自車両の操舵角が所定値以上である場合に、眼座標の追跡を保留することを特徴とする請求項1乃至請求項3の何れか一項に記載の視認行動判定装置。   When the vehicle speed of the host vehicle detected by the vehicle speed sensor is a predetermined value or less, or when the steering angle of the host vehicle detected by the steering angle sensor is a predetermined value or more, the eye coordinate acquisition means The visual behavior determination apparatus according to any one of claims 1 to 3, wherein the tracking of the tracking is suspended. 前記視認行動判定手段は、車間距離検出センサで検出された自車両と前方車両との車間距離が急接近した場合に、眼座標の時系列変化及び開閉状態の時系列変化から、当該眼座標の時系列変化が被験者の視認行動であることによるものか否かを判定する処理を停止して、眼座標の時系列変化から被験者が前方を視認しているか否かを判定することを特徴とする請求項1乃至請求項3の何れか一項に記載の視認行動判定装置。   When the inter-vehicle distance between the host vehicle and the preceding vehicle detected by the inter-vehicle distance detection sensor is suddenly approached, the visual recognition determination means determines the eye coordinate from the time-series change of the eye coordinate and the time-series change of the open / closed state. The process of determining whether or not the time-series change is due to the visual behavior of the subject is stopped, and it is determined whether or not the subject is viewing the front from the time-series change of eye coordinates. The visual recognition behavior determination device according to any one of claims 1 to 3. 前記視認行動判定手段は、障害物センサで検出された車両前方の障害物領域のうち、被験者が視認している現視認領域と非視認領域とを判定し、非視認領域を視認することを示す信号を視認結果出力手段を介して警報装置に出力させることを特徴とする請求項1乃至請求項3の何れか一項に記載の視認行動判定装置。   The visual behavior determination means indicates that the current visual recognition area and the non-visual recognition area that the subject visually recognizes among the obstacle areas in front of the vehicle detected by the obstacle sensor, and visually recognizes the non-visual recognition area. The visual behavior determination device according to any one of claims 1 to 3, wherein a signal is output to an alarm device through visual recognition result output means. 撮像手段から出力された映像信号に含まれる被験者の顔画像を取得し、当該顔画像に基づいて、前記被験者の眼位置を示す眼座標を検出すると共に当該眼座標の追跡を行い、追跡している眼座標及び前記顔画像に基づいて前記被験者の眼開度を演算して被験者の眼の開閉状態を判定しているときに、
前記追跡している眼座標の時系列変化及び前記眼の開閉状態の時系列変化から、当該眼座標の時系列変化が、被験者の視認行動であることによるものか否かを判定して、当該判定結果を信号として出力することを特徴とする視認行動判定装置。
A face image of the subject included in the video signal output from the imaging unit is acquired, and based on the face image, eye coordinates indicating the eye position of the subject are detected and the eye coordinates are tracked and tracked. When calculating the eye opening of the subject based on the eye coordinates and the face image, and determining the open / closed state of the subject's eyes,
From the time-series change of the eye coordinates being tracked and the time-series change of the open / closed state of the eye, it is determined whether the time-series change of the eye coordinates is due to the visual behavior of the subject, A visual recognition behavior determination device characterized by outputting a determination result as a signal.
JP2005082661A 2005-03-22 2005-03-22 Visual behavior determination device Expired - Fee Related JP4770218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005082661A JP4770218B2 (en) 2005-03-22 2005-03-22 Visual behavior determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005082661A JP4770218B2 (en) 2005-03-22 2005-03-22 Visual behavior determination device

Publications (2)

Publication Number Publication Date
JP2006268189A true JP2006268189A (en) 2006-10-05
JP4770218B2 JP4770218B2 (en) 2011-09-14

Family

ID=37204128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005082661A Expired - Fee Related JP4770218B2 (en) 2005-03-22 2005-03-22 Visual behavior determination device

Country Status (1)

Country Link
JP (1) JP4770218B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038742A1 (en) 2006-09-29 2008-04-03 Hodogaya Chemical Co., Ltd. Process for producing mek-modified resorcin/formalin resin parallelly carrying out recovery and reuse of specified raw material
JP2008113902A (en) * 2006-11-06 2008-05-22 Toyota Motor Corp Apparatus and method for detecting eye opening degree
JP2008171065A (en) * 2007-01-09 2008-07-24 Denso Corp Sleepiness detection device
JP2012126357A (en) * 2010-12-17 2012-07-05 Denso Corp Device for displaying in-vehicle situation
JP2012132851A (en) * 2010-12-22 2012-07-12 Fujitsu Ltd Rotation detection device, terminal apparatus, and program
US9082012B2 (en) 2011-12-06 2015-07-14 Denso Corporation Eye state detection apparatus and method of detecting open and closed states of eye
JP2019200456A (en) * 2018-05-14 2019-11-21 富士通株式会社 Program, information processing device, and information processing method
JP2022517398A (en) * 2019-02-28 2022-03-08 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Neural network training and eye opening / closing state detection method, equipment and devices
US11373502B2 (en) 2018-01-31 2022-06-28 Denso Corporation Vehicle alert apparatus

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065861A (en) * 2003-08-21 2005-03-17 Nissan Motor Co Ltd Cognitive load measuring device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065861A (en) * 2003-08-21 2005-03-17 Nissan Motor Co Ltd Cognitive load measuring device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038742A1 (en) 2006-09-29 2008-04-03 Hodogaya Chemical Co., Ltd. Process for producing mek-modified resorcin/formalin resin parallelly carrying out recovery and reuse of specified raw material
JP2008113902A (en) * 2006-11-06 2008-05-22 Toyota Motor Corp Apparatus and method for detecting eye opening degree
US8435188B2 (en) 2006-11-06 2013-05-07 Toyota Jidosha Kabushiki Kaisha Eye opening detection system and method of detecting eye opening
JP2008171065A (en) * 2007-01-09 2008-07-24 Denso Corp Sleepiness detection device
JP2012126357A (en) * 2010-12-17 2012-07-05 Denso Corp Device for displaying in-vehicle situation
JP2012132851A (en) * 2010-12-22 2012-07-12 Fujitsu Ltd Rotation detection device, terminal apparatus, and program
US9082012B2 (en) 2011-12-06 2015-07-14 Denso Corporation Eye state detection apparatus and method of detecting open and closed states of eye
US11373502B2 (en) 2018-01-31 2022-06-28 Denso Corporation Vehicle alert apparatus
JP2019200456A (en) * 2018-05-14 2019-11-21 富士通株式会社 Program, information processing device, and information processing method
JP7152651B2 (en) 2018-05-14 2022-10-13 富士通株式会社 Program, information processing device, and information processing method
JP2022517398A (en) * 2019-02-28 2022-03-08 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Neural network training and eye opening / closing state detection method, equipment and devices
JP7227385B2 (en) 2019-02-28 2023-02-21 ベイジン センスタイム テクノロジー ディベロップメント カンパニー リミテッド Neural network training and eye open/close state detection method, apparatus and equipment

Also Published As

Publication number Publication date
JP4770218B2 (en) 2011-09-14

Similar Documents

Publication Publication Date Title
JP4770218B2 (en) Visual behavior determination device
JP4811259B2 (en) Gaze direction estimation apparatus and gaze direction estimation method
JP4452833B2 (en) Gaze movement detection method and gaze movement detection apparatus
JP4826506B2 (en) Gaze estimation device
Kawato et al. Detection and tracking of eyes for gaze-camera control
EP2975997B1 (en) System and method for on-axis eye gaze tracking
JP4687150B2 (en) Direct light detector
CN101916496B (en) System and method for detecting driving posture of driver
JP2937030B2 (en) Image processing device and person state determination device
CN110826369A (en) Driver attention detection method and system during driving
CN104318237A (en) Fatigue driving warning method based on face identification
EP2060993B1 (en) An awareness detection system and method
JP2003150942A (en) Eye position tracing method
JP2007026073A (en) Face posture detection system
JP2010191793A (en) Alarm display and alarm display method
Bergasa et al. Visual monitoring of driver inattention
JP2017129973A (en) Driving support apparatus and driving support method
CN102646189B (en) System and method for detecting driving gesture of driver
JP5429885B2 (en) Feature point tracking method and feature point tracking device
Bergasa et al. Real-time system for monitoring driver vigilance
Takemura et al. Drive monitoring system based on non-contact measurement system of driver's focus of visual attention
JP4696571B2 (en) Eye position detection device
Jimenez-Pinto et al. Driver alert state and fatigue detection by salient points analysis
JP2002015322A (en) Inattentive driving condition detection device
JP4883013B2 (en) Face image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees