JP2020095499A - Eye opening and closing detection apparatus, and driver monitoring apparatus - Google Patents

Eye opening and closing detection apparatus, and driver monitoring apparatus Download PDF

Info

Publication number
JP2020095499A
JP2020095499A JP2018233287A JP2018233287A JP2020095499A JP 2020095499 A JP2020095499 A JP 2020095499A JP 2018233287 A JP2018233287 A JP 2018233287A JP 2018233287 A JP2018233287 A JP 2018233287A JP 2020095499 A JP2020095499 A JP 2020095499A
Authority
JP
Japan
Prior art keywords
open
image
eye
closed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018233287A
Other languages
Japanese (ja)
Other versions
JP7212251B2 (en
Inventor
一輝 三浦
Kazuteru Miura
一輝 三浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2018233287A priority Critical patent/JP7212251B2/en
Priority to PCT/JP2019/041111 priority patent/WO2020121650A1/en
Publication of JP2020095499A publication Critical patent/JP2020095499A/en
Application granted granted Critical
Publication of JP7212251B2 publication Critical patent/JP7212251B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

To prevent an alarm signal from being errorneously output upon narrowed eye resulting from direct light.SOLUTION: A driver monitor 100 (a driver monitoring apparatus) according to the present invention has an imaging unit 11 for imaging a face of a driver in a vehicle, an image processing unit 2 for subjecting a predetermined processing to a face image captured by the imaging unit 11 to extract eyes of the driver from the face image, an opened and closed degree calculating unit 31 for calculating an opened and closed degree indicating opened and closed states of eyes based on the image of eyes extracted by the image processing unit 2, a weight calculating unit 33 for calculating weight responding to luminance information at a predetermined region of the face image, an opened and closed state determining unit 34 for subjecting the weighting to the opened and closed states calculated by the opened and closed degree calculating unit 31 by using the weight and for determining whether the eyes are opened or closed, based on the opened and closed degree added with the weight, and an alarm output unit 35 for outputting an alarm signal based on the discrimination result of the opened and closed state determining unit 34.SELECTED DRAWING: Figure 1

Description

本発明は、たとえば居眠り運転を防止するために運転者の眼の開閉状態を検出する装置に関する。 The present invention relates to a device that detects an open/closed state of a driver's eyes in order to prevent, for example, drowsy driving.

車両に搭載されるドライバモニタでは、カメラで撮像した運転者の顔の画像を解析し、眼の開閉状態(開眼状態または閉眼状態)に基づいて、居眠り運転の有無を監視するようにしている。詳しくは、画像の解析結果から、眼の開閉状態を表すパラメータである開閉度を算出する(たとえば特許文献1〜3)。そして、この開閉度をあらかじめ設定された閾値と比較し、その比較結果に基づいて眼の開閉状態を判定する。判定の結果、閉眼状態が一定時間以上継続している場合は、運転者が居眠りをしていると判断し、音声などによる警報を出力する。 A driver monitor mounted on a vehicle analyzes an image of a driver's face captured by a camera, and monitors whether or not a driver is dozing, based on the eye open/closed state (eye open state or eye closed state). Specifically, the degree of opening/closing, which is a parameter indicating the open/closed state of the eye, is calculated from the image analysis result (for example, Patent Documents 1 to 3). Then, the open/closed degree is compared with a preset threshold value, and the open/closed state of the eye is determined based on the comparison result. If the result of determination is that the eye-closed state continues for a certain period of time or more, it is determined that the driver is dozing and a warning is output by voice or the like.

ところで、眼の開閉状態には、眼が完全に開いている状態と、眼が完全に閉じている状態だけでなく、その中間の状態つまり眼が細まった状態(細眼状態)も存在する。ドライバモニタでは、居眠り運転を未然に防止するために、細眼状態が一定時間以上継続した場合は、運転者が眠気を催している、つまり居眠り予兆状態にあるとみて、警報信号を出力することが行われている。しかしながら、車両のフロントガラスを介して直射日光が入射したような場合、運転者は眩しさを感じて眼を細めることが多い。したがって、この細眼状態が一定時間以上継続すると、運転者が眠気を催していないにもかかわらず、ドライバモニタから誤って警報信号が出力されることとなる。 By the way, the open/closed state of the eye includes not only the state in which the eye is completely open and the state in which the eye is completely closed, but also an intermediate state, that is, a state in which the eye is narrowed (fine eye state). .. In order to prevent drowsiness driving, the driver monitor should output an alarm signal if the driver's eyes are drowsy, that is, if he is in a drowsiness symptom state, if the eyesight state continues for a certain time or longer. Is being done. However, when direct sunlight enters through the windshield of the vehicle, the driver often feels glare and narrows his eyes. Therefore, if the fine-eyed state continues for a certain period of time or longer, the driver monitor erroneously outputs an alarm signal even if the driver is not drowsy.

特許文献4には、細眼状態が笑顔に基づくものである場合は開眼状態と判定することが記載されている。特許文献5には、眼付近の領域の光量を測定し、当該光量と眼の開閉度とに基づいて、運転者の眼に直射光が当たっているか否かを判定することが記載されている。特許文献6には、前方監視カメラで撮像された車両前方の画像から所定範囲の視界画像を抽出し、当該視界画像の輝度に基づいて運転者の眼に強い光が照射されている状態を検出することが記載されている。しかるに、これらの文献には、直射光に基因する細眼状態に対して誤警報を防止するための具体的手段は開示されていない。 Patent Document 4 describes that when the fine eye state is based on a smile, it is determined that the eye state is open. Patent Document 5 describes that the amount of light in a region near the eyes is measured, and based on the amount of light and the degree of opening/closing of the eyes, it is determined whether or not the direct light hits the eyes of the driver. .. In Patent Document 6, a visual field image in a predetermined range is extracted from an image in front of the vehicle captured by a front monitoring camera, and a state in which strong light is emitted to the driver's eyes is detected based on the brightness of the visual field image. It is described to do. However, these documents do not disclose any specific means for preventing a false alarm with respect to a fine eye state caused by direct light.

特開2010−134490号公報JP, 2010-134490, A 特許第3143819号公報Japanese Patent No. 3143819 特開2000−123188号公報JP-A-2000-123188 特開2016−115120号公報JP, 2016-115120, A 特開2006−251926号公報JP, 2006-251926, A 特開2007−276766号公報JP, 2007-276766, A

本発明の課題は、直射光の存在下での細眼状態を、眠気による細眼状態と区別して検出できるようにし、直射光に基因する細眼状態に対して、誤って警報信号が出力されるのを防止することにある。 An object of the present invention is to detect a fine-eyed state in the presence of direct light by distinguishing it from a fine-eyed state due to drowsiness, and for a fine-eyed state caused by direct light, an alarm signal is erroneously output. It is to prevent it.

本発明による眼の開閉検出装置は、被写体の顔を撮像する撮像部と、この撮像部が撮像した顔画像に対して所定の処理を行い、当該顔画像から被写体の眼を抽出する画像処理部と、この画像処理部で抽出された眼の画像に基づいて、眼の開閉状態を表す開閉度を算出する開閉度算出部と、顔画像における所定領域の輝度情報に応じた重みを算出する重み算出部と、開閉度算出部で算出された開閉度に対して、前記重みにより重み付けを行い、当該重み付けがされた開閉度に基づいて眼の開閉状態を判定する開閉状態判定部とを備えている。 An eye open/closed detection device according to the present invention includes an image capturing unit that captures a face of a subject, and an image processing unit that performs a predetermined process on a face image captured by the image capturing unit and extracts the eye of the subject from the face image. And, based on the image of the eye extracted by the image processing unit, an opening/closing degree calculation unit that calculates an opening/closing degree that represents the opening/closing state of the eye, and a weight that calculates a weight according to the luminance information of a predetermined area in the face image. A calculator and an open/closed state determination unit that determines the open/closed state of the eye based on the weighted open/closed degree by weighting the open/closed degree calculated by the open/closed degree calculation unit with the weight. There is.

また、本発明による乗員監視装置は、車両の乗員の顔を撮像する撮像部と、この撮像部が撮像した顔画像に対して所定の処理を行い、当該顔画像から乗員の眼を抽出する画像処理部と、この画像処理部で抽出された眼の画像に基づいて、眼の開閉状態を表す開閉度を算出する開閉度算出部と、顔画像における所定領域の輝度情報に応じた重みを算出する重み算出部と、開閉度算出部で算出された開閉度に対して、前記重みにより重み付けを行い、当該重み付けがされた開閉度に基づいて眼の開閉状態を判定する開閉状態判定部と、この開閉状態判定部での判定結果に基づいて警報信号を出力する警報出力部とを備えている。 Further, the occupant monitoring device according to the present invention is an image pickup unit for picking up an image of the occupant's face of the vehicle, an image for performing a predetermined process on the face image picked up by the image pickup unit, and extracting the occupant's eyes from the face image. A processing unit, an open/closed degree calculation unit that calculates an open/closed degree indicating the open/closed state of the eye based on the image of the eye extracted by the image processing unit, and a weight according to the brightness information of a predetermined area in the face image A weight calculation unit, and an open/closed state determination unit that determines the open/closed state of the eye based on the weighted open/closed degree, with respect to the open/closed degree calculated by the open/closed degree calculation unit. An alarm output unit that outputs an alarm signal based on the determination result of the open/closed state determination unit is provided.

本発明においては、開閉度算出部で算出された眼の開閉度に対し、顔画像における所定領域の輝度情報に応じた重みにより重み付けを行い、当該重み付けがされた開閉度に基づいて眼の開閉状態を判定する。このため、直射光の状態に応じて補正された開閉度に基づいて、眼の開閉状態が検出されるので、直射光の眩しさによる細眼状態を、眠気による細眼状態と区別して検出することが可能となる。その結果、直射光が当たっている状態で眼を細めた場合に、これを居眠りの予兆と誤判定して警報が出力されるのを防止することができる。 In the present invention, the eye open/closed degree calculated by the open/closed degree calculation unit is weighted by a weight according to the luminance information of a predetermined area in the face image, and the eye open/closed is performed based on the weighted open/close degree. Determine the state. Therefore, the open/closed state of the eye is detected based on the open/closed degree corrected according to the state of the direct light, so that the fine eye state due to the glare of the direct light is detected separately from the fine eye state due to the drowsiness. It becomes possible. As a result, it is possible to prevent an alarm from being output by misjudging this as a sign of drowsiness when the eye is narrowed under direct light.

本発明による眼の開閉検出装置は、顔画像における所定領域の輝度の分布を示すヒストグラムを算出するヒストグラム算出部と、輝度の階級に対応して重みが設定された重みテーブルとをさらに備えていてもよい。また、重み算出部は、重みテーブルを参照して、ヒストグラム算出部が算出したヒストグラムにおける度数が最大の階級に対応する重みを選択するようにしてもよい。 The eye open/closed detection device according to the present invention further includes a histogram calculation unit that calculates a histogram showing the distribution of the luminance of a predetermined area in the face image, and a weight table in which weights are set corresponding to the luminance classes. Good. Further, the weight calculation unit may refer to the weight table and select the weight corresponding to the class having the highest frequency in the histogram calculated by the histogram calculation unit.

この場合、重み算出部は、ヒストグラムにおける度数が最大の階級と、当該階級に隣接しかつ当該階級より上の階級との間の、度数の傾きを算出し、この傾きに基づいて、当該傾きの絶対値が小さくなるほど値が大きくなる重み係数をさらに算出してもよい。そして、開閉状態判定部は、前記重みに重み係数を乗じることにより、開閉度に対する重み付けを行ってもよい。 In this case, the weight calculation unit calculates the slope of the frequency between the class with the highest frequency in the histogram and the class adjacent to and above the class, and based on this slope, A weighting coefficient that increases as the absolute value decreases may be further calculated. Then, the open/close state determination unit may weight the open/close degree by multiplying the weight by a weight coefficient.

本発明による眼の開閉検出装置は、被写体の顔に光を照射する発光部をさらに備えていてもよい。そして、撮像部は、発光部が発光していない状態で撮像した第1画像と、発光部が発光した状態で撮像した第2画像とを生成し、画像処理部は、第2画像と第1画像との差分である差分画像に基づいて、顔画像における所定領域を抽出し、ヒストグラム算出部は、第1画像における所定領域のヒストグラムを算出してもよい。 The eye open/closed detection device according to the present invention may further include a light emitting unit that irradiates the face of the subject with light. Then, the imaging unit generates a first image captured while the light emitting unit is not emitting light and a second image captured while the light emitting unit is emitting light, and the image processing unit is configured to generate the second image and the first image. The predetermined area in the face image may be extracted based on the difference image that is the difference from the image, and the histogram calculation unit may calculate the histogram of the predetermined area in the first image.

本発明による眼の開閉検出装置において、前記の所定領域は、被写体の眼の周辺領域であってもよい。 In the eye open/closed detection device according to the present invention, the predetermined region may be a peripheral region of the subject's eye.

本発明による乗員監視装置において、警報出力部は、開閉状態判定部で眼の開閉状態が閉眼状態であると判定され、かつ、当該閉眼状態が所定時間以上継続した場合に、警報信号を出力してもよい。 In the occupant monitoring device according to the present invention, the alarm output unit outputs an alarm signal when the open/closed state determination unit determines that the eye open/closed state is the eye closed state, and the eye closed state continues for a predetermined time or more. May be.

本発明によれば、直射光の存在下での細眼状態を、眠気による細眼状態と区別して検出できるので、直射光に基因する細眼状態に対して、誤って警報信号が出力されるのを防止することができる。 According to the present invention, it is possible to detect a fine-eyed state in the presence of direct light by distinguishing it from a fine-eyed state due to drowsiness, so that an alarm signal is erroneously output for the fine-eye state caused by direct light. Can be prevented.

本発明を適用したドライバモニタのブロック図である。It is a block diagram of a driver monitor to which the present invention is applied. カメラで顔を撮像する様子を示す図である。It is a figure which shows a mode that a camera images a face. 撮像画像における顔領域を示す図である。It is a figure which shows the face area|region in a captured image. 直射光がない場合のオフ画像、オン画像、差分画像を模式的に示す図である。It is a figure which shows typically an off image, an on image, and a difference image when there is no direct light. 直射光がある場合のオフ画像、オン画像、差分画像を模式的に示す図である。It is a figure which shows typically an off image, an on image, and a difference image when there is a direct light. 顔領域におけるピクセルを示す図である。It is a figure which shows the pixel in a face area. 重みテーブルを示す図である。It is a figure which shows a weight table. 重み係数のグラフである。It is a graph of a weighting factor. 重み係数の算出に用いる傾きを説明する図である。It is a figure explaining the inclination used for calculation of a weighting factor. 直射光が当たっていない場合の輝度のヒストグラムの例である。It is an example of a histogram of luminance when direct light is not applied. 直射光が当たっている場合の輝度のヒストグラムの例である。It is an example of a histogram of luminance when direct light is applied. 開眼状態、細眼状態、閉眼状態を模式的に示す図である。It is a figure which shows an eye open state, a thin eye state, and an eye closed state typically. ドライバモニタの動作を示すフローチャートである。It is a flow chart which shows operation of a driver monitor. 他の実施形態における眼の周辺領域を示す図である。It is a figure which shows the peripheral region of the eye in other embodiment. 他の実施形態における重みテーブルを示す図である。It is a figure which shows the weight table in other embodiment.

本発明の実施形態につき、図面を参照しながら説明する。各図において、同一の部分または対応する部分には、同一符号を付してある。以下では、本発明を車両に搭載されるドライバモニタに適用した例を挙げる。 Embodiments of the present invention will be described with reference to the drawings. In each figure, the same or corresponding parts are designated by the same reference numerals. An example in which the present invention is applied to a driver monitor mounted on a vehicle will be described below.

まず、図1を参照して、ドライバモニタの構成について説明する。図1において、ドライバモニタ100は、図2の車両50に搭載されており、カメラ1、画像処理部2、制御部3、LED駆動回路4、および通信部5を備えている。ドライバモニタ100は、本発明の「眼の開閉検出装置」および「乗員監視装置」の一例である。 First, the configuration of the driver monitor will be described with reference to FIG. In FIG. 1, the driver monitor 100 is mounted on the vehicle 50 in FIG. 2 and includes a camera 1, an image processing unit 2, a control unit 3, an LED drive circuit 4, and a communication unit 5. The driver monitor 100 is an example of the “eye opening/closing detection device” and the “occupant monitoring device” of the present invention.

カメラ1は、撮像部11と発光部12とから構成される。撮像部11は、CMOSイメージセンサのような撮像素子(図示省略)と、レンズなどの光学部品(図示省略)とを有している。発光部12は、カメラ1の被写体に対して光を照射する発光素子(図示省略)を有している。本例では、発光素子として、近赤外光を発するLEDが用いられる。 The camera 1 includes an imaging unit 11 and a light emitting unit 12. The image pickup unit 11 includes an image pickup element (not shown) such as a CMOS image sensor, and an optical component (not shown) such as a lens. The light emitting unit 12 has a light emitting element (not shown) that irradiates the subject of the camera 1 with light. In this example, an LED that emits near infrared light is used as the light emitting element.

図2に示すように、カメラ1は、車室内のシート52に着座した運転者53の顔Fと対向する位置に設置されている。点線は、カメラ1の撮像範囲を表している。本例では、カメラ1は運転席のインストルメントパネル51に設置されているが、カメラ1の設置場所はこれに限定されない。たとえば、フロントガラス54の上部などにカメラ1を設けてもよい。カメラ1の撮像部11(図1)は運転者53の顔Fを撮像し、発光部12(図1)は運転者53の顔に近赤外光を照射する。運転者53は、本発明における「被写体」および「乗員」の一例である。 As shown in FIG. 2, the camera 1 is installed at a position facing the face F of the driver 53 sitting on the seat 52 in the vehicle interior. The dotted line represents the imaging range of the camera 1. In this example, the camera 1 is installed on the instrument panel 51 in the driver's seat, but the installation location of the camera 1 is not limited to this. For example, the camera 1 may be provided above the windshield 54. The imaging unit 11 (FIG. 1) of the camera 1 images the face F of the driver 53, and the light emitting unit 12 (FIG. 1) irradiates the face of the driver 53 with near infrared light. The driver 53 is an example of the “subject” and the “occupant” in the present invention.

撮像部11は、発光部12が発光していない状態で撮像した画像(以下、「オフ画像」という。)と、発光部12が発光した状態で撮像した画像(以下、「オン画像」という。)とを生成し、それぞれの画像データを、画像処理部2へ出力する。オフ画像は、本発明における「第1画像」に相当し、オン画像は、本発明における「第2画像」に相当する。 The image capturing section 11 captures an image captured in a state where the light emitting section 12 does not emit light (hereinafter referred to as “off image”) and an image captured in a state in which the light emitting section 12 emits light (hereinafter referred to as “on image”). ) And are generated and the respective image data are output to the image processing unit 2. The off image corresponds to the "first image" in the present invention, and the on image corresponds to the "second image" in the present invention.

図4(a)および図5(a)は、オフ画像の例を模式的に示している。図4(a)は、顔Fに太陽光などの直射光が当たっていない状態で撮像されたオフ画像であり、図5(a)は、顔Fに直射光が当たっている状態で撮像されたオフ画像である。直射光がない場合の図4(a)のオフ画像は、直射光がある場合の図5(a)のオフ画像に比べて暗い画像となる。 FIG. 4A and FIG. 5A schematically show examples of off-images. FIG. 4A is an off-image taken when the face F is not exposed to direct light such as sunlight, and FIG. 5A is an image captured when the face F is exposed to direct light. It is an off image. The off-image of FIG. 4A when there is no direct light becomes a darker image than the off-image of FIG. 5A when there is direct light.

図4(b)および図5(b)は、オン画像の例を模式的に示している。図4(b)は、顔Fに直射光が当たっていない状態で撮像されたオン画像であり、図5(b)は、顔Fに直射光が当たっている状態で撮像されたオン画像である。図4(b)のオン画像は、発光部12からの光照射があるため、図4(a)のオフ画像より明るい画像となっている。一方、直射光がある場合の図5(b)のオン画像は、直射光に発光部12からの光照射が加わるので、図5(a)のオフ画像より明るいが、両画像とも直射光の影響が大きいため、図4のオフ画像とオン画像ほど明度差は顕著ではない。 FIG. 4B and FIG. 5B schematically show examples of on-images. FIG. 4B is an on-image captured when the face F is not exposed to direct light, and FIG. 5B is an on-image captured when the face F is exposed to direct light. is there. The on-image in FIG. 4B is brighter than the off-image in FIG. 4A because light is emitted from the light emitting unit 12. On the other hand, the on-image of FIG. 5B when there is direct light is brighter than the off-image of FIG. 5A because the light irradiation from the light emitting unit 12 is added to the direct light. Since the influence is great, the difference in lightness is not so remarkable as in the off image and the on image in FIG.

画像処理部2は、撮像部11から取得したオン画像とオフ画像との差分を演算して得られる画像(以下、「差分画像」という。)を生成する。図4(c)および図5(c)は、差分画像の例を模式的に示している。図4(c)は、直射光がない場合の差分画像であり、図5(c)は、直射光がある場合の差分画像である。図4(c)の差分画像は、オン画像とオフ画像との差分が大きいため、明るい画像となるのに対し、図5(c)の差分画像は、オン画像とオフ画像との差分が小さいため、暗い画像となる。 The image processing unit 2 generates an image (hereinafter referred to as a “difference image”) obtained by calculating the difference between the on-image and the off-image acquired from the imaging unit 11. 4C and 5C schematically show an example of the difference image. FIG. 4C is a difference image when there is no direct light, and FIG. 5C is a difference image when there is direct light. The difference image of FIG. 4C is a bright image because the difference between the ON image and the OFF image is large, whereas the difference image of FIG. 5C has a small difference between the ON image and the OFF image. Therefore, it becomes a dark image.

さらに、画像処理部2は、この差分画像に基づいて、図3に示すように、撮像画像Gにおける顔Fの領域Z(以下、「顔領域Z」という。)を抽出する。そして、この顔領域Zにおける眼、鼻、口などの特徴点を抽出したり、顔Fの向きを検出したり、視線の方向を検出したりする。これらの処理は公知の手法を用いて行われ、それらの詳細はよく知られているので、ここでは説明を省略する。 Furthermore, the image processing unit 2 extracts a region Z of the face F in the captured image G (hereinafter, referred to as “face region Z”), as shown in FIG. 3, based on the difference image. Then, feature points such as eyes, nose, and mouth in the face area Z are extracted, the direction of the face F is detected, and the direction of the line of sight is detected. These processes are performed using a known method, and the details thereof are well known, and therefore the description thereof is omitted here.

図1に戻って、制御部3は、CPUやメモリなどから構成される。制御部3には、開閉度算出部31、ヒストグラム算出部32、重み算出部33、開閉状態判定部34、警報出力部35、および重みテーブル36が備わっている。開閉度算出部31〜警報出力部35のそれぞれの機能は、実際にはCPUが実行するソフトウェアプログラムによって実現されるが、図1では便宜上、ハードウェアのブロックで示している。また、重みテーブル36は、フラッシュメモリのような記憶素子に記憶されている。 Returning to FIG. 1, the control unit 3 includes a CPU and a memory. The control unit 3 includes an open/close degree calculation unit 31, a histogram calculation unit 32, a weight calculation unit 33, an open/closed state determination unit 34, an alarm output unit 35, and a weight table 36. Each function of the opening/closing degree calculation unit 31 to the alarm output unit 35 is actually realized by a software program executed by the CPU, but in FIG. 1, it is shown as a hardware block for convenience. The weight table 36 is stored in a storage element such as a flash memory.

開閉度算出部31は、画像処理部2で検出された眼の画像に基づいて、眼の開閉状態を表す開閉度を算出する。眼の開閉度としては、たとえば、前掲の特許文献1のような眼の縦幅と横幅の比、特許文献2のような上瞼と眼球の境界から下瞼と眼球の境界までの距離、特許文献3のような眼全体の面積に対する上瞼の面積の比などを用いることができる。もちろん、これら以外の定義に従う開閉度を用いてもよい。 The open/closed degree calculation unit 31 calculates the open/closed degree indicating the open/closed state of the eye based on the image of the eye detected by the image processing unit 2. As the degree of opening and closing of the eye, for example, the ratio between the vertical width and the horizontal width of the eye as in the above-mentioned Patent Document 1, the distance from the boundary between the upper eyelid and the eyeball as in Patent Document 2 to the boundary between the lower eyelid and the eyeball, and Patent The ratio of the area of the upper eyelid to the area of the entire eye as in Reference 3 can be used. Of course, the open/close degree according to definitions other than these may be used.

ここでは、簡単のために、画像解析により得られる開閉度が0〜100の値をとるものとし、開閉度が大きいほど開眼の度合いが大きくなり、開閉度が小さいほど閉眼の度合いが大きくなるものとする。開閉度100は完全な開眼状態を表し、開閉度0は完全な閉眼状態を表す。また、一例として、開閉度50±αは細眼状態を表す(αはあらかじめ定められた値)。 Here, for simplicity, it is assumed that the degree of opening and closing obtained by image analysis takes a value of 0 to 100, the degree of opening of the eye increases as the degree of opening and closing increases, and the degree of closing of the eye increases as the degree of opening and closing decreases. And The degree of opening/closing 100 represents a completely opened state, and the degree of opening/closing 0 represents a completely closed state. Further, as an example, the opening/closing degree of 50±α represents a fine eye state (α is a predetermined value).

図12は、眼の開閉状態の例を模式的に示している。(a)は、開閉度が100の場合で、上記のとおり完全な開眼状態を表している。(b)は、開閉度が70の場合で、細眼状態を表している。(c)は、開閉度が30の場合で、(b)よりもさらに細眼となった状態を表している。(d)は、開閉度が0の場合で、上記のとおり完全な閉眼状態を表している。 FIG. 12 schematically shows an example of the open/closed state of the eyes. (A) is a case where the degree of opening and closing is 100, and represents a completely opened state as described above. (B) shows the case where the degree of opening and closing is 70 and shows a fine eye state. (C) shows a state in which the degree of opening and closing is 30, and the eye is narrower than that in (b). (D) is a case where the degree of opening and closing is 0, and represents a completely closed eye state as described above.

運転者が眠気を催してくると、眼の状態は、図12の(b)や(c)のような細眼状態となるが、運転者の顔に直射光が当たっているときにも、眩しさのために、このような細眼状態は生じうる。したがって、細眼状態が一定時間以上続いた場合に、居眠りの予兆とみなされて警報が出力されるシステムでは、直射光の眩しさが原因で細眼状態になった場合であっても、警報が出力されてしまうおそれがある。本発明は、後で詳述するように、直射光の輝度に応じて開閉度に重み付けを施すことにより、この問題を解決するものである。 When the driver becomes drowsy, the eye condition becomes a fine eye condition as shown in (b) and (c) of FIG. 12, but even when the driver's face is exposed to direct light, Due to the glare, such a microscopic state can occur. Therefore, in a system in which a warning is output when a narrow eye condition continues for a certain period of time or more, it is considered as a sign of drowsiness, even if the fine eye condition is caused by the glare of direct light May be output. The present invention solves this problem by weighting the degree of opening and closing according to the brightness of the direct light, as will be described later in detail.

再び図1に戻って、ヒストグラム算出部32は、オフ画像の顔領域Z(図3)における輝度分布すなわちヒストグラムを算出する。重み算出部33は、開閉度算出部31が算出した開閉度に対して、輝度に応じた重み付けを行うためのパラメータを算出する。開閉状態判定部34は、重み付けがされた開閉度に基づいて、眼の開閉状態を判定し、その結果に応じて居眠り運転の有無を判断する。これらの処理内容については、後で詳しく説明する。 Returning to FIG. 1 again, the histogram calculation unit 32 calculates a luminance distribution, that is, a histogram in the face area Z (FIG. 3) of the off-image. The weight calculator 33 calculates a parameter for weighting the open/close degree calculated by the open/close degree calculator 31 according to the brightness. The open/closed state determination unit 34 determines the open/closed state of the eyes based on the weighted open/closed degree, and determines whether or not the driver is dozing while depending on the result. Details of these processes will be described later.

警報出力部35は、開閉状態判定部34において居眠り運転と判断された場合に、そのことを報知するための警報信号を出力する。この警報信号は、通信部5を介して、車両に搭載されているECU(Electronic Control Unit)200へ送信される。重みテーブル36には、輝度に応じた重みの値が記憶されている(後述の図7)。 When the open/close state determination unit 34 determines that the vehicle is dozing, the alarm output unit 35 outputs an alarm signal for notifying that. This alarm signal is transmitted to an ECU (Electronic Control Unit) 200 mounted on the vehicle via the communication unit 5. The weight table 36 stores a weight value corresponding to the brightness (FIG. 7 described later).

LED駆動回路4は、発光部12のLEDを駆動するための回路であり、LEDに所定の駆動電流を供給して、LEDを発光させる。LEDの光量や発光時間は、制御部3によって制御される。 The LED drive circuit 4 is a circuit for driving the LEDs of the light emitting unit 12, and supplies a predetermined drive current to the LEDs to cause the LEDs to emit light. The light amount and the light emission time of the LED are controlled by the control unit 3.

通信部5は、ドライバモニタ100をECU200に接続するためのインターフェイスなどから構成されている。通信部5は、CAN(Controller Area Network)を介してECU200と接続され、ECU200との間で信号やデータの授受を行う。なお、図1ではECU200が1つだけ図示されているが、実際には、制御対象に応じて複数のECUが車両に搭載されており、通信部5は、それらのうちの所定のECUに接続される。 The communication unit 5 is composed of an interface or the like for connecting the driver monitor 100 to the ECU 200. The communication unit 5 is connected to the ECU 200 via a CAN (Controller Area Network) and exchanges signals and data with the ECU 200. Although only one ECU 200 is shown in FIG. 1, a plurality of ECUs are actually mounted on the vehicle according to the control target, and the communication unit 5 is connected to a predetermined ECU among them. To be done.

次に、ドライバモニタ100で眼の開閉状態を検出する具体的な方法について説明する。 Next, a specific method of detecting the open/closed state of the eyes on the driver monitor 100 will be described.

図6は、図3の顔領域Zにおけるピクセル(画素)を模式的に示している。ここでの画像は、発光部12を発光させずに撮像したオフ画像である。画像上の顔領域Zは、撮像部11の撮像素子の配列に対応した多数のピクセルPから構成される。ヒストグラム算出部32は、ピクセル単位で輝度情報を取得する。輝度情報は、各ピクセルPに対応する各撮像素子で光電変換された電流の値に応じた輝度値である。 FIG. 6 schematically shows pixels in the face area Z of FIG. The image here is an off image captured without causing the light emitting unit 12 to emit light. The face area Z on the image is composed of a large number of pixels P corresponding to the arrangement of the image pickup elements of the image pickup section 11. The histogram calculation unit 32 acquires the luminance information on a pixel-by-pixel basis. The brightness information is a brightness value corresponding to the value of the current photoelectrically converted by each image sensor corresponding to each pixel P.

ヒストグラム算出部32は、ピクセル単位で取得した輝度値に基づき、顔領域Zにおける輝度の分布を示すヒストグラムを算出する。図10は、直射光が当たっていない場合のヒストグラムの例である。図11は、直射光が当たっている場合のヒストグラムの例であり、(a)は直射光が弱い状態、(b)は直射光が強い状態を示している。 The histogram calculation unit 32 calculates a histogram showing the distribution of brightness in the face area Z based on the brightness value acquired in pixel units. FIG. 10 is an example of the histogram when the direct light is not applied. 11A and 11B are examples of the histogram when the direct light is applied, where FIG. 11A shows a state where the direct light is weak, and FIG. 11B shows a state where the direct light is strong.

本例では、輝度値は0〜255の256階調に分けられ、それらがさらに16階調ごとに区分されている。以下、この区分を「階級」という。各ピクセルPの輝度は、横軸のいずれかの階級に属し、当該階級に属するピクセルPの数(合計)が、縦軸の度数を表している。 In this example, the brightness value is divided into 256 gradations of 0 to 255, and these are further divided into 16 gradations. Hereinafter, this division is referred to as "class". The brightness of each pixel P belongs to one of the classes on the horizontal axis, and the number (total) of the pixels P belonging to the class represents the frequency on the vertical axis.

図7に示すように、重みテーブル36には、輝度の階級に対応して、重みWmが設定されている。それぞれの重みWmは、各階級の最頻値に応じた値となっている。階級0〜31は、直射光が当っていない正常な状態であり、この場合は重み付けの必要がないため、重みはWm=1.0となっている。階級が32以上の場合は、直射光が当っている状態であり、この場合は輝度に応じた重み付けを行うため、階級に応じて重みWmの値が大きくなる。ここでは、重みWmの最大値が4.0となっているが、これは一例に過ぎない。なお、階級192〜255に対しては、重みWmが設定されていない。これは、当該範囲では直射光が強すぎて、オン画像とオフ画像との間で明るさの差がないことから、それらの差分を取ると顔画像が真っ暗になって眼を検出できず、眼の開閉状態の判定がそもそも不可能なためである。 As shown in FIG. 7, weights Wm are set in the weight table 36 in correspondence with the luminance classes. Each weight Wm has a value corresponding to the mode value of each class. The ranks 0 to 31 are normal states in which no direct light is applied, and in this case there is no need for weighting, so the weight is Wm=1.0. When the class is 32 or more, it is in a state where it is exposed to the direct light, and in this case, since the weighting is performed according to the brightness, the value of the weight Wm increases according to the class. Here, the maximum value of the weight Wm is 4.0, but this is only an example. The weight Wm is not set for the classes 192-255. This is because the direct light is too strong in the range and there is no difference in brightness between the on-image and the off-image, and when the difference between them is taken, the face image becomes dark and the eyes cannot be detected. This is because the eye open/closed state cannot be determined in the first place.

重み算出部33は、重み付けを行うためのパラメータとして、重みテーブル36から得られる重みWmに加えて、図8に示した重み係数Wgをさらに算出する。図8にあるように、重み係数Wgは、Wg=2+1で表される。ここで、aは図9に示されている傾きであり、この傾きaは、度数が最大の階級(図9では16〜31)と、当該階級に隣接しかつ当該階級より上の階級(図9では32〜47)との間の、度数の傾き(2つの度数値を結んだ直線の傾き)である。なお、隣接する階級の度数が同じである場合は、大きい方の(上位側の)階級とそれに隣接する次の階級との間で、傾きaを求める。したがって、傾きaは正の値や0となることはなく、必ず負の値となる(a<0)。 The weight calculator 33 further calculates the weight coefficient Wg shown in FIG. 8 in addition to the weight Wm obtained from the weight table 36 as a parameter for performing weighting. As shown in FIG. 8, the weighting factor Wg is represented by Wg=2 a +1. Here, a is the slope shown in FIG. 9, and this slope a is the class with the highest frequency (16 to 31 in FIG. 9) and the classes adjacent to and above the class (FIG. 9). 9 is the gradient of the frequency between 32 and 47) (the gradient of the straight line connecting the two numerical values). When the frequencies of the adjacent classes are the same, the slope a is calculated between the larger (upper side) class and the next class adjacent thereto. Therefore, the slope a never becomes a positive value or 0, and always becomes a negative value (a<0).

開閉状態判定部34は、重み算出部33で算出された重みWmおよび重み係数Wgを用いて、開閉度算出部31が算出した眼の開閉度Xに重み付けを行うことで、当該開閉度Xを補正する。具体的には、開閉度Xの補正値Yを、次式により算出する。
Y=X・Wm・Wg ・・・ (1)
この補正された開閉度Yが、眼の開閉状態の判定に用いられる判定用の開閉度となる。
The open/closed state determination unit 34 weights the eye open/closed degree X calculated by the open/closed degree calculation unit 31 by using the weight Wm and the weight coefficient Wg calculated by the weight calculating unit 33 to determine the open/closed degree X. to correct. Specifically, the correction value Y of the opening/closing degree X is calculated by the following equation.
Y=X·Wm·Wg (1)
The corrected opening/closing degree Y is the determination opening/closing degree used for the determination of the eye open/closed state.

このように眼の開閉度を補正するのは、直射光に基因する細眼状態を、眠気に基因する細眼状態と区別して検出するためである。前述のように、車両50のフロントガラス54から太陽光などの直射光が入射して、運転者53の顔Fに当たっている場合、運転者53が眩しさのために細眼状態になると(たとえば図12(c))、居眠りの予兆とみなされて誤って警報が出力されるおそれがある。そこで、本発明では、開閉度算出部31が算出した眼の開閉度Xに対して、まず直射光の輝度に応じた重みWm(図7)による重み付けを行う。そして、輝度の大きい直射光に対しては、前記の(1)式において大きな重みWmで重み付けをすることで、開閉度Yの値を大きくする。これによって、運転者53が直射光により眼を細めても、開閉度Yが大きな値となっているので、眩しさによる細眼状態を、居眠りの予兆と誤判定することが防止される。 The degree of opening and closing of the eye is corrected in this manner in order to detect the fine eye state caused by direct light separately from the fine eye state caused by drowsiness. As described above, when direct light such as sunlight is incident from the windshield 54 of the vehicle 50 and hits the face F of the driver 53, when the driver 53 becomes in a fine-eyed state due to glare (for example, in FIG. 12(c)), the alarm may be erroneously output because it is considered as a sign of dozing. Therefore, in the present invention, the eye open/closed degree X calculated by the open/closed degree calculating unit 31 is first weighted by the weight Wm (FIG. 7) according to the brightness of the direct light. Further, the value of the opening/closing degree Y is increased by weighting the direct light having a large luminance with the large weight Wm in the equation (1). As a result, even if the driver 53 narrows his eyes with direct light, the degree of opening/closing Y has a large value, so that it is possible to prevent the thin eye state due to glare from being erroneously determined as a sign of dozing.

さらに、本発明では、重みWmに加えて重み係数Wgを用いることで、二重の重み付けを行う。これは次のような理由による。最大度数の階級と次の階級との傾きaの絶対値が大きい場合(aが0から遠い場合)は、最大度数の輝度だけが目立つのに対し、傾きaの絶対値が小さい場合(aが0に近い場合)は、最大度数の輝度と次度数の輝度が共に目立つことになる。したがって、後者の場合は、前者の場合に比べて強い直射光が当たっている。そこで、図8のような、傾きaが0に近いほど(つまり直射光が強いほど)大きな値となる重み係数Wgを、重みWmに乗じることによって、眼の開閉度をより高精度に補正することができる。 Further, in the present invention, double weighting is performed by using the weighting coefficient Wg in addition to the weight Wm. This is for the following reasons. When the absolute value of the slope a between the maximum frequency class and the next class is large (when a is far from 0), only the brightness of the maximum frequency stands out, whereas when the absolute value of the slope a is small (a is (When it is close to 0), the luminance of the maximum frequency and the luminance of the next frequency are both conspicuous. Therefore, in the latter case, the direct light is stronger than in the former case. Therefore, as shown in FIG. 8, by multiplying the weight Wm by a weighting coefficient Wg that has a larger value as the inclination a is closer to 0 (that is, as direct light is stronger), the degree of eye opening/closing is corrected with higher accuracy. be able to.

開閉状態判定部34は、前記(1)式により算出した判定用の開閉度Y(補正値)を、所定の閾値と比較することにより、運転者53の眼の開閉状態を判定する。一例として、閾値を50とした場合、開閉度Yが50≦Y≦100の範囲にある場合(閾値以上)、開閉状態判定部34は、運転者53が開眼状態であると判定する。また、開閉度Yが0≦Y<50の範囲にある場合(閾値未満)、開閉状態判定部34は、運転者53が閉眼状態であると判定する。なお、細眼状態は、開閉度Yの値によって、閉眼状態か開眼状態のいずれかに振り分けられる。 The open/closed state determination unit 34 determines the open/closed state of the eyes of the driver 53 by comparing the open/closed degree Y (correction value) for determination calculated by the equation (1) with a predetermined threshold value. As an example, when the threshold value is 50 and the opening/closing degree Y is in the range of 50≦Y≦100 (equal to or more than the threshold value), the open/closed state determination unit 34 determines that the driver 53 is in the eye open state. When the opening/closing degree Y is in the range of 0≦Y<50 (less than the threshold value), the opening/closing state determination unit 34 determines that the driver 53 is in the eye-closed state. The fine eye state is classified into either the closed eye state or the open eye state depending on the value of the opening/closing degree Y.

開閉状態判定部34は、さらに、運転者53の眼の開閉状態を閉眼状態と判定した場合、この閉眼状態が継続する時間を計測し、閉眼状態が所定時間以上継続すると、運転者53が居眠り状態または居眠り予兆状態にあると判断する。開閉状態判定部34でこの判断が下されると、警報出力部35は、運転者53を覚醒させるための警報信号を出力する。前述したように、この警報信号は、通信部5を介してECU200へ送信される。ECU200では、警報信号を受信すると、運転者53に対して居眠りの警告を与えるための処理(たとえば、音声出力やブザー鳴動など)が行われる。 When the open/closed state determination unit 34 further determines that the eye open/closed state of the driver 53 is the closed eye state, the open/closed state determination unit 34 measures the time period during which the closed eye state continues, and when the closed eye state continues for a predetermined time or more, the driver 53 falls asleep. It is judged that the patient is in a state or a dozing sign. When the open/close state determination unit 34 makes this determination, the alarm output unit 35 outputs an alarm signal for awakening the driver 53. As described above, this alarm signal is transmitted to ECU 200 via communication unit 5. Upon receiving the warning signal, ECU 200 performs a process for giving a drowsiness warning to driver 53 (for example, voice output or buzzer sounding).

図13は、以上説明したドライバモニタ100の動作を示したフローチャートである。 FIG. 13 is a flowchart showing the operation of the driver monitor 100 described above.

図13において、ステップS1では、カメラ1が、発光部12のLEDを発光させずに運転者53の顔Fを撮像し、オフ画像を生成する。ステップS2では、カメラ1が、発光部12のLEDを発光させて運転者53の顔Fを撮像し、オン画像を生成する。ステップS1とステップS2の順序は、入れ替えてもよい。 13, in step S1, the camera 1 captures the face F of the driver 53 without causing the LEDs of the light emitting unit 12 to emit light, and generates an off-image. In step S2, the camera 1 causes the LED of the light emitting unit 12 to emit light, images the face F of the driver 53, and generates an on-image. The order of step S1 and step S2 may be interchanged.

ステップS3では、画像処理部2が、カメラ1から取得したオン画像とオフ画像の差分を演算し、差分画像を生成する。そして、画像処理部2は、ステップS4において、差分画像に基づいて顔領域Z(図3)を抽出するとともに、眼、鼻、口などの特徴点を抽出する。 In step S3, the image processing unit 2 calculates the difference between the on-image and the off-image acquired from the camera 1 to generate a difference image. Then, in step S4, the image processing unit 2 extracts the face area Z (FIG. 3) based on the difference image, and also extracts feature points such as eyes, nose, and mouth.

ステップS5では、開閉度算出部31が、ステップS4で検出された眼の画像に基づいて、眼の開閉度Xを算出する。ステップS6では、ヒストグラム算出部32が、オフ画像の顔領域Zにおけるヒストグラム(輝度分布)を算出する。ステップS7では、重み算出部33が、重みテーブル36(図7)を参照して、ヒストグラムにおける最大度数の階級に対応する重みWmを取得する。また、重み算出部33は、ステップS8において、最大度数の階級とその次の階級との傾きa(図9)を算出するとともに、ステップS9において、重み係数Wg=2+1(図8)を演算する。 In step S5, the opening/closing degree calculation unit 31 calculates the eye opening/closing degree X based on the image of the eye detected in step S4. In step S6, the histogram calculation unit 32 calculates a histogram (luminance distribution) in the face area Z of the off-image. In step S7, the weight calculation unit 33 refers to the weight table 36 (FIG. 7) and acquires the weight Wm corresponding to the maximum frequency class in the histogram. In addition, the weight calculation unit 33 calculates the slope a (FIG. 9) between the maximum frequency class and the next class in step S8, and also calculates the weight coefficient Wg=2 a +1 (FIG. 8) in step S9. Calculate

次に、ステップS10において、開閉状態判定部34は、ステップS5、S7、S9で得られた開閉度X、重みWm、重み係数Wgを用いて、前記の式(1)により開閉度Xの補正値Yを演算する(Y=X・Wm・Wg)。この補正値Yが判定用の開閉度であることは、前述したとおりである。続くステップS11では、開閉状態判定部34が、補正値Yと閾値との比較結果に基づいて、眼の開閉状態(開眼または閉眼)を判定する。そして、ステップS12において、開閉状態判定部34は、閉眼状態が所定時間以上継続しているか否かを判定する。 Next, in step S10, the open/close state determination unit 34 corrects the open/close degree X by the above equation (1) using the open/close degree X, the weight Wm, and the weight coefficient Wg obtained in steps S5, S7, and S9. The value Y is calculated (Y=X·Wm·Wg). As described above, the correction value Y is the opening/closing degree for determination. In the following step S11, the open/closed state determination unit 34 determines the open/closed state of the eye (open or closed) based on the comparison result between the correction value Y and the threshold value. Then, in step S12, the open/closed state determination unit 34 determines whether or not the eye-closed state continues for a predetermined time or more.

判定の結果、閉眼状態が所定時間以上継続している場合は(ステップS12:YES)、ステップS13へ進んで、警報出力部35が警報信号を出力する。また、閉眼状態が所定時間以上継続していない場合は(ステップS12:NO)、ステップS13を省略して最初に戻る。なお、ステップS11で開眼状態と判定された場合も、ステップS12の判定はNOとなって、ステップS13を省略して最初に戻る。 As a result of the determination, when the eye-closed state continues for the predetermined time or more (step S12: YES), the process proceeds to step S13, and the alarm output unit 35 outputs an alarm signal. When the eye-closed state has not continued for the predetermined time or more (step S12: NO), step S13 is omitted and the process returns to the beginning. Even if it is determined in step S11 that the eye is open, the determination in step S12 is NO, and step S13 is omitted and the process returns to the beginning.

上述した実施形態によると、開閉度算出部31で算出された眼の開閉度Xに対し、顔領域Zの輝度分布に応じた重みWmおよび重み係数Wgにより重み付けを行い、当該重み付けがされた開閉度Yに基づいて、運転者53の眼の開閉状態を判定する。このため、直射光の状態に応じて補正された開閉度Yに基づいて、眼の開閉状態が検出されるので、直射光の眩しさによる細眼状態を、眠気による細眼状態と区別して検出することが可能となる。その結果、運転者53が直射光の当たっている状態で眼を細めた場合に、開閉状態判定部34が居眠りの予兆と誤判定して、警報出力部35から警報信号が出力されるのを防止することができる。 According to the above-described embodiment, the eye open/closed degree X calculated by the open/closed degree calculating unit 31 is weighted by the weight Wm and the weight coefficient Wg according to the luminance distribution of the face area Z, and the weighted open/close degree is set. The open/closed state of the eyes of the driver 53 is determined based on the degree Y. Therefore, the open/closed state of the eye is detected based on the opening/closing degree Y corrected according to the state of the direct light, so that the fine eye state due to the glare of the direct light is detected separately from the fine eye state due to the drowsiness. It becomes possible to do. As a result, when the driver 53 squints his eyes under direct light, the open/close state determination unit 34 erroneously determines that it is a sign of drowsiness, and the alarm output unit 35 outputs an alarm signal. Can be prevented.

本発明では、以上述べた実施形態以外にも、以下のような種々の実施形態を採用することができる。 In the present invention, in addition to the embodiments described above, the following various embodiments can be adopted.

図6においては、顔領域Zの全領域に含まれるピクセルPにつき、輝度情報を取得する例を挙げたが、顔領域Zの一部領域に含まれるピクセルPにつき、輝度情報を取得してもよい。たとえば、図14に示したように、顔領域Zにおける眼の周辺領域Qに含まれるピクセルについて、輝度情報を取得するようにしてもよい。これは次のような理由による。 In FIG. 6, the example in which the brightness information is acquired for the pixels P included in the entire area of the face area Z is described. However, even if the brightness information is acquired for the pixels P included in a partial area of the face area Z, Good. For example, as shown in FIG. 14, the luminance information may be acquired for the pixels included in the peripheral area Q of the eye in the face area Z. This is for the following reasons.

フロントガラス54(図2)の上部に設けられているサンバイザー(図示省略)をおろして日除けをする場合には、運転者53の眼の周辺領域の輝度が低下する。したがって、顔領域Zに含まれる全ピクセルの輝度に基づいてヒストグラムを算出すると、開閉度Yの値が小さくなって、眼の開閉状態を誤判定するおそれがある。そこで、眼の周辺領域Qのピクセルの輝度に基づいてヒストグラムを算出することで、そのような不具合を解消することができる。なお、サンバイザーがおろされたことを検知するセンサを設け、当該センサから検知信号が出力された場合に、輝度情報を取得する領域を、顔領域Zから眼の周辺領域Qへ自動的に切り替えるようにしてもよい。 When the sun visor (not shown) provided on the upper portion of the windshield 54 (FIG. 2) is pulled down to shade the sun, the brightness of the peripheral region of the eyes of the driver 53 decreases. Therefore, if the histogram is calculated based on the brightness of all the pixels included in the face area Z, the value of the opening/closing degree Y may be small, and the open/closed state of the eye may be erroneously determined. Therefore, by calculating the histogram based on the brightness of the pixels in the peripheral region Q of the eye, such a problem can be solved. A sensor for detecting that the sun visor has been lowered is provided, and when the detection signal is output from the sensor, the area for acquiring the brightness information is automatically switched from the face area Z to the peripheral area Q of the eye. You may do it.

図7の重みテーブル36においては、ヒストグラムの階級を16階調ごとに区分した例を挙げたが、本発明はこれに限定されない。たとえば、図15に示したように、ヒストグラムの階級を48階調ごとに区分して、輝度の階級を「低」「中」「高」「算出不能」の4ランクに分類し、「低」「中」「高」のランクについて重みWmを設定してもよい。 In the weight table 36 of FIG. 7, an example in which the histogram class is divided into 16 gradations is given, but the present invention is not limited to this. For example, as shown in FIG. 15, the histogram class is divided into 48 gradations, and the brightness class is classified into four ranks of “low”, “medium”, “high”, and “calculation impossible”, and “low”. The weight Wm may be set for the "medium" and "high" ranks.

図6や図14においては、個々のピクセル単位で輝度情報(輝度値)を取得する例を挙げたが、本発明はこれに限定されない。たとえば、複数のピクセルをブロック化し、ブロック単位で輝度情報を取得するようにしてもよい。この場合、1ブロックに含まれる各ピクセルの輝度値の最大値を当該ブロックの輝度情報としてもよく、あるいは、各ピクセルの輝度値の平均値を当該ブロックの輝度情報としてもよい。 6 and 14, the example in which the luminance information (luminance value) is acquired in the unit of each pixel is described, but the present invention is not limited to this. For example, a plurality of pixels may be divided into blocks and the brightness information may be acquired in block units. In this case, the maximum brightness value of each pixel included in one block may be used as the brightness information of the block, or the average brightness value of each pixel may be used as the brightness information of the block.

図3においては、撮像画像Gにおける顔領域Zが、運転者の顔Fと同じ形状である例を挙げたが、顔領域Zは、顔Fを含む四角形、菱形、楕円形、円形などの領域であってもよい。 In FIG. 3, the face area Z in the captured image G has the same shape as the driver's face F, but the face area Z is a region including the face F such as a quadrangle, a rhombus, an ellipse, and a circle. May be

図8においては、重み係数WgをWg=2+1として算出する例を挙げたが、これは一例であって、重み係数Wgを他の演算式により算出してもよい。 In FIG. 8, the example in which the weighting factor Wg is calculated as Wg=2 a +1 has been described, but this is an example, and the weighting factor Wg may be calculated by another arithmetic expression.

前記の実施形態では、車両の乗員として運転者53を例に挙げたが、カメラ1の被写体となる乗員は、運転者以外の者であってもよい。 In the above embodiment, the driver 53 is given as an example of the occupant of the vehicle, but the occupant who is the subject of the camera 1 may be a person other than the driver.

前記の実施形態では、本発明を車両に搭載されるドライバモニタ100に適用した例を挙げたが、本発明は、車両以外の用途にも適用することができる。 In the above-described embodiment, the example in which the present invention is applied to the driver monitor 100 mounted on the vehicle has been described, but the present invention can be applied to applications other than the vehicle.

1 カメラ
11 撮像部
12 発光部
2 画像処理部
3 制御部
4 LED駆動回路
5 通信部
31 開閉度算出部
32 ヒストグラム算出部
33 重み算出部
34 開閉状態判定部
35 警報出力部
36 重みテーブル
53 運転者
100 ドライバモニタ(眼の開閉検出装置、乗員監視装置)
F 顔
G 撮像画像
P ピクセル(画素)
Q 眼の周辺領域
Z 顔領域
DESCRIPTION OF SYMBOLS 1 camera 11 imaging part 12 light emitting part 2 image processing part 3 control part 4 LED drive circuit 5 communication part 31 switching degree calculation part 32 histogram calculation part 33 weight calculation part 34 open/closed state determination part 35 alarm output part 36 weight table 53 driver 100 Driver monitor (eye opening/closing detection device, occupant monitoring device)
F face G captured image P pixel
Q Eye peripheral area Z Face area

Claims (7)

被写体の顔を撮像する撮像部と、
前記撮像部が撮像した顔画像に対して所定の処理を行い、当該顔画像から前記被写体の眼を抽出する画像処理部と、
前記画像処理部で抽出された眼の画像に基づいて、眼の開閉状態を表す開閉度を算出する開閉度算出部と、
前記顔画像における所定領域の輝度情報に応じた重みを算出する重み算出部と、
前記開閉度算出部で算出された開閉度に対して、前記重みにより重み付けを行い、当該重み付けがされた開閉度に基づいて眼の開閉状態を判定する開閉状態判定部と、を備えたことを特徴とする眼の開閉検出装置。
An imaging unit that images the face of the subject,
An image processing unit that performs a predetermined process on the face image captured by the image capturing unit and extracts the eye of the subject from the face image,
Based on the image of the eye extracted by the image processing unit, an open/closed degree calculation unit that calculates an open/closed degree indicating the open/closed state of the eye,
A weight calculation unit that calculates a weight according to luminance information of a predetermined area in the face image,
An open/closed state determination unit that weights the open/closed degree calculated by the open/closed degree calculation unit with the weight, and determines the open/closed state of the eye based on the weighted open/closed degree, is provided. A device for detecting eye opening/closing.
請求項1に記載の眼の開閉検出装置において、
前記顔画像における所定領域の輝度の分布を示すヒストグラムを算出するヒストグラム算出部と、
前記輝度の階級に対応して前記重みが設定された重みテーブルと、をさらに備え、
前記重み算出部は、前記重みテーブルを参照して、前記ヒストグラム算出部が算出したヒストグラムにおける度数が最大の階級に対応する重みを選択する、ことを特徴とする眼の開閉検出装置。
The eye opening/closing detection device according to claim 1,
A histogram calculation unit that calculates a histogram showing the distribution of the brightness of a predetermined area in the face image,
A weight table in which the weights are set corresponding to the luminance classes,
The eye opening/closing detection apparatus, wherein the weight calculation unit refers to the weight table and selects a weight corresponding to a class having a maximum frequency in the histogram calculated by the histogram calculation unit.
請求項2に記載の眼の開閉検出装置において、
前記重み算出部は、
前記ヒストグラムにおける度数が最大の階級と、当該階級に隣接しかつ当該階級より上の階級との間の、度数の傾きを算出し、
前記傾きに基づいて、当該傾きの絶対値が小さくなるほど値が大きくなる重み係数をさらに算出し、
前記開閉状態判定部は、前記重みに前記重み係数を乗じることにより、前記開閉度に対する重み付けを行う、ことを特徴とする眼の開閉検出装置。
The eye opening/closing detection device according to claim 2,
The weight calculator is
Between the class with the highest frequency in the histogram and a class adjacent to and above the class, calculate the slope of the frequency,
On the basis of the slope, a weighting coefficient that increases as the absolute value of the slope becomes smaller is further calculated,
The eye open/closed detection device, wherein the open/closed state determination unit weights the open/closed degree by multiplying the weight by the weighting coefficient.
請求項2または請求項3に記載の眼の開閉検出装置において、
前記被写体の顔に光を照射する発光部をさらに備え、
前記撮像部は、前記発光部が発光していない状態で撮像した第1画像と、前記発光部が発光した状態で撮像した第2画像とを生成し、
前記画像処理部は、前記第2画像と前記第1画像との差分である差分画像に基づいて、前記顔画像における前記所定領域を抽出し、
前記ヒストグラム算出部は、前記第1画像における前記所定領域のヒストグラムを算出する、ことを特徴とする眼の開閉検出装置。
The eye open/closed detection device according to claim 2 or 3,
Further comprising a light emitting unit for irradiating the face of the subject with light,
The image capturing unit generates a first image captured while the light emitting unit is not emitting light and a second image captured while the light emitting unit is emitting light,
The image processing unit extracts the predetermined region in the face image based on a difference image that is a difference between the second image and the first image,
The eye opening/closing detection device, wherein the histogram calculation unit calculates a histogram of the predetermined region in the first image.
請求項1ないし請求項4のいずれかに記載の眼の開閉検出装置において、
前記所定領域は、前記被写体の眼の周辺領域である、ことを特徴とする眼の開閉検出装置。
The eye opening/closing detection device according to any one of claims 1 to 4,
The eye opening/closing detection device, wherein the predetermined area is an area around the eye of the subject.
車両の乗員の顔を撮像する撮像部と、
前記撮像部が撮像した顔画像に対して所定の処理を行い、当該顔画像から前記乗員の眼を抽出する画像処理部と、
前記画像処理部で抽出された眼の画像に基づいて、眼の開閉状態を表す開閉度を算出する開閉度算出部と、
前記顔画像における所定領域の輝度情報に応じた重みを算出する重み算出部と、
前記開閉度算出部で算出された開閉度に対して、前記重みにより重み付けを行い、当該重み付けがされた開閉度に基づいて眼の開閉状態を判定する開閉状態判定部と、
前記開閉状態判定部での判定結果に基づいて警報信号を出力する警報出力部と、を備えたことを特徴とする乗員監視装置。
An image pickup unit that picks up an image of the face of a vehicle occupant;
An image processing unit that performs a predetermined process on the face image captured by the image capturing unit and extracts the eyes of the occupant from the face image,
Based on the image of the eye extracted by the image processing unit, an open/closed degree calculation unit that calculates an open/closed degree indicating the open/closed state of the eye,
A weight calculation unit that calculates a weight according to luminance information of a predetermined area in the face image,
An open/closed state determination unit that determines the open/closed state of the eye based on the weighted open/closed degree, with respect to the open/closed degree calculated by the open/closed degree calculation unit.
An occupant monitoring device, comprising: an alarm output unit that outputs an alarm signal based on the determination result of the open/closed state determination unit.
請求項6に記載の乗員監視装置において、
前記警報出力部は、前記開閉状態判定部で眼の開閉状態が閉眼状態であると判定され、かつ、当該閉眼状態が所定時間以上継続した場合に、前記警報信号を出力する、ことを特徴とする乗員監視装置。
The occupant monitoring system according to claim 6,
The alarm output unit, the open/closed state determination unit determines that the eye open/closed state is a closed eye state, and when the closed eye state continues for a predetermined time or more, outputs the alarm signal, Occupant monitoring device.
JP2018233287A 2018-12-13 2018-12-13 Eye opening/closing detection device, occupant monitoring device Active JP7212251B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018233287A JP7212251B2 (en) 2018-12-13 2018-12-13 Eye opening/closing detection device, occupant monitoring device
PCT/JP2019/041111 WO2020121650A1 (en) 2018-12-13 2019-10-18 Eye opening/closing detection device and occupant monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018233287A JP7212251B2 (en) 2018-12-13 2018-12-13 Eye opening/closing detection device, occupant monitoring device

Publications (2)

Publication Number Publication Date
JP2020095499A true JP2020095499A (en) 2020-06-18
JP7212251B2 JP7212251B2 (en) 2023-01-25

Family

ID=71077236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018233287A Active JP7212251B2 (en) 2018-12-13 2018-12-13 Eye opening/closing detection device, occupant monitoring device

Country Status (2)

Country Link
JP (1) JP7212251B2 (en)
WO (1) WO2020121650A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123188A (en) * 1998-10-20 2000-04-28 Toyota Motor Corp Eye open/close discriminating device
JP2000198369A (en) * 1998-12-28 2000-07-18 Niles Parts Co Ltd Eye state detecting device and doze-driving alarm device
JP2006259902A (en) * 2005-03-15 2006-09-28 Omron Corp Image processor and processing method, recording medium, and program
JP2011043961A (en) * 2009-08-20 2011-03-03 Toyota Motor Corp Driver monitoring device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123188A (en) * 1998-10-20 2000-04-28 Toyota Motor Corp Eye open/close discriminating device
JP2000198369A (en) * 1998-12-28 2000-07-18 Niles Parts Co Ltd Eye state detecting device and doze-driving alarm device
JP2006259902A (en) * 2005-03-15 2006-09-28 Omron Corp Image processor and processing method, recording medium, and program
JP2011043961A (en) * 2009-08-20 2011-03-03 Toyota Motor Corp Driver monitoring device

Also Published As

Publication number Publication date
WO2020121650A1 (en) 2020-06-18
JP7212251B2 (en) 2023-01-25

Similar Documents

Publication Publication Date Title
US8102417B2 (en) Eye closure recognition system and method
US7253739B2 (en) System and method for determining eye closure state
JP5435307B2 (en) In-vehicle camera device
JP4004634B2 (en) Face image eye position detection apparatus and method
JP2008158922A (en) Eyelid detection apparatus, eyelid detection method, and program
US7912251B2 (en) Eyelid detection apparatus and program therefor
CN105828065B (en) A kind of video pictures overexposure detection method and device
JP2009116742A (en) Onboard image processor, image processing method, and program
EP3466324A1 (en) Skin diagnostic device and skin diagnostic method
JP2013005234A5 (en)
JP6601351B2 (en) Eye gaze measurement device
CN112364842B (en) Double-shot face recognition method and device
CN110135370B (en) Method and device for detecting living human face, electronic equipment and computer readable medium
CN112866581A (en) Camera automatic exposure compensation method and device and electronic equipment
JP2019159346A (en) Imaging apparatus
CN115171024A (en) Face multi-feature fusion fatigue detection method and system based on video sequence
US10457293B2 (en) Driver monitoring apparatus, driver monitoring method, and program
JP6289439B2 (en) Image processing device
JP2016028669A (en) Pupil detection device and pupil detection method
JP7212251B2 (en) Eye opening/closing detection device, occupant monitoring device
JP3036319B2 (en) Driver status monitoring device
CN116524877A (en) Vehicle-mounted screen brightness adjustment method and device, electronic equipment and storage medium
CN113287298B (en) Image processing device, image processing method, and storage medium
CN112041783A (en) Exposure time control
US20190289186A1 (en) Imaging device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20190311

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190319

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221226

R150 Certificate of patent or registration of utility model

Ref document number: 7212251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150