JP7403729B2 - Awakening level estimation device and arousal level estimation method - Google Patents

Awakening level estimation device and arousal level estimation method Download PDF

Info

Publication number
JP7403729B2
JP7403729B2 JP2023561121A JP2023561121A JP7403729B2 JP 7403729 B2 JP7403729 B2 JP 7403729B2 JP 2023561121 A JP2023561121 A JP 2023561121A JP 2023561121 A JP2023561121 A JP 2023561121A JP 7403729 B2 JP7403729 B2 JP 7403729B2
Authority
JP
Japan
Prior art keywords
face
distance
unit
brightness
driver
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023561121A
Other languages
Japanese (ja)
Other versions
JPWO2023095229A1 (en
Inventor
智大 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2023095229A1 publication Critical patent/JPWO2023095229A1/ja
Application granted granted Critical
Publication of JP7403729B2 publication Critical patent/JP7403729B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Description

本開示は、覚醒度推定装置および覚醒度推定方法に関するものである。 The present disclosure relates to an alertness level estimation device and an alertness level estimation method.

人は、眠気を催し覚醒度が低下すると、眉間にしわを寄せた顔をすることがある。そこで、従来、人の顔を撮像して得られた画像に基づいて検出した人の両目の目頭および眉頭をあらわす特徴点の距離が予め定められた閾値以下になったことから人が眉間にしわを寄せた状態を検出し、当該状態が検出された頻度から、人の眠気状態を推定する技術が知られている(例えば、特許文献1)。 When people become drowsy and their level of alertness decreases, their eyebrows may become wrinkled. Conventionally, people develop wrinkles between their eyebrows because the distance between feature points representing the inner corners of both eyes and eyebrows of a person detected based on an image obtained by capturing a person's face is less than a predetermined threshold. There is a known technique for estimating a person's sleepiness state based on the frequency with which the state is detected (for example, Patent Document 1).

特開2008-212298号公報JP2008-212298A

人が眉間にしわを寄せた顔をするのは、眠気を催し覚醒度が低下した場合に限られない。人は、眩しいと感じた場合にも、眉間にしわを寄せることがある。したがって、人が眉間にしわを寄せたという表情からだけでは、人の覚醒度が低下したのか、人が眩しいと感じているのかの区別は困難である。
特許文献1に開示されている技術に代表される従来技術では、人が眉間にしわを寄せたという表情からだけでは人の覚醒度が低下したのか人が眩しいと感じているのかの区別が困難であることが考慮できていないため、人の覚醒度が低下したことを誤推定する可能性があった。
People's eyebrows furrowed not only when they become sleepy and their alertness decreases. People may also wrinkle their eyebrows when they feel bright light. Therefore, it is difficult to distinguish whether the person's alertness level has decreased or whether the person feels dazzling just by looking at the facial expression of the person's eyebrows furrowed.
With conventional technology, typified by the technology disclosed in Patent Document 1, it is difficult to distinguish whether a person's alertness level has decreased or whether the person feels dazzling just by looking at the facial expression of the person's eyebrows furrowed. Since this could not be taken into account, there was a possibility of incorrectly estimating that a person's alertness level had decreased.

本開示は上記のような課題を解決するためになされたもので、人が眉間にしわを寄せた状態である場合に、周囲の状況は人が眩しいと感じると想定される状況であるかを考慮して人の覚醒度合いを推定することで、人の覚醒度低下の誤推定を防ぐ覚醒度推定装置を提供することを目的とする。 The present disclosure has been made in order to solve the above-mentioned problems, and it is necessary to investigate whether the surrounding situation is such that the person would feel dazzling when the person has wrinkled eyebrows. It is an object of the present invention to provide an alertness level estimation device that prevents erroneous estimation of a decrease in a person's alertness level by estimating the alertness level of the person.

本開示に係る覚醒度推定装置は、人が眉間にしわを寄せた顔をしているか否かを示す顔判定情報を取得する顔判定情報取得部と、人の顔が存在すべき範囲が撮像された撮像画像における輝度を検出する輝度検出部と、顔判定情報取得部が取得した顔判定情報と、輝度検出部が検出した輝度とに基づき、人の覚醒度合いを推定する推定部とを備えたものである。 The arousal level estimation device according to the present disclosure includes a face determination information acquisition unit that acquires face determination information indicating whether or not a person has a face with wrinkles between the eyebrows, and a range in which the human face should be present. a brightness detection unit that detects the brightness in the captured image, and an estimation unit that estimates the degree of arousal of the person based on the face determination information acquired by the face determination information acquisition unit and the brightness detected by the brightness detection unit. It is something that

本開示によれば、人が眉間にしわを寄せた状態である場合に、周囲の状況は人が眩しいと感じると想定される状況であるかを考慮して人の覚醒度合いを推定することで、人の覚醒度低下の誤推定を防ぐことができる。 According to the present disclosure, when a person has wrinkled eyebrows, the degree of arousal of the person is estimated by considering whether the surrounding situation is such that the person would feel dazzling. , it is possible to prevent incorrect estimation of a person's alertness level decline.

実施の形態1に係る覚醒度推定装置の構成例を示す図である。1 is a diagram illustrating a configuration example of an alertness level estimation device according to Embodiment 1. FIG. 実施の形態1に係る覚醒度推定装置の動作について説明するためのフローチャートである。3 is a flowchart for explaining the operation of the alertness level estimating device according to the first embodiment. 図2のステップST5における、顔判定部による我慢顔判定処理の詳細を説明するためのフローチャートである。3 is a flowchart for explaining details of the patient face determination process by the face determination section in step ST5 of FIG. 2. FIG. 図2のステップST8における、推定部による覚醒度推定処理の詳細を説明するためのフローチャートである。3 is a flowchart for explaining details of the arousal level estimation process by the estimator in step ST8 of FIG. 2. FIG. 実施の形態1における、基準距離算出部による基準特徴点間距離の算出動作について説明するためのフローチャートである。7 is a flowchart for explaining an operation of calculating a reference inter-feature point distance by a reference distance calculation unit in the first embodiment. 図6Aおよび図6Bは、実施の形態1に係る覚醒度推定装置のハードウェア構成の一例を示す図である。6A and 6B are diagrams illustrating an example of the hardware configuration of the alertness level estimation device according to the first embodiment. 実施の形態1において、個人認証機能を備えるようにした覚醒度推定装置の構成例を示す図である。1 is a diagram illustrating a configuration example of an alertness level estimation device including a personal authentication function in Embodiment 1. FIG. 実施の形態1において、個人認証機能を備えるようにした覚醒度推定装置1の動作を説明するためのフローチャートである。2 is a flowchart for explaining the operation of the alertness level estimation device 1 equipped with a personal authentication function in the first embodiment.

以下、本開示の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
実施の形態1に係る覚醒度推定装置は、人の少なくとも顔が撮像された撮像画像に基づき、人の覚醒度合いを推定する。特に、覚醒度推定装置は、人が眉間にしわを寄せた顔をした場合に、当該顔は、人の覚醒度が低下したことによってなされた顔なのか、人が眩しいと感じたためになされた顔なのかを区別し、人の覚醒度合いを推定する。
実施の形態1において、眉間にしわを寄せた顔のことを、「我慢顔」という。「我慢顔」は、眉間にしわを寄せ、目を細めた、いわゆるしかめ顔である。
また、実施の形態1では、一例として、覚醒度推定装置が覚醒度合いを推定する対象となる人は、車両のドライバとする。
覚醒度推定装置が推定した、ドライバの覚醒度が低下したか、言い換えれば、ドライバが眠気を催しているかの推定結果は、例えば、ドライバの居眠り検出に用いられる。
Embodiments of the present disclosure will be described in detail below with reference to the drawings.
Embodiment 1.
The alertness level estimation device according to the first embodiment estimates a person's alertness level based on a captured image in which at least the person's face is captured. In particular, when a person makes a face with wrinkles between their eyebrows, the alertness estimation device can determine whether the face was made due to a decrease in the person's alertness level or because the person felt dazzling. It distinguishes whether it is a face or not and estimates the person's level of arousal.
In the first embodiment, a face with wrinkles between the eyebrows is referred to as a "patience face." The ``patience face'' is a so-called frowning face with wrinkles between the eyebrows and narrowed eyes.
Further, in the first embodiment, as an example, the person whose arousal degree is estimated by the arousal degree estimating device is a driver of a vehicle.
The estimation result of whether the driver's alertness level has decreased, in other words, whether the driver is drowsy, which is estimated by the alertness level estimation device, is used, for example, to detect whether the driver is dozing off.

図1は、実施の形態1に係る覚醒度推定装置1の構成例を示す図である。
覚醒度推定装置1は、顔判定装置2、顔判定情報取得部11、輝度検出部12、および、推定部13を備える。
覚醒度推定装置1は、撮像装置3と接続される。撮像装置3は、車両(図示省略)に搭載され、少なくともドライバの顔が存在すべき範囲を撮像可能に設置されている。例えば、撮像装置3は、車室内をモニタリングすることを目的に設置される、いわゆるDMS(Driver Monitoring System)と共用のものでもよい。撮像装置3は、可視光カメラ、または、赤外線カメラである。撮像装置3は、撮像した撮像画像を、覚醒度推定装置1が備える顔判定装置2に出力する。
FIG. 1 is a diagram showing a configuration example of an alertness level estimation device 1 according to the first embodiment.
The arousal level estimation device 1 includes a face determination device 2, a face determination information acquisition section 11, a brightness detection section 12, and an estimation section 13.
The alertness estimation device 1 is connected to the imaging device 3. The imaging device 3 is mounted on a vehicle (not shown) and is installed so as to be able to image at least an area where the driver's face should be present. For example, the imaging device 3 may be shared with a so-called DMS (Driver Monitoring System) installed for the purpose of monitoring the interior of a vehicle. The imaging device 3 is a visible light camera or an infrared camera. The imaging device 3 outputs the captured image to the face determination device 2 included in the arousal level estimation device 1 .

顔判定装置2は、撮像画像を取得し、取得した撮像画像に基づき、ドライバが我慢顔をしているか否かを判定する。顔判定装置2は、ドライバが我慢顔をしているか否かを示す情報(以下「顔判定情報」という。)を、顔判定情報取得部11に出力する。顔判定装置2の詳細な構成例については、後述する。 The face determination device 2 acquires a captured image and determines whether or not the driver is making a restrained face based on the acquired captured image. The face determination device 2 outputs information indicating whether the driver is making a restrained face (hereinafter referred to as "face determination information") to the face determination information acquisition unit 11. A detailed configuration example of the face determination device 2 will be described later.

顔判定情報取得部11は、顔判定装置2から顔判定情報を取得する。
顔判定情報取得部11は、取得した顔判定情報を、推定部13に出力する。
The face determination information acquisition unit 11 acquires face determination information from the face determination device 2 .
The face determination information acquisition unit 11 outputs the acquired face determination information to the estimation unit 13.

輝度検出部12は、撮像装置3が撮像した撮像画像における輝度を検出する。輝度検出部12は、撮像画像を、顔判定装置2を介して取得すればよい。
実施の形態1において、撮像画像における輝度とは、例えば、撮像画像における各画素の輝度値の平均値とする。なお、これは一例に過ぎず、輝度検出部12は、例えば、撮像画像における各画素の輝度値の中央値を、撮像画像における輝度としてもよい。輝度検出部12は、少なくとも、撮像画像上の、ドライバの顔が存在する領域(以下「顔領域」という。)を含む領域の輝度を検出するようになっていればよい。輝度検出部12は、例えば、撮像画像から、公知の画像処理技術を用いて、ドライバの顔領域を特定すればよい。また、輝度検出部12は、例えば、顔判定装置2の、後述する特徴点検出部22から、ドライバの顔を示す特徴点に関する情報(以下「特徴点情報」という。)を取得してもよい。
輝度検出部12は、検出した撮像画像における輝度に関する情報(以下「輝度情報」という。)を、推定部13に出力する。輝度検出部12は、撮像画像と検出した輝度とを対応付けた情報を輝度情報とする。
The brightness detection unit 12 detects the brightness in the captured image captured by the imaging device 3. The brightness detection unit 12 may acquire the captured image via the face determination device 2.
In the first embodiment, the brightness in a captured image is, for example, the average value of the brightness values of each pixel in the captured image. Note that this is just an example, and the brightness detection unit 12 may, for example, set the median value of the brightness values of each pixel in the captured image as the brightness in the captured image. The brightness detection unit 12 may detect the brightness of at least an area on the captured image that includes an area where the driver's face exists (hereinafter referred to as a "face area"). The brightness detection unit 12 may, for example, identify the driver's face area from the captured image using a known image processing technique. Further, the brightness detection unit 12 may obtain information regarding feature points indicating the driver's face (hereinafter referred to as “feature point information”) from a feature point detection unit 22 (described later) of the face determination device 2, for example. .
The brightness detection unit 12 outputs information regarding the brightness in the detected captured image (hereinafter referred to as “brightness information”) to the estimation unit 13. The brightness detection unit 12 uses information in which the captured image and the detected brightness are associated with each other as brightness information.

推定部13は、顔判定情報取得部11が取得した顔判定情報と、輝度検出部12が検出した撮像画像における輝度とに基づき、ドライバの覚醒度合いを推定する。なお、推定部13が推定する覚醒度合いは、例えば、覚醒度が高いか低いかであらわされる覚醒度合いであってもよいし、5段階等の段階であらわされる覚醒度合いであってもよい。
具体的には、推定部13は、まず、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であるか否か、言い換えれば、顔判定装置2において、ドライバが我慢顔をしていると判定されたか否か、を判定する。
顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報である場合、推定部13は、撮像画像における輝度が、予め設定された閾値(以下「輝度判定用閾値」という。)未満であるかを判定する。
推定部13は、撮像画像における輝度が輝度判定用閾値未満であれば、ドライバの覚醒度が低下した、言い換えれば、ドライバは眠気を催していると推定する。
推定部13は、撮像画像における輝度が輝度判定用閾値以上であれば、ドライバの覚醒度は低下していないと推定する。なお、ドライバの覚醒度が低下していない状態は、ドライバの覚醒度合いが上がった状態、および、ドライバの覚醒度合いが変化せず維持されている状態を含む。
The estimation unit 13 estimates the driver's degree of wakefulness based on the face determination information acquired by the face determination information acquisition unit 11 and the brightness in the captured image detected by the brightness detection unit 12. Note that the degree of arousal estimated by the estimation unit 13 may be, for example, a degree of arousal expressed as whether the degree of arousal is high or low, or may be a degree of arousal expressed in stages such as five levels.
Specifically, the estimation unit 13 first determines whether the face determination information is face determination information indicating that the driver is making a patient face. It is determined whether or not it is determined that the
When the face determination information is face determination information indicating that the driver is making a restrained face, the estimation unit 13 determines that the brightness in the captured image is a preset threshold (hereinafter referred to as "brightness determination threshold"). Determine whether it is less than
If the brightness in the captured image is less than the brightness determination threshold, the estimation unit 13 estimates that the driver's alertness level has decreased, in other words, that the driver is drowsy.
If the brightness in the captured image is equal to or greater than the brightness determination threshold, the estimation unit 13 estimates that the driver's alertness level has not decreased. Note that the state in which the driver's arousal level has not decreased includes a state in which the driver's arousal level has increased, and a state in which the driver's arousal level remains unchanged.

ドライバが我慢顔をする状況としては、覚醒度が低下した状況と、周囲が明るく、ドライバが眩しいと感じた状況とが想定される。例えば、ドライバの周囲、ここでは車内に、日光が差し込んでいた場合、ドライバが眩しいと感じる状況であると想定される。眩しいと感じると、ドライバは、眠気を催していなくても、我慢顔をすることがある。すなわち、周囲が眩しいと感じると想定される状況でドライバが我慢顔をしたときは、ドライバは、眠気を催しているのではなく眩しいことにより我慢顔をしたと推定できる。これに対し、周囲が眩しいと感じるほどの明るさでない状況でドライバが我慢顔をしたときは、ドライバは、眠気を催していることにより我慢顔をしたと推定できる。 Situations in which the driver makes a patient face include a situation in which the level of alertness has decreased, and a situation in which the surroundings are bright and the driver feels dazzling. For example, if sunlight is shining around the driver, here, inside the car, it is assumed that the driver feels dazzled. When a driver feels dazzled, he or she may look resigned even if he or she is not drowsy. That is, when a driver makes a patient face in a situation where it is assumed that the surroundings are bright, it can be estimated that the driver made a patient face not because he was drowsy but because of the glare. On the other hand, if the driver makes a patient face in a situation where the surroundings are not so bright that the driver feels dazzling, it can be assumed that the driver made the patient face because he/she is feeling sleepy.

そこで、推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、撮像画像における輝度が輝度判定用閾値未満であれば、当該我慢顔は、ドライバの覚醒度が低下したことによってなされた、すなわち、ドライバの覚醒度が低下した、と推定する。撮像画像における輝度が輝度判定用閾値未満であれば、ドライバの周囲は、ドライバが眩しいと感じるほどの明るさではないと判定できる。なお、輝度判定用閾値は、撮像範囲が、ドライバが眩しいと感じると想定される明るさのもと、管理者等によって撮像された撮像画像の輝度に基づいて、設定される。撮像範囲は、ここでは、少なくともドライバの顔が存在すべき範囲を含む車内である。
一方、推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、撮像画像における輝度が輝度判定用閾値以上であれば、当該我慢顔は、ドライバの覚醒度が低下したことによってなされたものではない、すなわち、ドライバの覚醒度は低下していない、と推定する。言い換えれば、当該我慢顔は、眩しいと感じたことによってなされたと推定する。撮像画像における輝度が輝度判定用閾値以上であれば、ドライバの周囲は、ドライバが眩しいと感じるほどの明るさであると判定できる。
このように、推定部13は、ドライバが我慢顔をしていると判定された場合、ドライバの周囲の明るさを判定することで、我慢顔はドライバの覚醒度が低下したことによるのか、ドライバの覚醒度が低下したのではなくドライバが眩しいと感じたことによるのかを区別する。
Therefore, if the face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the captured image is less than the brightness determination threshold, the estimation unit 13 determines that the patient face is It is estimated that this is caused by a decrease in the driver's alertness level, that is, the driver's alertness level has decreased. If the brightness in the captured image is less than the brightness determination threshold, it can be determined that the surroundings of the driver are not so bright that the driver feels dazzled. Note that the brightness determination threshold is set based on the brightness of a captured image captured by an administrator or the like under a brightness in which the imaging range is assumed to cause the driver to feel dazzling. Here, the imaging range is the interior of the vehicle, including at least the range where the driver's face should be present.
On the other hand, if the face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the captured image is greater than or equal to the brightness determination threshold, the estimation unit 13 determines that the patient face is It is assumed that this is not caused by a decrease in the driver's alertness level, that is, the driver's alertness level has not decreased. In other words, it is presumed that the patient made the patient's face because he/she felt that it was bright. If the brightness in the captured image is equal to or greater than the brightness determination threshold, it can be determined that the surroundings of the driver are bright enough to cause the driver to feel dazzled.
In this way, when it is determined that the driver is making a patient face, the estimation unit 13 determines whether the patient's patient face is due to a decrease in the driver's arousal level by determining the brightness around the driver. We will distinguish whether this is due to the driver feeling dazzling rather than a decrease in alertness.

ただし、ドライバの周囲が、ドライバが眩しいと感じるほどの明るさであったとしても、ドライバの顔に影ができている等、ドライバの顔周辺が局所的に暗くなっている場合、ドライバは眩しいと感じないこともある。この場合、ドライバは、眩しいことによる我慢顔をしない。すなわち、ドライバの顔周辺が局所的に暗くなっている状況で、ドライバが我慢顔をしたのであれば、それは、眩しいと感じたことによるものではなく、覚醒度が低下したことによるものと推定できる。
よって、推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、撮像画像における輝度が輝度判定用閾値以上であっても、撮像画像上の輝度分布に基づきドライバの顔周辺に影があると判定した場合は、ドライバの覚醒度が低下したと推定してもよい。なお、輝度検出部12から推定部13に出力される輝度情報には撮像画像が含まれる。推定部13は、撮像画像上の各画素の輝度値から、撮像画像上の輝度分布を判定すればよい。また、推定部13は、公知の画像処理技術を用いて、撮像画像上で、ドライバの顔領域を特定すればよい。顔領域は、例えば、ドライバの輪郭を示す特徴点を全て含む最小矩形領域とする。そして、推定部13は、例えば、当該顔領域に含まれる画素の輝度値の平均値が、予め設定されている閾値(以下「影判定用閾値」という。)以下であれば、ドライバの顔周辺に影があると判定する。
推定部13は、例えば、ドライバの顔周辺に影があるか否かを、ドライバの目が存在する領域(以下「目領域」という。)に含まれる画素の輝度値の平均値と影判定用閾値との比較によって判定してもよい。目領域は、例えば、目頭および目尻等、ドライバの目を示す特徴点を全て含む最小矩形領域である。
However, even if the driver's surroundings are bright enough to cause the driver to feel dazzled, if the area around the driver's face is locally dark, such as when there is a shadow on the driver's face, the driver may be dazzled. Sometimes I don't feel that way. In this case, the driver does not put up with the glare. In other words, if the driver makes a resigned face in a situation where the area around the driver's face is locally darkened, it can be assumed that this is not due to the feeling of being dazzled, but due to a decrease in alertness. .
Therefore, even if the face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the captured image is equal to or higher than the brightness determination threshold, the estimation unit 13 calculates that If it is determined that there is a shadow around the driver's face based on the brightness distribution, it may be estimated that the driver's alertness level has decreased. Note that the brightness information output from the brightness detection unit 12 to the estimation unit 13 includes a captured image. The estimation unit 13 may determine the brightness distribution on the captured image from the brightness value of each pixel on the captured image. Furthermore, the estimation unit 13 may specify the driver's face area on the captured image using a known image processing technique. The face area is, for example, a minimum rectangular area that includes all feature points showing the outline of the driver. Then, for example, if the average value of the luminance values of pixels included in the face area is equal to or less than a preset threshold (hereinafter referred to as "shadow determination threshold"), the estimation unit 13 calculates It is determined that there is a shadow.
For example, the estimation unit 13 determines whether there is a shadow around the driver's face using the average luminance value of the pixels included in the area where the driver's eyes exist (hereinafter referred to as the "eye area") and the shadow determination. The determination may be made by comparison with a threshold value. The eye area is a minimum rectangular area that includes all feature points indicating the driver's eyes, such as the inner and outer corners of the eyes.

逆に、ドライバの周囲が、ドライバが眩しいと感じるほどの明るさでなかったとしても、ドライバの顔には影ができていない、または、ドライバの顔にのみ光が当たっている等、ドライバの顔周辺が局所的に明るくなっており、ドライバが眩しいと感じることもある。この場合、ドライバは、眩しいことによる我慢顔をする。すなわち、ドライバの顔周辺が局所的に明るくなっている状況で、ドライバが我慢顔をしたのであれば、それは、覚醒度が低下したことによるものではなく、眩しいと感じたことによるものと推定できる。
よって、推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、撮像画像における輝度が輝度判定用閾値未満であっても、撮像画像上の輝度分布に基づきドライバの顔周辺が明るいと判定した場合は、ドライバの覚醒度は低下していないと推定してもよい。推定部13は、例えば、撮像画像上で、ドライバの顔領域に含まれる画素の輝度値の平均値が、予め設定されている閾値(以下「明るさ判定用閾値」という。)以上であれば、ドライバの顔周辺が明るいと判定する。
推定部13は、例えば、ドライバの顔周辺が明るいか否かを、ドライバの目領域に含まれる画素の輝度値の平均値と明るさ判定用閾値との比較によって判定してもよい。
Conversely, even if the driver's surroundings are not bright enough to cause the driver to feel dazzled, there may be other problems such as there being no shadows on the driver's face or light shining only on the driver's face. The area around the face is locally bright, and the driver may feel dazzled. In this case, the driver looks resigned to the glare. In other words, if the driver makes a resigned face in a situation where the area around the driver's face is locally bright, it can be assumed that this is not due to a decrease in arousal level but because the driver feels dazzled. .
Therefore, even if the face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the captured image is less than the brightness determination threshold, the estimation unit 13 calculates the If it is determined that the area around the driver's face is bright based on the brightness distribution, it may be estimated that the driver's alertness level has not decreased. For example, if the average value of the brightness values of pixels included in the face area of the driver on the captured image is greater than or equal to a preset threshold (hereinafter referred to as "brightness determination threshold"), the estimation unit 13 determines that , it is determined that the area around the driver's face is bright.
For example, the estimation unit 13 may determine whether or not the area around the driver's face is bright by comparing the average brightness value of pixels included in the driver's eye area with a brightness determination threshold.

推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であるか否かを判定した結果、当該顔判定情報が、ドライバが我慢顔をしていないことを示す顔判定情報であると判定した場合、言い換えれば、顔判定装置2において、ドライバが我慢顔をしていないと判定された場合は、公知の、画像に基づく覚醒度推定の技術を用いて、ドライバの覚醒度合いを推定する。例えば、推定部13は、撮像画像に基づいて検出したドライバの開眼度が予め設定された閾値以下である場合に、ドライバの覚醒度が低下したと推定する。推定部13は、ドライバの開眼度が予め設定された閾値より大きい場合は、ドライバの覚醒度は低下していないと推定する。 As a result of determining whether the face determination information is face determination information indicating that the driver is making a patient face, the estimation unit 13 determines that the face determination information indicates that the driver is not making a patient face. In other words, if the face determination device 2 determines that the driver is not making a restrained face, using a known technique for estimating the degree of arousal based on the image, Estimate the driver's alertness level. For example, the estimating unit 13 estimates that the driver's wakefulness level has decreased when the driver's eye open level detected based on the captured image is less than or equal to a preset threshold. If the degree of eye opening of the driver is greater than a preset threshold, the estimation unit 13 estimates that the degree of wakefulness of the driver has not decreased.

推定部13は、ドライバの覚醒度が低下していると推定した場合、ドライバに注意喚起するための情報(以下「警告情報」という。)を出力する。例えば、推定部13は、図示しない出力装置に対して、警告音を出力させる警告情報を出力する。出力装置は、例えば、車両に搭載されているスピーカを想定している。出力装置は、推定部13から警告情報が出力されると、警告音を出力する。 If the estimation unit 13 estimates that the driver's alertness level has decreased, it outputs information for alerting the driver (hereinafter referred to as "warning information"). For example, the estimation unit 13 outputs warning information that causes an output device (not shown) to output a warning sound. The output device is assumed to be, for example, a speaker mounted on a vehicle. The output device outputs a warning sound when the warning information is output from the estimation unit 13.

推定部13は、ドライバの覚醒度合いの推定結果を、推定を行った日時と対応付けて記憶部26に記憶してもよい。この場合、推定部13は、過去の推定結果に基づき、例えば、どれぐらいドライバの覚醒度合いが変化したか等、ドライバの覚醒度合いの傾向を判定することができる。 The estimation unit 13 may store the estimation result of the driver's wakefulness level in the storage unit 26 in association with the date and time when the estimation was performed. In this case, the estimation unit 13 can determine the tendency of the driver's arousal degree, such as how much the driver's arousal degree has changed, based on past estimation results.

顔判定装置2の構成例について説明する。
図1に示すように、顔判定装置2は、画像取得部21、特徴点検出部22、距離算出部23、基準距離算出部24、顔判定部25、および、記憶部26を備える。顔判定部25は、再計算指示部251を備える。
A configuration example of the face determination device 2 will be explained.
As shown in FIG. 1, the face determination device 2 includes an image acquisition section 21, a feature point detection section 22, a distance calculation section 23, a reference distance calculation section 24, a face determination section 25, and a storage section 26. The face determination section 25 includes a recalculation instruction section 251.

画像取得部21は、撮像装置3から撮像画像を取得する。
画像取得部21は、取得した撮像画像を、特徴点検出部22、および、輝度検出部12に出力する。
The image acquisition unit 21 acquires a captured image from the imaging device 3.
The image acquisition unit 21 outputs the acquired captured image to the feature point detection unit 22 and the brightness detection unit 12.

特徴点検出部22は、画像取得部21が取得した撮像画像に基づいて、撮像画像上の、ドライバの顔の複数の特徴点を検出する。
特徴点検出部22が検出する複数の特徴点は、少なくとも、ドライバの両眉頭を示す特徴点を含む。実施の形態1では、一例として、特徴点検出部22が検出する複数の特徴点は、ドライバの両眉頭を示す特徴点とする。
特徴点検出部22は、検出した特徴点、具体的には、ドライバの両眉頭を示す特徴点に関する特徴点情報を、距離算出部23に出力する。
なお、例えば、特徴点検出部22は、ドライバの両目の上瞼および下瞼を示す特徴点を検出し、当該特徴点を示す特徴点情報を、推定部13に出力してもよい。この場合、推定部13は、例えば、特徴点検出部22から出力された特徴点情報に基づいてドライバの開眼度を算出し、算出した開眼度からドライバの覚醒度合いを推定できる。
The feature point detection unit 22 detects a plurality of feature points of the driver's face on the captured image based on the captured image acquired by the image acquisition unit 21.
The plurality of feature points detected by the feature point detection unit 22 include at least a feature point indicating the tip of both eyebrows of the driver. In Embodiment 1, as an example, the plurality of feature points detected by the feature point detection unit 22 are feature points indicating the ends of both eyebrows of the driver.
The feature point detection unit 22 outputs the detected feature point, specifically, feature point information regarding the feature point indicating the tip of both eyebrows of the driver, to the distance calculation unit 23.
Note that, for example, the feature point detection unit 22 may detect feature points indicating the upper and lower eyelids of both eyes of the driver, and output feature point information indicating the feature points to the estimation unit 13. In this case, the estimation unit 13 can calculate the degree of eye opening of the driver based on the feature point information output from the feature point detection unit 22, and estimate the degree of wakefulness of the driver from the calculated degree of eye opening.

距離算出部23は、特徴点検出部22が検出した複数の特徴点の撮像画像上の座標を3次元座標に変換する。そして、距離算出部23は、変換後の3次元座標から複数の特徴点の間の距離(以下「特徴点間距離」という。)を算出する。
具体的には、ここでは、距離算出部23は、撮像画像上のドライバの両眉頭を示す特徴点の座標をそれぞれ3次元座標に変換し、変換後の3次元座標からドライバの両眉頭間の距離(以下「眉間距離」という。)を、特徴点間距離として算出する。
距離算出部23は、AAM(Active Appearance Model)等、2次元座標を3次元座標に変換する公知の技術を用いて、撮像画像上の特徴点の座標を3次元座標に変換すればよい。
距離算出部23は、算出した特徴点間距離に関する情報(以下「距離情報」という。)を、顔判定部25に出力する。
また、距離算出部23は、距離情報を、記憶部26に記憶させる。なお、距離算出部23は、距離情報を、特徴点間距離の算出時刻と対応付けて、時系列で記憶させる。
記憶部26に記憶される距離情報は、車両の電源がオフにされたときに削除されるものとする。
The distance calculation unit 23 converts the coordinates of the plurality of feature points detected by the feature point detection unit 22 on the captured image into three-dimensional coordinates. Then, the distance calculation unit 23 calculates the distance between the plurality of feature points (hereinafter referred to as "distance between feature points") from the converted three-dimensional coordinates.
Specifically, here, the distance calculation unit 23 converts the coordinates of the feature points indicating both eyebrows of the driver on the captured image into three-dimensional coordinates, and calculates the distance between the driver's eyebrows from the converted three-dimensional coordinates. The distance (hereinafter referred to as "glabellar distance") is calculated as the distance between feature points.
The distance calculation unit 23 may convert the coordinates of the feature points on the captured image into three-dimensional coordinates using a known technique such as AAM (Active Appearance Model) that converts two-dimensional coordinates into three-dimensional coordinates.
The distance calculation unit 23 outputs information regarding the calculated distance between feature points (hereinafter referred to as “distance information”) to the face determination unit 25.
Further, the distance calculation unit 23 causes the storage unit 26 to store the distance information. Note that the distance calculation unit 23 stores the distance information in chronological order in association with the calculation time of the distance between feature points.
It is assumed that the distance information stored in the storage unit 26 is deleted when the power of the vehicle is turned off.

基準距離算出部24は、記憶部26に記憶されている距離情報を参照して、距離算出部23が算出した特徴点間距離の、予め設定された期間(以下「基準算出対象期間」という。)分の履歴に基づき、基準特徴点間距離を算出する。基準特徴点間距離は、顔判定装置2において、ドライバが我慢顔をしているか否かを判定する際の基準となる特徴点間距離であり、ドライバが我慢顔をしていないときの特徴点間距離とみなす距離である。なお、我慢顔の判定は、顔判定部25が行う。顔判定部25の詳細は、後述する。
例えば、基準距離算出部24は、基準算出対象期間分の特徴点間距離の最頻値を、基準特徴点間距離とする。なお、これは一例に過ぎず、基準距離算出部24は、例えば、基準算出対象期間分の特徴点間距離の平均値または中央値を、基準特徴点間距離としてもよい。
The reference distance calculation unit 24 refers to the distance information stored in the storage unit 26 and determines a preset period (hereinafter referred to as “reference calculation target period”) of the distance between feature points calculated by the distance calculation unit 23. ) is used to calculate the distance between reference feature points. The reference distance between feature points is the distance between feature points that serves as a reference when determining whether or not the driver is making a patient face in the face determination device 2, and is the distance between feature points when the driver is not making a patient face. This is the distance considered as the distance between the two. Note that the determination of a patient face is performed by the face determination unit 25. Details of the face determination section 25 will be described later.
For example, the reference distance calculation unit 24 sets the mode of the distance between feature points for the reference calculation target period as the reference distance between feature points. Note that this is just an example, and the reference distance calculation unit 24 may use, for example, the average value or median value of the distances between feature points for the reference calculation target period as the reference distance between feature points.

基準距離算出部24は、予め決められたタイミング(以下「基準算出タイミング」という。)で、基準特徴点間距離を算出する。詳細には、基準距離算出部24は、基準算出タイミングになったと判定した時点から記憶部26に記憶された、基準算出対象期間分の距離情報から、基準特徴点間距離を算出する。
実施の形態1において、基準算出タイミングは、車両の電源がオンにされたとき、および、再計算指示部251から基準特徴点間距離の再計算指示が出力されたとき、とする。再計算指示部251の詳細は、後述する。
なお、基準距離算出部24は、記憶部26に、基準算出タイミングになってから基準算出対象期間分の距離情報が記憶されていない場合、基準算出対象期間分の距離情報が記憶されるまで待機する。
基準距離算出部24は、算出した基準特徴点間距離に関する情報(以下「基準距離情報」という。)を、記憶部26に記憶させる。
The reference distance calculation unit 24 calculates the distance between reference feature points at a predetermined timing (hereinafter referred to as "reference calculation timing"). Specifically, the reference distance calculation unit 24 calculates the reference inter-feature point distance from the distance information for the reference calculation target period, which is stored in the storage unit 26 from the time when it is determined that the reference calculation timing has arrived.
In the first embodiment, the reference calculation timing is when the vehicle is powered on and when the recalculation instruction unit 251 outputs an instruction to recalculate the distance between reference feature points. Details of the recalculation instruction unit 251 will be described later.
Note that, if the distance information for the reference calculation target period is not stored in the storage unit 26 after the reference calculation timing, the reference distance calculation unit 24 waits until the distance information for the reference calculation target period is stored. do.
The reference distance calculation unit 24 causes the storage unit 26 to store information regarding the calculated reference distance between feature points (hereinafter referred to as “reference distance information”).

顔判定部25は、距離算出部23が算出した特徴点間距離と基準特徴点間距離とを比較することで、ドライバが我慢顔をしているか否かを判定する。顔判定部25は、基準特徴点間距離を、記憶部26に記憶されている基準距離情報から特定できる。
具体的には、顔判定部25は、特徴点間距離、ここでは、ドライバの眉間距離が、基準特徴点間距離よりも予め設定された閾値(以下「第1閾値」という。)以上小さい場合、言い換えれば、「基準特徴点間距離-特徴点間距離≧第1閾値」である場合、ドライバは我慢顔をしていると判定する。
一般に、人が眉間にしわを寄せた顔をすると、人が眉間にしわを寄せていない顔をしているときと比べ、眉間距離は短くなる。そこで、顔判定部25は、ドライバの眉間距離が基準特徴点間距離よりも第1閾値以上小さい場合は、ドライバが眉間にしわを寄せた顔、すなわち、我慢顔をしていると判定する。
顔判定部25は、特徴点間距離が基準特徴点間距離よりも第1閾値以上小さくなければ、言い換えれば、「基準特徴点間距離-特徴点間距離<第1閾値」であれば、ドライバは我慢顔をしていないと判定する。
The face determination unit 25 determines whether the driver is making a restrained face by comparing the distance between feature points calculated by the distance calculation unit 23 and the reference distance between feature points. The face determination unit 25 can specify the reference distance between feature points from the reference distance information stored in the storage unit 26.
Specifically, the face determination unit 25 detects when the distance between feature points, in this case, the distance between the driver's eyebrows, is smaller than the reference distance between feature points by a preset threshold (hereinafter referred to as "first threshold") or more. In other words, if "reference inter-feature point distance - inter-feature point distance≧first threshold", it is determined that the driver is making a patient face.
Generally, when a person has a face with wrinkles between the eyebrows, the distance between the eyebrows becomes shorter than when the person has a face without wrinkles. Therefore, if the distance between the driver's eyebrows is smaller than the reference distance between feature points by a first threshold value or more, the face determination unit 25 determines that the driver has a face with wrinkles between the eyebrows, that is, a patient face.
If the distance between feature points is not smaller than the reference distance between feature points by a first threshold value or more, in other words, if "reference distance between feature points - distance between feature points < first threshold", the face determination unit 25 determines whether the driver It is judged that he does not have a patient look on his face.

ここで、ドライバは我慢顔をしていないと判定した場合、顔判定部25は、さらに、特徴点間距離が、基準特徴点間距離よりも予め設定された閾値(以下「第2閾値」という。)以上大きいか否か、言い換えれば、「特徴点間距離-基準特徴点間距離≧第2閾値」であるか否かを判定する。
特徴点間距離が基準特徴点間距離よりも第2閾値以上大きい場合、顔判定部25は、その旨を再計算指示部251に通知する。再計算指示部251は、顔判定部25から、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きい旨が通知されると、基準距離算出部24に対して、基準特徴点間距離の再計算を指示する。
特徴点間距離が基準特徴点間距離よりも第2閾値以上大きい場合、基準特徴点間距離は、ドライバが我慢顔をしているときの特徴点間距離に基づいて算出されたものと想定される。上述のとおり、基準特徴点間距離は、ドライバが我慢顔をしていないときの特徴点間距離(眉間距離)とみなす距離であるので、ドライバが我慢顔をしているときの特徴点間距離に基づいて算出された基準特徴点間距離は、基準特徴点間距離としてふさわしくない。そこで、顔判定部25が特徴点間距離は基準特徴点間距離よりも第2閾値以上大きいと判定した場合は、再計算指示部251が、基準距離算出部24に基準特徴点間距離の再計算を行わせる。
Here, if it is determined that the driver is not making a patient face, the face determination unit 25 further determines that the distance between feature points is smaller than the reference distance between feature points by a preset threshold (hereinafter referred to as "second threshold"). ), in other words, it is determined whether "distance between feature points - reference distance between feature points ≧second threshold".
If the distance between feature points is larger than the reference distance between feature points by the second threshold or more, the face determination unit 25 notifies the recalculation instruction unit 251 to that effect. When the face determination unit 25 notifies the recalculation instruction unit 251 that the distance between feature points is larger than the reference distance between feature points by the second threshold or more, the recalculation instruction unit 251 instructs the reference distance calculation unit 24 to calculate the distance between the reference feature points. Instructs to recalculate distance.
If the distance between feature points is larger than the reference distance between feature points by the second threshold or more, it is assumed that the reference distance between feature points is calculated based on the distance between feature points when the driver is making a patient face. Ru. As mentioned above, the standard distance between feature points is the distance that is considered to be the distance between feature points (distance between eyebrows) when the driver is not making a patient face, so it is the distance between feature points when the driver is making a patient face. The reference inter-feature point distance calculated based on is not suitable as the reference inter-feature point distance. Therefore, when the face determination unit 25 determines that the distance between feature points is larger than the reference distance between feature points by the second threshold or more, the recalculation instruction unit 251 instructs the reference distance calculation unit 24 to recalculate the distance between reference feature points. Have them do the calculations.

顔判定部25は、ドライバが我慢顔をしていると判定したか否かを示す顔判定情報を、顔判定情報取得部11に出力する。詳細には、顔判定部25は、ドライバが我慢顔をしていると判定した場合、ドライバが我慢顔をしていることを示す顔判定情報を、顔判定情報取得部11に出力する。顔判定部25は、ドライバが我慢顔をしていないと判定した場合、ドライバが我慢顔をしていないことを示す顔判定情報を、顔判定情報取得部11に出力する。 The face determination unit 25 outputs face determination information indicating whether or not it has been determined that the driver is wearing a restrained face to the face determination information acquisition unit 11 . Specifically, when the face determination unit 25 determines that the driver is wearing a restrained expression, it outputs face determination information indicating that the driver is wearing a restrained expression to the face determination information acquisition unit 11 . If the face determination unit 25 determines that the driver is not making a patient face, it outputs face determination information indicating that the driver is not making a patient face to the face determination information acquisition unit 11 .

ただし、顔判定部25は、基準特徴点間距離の再計算指示を行う必要があった場合、すなわち、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいと判定した場合、顔判定情報の出力は行わない。ドライバが我慢顔をしていないとの判定が、誤判定である可能性があるためである。 However, if it is necessary to instruct recalculation of the distance between reference feature points, that is, if it is determined that the distance between feature points is larger than the reference distance between feature points by the second threshold or more, the face determination unit 25 Judgment information is not output. This is because there is a possibility that the determination that the driver is not showing patience may be an erroneous determination.

記憶部26は、距離情報および基準距離情報を記憶する。
なお、実施の形態1では、記憶部26は、顔判定装置2に備えられるようにしたが、これは一例に過ぎない。記憶部26は、顔判定装置2の外部の、顔判定装置2が参照可能な場所に備えられてもよい。
The storage unit 26 stores distance information and reference distance information.
Note that in the first embodiment, the storage unit 26 is provided in the face determination device 2, but this is only an example. The storage unit 26 may be provided at a location outside the face determination device 2 that the face determination device 2 can refer to.

実施の形態1に係る覚醒度推定装置1の動作について説明する。
図2は、実施の形態1に係る覚醒度推定装置1の動作について説明するためのフローチャートである。なお、図2において、ステップST1~ステップST5の処理は、覚醒度推定装置1が備える顔判定装置2によって行われる処理である。
The operation of the alertness level estimation device 1 according to the first embodiment will be explained.
FIG. 2 is a flowchart for explaining the operation of the alertness level estimation device 1 according to the first embodiment. Note that in FIG. 2, the processing from step ST1 to step ST5 is performed by the face determination device 2 included in the arousal level estimation device 1.

画像取得部21は、撮像装置3から撮像画像を取得する(ステップST1)。
画像取得部21は、取得した撮像画像を、特徴点検出部22、および、輝度検出部12に出力する。
The image acquisition unit 21 acquires a captured image from the imaging device 3 (step ST1).
The image acquisition unit 21 outputs the acquired captured image to the feature point detection unit 22 and the brightness detection unit 12.

特徴点検出部22は、ステップST1にて画像取得部21が取得した撮像画像に基づいて、撮像画像上の、ドライバの顔の複数の特徴点を検出する(ステップST2)。実施の形態1では、特徴点検出部22は、ドライバの両眉頭を示す特徴点を検出する。
特徴点検出部22は、特徴点情報を、距離算出部23に出力する。
The feature point detection unit 22 detects a plurality of feature points of the driver's face on the captured image based on the captured image acquired by the image acquisition unit 21 in step ST1 (step ST2). In the first embodiment, the feature point detection unit 22 detects feature points indicating the ends of both eyebrows of the driver.
The feature point detection unit 22 outputs feature point information to the distance calculation unit 23.

距離算出部23は、ステップST2にて特徴点検出部22が検出した複数の特徴点の撮像画像上の座標を3次元座標に変換する(ステップST3)。そして、距離算出部23は、変換後の3次元座標から複数の特徴点の間の特徴点間距離を算出する(ステップST4)。実施の形態1では、距離算出部23は、撮像画像上のドライバの両眉頭を示す特徴点の座標をそれぞれ3次元座標に変換し、変換後の3次元座標からドライバの眉間距離を特徴点間距離として算出する。
距離算出部23は、距離情報を、顔判定部25に出力する。
The distance calculation unit 23 converts the coordinates of the plurality of feature points detected by the feature point detection unit 22 in step ST2 on the captured image into three-dimensional coordinates (step ST3). Then, the distance calculation unit 23 calculates the inter-feature point distance between the plurality of feature points from the converted three-dimensional coordinates (step ST4). In the first embodiment, the distance calculation unit 23 converts the coordinates of feature points indicating both eyebrows of the driver on the captured image into three-dimensional coordinates, and calculates the distance between the driver's eyebrows from the converted three-dimensional coordinates between the feature points. Calculate as distance.
The distance calculation unit 23 outputs distance information to the face determination unit 25.

顔判定部25は、ステップST4にて距離算出部23が算出した特徴点間距離と基準特徴点間距離とを比較することで、ドライバが我慢顔をしているか否かを判定する我慢顔判定処理を行う(ステップST5)。 The face determination unit 25 performs a patience face determination to determine whether the driver is making a patience face by comparing the distance between feature points calculated by the distance calculation unit 23 in step ST4 and the reference distance between feature points. Processing is performed (step ST5).

顔判定情報取得部11は、顔判定装置2から顔判定情報を取得する(ステップST6)。詳細には、顔判定情報取得部11は、顔判定装置2の顔判定部25がステップST5において我慢顔判定処理を行って出力した顔判定情報を取得する。
顔判定情報取得部11は、取得した顔判定情報を、推定部13に出力する。
The face determination information acquisition unit 11 acquires face determination information from the face determination device 2 (step ST6). Specifically, the face determination information acquisition unit 11 acquires the face determination information output by the face determination unit 25 of the face determination device 2 after performing the patient face determination process in step ST5.
The face determination information acquisition unit 11 outputs the acquired face determination information to the estimation unit 13.

輝度検出部12は、撮像装置3が撮像した撮像画像における輝度を検出する(ステップST7)。具体的には、輝度検出部12は、ステップST1にて顔判定装置2の画像取得部21が取得した撮像画像を取得し、当該撮像画像における輝度を検出する。
輝度検出部12は、輝度情報を、推定部13に出力する。
The brightness detection unit 12 detects the brightness in the captured image captured by the imaging device 3 (step ST7). Specifically, the brightness detection unit 12 acquires the captured image acquired by the image acquisition unit 21 of the face determination device 2 in step ST1, and detects the brightness in the captured image.
The brightness detection unit 12 outputs brightness information to the estimation unit 13.

推定部13は、ステップST6にて顔判定情報取得部11が取得した顔判定情報と、ステップST7にて輝度検出部12が検出した撮像画像における輝度とに基づき、ドライバの覚醒度合いを推定する覚醒度推定処理を行う(ステップST8)。 The estimation unit 13 estimates the driver's degree of arousal based on the face determination information acquired by the face determination information acquisition unit 11 in step ST6 and the brightness in the captured image detected by the brightness detection unit 12 in step ST7. degree estimation processing is performed (step ST8).

なお、図2のフローチャートでは、ステップST6、ステップST7の順で処理が行われるものとしたが、ステップST6、ステップST7の処理の順番はこれに限らない。ステップST7、ステップST6の順で処理が行われてもよいし、ステップST6の処理とステップST7の処理とが並行して行われてもよい。ステップST7の処理は、ステップST1の後、ステップST8の処理が行われるまでの間であれば、どのタイミングで行われてもよい。 Note that in the flowchart of FIG. 2, the processing is performed in the order of step ST6 and step ST7, but the order of the processing of step ST6 and step ST7 is not limited to this. The processing may be performed in the order of step ST7 and step ST6, or the processing of step ST6 and the processing of step ST7 may be performed in parallel. The process in step ST7 may be performed at any timing after step ST1 until the process in step ST8 is performed.

図3は、図2のステップST5における、顔判定部25による我慢顔判定処理の詳細を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining details of the patient face determination process by the face determination unit 25 in step ST5 of FIG.

顔判定部25は、特徴点間距離、ここではドライバの眉間距離が、基準特徴点間距離よりも第1閾値以上小さいか否か、言い換えれば、「基準特徴点間距離-特徴点間距離≧第1閾値」であるか否か判定する(ステップST21)。
特徴点間距離が基準特徴点間距離よりも第1閾値以上小さい場合(ステップST21の“YES”の場合)、顔判定部25は、ドライバは我慢顔をしていると判定する(ステップST22)。
特徴点間距離が基準特徴点距離よりも第1閾値以上小さくない場合、言い換えれば、「基準特徴点間距離-特徴点間距離<第1閾値」である場合(ステップST21の“NO”の場合)、顔判定部25は、ドライバは我慢顔をしていないと判定する(ステップST24)。
The face determination unit 25 determines whether the distance between feature points, here the distance between the driver's eyebrows, is smaller than the reference distance between feature points by a first threshold value or more, in other words, "reference distance between feature points - distance between feature points ≧ It is determined whether the threshold value is the first threshold (step ST21).
If the distance between feature points is smaller than the reference distance between feature points by the first threshold value or more (“YES” in step ST21), the face determination unit 25 determines that the driver is making a restrained face (step ST22). .
If the distance between feature points is not smaller than the reference feature point distance by more than the first threshold, in other words, if "reference distance between feature points - distance between feature points < first threshold" (if "NO" in step ST21) ), the face determining unit 25 determines that the driver is not making a restrained face (step ST24).

ステップST24にて、ドライバは我慢顔をしていないと判定した場合、顔判定部25は、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいか否か、言い換えれば、「特徴点間距離-基準特徴点間距離≧第2閾値」であるか否かを判定する(ステップST25)。
特徴点間距離が基準特徴点間距離よりも第2閾値以上大きい場合(ステップST25の“YES”の場合)、顔判定部25は、その旨を再計算指示部251に通知する。そして、再計算指示部251は、基準距離算出部24に対して、基準特徴点間距離の再計算を指示する(ステップST26)。
In step ST24, when it is determined that the driver is not making a patient face, the face determining unit 25 determines whether the distance between feature points is larger than the reference distance between feature points by the second threshold or more, in other words, whether the distance between feature points is larger than the reference distance between feature points, It is determined whether "distance between points - distance between reference feature points≧second threshold" (step ST25).
If the inter-feature point distance is larger than the reference inter-feature point distance by the second threshold or more (“YES” in step ST25), the face determination unit 25 notifies the recalculation instruction unit 251 to that effect. Then, the recalculation instruction unit 251 instructs the reference distance calculation unit 24 to recalculate the reference inter-feature point distance (step ST26).

特徴点間距離が基準特徴点間距離よりも第2閾値以上大きくない場合、言い換えれば、「特徴点間距離-基準特徴点間距離<第2閾値」である場合(ステップST25の“NO”の場合)、および、ステップST22にてドライバは我慢顔をしていると判定すると、顔判定部25は、顔判定情報を、顔判定情報取得部11に出力する(ステップST23)。
なお、顔判定部25は、基準特徴点間距離の再計算指示を行う必要があった場合、すなわち、ステップST25にて特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいと判定した場合、顔判定情報の出力は行わない。ドライバが我慢顔をしていないとの判定(ステップST24参照)が、誤判定である可能性があるためである。
When the distance between feature points is not larger than the reference distance between feature points by the second threshold value or more, in other words, when "distance between feature points - reference distance between feature points < second threshold"("NO" in step ST25) ), and if it is determined in step ST22 that the driver is making a restrained face, the face determination section 25 outputs face determination information to the face determination information acquisition section 11 (step ST23).
Note that when it is necessary to instruct recalculation of the reference inter-feature point distance, the face determination unit 25 determines in step ST25 that the inter-feature point distance is greater than the reference inter-feature point distance by a second threshold value or more. In this case, face recognition information will not be output. This is because the determination that the driver is not holding back (see step ST24) may be an erroneous determination.

図4は、図2のステップST8における、推定部13による覚醒度推定処理の詳細を説明するためのフローチャートである。 FIG. 4 is a flowchart for explaining details of the alertness level estimation process by the estimator 13 in step ST8 of FIG.

推定部13は、図2のステップST6にて顔判定情報取得部11が取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であるか否か、言い換えれば、顔判定装置2において、ドライバが我慢顔をしていると判定されたか否か、を判定する(ステップST31)。 The estimation unit 13 determines whether the face determination information acquired by the face determination information acquisition unit 11 in step ST6 in FIG. The determination device 2 determines whether it is determined that the driver is wearing a restrained expression (step ST31).

推定部13は、顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報である場合(ステップST31の“YES”の場合)、図2のステップST7にて輝度検出部12が検出した撮像画像における輝度が輝度判定用閾値未満であるか否かを判定する(ステップST32)。 If the face determination information is face determination information indicating that the driver is making a patient face (in the case of "YES" in step ST31), the estimation unit 13 determines that the brightness detection unit 12 It is determined whether the brightness in the detected captured image is less than a brightness determination threshold (step ST32).

ステップST32にて、撮像画像における輝度が輝度判定用閾値未満であると判定した場合(ステップST32の“YES”の場合)、推定部13は、撮像画像上の輝度分布に基づきドライバの顔周辺が明るいか否かを判定する(ステップST33)。 If it is determined in step ST32 that the brightness in the captured image is less than the brightness determination threshold (“YES” in step ST32), the estimation unit 13 determines that the area around the driver's face is It is determined whether or not it is bright (step ST33).

ステップST33にて、ドライバの顔周辺が明るいと判定した場合(ステップST33の“YES”の場合)、推定部13は、ドライバの覚醒度は低下していないと推定する(ステップST35)。推定部13は、ドライバの覚醒度合いの推定結果を記憶部26に記憶してもよい。
ステップST33にて、ドライバの顔周辺が明るくないと判定した場合(ステップST33の“NO”の場合)、推定部13の処理はステップST34に進む。
If it is determined in step ST33 that the area around the driver's face is bright (“YES” in step ST33), the estimation unit 13 estimates that the driver's alertness level has not decreased (step ST35). The estimation unit 13 may store the estimation result of the driver's wakefulness level in the storage unit 26.
If it is determined in step ST33 that the area around the driver's face is not bright (“NO” in step ST33), the process of the estimation unit 13 proceeds to step ST34.

ステップST32にて、撮像画像における輝度が輝度判定用閾値未満ではないと判定した場合、言い換えれば、撮像画像における輝度が輝度判定用閾値以上と判定した場合(ステップST32の“NO”の場合)、推定部13は、撮像画像上の輝度分布に基づきドライバの顔周辺に影があるか否かを判定する(ステップST36)。 If it is determined in step ST32 that the brightness in the captured image is not less than the brightness determination threshold, in other words, if it is determined that the brightness in the captured image is greater than or equal to the brightness determination threshold (“NO” in step ST32), The estimation unit 13 determines whether there is a shadow around the driver's face based on the brightness distribution on the captured image (step ST36).

ステップST36にて、ドライバの顔周辺に影があると判定した場合(ステップST36の“YES”の場合)、および、ステップST33にて、ドライバの顔周辺が明るくないと判定した場合(ステップST33の“NO”の場合)、推定部13は、ドライバの覚醒度が低下した、言い換えれば、ドライバは眠気を催していると推定する(ステップST34)。そして、推定部13は、警告情報を出力する。推定部13は、ドライバの覚醒度合いの推定結果を記憶部26に記憶してもよい。 If it is determined in step ST36 that there is a shadow around the driver's face (“YES” in step ST36), and if it is determined in step ST33 that the area around the driver's face is not bright (“YES” in step ST33), If "NO"), the estimating unit 13 estimates that the driver's alertness level has decreased, in other words, that the driver is drowsy (step ST34). Then, the estimation unit 13 outputs warning information. The estimation unit 13 may store the estimation result of the driver's wakefulness level in the storage unit 26.

ステップST36にて、ドライバの顔周辺に影がないと判定した場合(ステップST36の“NO”の場合)、推定部13は、ドライバの覚醒度は低下していないと推定する(ステップST37)。推定部13は、ドライバの覚醒度合いの推定結果を記憶部26に記憶してもよい。 If it is determined in step ST36 that there is no shadow around the driver's face (“NO” in step ST36), the estimation unit 13 estimates that the driver's alertness level has not decreased (step ST37). The estimation unit 13 may store the estimation result of the driver's wakefulness level in the storage unit 26.

一方、顔判定情報が、ドライバが我慢顔をしていないことを示す顔判定情報である場合(ステップST31の“NO”の場合)、推定部13は、公知の、画像に基づく覚醒度推定の技術を用いて、ドライバの覚醒度合いを推定する(ステップST38)。推定部13は、ドライバの覚醒度合いを推定した結果、ドライバの覚醒度は低下したと推定した場合、警告情報を出力する。推定部13は、ドライバの覚醒度合いの推定結果を記憶部26に記憶してもよい。 On the other hand, if the face determination information is face determination information indicating that the driver is not making a patient face (“NO” in step ST31), the estimation unit 13 uses a known image-based alertness level estimation method. Using the technique, the driver's degree of alertness is estimated (step ST38). As a result of estimating the driver's arousal level, the estimation unit 13 outputs warning information when it is estimated that the driver's arousal level has decreased. The estimation unit 13 may store the estimation result of the driver's wakefulness level in the storage unit 26.

なお、図4に示すフローチャートにおいて、ステップST33、ステップST35、おおよび、ステップST36の処理は省略可能である。ステップST36の処理が省略された場合、ステップST32にて、撮像画像における輝度が輝度判定用閾値未満ではないと判定すると(ステップST32の“NO”の場合)、推定部13は、ステップST37の処理に進む。 Note that in the flowchart shown in FIG. 4, the processes of step ST33, step ST35, and step ST36 can be omitted. If the process in step ST36 is omitted, if it is determined in step ST32 that the brightness in the captured image is not less than the brightness determination threshold (in the case of "NO" in step ST32), the estimation unit 13 performs the process in step ST37. Proceed to.

図5は、実施の形態1における、基準距離算出部24による基準特徴点間距離の算出動作について説明するためのフローチャートである。
図5のフローチャートで示す動作は、図2のフローチャートを用いて説明した顔判定装置2の動作と並行して行われる。
FIG. 5 is a flowchart for explaining the operation of calculating the distance between reference feature points by the reference distance calculation unit 24 in the first embodiment.
The operation shown in the flowchart of FIG. 5 is performed in parallel with the operation of the face determination device 2 described using the flowchart of FIG.

基準距離算出部24は、基準算出タイミングになったか否かを判定する(ステップST41)。詳細には、基準距離算出部24は、車両の電源がオンにされたか、または、再計算指示部251から基準特徴点間距離の再計算指示が出力された(図3のステップST26参照)か、を判定する。
基準算出タイミングになっていないと判定した場合(ステップST41の“NO”の場合)、基準距離算出部24は、基準算出タイミングになるまで待機する。
The reference distance calculation unit 24 determines whether or not the reference calculation timing has arrived (step ST41). Specifically, the reference distance calculation unit 24 determines whether the power of the vehicle has been turned on or whether an instruction to recalculate the distance between reference feature points has been output from the recalculation instruction unit 251 (see step ST26 in FIG. 3). , is determined.
If it is determined that the reference calculation timing has not arrived (“NO” in step ST41), the reference distance calculation unit 24 waits until the reference calculation timing has arrived.

基準算出タイミングになったと判定した場合(ステップST41の“YES”の場合)、基準距離算出部24は、記憶部26に記憶されている距離情報を参照して、基準算出対象期間分の特徴点間距離を取得し(ステップST42)、取得した基準算出対象期間分の特徴点間距離に基づき、基準特徴点間距離を算出する(ステップST43)。なお、基準距離算出部24は、基準算出タイミングになったと判定した時点から記憶部26に記憶された、基準算出対象期間分の距離情報から、特徴点間距離を取得する。記憶部26に、基準算出タイミングになったと判定した時点から基準算出対象期間分の距離情報が記憶されていない場合、基準距離算出部24は、基準算出対象期間分の距離情報が記憶されるまで待機した後、基準特徴点間距離を算出する。 When it is determined that the reference calculation timing has come (“YES” in step ST41), the reference distance calculation unit 24 refers to the distance information stored in the storage unit 26 and calculates the feature points for the reference calculation target period. The distance between the reference points is obtained (step ST42), and the reference distance between the feature points is calculated based on the obtained distance between the feature points for the reference calculation target period (step ST43). Note that the reference distance calculation unit 24 acquires the distance between feature points from the distance information for the reference calculation target period, which is stored in the storage unit 26 from the time when it is determined that the reference calculation timing has arrived. If the storage unit 26 does not store distance information for the standard calculation target period from the time when it is determined that the standard calculation timing has come, the standard distance calculation unit 24 stores the distance information for the standard calculation target period until the distance information for the standard calculation target period is stored. After waiting, the distance between reference feature points is calculated.

基準距離算出部24は、基準距離情報を、記憶部26に記憶させる(ステップST44)。 The reference distance calculation unit 24 stores the reference distance information in the storage unit 26 (step ST44).

このように、基準距離算出部24によって算出され、記憶部26に記憶された基準距離情報に基づいて、顔判定部25は、我慢顔判定処理(図2のステップST5参照)を行う。
ここで、基準算出タイミングとなった後、基準距離算出部24が基準特徴点距離の算出を完了し、基準距離情報が記憶部26に記憶されるまでの間、顔判定部25は、我慢顔判定処理を行わない。例えば、基準距離算出部24は、基準算出タイミングであると判定すると(図5のステップST41の“YES”の場合)、基準算出中フラグ「1」を設定する。基準算出中フラグは、基準距離算出部24および顔判定部25が参照可能な場所に設定され、基準距離算出部24が基準距離情報を記憶部26に記憶すると(図5のステップST44)、基準距離算出部24によって初期値である「0」にされる。
例えば、基準算出中フラグに「1」が設定されている場合、顔判定部25は、顔判定情報取得部11に対して、待機中である旨の情報(以下「待機通知」という。)を出力する。顔判定情報取得部11は、待機通知を取得すると、当該待機通知を推定部13に出力する。推定部13は、顔判定情報取得部11から待機通知が出力された場合、顔判定情報取得部11からドライバが我慢顔をしていないことを示す顔判定情報が出力された場合と同様の方法で、ドライバの覚醒度合いの推定を行う。すなわち、推定部13は、公知の、画像に基づく覚醒度推定の技術を用いて、ドライバの覚醒度合いを推定する。
また、例えば、基準算出中フラグに「1」が設定されている場合、顔判定部25は、予め記憶している、人が我慢顔をしていない場合の一般的な両眉頭間の距離を想定して設定された距離(以下「代替基準距離」という。)を基準特徴点間距離として、ドライバが我慢顔をしているか否かの判定を行ってもよい。代替基準距離は、予め、管理者等によって設定され、顔判定部25に記憶される。
In this manner, based on the reference distance information calculated by the reference distance calculation unit 24 and stored in the storage unit 26, the face determination unit 25 performs the patient face determination process (see step ST5 in FIG. 2).
Here, after the reference calculation timing is reached, the face determination unit 25 performs the patient face determination process until the reference distance calculation unit 24 completes the calculation of the reference feature point distance and the reference distance information is stored in the storage unit 26. No judgment processing is performed. For example, when determining that it is the reference calculation timing (“YES” in step ST41 in FIG. 5), the reference distance calculation unit 24 sets the reference calculation in progress flag to “1”. The reference calculation in progress flag is set at a location that can be referenced by the reference distance calculation unit 24 and the face determination unit 25, and when the reference distance calculation unit 24 stores the reference distance information in the storage unit 26 (step ST44 in FIG. 5), the reference distance calculation unit 24 stores the reference distance information in the storage unit 26 (step ST44 in FIG. 5). The distance calculation unit 24 sets the initial value to "0".
For example, when the standard calculation flag is set to "1", the face determination section 25 sends information to the face determination information acquisition section 11 that it is on standby (hereinafter referred to as "standby notification"). Output. Upon acquiring the standby notification, the face determination information acquisition unit 11 outputs the standby notification to the estimation unit 13 . The estimation unit 13 uses the same method as when the face determination information acquisition unit 11 outputs face determination information indicating that the driver is not holding back when the standby notification is output from the face determination information acquisition unit 11. Then, the driver's level of alertness is estimated. That is, the estimation unit 13 estimates the driver's level of alertness using a known technique for estimating the level of alertness based on images.
Further, for example, when the standard calculation flag is set to "1", the face determination unit 25 calculates the distance between the eyebrows and the tips of the eyebrows when the person is not making a restrained face, which is stored in advance. It may be determined whether or not the driver is making a patient face by using a distance that has been assumed and set (hereinafter referred to as an "alternative reference distance") as a reference distance between feature points. The alternative reference distance is set in advance by an administrator or the like and stored in the face determination unit 25.

このように、覚醒度推定装置1は、顔判定装置2から、ドライバが我慢顔をしているか否かを示す顔判定情報を取得し、撮像画像における輝度を検出する。そして、覚醒度推定装置1は、取得した顔判定情報と、検出した輝度とに基づき、ドライバの覚醒度合いを推定する。
覚醒度推定装置1は、ドライバが我慢顔をしている場合に、周囲の状況はドライバが眩しいと感じると想定される状況であるかを考慮してドライバの覚醒度合いを推定することで、ドライバの覚醒度低下の誤推定を防ぐことができる。
In this way, the alertness level estimation device 1 acquires face determination information indicating whether the driver is making a restrained face from the face determination device 2, and detects the brightness in the captured image. Then, the arousal degree estimating device 1 estimates the driver's arousal degree based on the acquired face determination information and the detected brightness.
The alertness level estimating device 1 estimates the driver's alertness level by considering whether the surrounding situation is such that the driver is expected to feel dazzling when the driver is holding back. It is possible to prevent erroneous estimation of the decrease in arousal level.

詳細には、覚醒度推定装置1は、取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、検出した撮像画像における輝度が輝度判定用閾値未満である場合、ドライバの覚醒度が低下したと推定する。覚醒度推定装置1は、顔判定情報と撮像画像における輝度とから、ドライバが我慢顔をした場合に、当該我慢顔が、ドライバの覚醒度が低下したことによってなされた顔なのか、ドライバが眩しいと感じたためになされた顔なのかを区別できる。これにより、覚醒度推定装置1は、ドライバの覚醒度が低下したことの誤推定を防ぐことができる。 Specifically, the arousal level estimation device 1 determines that the acquired face determination information is face determination information indicating that the driver is making a patient face, and that the brightness in the detected captured image is less than the brightness determination threshold. If so, it is assumed that the driver's alertness level has decreased. The alertness level estimating device 1 determines, based on the face determination information and the brightness in the captured image, when the driver makes a patient face, whether the patient's patient face is a face made due to a decrease in the driver's arousal level or whether the driver is dazzling. You can tell whether it's a face made because you felt that way or not. Thereby, the alertness level estimation device 1 can prevent erroneous estimation that the driver's alertness level has decreased.

また、覚醒度推定装置1は、取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、検出した撮像画像における輝度が輝度判定用閾値以上である場合、ドライバの覚醒度が低下していないと推定する。言い換えれば、ドライバは眩しいと感じたため我慢顔をしたと推定する。覚醒度推定装置1は、顔判定情報と撮像画像における輝度とから、ドライバが我慢顔をした場合に、当該我慢顔が、ドライバの覚醒度が低下したことによってなされた顔なのか、ドライバが眩しいと感じたためになされた顔なのかを区別できる。これにより、覚醒度推定装置1は、ドライバの覚醒度が低下したことの誤推定を防ぐことができる。 In addition, when the acquired face determination information is face determination information indicating that the driver is making a patient face, and the brightness in the detected captured image is equal to or higher than the brightness determination threshold, the alertness level estimation device 1 , it is estimated that the driver's alertness level has not decreased. In other words, it is presumed that the driver put up his patience because he felt dazzled. The alertness level estimating device 1 determines, based on the face determination information and the brightness in the captured image, when the driver makes a patient face, whether the patient's patient face is a face made due to a decrease in the driver's arousal level or whether the driver is dazzling. You can tell whether it's a face made because you felt that way or not. Thereby, the alertness level estimation device 1 can prevent erroneous estimation that the driver's alertness level has decreased.

また、覚醒度推定装置1は、取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、検出した撮像画像における輝度が輝度判定用閾値未満であっても、撮像画像上の輝度分布に基づきドライバの顔周辺が明るいと判定した場合は、ドライバの覚醒度が低下していないと推定するようにしてもよい。これにより、覚醒度推定装置1は、周囲に影等ができていてドライバが眩しいと感じるほどの明るさでなくても、ドライバの顔周辺が局所的に明るくなり、ドライバが眩しいと感じる状況となっている場合を考慮して、ドライバの我慢顔が、ドライバの覚醒度が低下したことによってなされた顔なのか、ドライバが眩しいと感じたためになされた顔なのかを区別できる。覚醒度推定装置1は、より精度よく、ドライバの覚醒度が低下したことの誤推定を防ぐことができる。 Further, the arousal level estimation device 1 determines that the acquired face determination information is face determination information indicating that the driver is making a patient face, and that the brightness in the detected captured image is less than the brightness determination threshold. Also, if it is determined that the area around the driver's face is bright based on the brightness distribution on the captured image, it may be estimated that the driver's alertness level has not decreased. As a result, the alertness estimation device 1 can detect a situation in which the area around the driver's face becomes locally bright and the driver feels dazzled, even if there are shadows etc. in the surrounding area and the brightness is not so bright that the driver feels dazzled. It is possible to distinguish whether the driver's patience face is a face made due to a decrease in the driver's alertness level or a face made because the driver feels dazzling. The alertness level estimation device 1 can more accurately prevent erroneous estimation of a decrease in the driver's alertness level.

また、覚醒度推定装置1は、取得した顔判定情報が、ドライバが我慢顔をしていることを示す顔判定情報であり、かつ、検出した撮像画像における輝度が輝度判定用閾値以上であっても、撮像画像上の輝度分布に基づきドライバの顔周辺に影があると判定した場合は、ドライバの覚醒度が低下したと推定するようにしてもよい。これにより、覚醒度推定装置1は、周囲が、ドライバが眩しいと感じるほどの明るさであっても、ドライバの顔周辺が局所的に影になり、ドライバが眩しいと感じない状況となっている場合を考慮して、ドライバの我慢顔が、ドライバの覚醒度が低下したことによってなされた顔なのか、ドライバが眩しいと感じたためになされた顔なのかを区別できる。覚醒度推定装置1は、より精度よくドライバの覚醒度の低下を推定できる。 Further, the arousal level estimation device 1 determines that the acquired face determination information is face determination information indicating that the driver is making a patient face, and that the brightness in the detected captured image is equal to or higher than a brightness determination threshold. Also, if it is determined that there is a shadow around the driver's face based on the brightness distribution on the captured image, it may be estimated that the driver's alertness level has decreased. As a result, the alertness level estimation device 1 is able to create a situation in which even if the surroundings are bright enough to cause the driver to feel dazzled, the area around the driver's face is locally shaded and the driver does not feel dazzled. Considering the situation, it is possible to distinguish whether the driver's patience face is a face made because the driver's alertness level has decreased or a face made because the driver feels dazzling. The alertness level estimation device 1 can estimate a decrease in the driver's alertness level with higher accuracy.

また、覚醒度推定装置1は、詳細には覚醒度推定装置1の顔判定装置2は、撮像画像から検出した、ドライバの顔の複数の特徴点(両眉頭)の撮像画像上の座標を3次元座標に変換し、変換後の3次元座標から複数の特徴点の間の特徴点間距離(眉間距離)を算出する。そして、覚醒度推定装置1は、特徴点間距離と基準特徴点間距離とを比較することでドライバが我慢顔をしているか否かを判定し、特徴点間距離が基準特徴点間距離よりも第1閾値以上小さい場合、ドライバが我慢顔をしていると判定する。
覚醒度推定装置1は、複数の特徴点の撮像画像上の座標を3次元座標に変換して特徴点間距離を算出することで、算出される特徴点間距離が、ドライバの顔の、前後または左右への傾きの影響を受けないようにできる。つまり、覚醒度推定装置1は、特徴点の撮像画像上の座標を3次元座標に変換することなく特徴点間距離を算出する場合と比べ、精度よく特徴点間距離を算出できる。その結果、覚醒度推定装置1は、精度よく、ドライバが我慢顔をしているか否かを判定できる。
In addition, the wakefulness estimation device 1, in detail, the face determination device 2 of the wakefulness estimation device 1 calculates the coordinates on the captured image of a plurality of feature points (the tips of both eyebrows) of the driver's face detected from the captured image. The feature points are converted into dimensional coordinates, and the inter-feature distance (distance between the eyebrows) between the plurality of feature points is calculated from the converted three-dimensional coordinates. Then, the alertness estimation device 1 determines whether the driver is making a patient face by comparing the distance between feature points and the reference distance between feature points, and the distance between feature points is larger than the reference distance between feature points. is smaller than the first threshold value, it is determined that the driver is making a patient face.
The alertness estimation device 1 calculates the distance between the feature points by converting the coordinates of the plurality of feature points on the captured image into three-dimensional coordinates, so that the distance between the feature points calculated is the distance between the front and back of the driver's face. Or it can be made unaffected by tilting to the left or right. In other words, the arousal level estimation device 1 can calculate the distance between feature points with higher accuracy than when calculating the distance between feature points without converting the coordinates of the feature points on the captured image into three-dimensional coordinates. As a result, the alertness level estimation device 1 can accurately determine whether the driver is wearing a patient expression.

また、覚醒度推定装置1は、算出した特徴点間距離の、基準算出対象期間分の履歴に基づき、基準特徴点間距離を算出し、特徴点間距離と基準特徴点間距離とを比較する。覚醒度推定装置1は、覚醒度合いを推定する対象となるドライバにあわせて、基準特徴点間距離を設定できる。
また、覚醒度推定装置1は、特徴点間距離と基準特徴点間距離とを比較した結果、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいと判定した場合は、基準特徴点間距離を再計算する。これにより、覚醒度推定装置1は、ドライバが我慢顔をしていないときの特徴点間距離とみなす基準特徴点間距離としてふさわしくない基準特徴点間距離に基づいて、ドライバが我慢顔をしているか否かを判定しないようにできる。
In addition, the arousal level estimation device 1 calculates a reference distance between feature points based on the history of the calculated distance between feature points for the reference calculation target period, and compares the distance between feature points and the reference distance between feature points. . The alertness level estimation device 1 can set the distance between reference feature points according to the driver whose alertness level is to be estimated.
Further, as a result of comparing the inter-feature point distance and the reference inter-feature point distance, if the arousal level estimation device 1 determines that the inter-feature point distance is greater than the reference feature point distance by the second threshold or more, the reference Recalculate the distance between points. As a result, the alertness estimation device 1 determines whether the driver is making a patient face based on the reference feature point distance that is not suitable as the reference feature point distance, which is considered as the distance when the driver is not making a patient face. It is possible to avoid determining whether or not the

図6Aおよび図6Bは、実施の形態1に係る覚醒度推定装置1のハードウェア構成の一例を示す図である。
実施の形態1において、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の機能は、処理回路101により実現される。すなわち、覚醒度推定装置1は、顔判定装置2が撮像画像に基づきドライバが我慢顔をしているか否かを判定した結果と撮像画像における輝度に基づき、ドライバの覚醒度合いを推定する制御を行うための処理回路101を備える。
処理回路101は、図6Aに示すように専用のハードウェアであっても、図6Bに示すようにメモリに格納されるプログラムを実行するプロセッサ104であってもよい。
6A and 6B are diagrams illustrating an example of the hardware configuration of the alertness level estimation device 1 according to the first embodiment.
In the first embodiment, the face determination information acquisition section 11, the brightness detection section 12, the estimation section 13, the image acquisition section 21, the feature point detection section 22, the distance calculation section 23, and the reference distance calculation section 24. , the functions of the face determination section 25 are realized by the processing circuit 101. That is, the arousal degree estimation device 1 performs control to estimate the driver's arousal degree based on the result of the face determination device 2 determining whether the driver is making a restrained face based on the captured image and the brightness in the captured image. A processing circuit 101 is provided.
The processing circuit 101 may be dedicated hardware as shown in FIG. 6A, or may be a processor 104 that executes a program stored in memory as shown in FIG. 6B.

処理回路101が専用のハードウェアである場合、処理回路101は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、またはこれらを組み合わせたものが該当する。 When the processing circuit 101 is dedicated hardware, the processing circuit 101 may be, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Circuit). Gate Array), or a combination of these.

処理回路がプロセッサ104の場合、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアは、プログラムとして記述され、メモリ105に記憶される。プロセッサ104は、メモリ105に記憶されたプログラムを読み出して実行することにより、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の機能を実行する。すなわち、覚醒度推定装置1は、プロセッサ104により実行されるときに、上述の図2のステップST1~ステップST8が結果的に実行されることになるプログラムを格納するためのメモリ105を備える。また、メモリ105に記憶されたプログラムは、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の処理の手順または方法をコンピュータに実行させるものであるとも言える。ここで、メモリ105とは、例えば、RAM、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)等の、不揮発性もしくは揮発性の半導体メモリ、または、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。 When the processing circuit is the processor 104, the face determination information acquisition section 11, the brightness detection section 12, the estimation section 13, the image acquisition section 21, the feature point detection section 22, the distance calculation section 23, and the reference distance calculation section The functions of 24 and the face determination unit 25 are realized by software, firmware, or a combination of software and firmware. Software or firmware is written as a program and stored in memory 105. The processor 104 reads out and executes the program stored in the memory 105 to operate the face determination information acquisition section 11, the brightness detection section 12, the estimation section 13, the image acquisition section 21, and the feature point detection section 22. , executes the functions of the distance calculation section 23, the reference distance calculation section 24, and the face determination section 25. That is, the alertness estimation device 1 includes a memory 105 for storing a program that, when executed by the processor 104, results in the execution of steps ST1 to ST8 in FIG. Further, the program stored in the memory 105 includes the face determination information acquisition unit 11, the brightness detection unit 12, the estimation unit 13, the image acquisition unit 21, the feature point detection unit 22, the distance calculation unit 23, and the reference It can also be said that the computer is caused to execute the processing procedure or method of the distance calculation section 24 and the face determination section 25. Here, the memory 105 includes, for example, RAM, ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (Electrically Erasable Programmable Memory). non-volatile or volatile This includes semiconductor memory, magnetic disks, flexible disks, optical disks, compact disks, mini disks, DVDs (Digital Versatile Discs), and the like.

なお、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25の機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、画像取得部21については専用のハードウェアとしての処理回路101でその機能を実現し、顔判定情報取得部11と、輝度検出部12と、推定部13と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25についてはプロセッサ104がメモリ105に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
記憶部26は、例えば、メモリで構成される。
また、覚醒度推定装置1は、撮像装置3または図示しない出力装置等の装置と、有線通信または無線通信を行う入力インタフェース装置102および出力インタフェース装置103を備える。
Note that the face determination information acquisition section 11, the brightness detection section 12, the estimation section 13, the image acquisition section 21, the feature point detection section 22, the distance calculation section 23, the reference distance calculation section 24, and the face determination section Regarding the 25 functions, some may be realized by dedicated hardware, and some may be realized by software or firmware. For example, the function of the image acquisition unit 21 is realized by the processing circuit 101 as dedicated hardware, and includes the face determination information acquisition unit 11, the brightness detection unit 12, the estimation unit 13, the feature point detection unit 22, The functions of the distance calculation section 23, reference distance calculation section 24, and face determination section 25 can be realized by the processor 104 reading out and executing programs stored in the memory 105.
The storage unit 26 is composed of, for example, a memory.
The alertness estimation device 1 also includes an input interface device 102 and an output interface device 103 that perform wired or wireless communication with an imaging device 3 or a device such as an output device (not shown).

以上の実施の形態1では、特徴点検出部22が検出する複数の特徴点は、ドライバの両眉頭を示す特徴点とし、距離算出部23は、撮像画像上のドライバの両眉頭を示す特徴点の座標に基づいて、眉間距離を、特徴点間距離として算出した。そして、顔判定部25は、距離算出部23が算出した眉間距離と基準特徴点間距離とを比較して、ドライバが我慢顔をしているか否かを判定した。しかし、これは一例に過ぎない。
例えば、以上の実施の形態1において、特徴点検出部22が検出する複数の特徴点は、ドライバの両眉頭およびドライバの両目頭を示す特徴点とし、距離算出部23は、撮像画像上のドライバの両眉頭および両目頭を示す特徴点の座標に基づいて、眉間距離と両目頭間の距離とを、それぞれ特徴点間距離として算出してもよい。顔判定部25は、眉間距離と両目頭間の距離とを、それぞれ基準特徴点間距離と比較して、ドライバが我慢顔をしているか否かを判定する。なお、この場合、基準距離算出部24は、眉間距離に対応する基準特徴点間距離と、両目頭間の距離に対応する基準特徴点間距離とを算出する。
また、例えば、以上の実施の形態1において、特徴点検出部22が検出する複数の特徴点は、ドライバの両目頭を示す特徴点とし、距離算出部23は、撮像画像上のドライバの両目頭を示す特徴点の座標に基づいて、両目頭間の距離を特徴点間距離として算出してもよい。顔判定部25は、両目頭間の距離を基準特徴点間距離と比較して、ドライバが我慢顔をしているか否かを判定する。なお、この場合、基準距離算出部24は、両目頭間の距離に対応する基準特徴点間距離を算出する。
ただし、目に関する特徴点は、眉に関する特徴点に比べ、検出されない可能性が高い。例えば、ドライバがサングラスを装着している場合、特徴点検出部22はドライバの目に関する特徴点を検出できない。したがって、覚醒度推定装置1,1aにおいては、両眉頭を示す特徴点に基づいて算出した眉間距離と基準特徴点間距離とを比較してドライバが我慢顔をしているか否かを判定することが好ましい。覚醒度推定装置1,1aは、両眉頭を示す特徴点に基づいて算出した眉間距離と基準特徴点間距離とを比較してドライバが我慢顔をしているか否かを判定することで、当該判定ができない事態に陥る可能性を低減できる。
In the above-described first embodiment, the plurality of feature points detected by the feature point detection unit 22 are feature points indicating both eyebrows of the driver, and the distance calculation unit 23 detects feature points indicating both eyebrows of the driver on the captured image. Based on the coordinates of , the distance between the eyebrows was calculated as the distance between feature points. Then, the face determination unit 25 compared the distance between the eyebrows calculated by the distance calculation unit 23 with the reference inter-feature point distance, and determined whether the driver was making a restrained face. However, this is just one example.
For example, in the first embodiment described above, the plurality of feature points detected by the feature point detection section 22 are feature points indicating the inner corners of both eyebrows of the driver and the inner corners of both eyes of the driver, and the distance calculation section 23 detects the features of the driver on the captured image. The distance between the eyebrows and the distance between the inner corners of the eyes may be calculated as distances between the feature points, respectively, based on the coordinates of the feature points indicating the inner corners of both eyebrows and the inner corners of the eyes. The face determination unit 25 compares the distance between the eyebrows and the distance between the inner corners of the eyes with the reference feature point distance, respectively, and determines whether the driver is making a restrained face. In this case, the reference distance calculation unit 24 calculates a reference inter-feature point distance corresponding to the distance between the eyebrows and a reference inter-feature point distance corresponding to the distance between the inner corners of the eyes.
Further, for example, in the first embodiment described above, the plurality of feature points detected by the feature point detection unit 22 are feature points indicating the inner corners of both eyes of the driver, and the distance calculation unit 23 detects the inner corners of both eyes of the driver on the captured image. The distance between the inner corners of both eyes may be calculated as the inter-feature point distance based on the coordinates of the feature points that indicate . The face determination unit 25 compares the distance between the inner corners of both eyes with the reference distance between feature points, and determines whether the driver is making a restrained face. Note that in this case, the reference distance calculation unit 24 calculates the reference inter-feature point distance corresponding to the distance between the inner corners of both eyes.
However, feature points related to eyes are more likely not to be detected than feature points related to eyebrows. For example, if the driver is wearing sunglasses, the feature point detection unit 22 cannot detect feature points related to the driver's eyes. Therefore, in the arousal level estimation devices 1 and 1a, the distance between the eyebrows calculated based on the feature points indicating the tips of both eyebrows is compared with the distance between the reference feature points to determine whether or not the driver is making a patient face. is preferred. The arousal level estimation devices 1 and 1a compare the distance between the eyebrows calculated based on the feature points indicating the tips of both eyebrows and the distance between the reference feature points to determine whether or not the driver is making a patient face. The possibility of falling into a situation where judgment cannot be made can be reduced.

また、以上の実施の形態1において、覚醒度推定装置が、個人認証機能を備えることもできる。個人認証機能を備えることで、覚醒度推定装置は、あるドライバの運転開始時に、基準特徴点間距離の算出を待たなくても、前回の運転時に算出済の基準特徴点間距離を用いて当該あるドライバが我慢顔をしているか否かを判定することができる。なお、この場合、覚醒度推定装置は、記憶部に記憶されている基準距離情報を、車両の電源がオフされた際に削除しなくてよい。以下、詳細に説明する。 Furthermore, in the first embodiment described above, the alertness level estimating device may also include a personal authentication function. By being equipped with a personal authentication function, when a driver starts driving, the alertness estimation device can use the distance between standard feature points that has already been calculated during the previous driving, without waiting for the calculation of the distance between standard feature points. It is possible to determine whether a certain driver is holding back. In this case, the alertness level estimation device does not need to delete the reference distance information stored in the storage unit when the vehicle is powered off. This will be explained in detail below.

図7は、実施の形態1において、個人認証機能を備えるようにした覚醒度推定装置1aの構成例を示す図である。
図7において、図1を用いて説明した覚醒度推定装置1と同様の構成については、同じ符号を付して重複した説明を省略する。なお、ここでは、覚醒度推定装置1aは、個人認証機能を、顔判定装置2aに備えるものとする。
図7に示す顔判定装置2aは、図1を用いて説明した顔判定装置2とは、個人認証部27を備える点が異なる。また、図7に示す顔判定装置2aにおける基準距離算出部24および顔判定部25の具体的な動作が、図1に示す顔判定装置2における基準距離算出部24および顔判定部25の具体的な動作とは異なる。
FIG. 7 is a diagram illustrating a configuration example of an alertness level estimation device 1a equipped with a personal authentication function in the first embodiment.
In FIG. 7, the same components as the alertness level estimating device 1 explained using FIG. Here, it is assumed that the arousal level estimation device 1a includes a personal authentication function in the face determination device 2a.
The face determination device 2a shown in FIG. 7 differs from the face determination device 2 described using FIG. 1 in that it includes a personal authentication section 27. Further, the specific operations of the reference distance calculation unit 24 and the face determination unit 25 in the face determination device 2a shown in FIG. This is different from normal operation.

個人認証部27は、ドライバの個人認証を行う。
例えば、個人認証部27は、予めドライバの顔画像を記憶しておき、画像取得部21から取得した撮像画像とパターンマッチングにより、ドライバの個人認証を行う。なお、これは一例に過ぎず、個人認証部27は、公知の個人認証技術を用いて、ドライバの個人認証を行えばよい。
個人認証部27は、個人認証の結果(以下「個人認証結果」という。)を、基準距離算出部24および顔判定部25に出力する。
The personal authentication unit 27 performs personal authentication of the driver.
For example, the personal authentication unit 27 stores the driver's face image in advance, and performs personal authentication of the driver by pattern matching with the captured image acquired from the image acquisition unit 21. Note that this is just an example, and the personal authentication section 27 may perform personal authentication of the driver using a known personal authentication technique.
The personal authentication unit 27 outputs the result of personal authentication (hereinafter referred to as “personal authentication result”) to the reference distance calculation unit 24 and the face determination unit 25.

基準距離算出部24は、個人認証部27による個人認証結果に基づき、個人毎の基準特徴点間距離を算出する。具体的には、基準距離算出部24は、個人認証部27が認証したドライバの基準特徴点間距離として、当該基準特徴点間距離を算出する。
基準距離算出部24は、算出した基準特徴点間距離と、ドライバ個人を特定可能な情報とを対応付けた情報を、基準距離情報として、記憶部26に記憶させる。なお、基準距離算出部24は、ドライバ個人を特定可能な情報は、個人認証結果に含まれている。
また、顔判定部25は、個人認証部27による個人認証結果に基づき、ドライバが我慢顔をしているか否かの判定を行う。具体的には、顔判定部25は、個人認証部27による個人認証結果と、記憶部26に記憶されている基準距離情報とをつきあわせ、ドライバの基準特徴点間距離を特定する。そして、顔判定部25は、距離算出部23が算出した特徴点間距離と、特定したドライバの基準特徴点間距離とを比較することで、ドライバが我慢顔をしているか否かを判定する。顔判定部25は、特徴点間距離が基準特徴点間距離よりも第2閾値以上大きいと判定し、再計算指示部251にその旨の通知をする際には、ドライバ個人を特定可能な情報をあわせて通知する。再計算指示部251は、基準距離算出部24に対して基準特徴点間距離の再計算を指示する際、ドライバ個人を特定可能な情報をあわせて出力する。基準距離算出部24は、ドライバの基準特徴点間距離の再計算を行うと、記憶部26に記憶されている、当該ドライバに対応する基準距離情報を更新する。
The reference distance calculation unit 24 calculates the distance between reference feature points for each individual based on the individual authentication result by the individual authentication unit 27. Specifically, the reference distance calculation unit 24 calculates the distance between reference feature points as the distance between reference feature points of the driver authenticated by the personal authentication unit 27 .
The reference distance calculation unit 24 causes the storage unit 26 to store, as reference distance information, information in which the calculated reference distance between feature points is associated with information that can identify the individual driver. Note that the reference distance calculation unit 24 includes information that can identify the individual driver in the personal authentication result.
Further, the face determination unit 25 determines whether the driver is making a restrained face based on the personal authentication result by the personal authentication unit 27. Specifically, the face determination section 25 matches the personal authentication result by the personal authentication section 27 with the reference distance information stored in the storage section 26, and specifies the distance between reference feature points of the driver. Then, the face determination unit 25 determines whether the driver is making a patient face by comparing the distance between feature points calculated by the distance calculation unit 23 and the reference distance between feature points of the specified driver. . When the face determination unit 25 determines that the distance between feature points is larger than the reference distance between feature points by a second threshold value or more and notifies the recalculation instruction unit 251 to that effect, the face determination unit 25 uses information that can identify the individual driver. We will also notify you. When instructing the reference distance calculation unit 24 to recalculate the distance between reference feature points, the recalculation instruction unit 251 also outputs information that can identify the individual driver. When the reference distance calculation unit 24 recalculates the distance between reference feature points of the driver, the reference distance calculation unit 24 updates the reference distance information corresponding to the driver stored in the storage unit 26.

このように、基準距離算出部24が、個人を特定可能な情報と基準特徴点間距離とが対応付けられた基準距離情報を記憶部26に記憶しておくことで、顔判定部25は、あるドライバの運転開始時に、基準特徴点間距離の算出を待たなくても、前回の運転時に算出済の基準特徴点間距離があれば、その基準特徴点間距離を用いて、当該あるドライバが我慢顔をしているか否かを判定することができる。 In this way, the reference distance calculation unit 24 stores in the storage unit 26 the reference distance information in which personally identifiable information and the reference inter-feature point distance are associated with each other, so that the face determination unit 25 can When a certain driver starts driving, without having to wait for the calculation of the distance between reference feature points, if there is a distance between reference feature points that has already been calculated during the previous driving, the driver can start driving using the distance between reference feature points. It is possible to determine whether or not the person is showing patience.

図8は、実施の形態1において、個人認証機能を備えるようにした覚醒度推定装置1aの動作を説明するためのフローチャートである。
図8のステップST51、ステップST53~55、ステップST57~ステップST59の具体的な動作は、それぞれ、図2のステップST1~ステップST4、ステップST6~8の具体的な動作と同様であるため、重複した説明を省略する。
FIG. 8 is a flowchart for explaining the operation of the alertness level estimation device 1a equipped with a personal authentication function in the first embodiment.
The specific operations of step ST51, steps ST53 to ST55, and steps ST57 to ST59 in FIG. 8 are the same as the specific operations of steps ST1 to ST4 and steps ST6 to ST8 in FIG. 2, respectively, so there is no overlap. The explanation given will be omitted.

個人認証部27は、ドライバの個人認証を行う(ステップST52)。
個人認証部27は、個人認証結果を、基準距離算出部24および顔判定部25に出力する。
The personal authentication unit 27 performs personal authentication of the driver (step ST52).
The personal authentication section 27 outputs the personal authentication result to the reference distance calculation section 24 and the face determination section 25.

顔判定部25は、ステップST52における個人認証部27による個人認証結果に基づき、ドライバが我慢顔をしているか否かの我慢顔判定処理を行う(ステップST56)。
我慢顔判定処理において、顔判定部25は、記憶部26に、ドライバに対応する基準距離情報が記憶されている場合、当該基準距離情報に基づいてドライバの基準特徴点間距離を取得し、特徴点間距離との比較を行う。
また、我慢顔判定処理において、再計算指示部251は、基準距離算出部24に対して、基準特徴点間距離の再計算を指示する場合、ドライバ個人を特定可能な情報をあわせて出力する。
The face determination unit 25 performs a patience face determination process to determine whether or not the driver is making a patience face based on the personal authentication result by the personal authentication unit 27 in step ST52 (step ST56).
In the patient face determination process, if the storage unit 26 stores reference distance information corresponding to the driver, the face determination unit 25 acquires the distance between the driver's reference feature points based on the reference distance information, and determines the distance between the driver's feature points. Compare with the distance between points.
In addition, in the patience face determination process, when instructing the reference distance calculation unit 24 to recalculate the distance between reference feature points, the recalculation instruction unit 251 also outputs information that can identify the individual driver.

なお、覚醒度推定装置1aが図7に示すような構成である場合、基準距離算出部24は、図5のステップST52における個人認証部27による個人認証結果に基づき、個人毎に、図5を用いて説明した処理を行い、個人毎の基準特徴点間距離を算出する。
そして、基準距離算出部24は、算出した基準特徴点間距離と、ドライバ個人を特定可能な情報とを対応付けた情報を、基準距離情報として、記憶部26に記憶させる。
Note that when the alertness level estimating device 1a has a configuration as shown in FIG. The distance between reference feature points for each individual is calculated by performing the process described using the above method.
Then, the reference distance calculation unit 24 causes the storage unit 26 to store, as reference distance information, information in which the calculated reference distance between feature points is associated with information that can identify the individual driver.

覚醒度推定装置1aが、図7に示すような構成であった場合のハードウェア構成の一例は、図6Aおよび図6Bに示すとおりである。
顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27の機能は、処理回路101により実現される。すなわち、覚醒度推定装置1aは、顔判定装置2aが撮像画像に基づきドライバが我慢顔をしているか否かを判定した結果と撮像画像における輝度に基づき、ドライバの覚醒度合いを推定するとともに、個人認証を行い、個人認証結果と基準距離情報とを対応付けて記憶させておく制御を行うための処理回路101を備える。
処理回路101は、メモリ105に記憶されたプログラムを読み出して実行することにより、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27の機能を実行する。すなわち、覚醒度推定装置1aは、処理回路101により実行されるときに、上述の図8のステップST51~ステップST59が結果的に実行されることになるプログラムを格納するためのメモリ105を備える。また、メモリ105に記憶されたプログラムは、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27の処理の手順または方法をコンピュータに実行させるものであるとも言える。
覚醒度推定装置1aは、撮像装置3または図示しない出力装置等の装置と、有線通信または無線通信を行う入力インタフェース装置102および出力インタフェース装置103を備える。
An example of the hardware configuration when the alertness level estimation device 1a has the configuration shown in FIG. 7 is as shown in FIGS. 6A and 6B.
A face determination information acquisition section 11, a brightness detection section 12, an estimation section 13, an image acquisition section 21, a feature point detection section 22, a distance calculation section 23, a reference distance calculation section 24, and a face determination section 25. , the functions of the personal authentication section 27 are realized by the processing circuit 101. That is, the arousal degree estimation device 1a estimates the driver's arousal degree based on the brightness in the captured image and the result of the face determination device 2a determining whether the driver is making a patient face based on the captured image, and also estimates the driver's arousal level based on the brightness in the captured image. A processing circuit 101 is provided for controlling the authentication and storing the personal authentication result and reference distance information in association with each other.
The processing circuit 101 reads out and executes a program stored in the memory 105, thereby controlling the face determination information acquisition section 11, the brightness detection section 12, the estimation section 13, the image acquisition section 21, and the feature point detection section 22. Then, the functions of the distance calculation section 23, reference distance calculation section 24, face determination section 25, and personal authentication section 27 are executed. That is, the alertness estimation device 1a includes a memory 105 for storing a program that, when executed by the processing circuit 101, results in the execution of steps ST51 to ST59 in FIG. 8 described above. Further, the program stored in the memory 105 includes the face determination information acquisition unit 11, the brightness detection unit 12, the estimation unit 13, the image acquisition unit 21, the feature point detection unit 22, the distance calculation unit 23, and the reference It can also be said that the computer is made to execute the processing procedures or methods of the distance calculation section 24, face determination section 25, and personal authentication section 27.
The alertness estimation device 1a includes an input interface device 102 and an output interface device 103 that perform wired or wireless communication with a device such as the imaging device 3 or an output device (not shown).

また、以上の実施の形態1では、覚醒度推定装置1が覚醒度合いを推定する対象となる人は、車両のドライバとし、覚醒度合いを推定する対象となる人は1人であることを前提としていたが、これは一例に過ぎない。覚醒度推定装置が覚醒度合いを推定する対象となる人は、複数であってもよい。例えば、覚醒度推定装置は、ドライバの他、助手席乗員または後席乗員を含む、車両の複数の乗員の覚醒度合いを推定してもよい。 Furthermore, in the first embodiment described above, it is assumed that the person whose arousal degree is estimated by the arousal degree estimating device 1 is the driver of the vehicle, and that there is only one person whose arousal degree is estimated. However, this is just one example. The number of people whose arousal level is estimated by the arousal level estimating device may be plural. For example, the alertness level estimating device may estimate the alertness levels of multiple occupants of the vehicle, including the driver, front passenger seat occupant, or rear seat occupant.

覚醒度推定装置1が図1に示すような構成であり、個人認証機能を備えない場合、例えば、特徴点検出部22は、撮像画像に基づいて、各乗員の座席位置を判定し、座席位置毎に複数の特徴点を検出する。そして、特徴点検出部22は、各乗員を特定可能な情報と検出した複数の特徴点と対応付けた情報を特徴点情報として、距離算出部23に出力する。ここでは、各乗員を特定可能な情報は、座席位置に関する情報とする。
距離算出部23は、特徴点検出部22が判定した座席位置に対応する乗員毎に、特徴点間距離を算出する。距離算出部23は、各乗員を特定可能な情報と特徴点間距離とを対応付けた情報を距離情報として、記憶部26に記憶させるとともに顔判定部25に出力する。
基準距離算出部24は、特徴点検出部22が判定した座席位置に対応する乗員毎に、基準特徴点間距離を算出する。基準距離算出部24は、各乗員を特定可能な情報と基準特徴点間距離とを対応付けた情報を基準距離情報として、記憶部26に記憶させる。
顔判定部25は、距離情報と基準距離情報とに基づき、乗員毎に、我慢顔をしているか否かを判定する。
顔判定部25は、各乗員を特定可能な情報と我慢顔をしているか否かを示す情報とを対応付けた情報を顔判定情報として、顔判定情報取得部11に出力する。
なお、再計算指示部251が、基準距離算出部24に対して基準特徴点間距離の再計算を指示する際は、各乗員を特定可能な情報をあわせて出力する。基準距離算出部24は、基準特徴点間距離の再計算を行うと、記憶部26に記憶されている、対応する乗員の基準距離情報を更新する。
推定部13は、乗員毎に、覚醒度合いを推定する。なお、推定部13は、例えば、特徴点検出部22から出力される特徴点情報と顔判定情報取得部11から出力される顔判定情報とから、各乗員を判定できる。
If the alertness level estimation device 1 has the configuration shown in FIG. 1 and does not include a personal authentication function, for example, the feature point detection unit 22 determines the seat position of each passenger based on the captured image, and determines the seat position. Detect multiple feature points at each time. Then, the feature point detection unit 22 outputs information that allows identification of each occupant and information associated with the detected plurality of feature points to the distance calculation unit 23 as feature point information. Here, the information that can identify each occupant is information regarding the seat position.
The distance calculation unit 23 calculates the distance between feature points for each passenger corresponding to the seat position determined by the feature point detection unit 22. The distance calculation unit 23 stores information in which information that allows identification of each occupant and distances between feature points to be associated with each other as distance information in the storage unit 26 and outputs the information to the face determination unit 25.
The reference distance calculation unit 24 calculates the distance between reference feature points for each passenger corresponding to the seat position determined by the feature point detection unit 22. The reference distance calculation unit 24 causes the storage unit 26 to store, as reference distance information, information in which information that allows identification of each occupant and reference inter-feature point distances are associated with each other.
The face determination unit 25 determines whether or not each occupant is wearing a restrained expression based on the distance information and the reference distance information.
The face determination unit 25 outputs, as face determination information, information in which information that allows identification of each occupant to be associated with information indicating whether or not the passenger is making a restrained face to the face determination information acquisition unit 11 .
Note that when the recalculation instruction unit 251 instructs the reference distance calculation unit 24 to recalculate the distance between reference feature points, it also outputs information that can identify each occupant. When the reference distance calculation unit 24 recalculates the distance between reference feature points, the reference distance calculation unit 24 updates the reference distance information of the corresponding occupant stored in the storage unit 26.
The estimation unit 13 estimates the degree of wakefulness for each occupant. Note that the estimation unit 13 can determine each occupant, for example, based on the feature point information output from the feature point detection unit 22 and the face determination information output from the face determination information acquisition unit 11.

例えば、覚醒度推定装置1aが図7に示すような構成であり、個人認証機能を備えている場合は、顔判定装置2aは、個人認証結果に基づいて、乗員毎に、我慢顔をしているか否かの判定を行えばよい。また、推定部13は、個人認証結果に基づいて、乗員毎に、覚醒度合いの推定を行えばよい。
具体的には、特徴点検出部22は、個人認証部27による個人認証結果に基づき、乗員毎に複数の特徴点を検出する。なお、図7では、個人認証部27から特徴点検出部22への矢印は省略している。特徴点検出部22は、検出した複数の特徴点と個人認証結果とを対応付けた情報を特徴点情報として、距離算出部23に出力する。
距離算出部23は、個人認証部27による個人認証結果に基づき、乗員毎に特徴点間距離を算出する。距離算出部23は、算出した特徴点間距離と個人認証結果とを対応付けた情報を距離情報として、記憶部26に記憶させるとともに顔判定部25に出力する。
基準距離算出部は、個人認証部27による個人認証結果に基づき、乗員毎の基準特徴点間距離を算出する。基準距離算出部24は、基準特徴点間距離と個人認証結果とを対応付けた情報を基準距離情報として、記憶部26に記憶させる。
顔判定部25は、個人認証部27による個人認証結果に基づき、乗員毎に、我慢顔をしているか否かを判定する。顔判定部25は、我慢顔をしているか否かを示す情報と個人認証結果とを対応付けた情報を顔判定情報として、顔判定情報取得部11に出力する。
推定部13は、個人認証部27による個人認証結果に基づき、乗員毎に、覚醒度合いを推定する。なお、推定部13は、例えば、特徴点検出部22から出力される特徴点情報と顔判定情報取得部11から出力される顔判定情報とから、各乗員を判定できる。
For example, if the alertness estimation device 1a has a configuration as shown in FIG. 7 and is equipped with a personal authentication function, the face determination device 2a can make a patient face for each passenger based on the personal authentication results. All you have to do is determine whether or not there is one. Furthermore, the estimation unit 13 may estimate the degree of wakefulness for each occupant based on the personal authentication result.
Specifically, the feature point detection unit 22 detects a plurality of feature points for each occupant based on the personal authentication result by the personal authentication unit 27. Note that in FIG. 7, the arrow from the personal authentication section 27 to the feature point detection section 22 is omitted. The feature point detection unit 22 outputs information in which the detected feature points are associated with the personal authentication result to the distance calculation unit 23 as feature point information.
The distance calculation unit 23 calculates the distance between feature points for each occupant based on the personal authentication result by the personal authentication unit 27. The distance calculation unit 23 stores information in which the calculated inter-feature point distance and the personal authentication result are associated with each other as distance information in the storage unit 26 and outputs it to the face determination unit 25.
The reference distance calculating section calculates the distance between reference feature points for each occupant based on the personal authentication result by the personal authentication section 27. The reference distance calculation unit 24 causes the storage unit 26 to store information in which the reference inter-feature point distance and the personal authentication result are associated with each other as reference distance information.
The face determination section 25 determines whether or not each occupant is wearing a restrained expression based on the personal authentication result obtained by the personal authentication section 27 . The face determination unit 25 outputs, as face determination information, information in which the information indicating whether the person is making a restrained face and the personal authentication result are associated with each other to the face determination information acquisition unit 11 .
The estimation unit 13 estimates the degree of wakefulness for each occupant based on the personal authentication result by the personal authentication unit 27. Note that the estimation unit 13 can determine each occupant, for example, based on the feature point information output from the feature point detection unit 22 and the face determination information output from the face determination information acquisition unit 11.

また、以上の実施の形態1では、覚醒度推定装置1,1aは、車両に搭載される車載装置とし、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、覚醒度推定装置1aが図7に示すような構成であった場合の個人認証部27は、車載装置に備えられているものとした。
これに限らず、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27のうち、一部が車両の車載装置に搭載され、その他が当該車載装置とネットワークを介して接続されるサーバに備えられるものとして、車載装置とサーバとで覚醒度推定システムを構成するようにしてもよい。
また、顔判定情報取得部11と、輝度検出部12と、推定部13と、画像取得部21と、特徴点検出部22と、距離算出部23と、基準距離算出部24と、顔判定部25と、個人認証部27が全部サーバに備えられてもよい。
In the first embodiment described above, the alertness level estimation devices 1 and 1a are in-vehicle devices installed in a vehicle, and include a face determination information acquisition section 11, a brightness detection section 12, an estimation section 13, and an image acquisition section. 21, the feature point detection unit 22, the distance calculation unit 23, the reference distance calculation unit 24, the face determination unit 25, and the personal authentication unit when the arousal level estimation device 1a is configured as shown in FIG. 27 is assumed to be provided in the in-vehicle device.
However, the present invention is not limited to this, but the face determination information acquisition section 11, the brightness detection section 12, the estimation section 13, the image acquisition section 21, the feature point detection section 22, the distance calculation section 23, the reference distance calculation section 24, A part of the face determination unit 25 and the personal authentication unit 27 is installed in the in-vehicle device of the vehicle, and the other part is provided in a server connected to the in-vehicle device via a network, so that the in-vehicle device and the server are provided. An alertness estimation system may also be configured.
Further, the face determination information acquisition unit 11, the brightness detection unit 12, the estimation unit 13, the image acquisition unit 21, the feature point detection unit 22, the distance calculation unit 23, the reference distance calculation unit 24, and the face determination unit 25 and the personal authentication section 27 may all be provided in the server.

また、以上の実施の形態1では、顔判定装置2は覚醒度推定装置1に備えられ、顔判定装置2aは覚醒度推定装置1aに備えられていたが、これは一例に過ぎない。顔判定装置2は、覚醒度推定装置1の外部にて、覚醒度推定装置1と接続されていてもよい。また、顔判定装置2aは、覚醒度推定装置1aの外部にて、覚醒度推定装置1aと接続されていてもよい。
また、顔判定装置2が備える各構成部のうちの一部が、覚醒度推定装置1に備えられてもよいし、顔判定装置2aが備える各構成部のうちの一部が、覚醒度推定装置1aに備えられてもよい。例えば、画像取得部21、特徴点検出部22、距離算出部23、または、基準距離算出部24が、覚醒度推定装置1に備えられてもよいし、画像取得部21、特徴点検出部22、距離算出部23、基準距離算出部24、または、個人認証部27が、覚醒度推定装置1aに備えられてもよい。
Further, in the first embodiment described above, the face determination device 2 is included in the arousal level estimation device 1, and the face determination device 2a is included in the arousal level estimation device 1a, but this is only an example. The face determination device 2 may be connected to the arousal level estimation device 1 outside of the arousal level estimation device 1 . Further, the face determination device 2a may be connected to the arousal level estimation device 1a outside of the arousal level estimation device 1a.
Further, some of the components included in the face determination device 2 may be included in the arousal level estimation device 1, and some of the components included in the face determination device 2a may be included in the arousal level estimation device 1. It may be provided in the device 1a. For example, the image acquisition unit 21, the feature point detection unit 22, the distance calculation unit 23, or the reference distance calculation unit 24 may be included in the arousal level estimation device 1, or the image acquisition unit 21, the feature point detection unit 22 , the distance calculation section 23, the reference distance calculation section 24, or the personal authentication section 27 may be included in the alertness level estimation device 1a.

また、以上の実施の形態1では、覚醒度推定装置1,1aが覚醒度合いを推定する対象となる人は車両のドライバ、または、当該ドライバを含む車両の乗員としたが、これは一例に過ぎない。覚醒度推定装置1,1aは、車両の乗員に限らず、あらゆる人の覚醒度合いを推定するようにできる。例えば、覚醒度推定装置1,1aは、車両以外の移動体、または、居室に存在する人の覚醒度合いを推定するようにできる。なお、この場合、撮像装置3も、車両に搭載されているものに限定されない。撮像装置3は、覚醒度推定装置1,1aが覚醒度合いを推定する対象となる人の顔が存在すべき範囲を撮像可能な位置に設置されていればよい。 Further, in the first embodiment described above, the person whose alertness level is estimated by the alertness level estimation devices 1 and 1a is the driver of the vehicle or the occupant of the vehicle including the driver, but this is only an example. do not have. The alertness level estimation devices 1 and 1a are capable of estimating the alertness level of not only the occupants of a vehicle but also all people. For example, the alertness level estimation devices 1 and 1a can estimate the alertness level of a moving object other than a vehicle or a person present in a room. Note that in this case, the imaging device 3 is not limited to one that is mounted on a vehicle. The imaging device 3 may be installed at a position where it can image the range where the face of the person whose arousal degree is to be estimated by the arousal level estimation devices 1 and 1a is present.

以上のように、実施の形態1によれば、覚醒度推定装置1,1aは、人が眉間にしわを寄せた顔(我慢顔)をしているか否かを示す顔判定情報を取得する顔判定情報取得部11と、人の顔が存在すべき範囲が撮像された撮像画像における輝度を検出する輝度検出部12と、顔判定情報取得部11が取得した顔判定情報と、輝度検出部12が検出した輝度とに基づき、人の覚醒度合いを推定する推定部13とを備えるように構成した。そのため、覚醒度推定装置1は、人が眉間にしわを寄せた状態である場合に、周囲の状況は人が眩しいと感じると想定される状況であるかを考慮して人の覚醒度合いを推定することで、人の覚醒度低下の誤推定を防ぐことができる。 As described above, according to Embodiment 1, the arousal level estimating device 1, 1a uses a face for acquiring face determination information indicating whether or not a person has a face with wrinkles between the eyebrows (patience face). A determination information acquisition unit 11 , a brightness detection unit 12 that detects the brightness in a captured image in which a range where a human face should exist, face determination information acquired by the face determination information acquisition unit 11 , and a brightness detection unit 12 The apparatus is configured to include an estimator 13 that estimates the degree of arousal of the person based on the detected brightness. Therefore, the alertness estimation device 1 estimates the alertness level of a person by considering whether the surrounding situation is such that the person would feel dazzling when the person has wrinkled eyebrows. By doing so, it is possible to prevent erroneous estimation of a decrease in a person's alertness level.

なお、実施の形態の任意の構成要素の変形、もしくは実施の形態の任意の構成要素の省略が可能である。 Note that it is possible to modify any component of the embodiment or omit any component of the embodiment.

本開示の覚醒度推定装置は、人が眉間にしわを寄せた状態である場合に、周囲の状況は人が眩しいと感じると想定される状況であるかを考慮して人の覚醒度合いを推定するため、人の覚醒度低下の誤推定を防ぐことができる。 The alertness estimation device of the present disclosure estimates a person's alertness level by considering whether the surrounding situation is such that the person is expected to feel dazzling when the person has furrowed eyebrows. Therefore, it is possible to prevent erroneous estimation of a decrease in a person's alertness level.

1,1a 覚醒度推定装置、11 顔判定情報取得部、12 輝度検出部、13 推定部、2,2a 顔判定装置、21 画像取得部、22 特徴点検出部、23 距離算出部、24 基準距離算出部、25 顔判定部、251 再計算指示部、26 記憶部、27 個人認証部、3 撮像装置、101 処理回路、102 入力インタフェース装置、103 出力インタフェース装置、104 プロセッサ、105 メモリ。 Reference Signs List 1, 1a alertness level estimation device, 11 face determination information acquisition unit, 12 brightness detection unit, 13 estimation unit, 2, 2a face determination device, 21 image acquisition unit, 22 feature point detection unit, 23 distance calculation unit, 24 reference distance calculation unit, 25 face determination unit, 251 recalculation instruction unit, 26 storage unit, 27 personal authentication unit, 3 imaging device, 101 processing circuit, 102 input interface device, 103 output interface device, 104 processor, 105 memory.

Claims (13)

人が眉間にしわを寄せた顔をしているか否かを示す顔判定情報を取得する顔判定情報取得部と、
人の顔が存在すべき範囲が撮像された撮像画像における輝度を検出する輝度検出部と、
前記顔判定情報取得部が取得した前記顔判定情報と、前記輝度検出部が検出した前記輝度とに基づき、前記人の覚醒度合いを推定する推定部
とを備えた覚醒度推定装置。
a face determination information acquisition unit that acquires face determination information indicating whether a person has a face with wrinkles between the eyebrows;
a brightness detection unit that detects brightness in a captured image in which a range where a human face should exist;
An arousal level estimating device comprising: an estimating unit that estimates a degree of arousal of the person based on the face determination information acquired by the face determination information acquisition unit and the brightness detected by the brightness detection unit.
前記推定部は、
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていることを示す前記顔判定情報であり、かつ、前記輝度検出部が検出した前記輝度が輝度判定用閾値未満である場合、前記人の覚醒度が低下したと推定する
ことを特徴とする請求項1記載の覚醒度推定装置。
The estimation unit is
The face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person has a face with wrinkles between the eyebrows, and the brightness detected by the brightness detection unit The alertness level estimating device according to claim 1, wherein if the brightness determination threshold is less than a brightness determination threshold, it is estimated that the person's alertness level has decreased.
前記推定部は、
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていることを示す前記顔判定情報であり、かつ、前記輝度検出部が検出した前記輝度が輝度判定用閾値以上である場合、前記人の覚醒度が低下していないと推定する
ことを特徴とする請求項1記載の覚醒度推定装置。
The estimation unit is
The face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person has a face with wrinkles between the eyebrows, and the brightness detected by the brightness detection unit 2. The alertness level estimating device according to claim 1, wherein the alertness level estimating device estimates that the person's alertness level has not decreased when the brightness determination threshold value is greater than or equal to a brightness determination threshold.
前記推定部は、
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていることを示す前記顔判定情報であり、かつ、前記輝度検出部が検出した前記輝度が前記輝度判定用閾値未満であっても、前記撮像画像上の輝度分布に基づき前記人の顔周辺が明るいと判定した場合は、前記人の覚醒度が低下していないと推定する
ことを特徴とする請求項2記載の覚醒度推定装置。
The estimation unit is
The face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person has a face with wrinkles between the eyebrows, and the brightness detected by the brightness detection unit is less than the brightness determination threshold, if it is determined that the area around the person's face is bright based on the brightness distribution on the captured image, it is estimated that the person's alertness level has not decreased. The alertness level estimating device according to claim 2.
前記推定部は、
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていることを示す前記顔判定情報であり、かつ、前記輝度検出部が検出した前記輝度が前記輝度判定用閾値以上であっても、前記撮像画像上の輝度分布に基づき前記人の顔周辺に影があると判定した場合は、前記人の覚醒度が低下したと推定する
ことを特徴とする請求項3記載の覚醒度推定装置。
The estimation unit is
The face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person has a face with wrinkles between the eyebrows, and the brightness detected by the brightness detection unit is greater than or equal to the brightness determination threshold, if it is determined that there is a shadow around the person's face based on the brightness distribution on the captured image, it is estimated that the person's alertness level has decreased. The alertness level estimating device according to claim 3.
前記推定部は、
前記顔判定情報取得部が取得した前記顔判定情報が、前記人が眉間にしわを寄せた顔をしていないことを示す前記顔判定情報である場合は、前記撮像画像に基づき、前記人の前記覚醒度合いを推定する
ことを特徴とする請求項1記載の覚醒度推定装置。
The estimation unit is
When the face determination information acquired by the face determination information acquisition unit is the face determination information indicating that the person does not have a face with wrinkled eyebrows, the face determination information of the person is determined based on the captured image. The alertness level estimating device according to claim 1, further comprising: estimating the alertness level.
前記輝度検出部は、前記撮像画像上の画素の輝度値の平均値を、前記撮像画像の前記輝度とする
ことを特徴とする請求項1記載の覚醒度推定装置。
The alertness level estimation device according to claim 1, wherein the brightness detection unit sets an average value of brightness values of pixels on the captured image as the brightness of the captured image.
前記撮像画像を取得する画像取得部と、
前記画像取得部が取得した前記撮像画像上の、前記人の顔の複数の特徴点を検出する特徴点検出部と、
前記特徴点検出部が検出した前記複数の前記特徴点の前記撮像画像上の座標を3次元座標に変換し、変換後の前記3次元座標から前記複数の前記特徴点の間の特徴点間距離を算出する距離算出部と、
前記距離算出部が算出した前記特徴点間距離と基準特徴点間距離とを比較することで前記人が眉間にしわを寄せた顔をしているか否かを判定し、前記特徴点間距離が前記基準特徴点間距離よりも第1閾値以上小さい場合、前記人が眉間にしわを寄せた顔をしていると判定する顔判定部
とを備えた請求項1記載の覚醒度推定装置。
an image acquisition unit that acquires the captured image;
a feature point detection unit that detects a plurality of feature points of the human face on the captured image acquired by the image acquisition unit;
The coordinates of the plurality of feature points detected by the feature point detection unit on the captured image are converted into three-dimensional coordinates, and the inter-feature distance between the plurality of feature points is determined from the converted three-dimensional coordinates. a distance calculation unit that calculates
By comparing the distance between the feature points calculated by the distance calculation unit and the reference distance between the feature points, it is determined whether the person has a face with wrinkles between the eyebrows, and the distance between the feature points is determined. The arousal level estimating device according to claim 1, further comprising: a face determining unit that determines that the person has a face with wrinkles between the eyebrows when the distance is smaller than the reference inter-feature point distance by a first threshold value or more.
前記距離算出部が算出した前記特徴点間距離の、基準算出対象期間分の履歴に基づき、前記基準特徴点間距離を算出する基準距離算出部を備え、
前記顔判定部は、前記距離算出部が算出した前記特徴点間距離と前記基準距離算出部が算出した前記基準特徴点間距離とを比較する
ことを特徴とする請求項8記載の覚醒度推定装置。
a reference distance calculation unit that calculates the reference distance between feature points based on a history of the distance between feature points calculated by the distance calculation unit for a reference calculation target period;
The arousal level estimation according to claim 8, wherein the face determination unit compares the inter-feature point distance calculated by the distance calculation unit and the reference inter-feature point distance calculated by the reference distance calculation unit. Device.
前記顔判定部が前記特徴点間距離と前記基準特徴点間距離とを比較した結果、前記特徴点間距離が前記基準特徴点間距離よりも第2閾値以上大きいと判定した場合、前記基準距離算出部に対して前記基準特徴点間距離の再計算を指示する再計算指示部を備え、
前記基準距離算出部は、前記再計算指示部から前記基準特徴点間距離の再計算を指示された場合、前記基準特徴点間距離を再算出する
ことを特徴とする請求項9記載の覚醒度推定装置。
If the face determination unit compares the inter-feature point distance with the reference inter-feature point distance and determines that the inter-feature point distance is greater than the reference inter-feature point distance by a second threshold value or more, the reference distance comprising a recalculation instruction unit that instructs the calculation unit to recalculate the distance between the reference feature points,
The alertness level according to claim 9, wherein the reference distance calculation unit recalculates the reference inter-feature point distance when instructed to recalculate the reference inter-feature point distance from the recalculation instruction unit. Estimation device.
前記人の個人認証を行う個人認証部を備え、
前記基準距離算出部は、前記個人認証部による前記個人認証の結果に基づき、個人毎の前記基準特徴点間距離を算出し、
前記顔判定部は、前記個人認証部による前記個人認証の結果と、前記基準距離算出部が算出した前記個人毎の前記基準特徴点間距離に基づき、前記特徴点間距離と比較する前記基準特徴点間距離を特定する
ことを特徴とする請求項9記載の覚醒度推定装置。
comprising a personal authentication unit that performs personal authentication of the person,
The reference distance calculation unit calculates the distance between the reference feature points for each individual based on the result of the individual authentication by the individual authentication unit,
The face determination unit compares the reference feature with the distance between feature points based on the result of the personal authentication by the individual authentication unit and the reference distance between feature points for each individual calculated by the reference distance calculation unit. The alertness level estimation device according to claim 9, characterized in that a distance between points is specified.
前記複数の前記特徴点は前記人の両眉頭であり、前記特徴点間距離は前記人の両眉頭間の距離である
ことを特徴とする請求項8記載の覚醒度推定装置。
The arousal level estimation device according to claim 8, wherein the plurality of feature points are the tips of both eyebrows of the person, and the distance between the feature points is a distance between the tips of the eyebrows of the person.
顔判定情報取得部が、人が眉間にしわを寄せた顔をしているか否かを示す顔判定情報を取得するステップと、
輝度検出部が、人の顔が存在すべき範囲が撮像された撮像画像における輝度を検出するステップと、
推定部が、前記顔判定情報取得部が取得した前記顔判定情報と、前記輝度検出部が検出した前記輝度とに基づき、前記人の覚醒度合いを推定するステップ
とを備えた覚醒度推定方法。
a step in which the face determination information acquisition unit acquires face determination information indicating whether the person has a face with wrinkles between the eyebrows;
a step in which the brightness detection unit detects brightness in a captured image in which a range where a human face should exist;
An arousal degree estimation method, comprising: an estimating section estimating the arousal degree of the person based on the face determination information acquired by the face determination information acquisition section and the brightness detected by the brightness detection section.
JP2023561121A 2021-11-25 2021-11-25 Awakening level estimation device and arousal level estimation method Active JP7403729B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/043119 WO2023095229A1 (en) 2021-11-25 2021-11-25 Wakefulness estimation device and wakefulness estimation method

Publications (2)

Publication Number Publication Date
JPWO2023095229A1 JPWO2023095229A1 (en) 2023-06-01
JP7403729B2 true JP7403729B2 (en) 2023-12-22

Family

ID=86539106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023561121A Active JP7403729B2 (en) 2021-11-25 2021-11-25 Awakening level estimation device and arousal level estimation method

Country Status (3)

Country Link
JP (1) JP7403729B2 (en)
DE (1) DE112021008239T5 (en)
WO (1) WO2023095229A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008212298A (en) 2007-03-01 2008-09-18 Toyota Central R&D Labs Inc Sleepiness judging apparatus and program
JP2008242602A (en) 2007-03-26 2008-10-09 Denso Corp Drowsiness alarm apparatus and program
JP2010142345A (en) 2008-12-17 2010-07-01 Aisin Seiki Co Ltd Opened/closed eye recognizing apparatus and program
JP2011043961A (en) 2009-08-20 2011-03-03 Toyota Motor Corp Driver monitoring device
JP2014013448A (en) 2012-07-03 2014-01-23 Daiwa House Industry Co Ltd Unpleasantness degree estimation system and unpleasantness degree estimation method
WO2020121425A1 (en) 2018-12-12 2020-06-18 三菱電機株式会社 State determination device, state determination method, and state determination program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007245911A (en) * 2006-03-15 2007-09-27 Omron Corp Monitoring device and method, recording medium and program
JP2009096384A (en) * 2007-10-18 2009-05-07 Aisin Seiki Co Ltd Driving assistance system and method
JP5045492B2 (en) * 2008-02-27 2012-10-10 トヨタ自動車株式会社 Awakening level estimation device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008212298A (en) 2007-03-01 2008-09-18 Toyota Central R&D Labs Inc Sleepiness judging apparatus and program
JP2008242602A (en) 2007-03-26 2008-10-09 Denso Corp Drowsiness alarm apparatus and program
JP2010142345A (en) 2008-12-17 2010-07-01 Aisin Seiki Co Ltd Opened/closed eye recognizing apparatus and program
JP2011043961A (en) 2009-08-20 2011-03-03 Toyota Motor Corp Driver monitoring device
JP2014013448A (en) 2012-07-03 2014-01-23 Daiwa House Industry Co Ltd Unpleasantness degree estimation system and unpleasantness degree estimation method
WO2020121425A1 (en) 2018-12-12 2020-06-18 三菱電機株式会社 State determination device, state determination method, and state determination program

Also Published As

Publication number Publication date
DE112021008239T5 (en) 2024-08-22
JPWO2023095229A1 (en) 2023-06-01
WO2023095229A1 (en) 2023-06-01

Similar Documents

Publication Publication Date Title
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
CN104573623B (en) Face detection device and method
JP5109922B2 (en) Driver monitoring device and program for driver monitoring device
JP6303297B2 (en) Terminal device, gaze detection program, and gaze detection method
JP6187817B2 (en) Face detection apparatus, method and program
US8345922B2 (en) Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
JP4915413B2 (en) Detection apparatus and method, and program
JP6090129B2 (en) Viewing area estimation device
JP2006293909A (en) Driver sight line direction detecting device
JP4776581B2 (en) Sleep state detection method, sleep state detection device, sleep state detection system, and computer program
JPWO2018134875A1 (en) Trap detection device, snooze determination device, and trap detection method
JP4623172B2 (en) Pupil detection device, program for pupil detection device, and pupil detection method
JP3905544B2 (en) Face image processing device
JP7403729B2 (en) Awakening level estimation device and arousal level estimation method
WO2022113275A1 (en) Sleep detection device and sleep detection system
JPH0981756A (en) Face image processor
JP2007034436A (en) Arousal estimation device and method
JP2017134777A (en) Operation determination program, operation determination method and control unit
JP7374386B2 (en) Condition determination device and condition determination method
JP4623171B2 (en) Pupil detection device, program for pupil detection device, and pupil detection method
CN108614958A (en) Method of controlling security, device and mobile terminal, the storage medium of application program
JP2008129901A (en) Glasses detection device, image processor, glasses detection method and computer program
KR20150046889A (en) Tail gate opening angle control device using camera image, and the method of thereof
CN107273847B (en) Iris acquisition method and apparatus, electronic device, and computer-readable storage medium
CN108537552B (en) Payment method, device and system based on lens

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231004

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231212

R150 Certificate of patent or registration of utility model

Ref document number: 7403729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350