JP2010009093A - Person state determination device - Google Patents
Person state determination device Download PDFInfo
- Publication number
- JP2010009093A JP2010009093A JP2008164024A JP2008164024A JP2010009093A JP 2010009093 A JP2010009093 A JP 2010009093A JP 2008164024 A JP2008164024 A JP 2008164024A JP 2008164024 A JP2008164024 A JP 2008164024A JP 2010009093 A JP2010009093 A JP 2010009093A
- Authority
- JP
- Japan
- Prior art keywords
- person
- state determination
- determination device
- driver
- line segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は人物状態判定装置に関し、より特定的には人物の覚醒状態を判定する人物状態判定装置に関する。 The present invention relates to a person state determination apparatus, and more particularly to a person state determination apparatus that determines a person's arousal state.
近年、車両に運転者を撮影するカメラを備え、当該カメラに撮影された運転者の顔画像にもとづいて運転者の状態を検出し、検出された運転者の状態に応じて車両を制御する車両制御システムが開発されている。このようなシステムには、運転者の眼の開閉の状態を検出し、運転者の覚醒状態を判定する装置(以下、覚醒判定装置と呼称する)などが備えられる。 2. Description of the Related Art In recent years, a vehicle that includes a camera that captures a driver on a vehicle, detects a driver's state based on a driver's face image captured by the camera, and controls the vehicle according to the detected driver's state Control systems have been developed. Such a system includes a device that detects the open / closed state of the driver's eyes and determines the driver's arousal state (hereinafter referred to as an arousal determination device).
ところで、運転者の眼に直射光が照射された場合、運転者は当該直射光を眩しく感じて眼を細めた状態になる場合がある。運転者が眼を細めた状態になっていると、上記のような覚醒判定装置は、運転者が実際には覚醒しているにも拘わらず覚醒状態でないと誤判定してしまう。 By the way, when the driver's eyes are irradiated with direct light, the driver may feel dazzled by the direct light and may have a narrowed eye. When the driver is in a state of narrowing his eyes, the awakening determination device as described above erroneously determines that the driver is not in an awakening state even though the driver is actually awakening.
上記の問題を考慮して開発された直射光検出装置が、特許文献1に開示されている。当該直射光検出装置は、カメラにより撮影された画像にもとづいて、運転者の眼の開き具合(引用文献1に記載の眼開度)、および当該眼の近傍の光量を測定する。そして、上記眼開度および光量にもとづいて運転者の眼に直射光が当たっているか否かを判定する。
A direct light detection device developed in consideration of the above problems is disclosed in
特許文献1に開示される直射光検出装置によれば、運転者が直射光により眩しさを感じているか否かを判断することが可能である。したがって、上記のような覚醒判定装置で運転者の覚醒状態を判定する際、当該装置が運転者の眼が閉じている状態であると検出していても、運転者の眼に直射光が当たっている場合、すなわち、運転者の眼に当たった直射光が原因で眼を細めていると推定される場合、運転者は覚醒していると判定することができる。
しかしながら、運転者が眼を細めた状態になる条件は、運転者の眼に直射光が当たった場合に限らない。例えば、運転者は、笑った場合などには、直射光を浴びていなくても眼を細めた状態となる。そして、運転者が笑って眼を細めている場合、特許文献1の発明を用いたとしても、上記のような覚醒判定装置は、当該運転者が覚醒状態でないと判定することがある。
However, the condition for the driver to narrow his eyes is not limited to the case where the driver's eyes are exposed to direct light. For example, when the driver laughs, the driver's eyes are narrowed even if they are not exposed to direct light. When the driver laughs and narrows his eyes, even if the invention of
本発明は上記課題に鑑みてなされたものであり、人物が笑顔であるか否かに応じて当該人物の覚醒状態を正しく判定可能とする人物状態判定装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a person state determination device that can correctly determine a person's arousal state according to whether or not a person is smiling.
本発明は上記に鑑みてなされたものであり、第1の発明は、人物の顔を撮影して顔画像を取得する撮像手段と、人物が眼を閉じているか否かを顔画像にもとづいて推定する閉眼推定手段と、人物が笑っているか否かを顔画像中に含まれる人物の口の画像にもとづいて推定する笑顔推定手段と、人物の眼が開いていると推定した場合、または人物が笑っていると推定し、且つ、人物の眼が閉じていると推定した場合、人物の眼が覚醒していると判定し、人物が笑っていないと推定し、且つ、人物の眼が閉じていると推定した場合、人物が覚醒していないと判定する覚醒判定手段とを備える人物状態判定装置である。 The present invention has been made in view of the above, and the first invention is based on an image capturing unit that captures a face of a person and obtains a face image, and whether the person closes his eyes based on the face image. Closed eye estimation means to estimate, smile estimation means to estimate whether a person is laughing based on the image of the person's mouth included in the face image, and if the person's eyes are estimated to be open, or a person If it is estimated that the person's eyes are closed, it is determined that the person's eyes are awake, the person is not smiling, and the person's eyes are closed. It is a person state determination apparatus provided with the awakening determination means which determines that the person is not awake when it estimates that the person is waking up.
第2の発明は、第1の発明において、人物状態判定装置は、顔画像中で、上唇と下唇との境界線である唇境界線を検出する唇境界線検出手段をさらに備え、笑顔推定手段は、人物が笑っているか否かを唇境界線の形状にもとづいて推定する。 According to a second aspect, in the first aspect, the human state determination device further includes a lip boundary detection unit that detects a lip boundary line that is a boundary line between the upper lip and the lower lip in the face image, and smile estimation The means estimates whether or not the person is laughing based on the shape of the lip boundary line.
第3の発明は、第2の発明において、人物状態判定装置は、唇境界線を水平方向にN等分(Nは2以上の整数)して成る線分のうち、左右両端からM番目(Mは1以上の整数)に位置する線分対を抽出する線分対抽出手段をさらに備え、笑顔推定手段は、人物が笑っているか否かを抽出された線分対にもとづいて推定する。 According to a third aspect, in the second aspect, the human state determination device includes the Mth from the left and right ends of the line segment obtained by dividing the lip boundary line into N equal parts (N is an integer equal to or greater than 2). M is further provided with line segment pair extraction means for extracting a line segment pair positioned at an integer of 1 or more, and the smile estimation means estimates whether or not a person is laughing based on the extracted line segment pair.
第4の発明は、第3の発明において、人物状態判定装置は、抽出された線分、当該線分対を成す2つの線分各々が水平線と成す角度を算出する角度算出手段と、2つの線分各々が水平線と成す角度の合算値を算出する合算値算出手段とを備え、笑顔推定手段は、合算値が閾値より大きい場合、人物が笑っていると判定する。 In a fourth aspect based on the third aspect, the human state determination device includes: an angle calculating unit that calculates an angle between the extracted line segment and each of the two line segments that form the line segment pair and a horizontal line; The smile estimation means determines that the person is smiling when the total value is larger than the threshold value.
第4の発明は、第3の発明において、人物状態判定装置は、線分対を成す線分を各々直線近似して直線線分とする線分近似手段と、線分対を成す直線線分各々が水平線と成す角度を算出する角度算出手段とを備え、笑顔推定手段は、角度にもとづいて人物が笑っていると判定する。 In a fourth aspect based on the third aspect, the human state determination device includes a line segment approximating means for linearly approximating each line segment forming a line segment pair to form a straight line segment, and a straight line segment forming a line segment pair. Angle calculating means for calculating an angle formed by each horizontal line, and the smile estimating means determines that the person is laughing based on the angle.
第5の発明は、第3の発明において、人物状態判定装置は、線分対の各線分を円弧に近似し、線分対を成す線分を各々円弧近似して円弧線分とする円弧近似手段と、線分対を成す円弧線分各々の半径または直径を算出する径算出手段とを備え、笑顔推定手段は、角度にもとづいて人物が笑っていると判定する。 In a fifth aspect based on the third aspect, the human state determination device approximates each line segment of the line segment pair to a circular arc, and approximates each line segment forming the line segment pair as a circular arc segment by circular arc approximation. Means and a diameter calculation means for calculating the radius or diameter of each arc line segment forming a line segment pair, and the smile estimation means determines that the person is laughing based on the angle.
第6の発明は、第2の発明において、人物状態判定装置は、閉眼推定手段により人物が開眼していると推定した場合にのみ、唇境界線の形状に関する情報を学習する学習手段をさらに備え、笑顔推定手段は、学習した結果にもとづいて人物が笑っているか否かを推定する。 In a sixth aspect based on the second aspect, the human state determination device further includes learning means for learning information related to the shape of the lip boundary line only when it is estimated by the closed eye estimation means that the person is open. The smile estimation means estimates whether or not the person is laughing based on the learning result.
第7の発明は、第1の発明において、人物は車両の運転者であり、人物状態判定装置は上記車両に搭載される。 In a seventh aspect based on the first aspect, the person is a driver of the vehicle, and the person state determination device is mounted on the vehicle.
第1の発明によれば、人物が笑っている場合、当該人物が眼を細めるなどして眼を閉じているか否かを判定し難い状態であっても、当該人物が眼を閉じているか否かを正しく判定することができる。 According to the first invention, when a person is laughing, whether or not the person closes his eyes even if it is difficult to determine whether or not the person closes his eyes by narrowing his eyes. Can be determined correctly.
第2の発明によれば、第1の発明において、人物が笑っているか否かを、当該人物の上唇と下唇との境界線にもとづいて推定することができる。人物の上唇と下唇との境界線は、顔画像中において容易に認識可能であることから、上記第2の発明によれば人物が笑っているか否かを顔画像にもとづいて容易に推定することができる。 According to the second invention, in the first invention, whether or not a person is laughing can be estimated based on the boundary line between the upper lip and the lower lip of the person. Since the boundary line between the upper lip and the lower lip of the person can be easily recognized in the face image, according to the second aspect, it is easily estimated based on the face image whether or not the person is laughing. be able to.
第3の発明によれば、第2の発明において、人物が笑っているか否かを、口の端部の形状にもとづいて推定することができる。口の端部の形状は人物が笑っている場合に顕著に変化するため、人物が笑っているか否かを容易に、且つ、正しく推定することができる。 According to the third invention, in the second invention, it is possible to estimate whether or not a person is laughing based on the shape of the end of the mouth. Since the shape of the edge of the mouth changes significantly when a person is laughing, it can be easily and correctly estimated whether or not the person is laughing.
第4の発明によれば、第3の発明において、人物が笑っているか否かを、口の端部の形状にもとづいて簡単な処理で推定することができる。 According to the fourth invention, in the third invention, whether or not a person is laughing can be estimated by a simple process based on the shape of the end of the mouth.
第5の発明によれば、第3の発明において、人物が笑っているか否かを、口の端部の形状にもとづいて推定することができる。口の端部の形状を円弧に近似すると、口の端部の形状変化が僅かであっても当該円弧の半径または直径が大きく変化するため、当該形状の変化を感度良検出することができる。また、顔画像中において人物の顔がロール方向に傾いている場合であっても、人物が笑っているか否かを正確に推定することができる。 According to the fifth aspect, in the third aspect, it is possible to estimate whether or not a person is laughing based on the shape of the end of the mouth. When the shape of the mouth end is approximated to a circular arc, even if the shape change of the mouth end is slight, the radius or diameter of the arc changes greatly, so that the change in the shape can be detected with good sensitivity. Even if the face of a person is tilted in the roll direction in the face image, it can be accurately estimated whether or not the person is laughing.
第6の発明によれば、人物が開眼した状態における唇境界線の形状を予め学習し、前記人物が笑っているか否かを当該学習結果にもとづいて推定できるため、人物が笑っているか否かを、より正確に推定することができる。 According to the sixth invention, since the shape of the lip boundary line when the person is open is learned in advance and whether or not the person is smiling can be estimated based on the learning result, whether or not the person is smiling Can be estimated more accurately.
第7の発明によれば、第1の発明の人物状態判定装置を車両に搭載し、当該車両の運転者の状態を判定することができる。 According to the seventh aspect, the person state determination device according to the first aspect can be mounted on a vehicle, and the state of the driver of the vehicle can be determined.
(第1の実施形態)
以下、本発明の第1の実施形態に係る人物状態判定装置132について図1から図12を参照して説明する。なお、本実施形態では、人物状態判定装置132を含む運転者監視システム1が、車両に搭載される例について説明する。運転者監視システム1は、搭載される車両の運転者の顔の画像を撮影し、当該画像にもとづいて運転者の状態を監視するシステムである。人物状態判定装置132は、上記の画像にもとづいて、運転者が眼を閉じているか否か、および運転者が笑っているか否かを推定し、各々の推定結果にもとづいて運転者が覚醒しているか否かを判定する。
(First embodiment)
Hereinafter, the human
まず、図1を参照して運転者監視システム1の機能構成について説明する。図1は、人物状態判定装置132を含む運転者監視システム1の機能構成を示すブロック図である。
First, the functional configuration of the
運転者監視システム1は、近赤外照明11、近赤外カメラ12、およびECU(Electrical Control Unit)13を備える。そしてECU13は顔向き検知マイコン131および人物状態判定装置132を備える。運転者監視システム1は、CAN(Controller Area Network)などを介して車両制御システム2に接続される。顔向き検知マイコン131および人物状態判定装置132は、運転者の状態を示すデータを車両制御システム2へ各々出力する。
The
近赤外照明11は、近赤外光を発する照明装置であり、典型的には、近赤外光を発するLED(Light Emitting Diode)である。近赤外照明11は、車両内に配置され、近赤外光を運転者に照射する。
The near-
近赤外カメラ12は、請求項に記載の撮像手段の一例である。近赤外カメラ12は、近赤外領域で高い感度特性を有する撮像装置であり、典型的には、近赤外CCDカメラである。近赤外領域で高い感度特性を有するカメラを用いることにより、夜間やトンネル内などを走行中で車内が暗い状況でも、近赤外照明11に照らされた撮像対象を感度良撮像することが可能である。近赤外カメラ12は、運転者の顔を撮像可能な位置に配置される。近赤外カメラ12は運転者の顔およびその周囲の画像を撮影し、撮影された画像をECU13へ出力する。なお、以下では、近赤外カメラ12によって撮影される画像をカメラ画像と呼称する。また、説明のため、カメラ画像中の位置情報を、左下端を原点として、縦方向をY座標、横方向をX座標とする座標系で表す。
The near-
ECU13は、顔向き検知マイコン131および人物状態判定装置132などの情報処理装置、およびインターフェース回路などを備える処理装置である。ECU13は、カメラ画像を顔向き検知マイコン131および人物状態判定装置132などの情報処理装置で処理する。ECU13は、上記の処理の結果として得られる運転者の状態を示すデータを車両制御システム2へ出力する。
The
顔向き検知マイコン131は、典型的にはマイクロコンピュータなどの情報処理装置である。顔向き検知マイコン131は、カメラ画像中における運転者の顔の向きの角度を検出する。なお、本実施形態では、説明を簡単にするため、顔向き検知マイコン131が、運転者の顔の左右方向の角度(以下、顔向き角度αと呼称する)を検出する例について説明する。顔向き検知マイコン131は、顔向き角度αを車両制御システム2へ出力する。
The face
人物状態判定装置132は、典型的にはマイクロコンピュータなどの情報処理装置である。人物状態判定装置132は、後述する処理に用いるデータを記憶するメモリなどの記憶装置を備える。人物状態判定装置132は、運転者の眼が閉じているか否かを推定する処理(後述の閉眼推定処理)、および運転者が笑っているか否かを推定する処理(後述の笑顔推定処理)を実行する。そして、人物状態判定装置132は、上記の各推定処理の結果にもとづいて運転者が覚醒しているか否かを判定する。人物状態判定装置132は、上記判定の結果にもとづいて、運転者が覚醒していることを示す信号(以下、覚醒判定信号と呼称する)、または運転者が覚醒していないことを示す信号(以下、非覚醒判定信号と呼称する)を車両制御システム2へ出力する。
The person
車両制御システム2には、プリクラッシュ制御システムなどの、車両を制御するシステムが含まれる。車両制御システム2は、運転者の疲れ具合などを、入力される顔向き角度α、覚醒判定信号、および非覚醒判定信号などの運転者の状態を示すデータおよび信号にもとづいて判断する。そして、車両制御システム2は、車両と障害物との衝突の危険を報ずる警告や、衝突回避走行の制御などを実行するタイミングを、上記の運転者の疲れ具合に応じて最適に決定する。
The
次に、図2を参照してECU13が実行する処理について説明する。なお、図2はECU13が実行する処理の一例を示すフローチャートである。
Next, processing executed by the
ステップA1において、ECU13は、IG電源がオンであるか否かを判定する。ECU13は、IG電源がオンであると判断した場合、処理をステップA2へ進める。一方、ECU13は、IG電源がオフであると判断した場合、処理を終了する。
In step A1, the
上記ステップA1の処理により、IG電源がオンである間、下記のステップA2からステップA5の処理が繰り返される。 By the process of step A1, the following processes of step A2 to step A5 are repeated while the IG power supply is on.
ステップA2において、ECU13は、カメラ画像を取得する。具体的には、ECU13は、近赤外カメラ12から出力されるカメラ画像を取得し、ECU13が備える記憶装置へ保存する。ECU13は、ステップA2の処理を完了すると、処理をステップA3へ進める。
In step A2, the
ステップA3において、ECU13は、顔向き検知処理を実行する。具体的には、ECU13は、上記のステップA2において取得したカメラ画像にもとづいて顔向き角度αを検出する処理を、備えられた顔向き検知マイコン131に実行させる。
In step A3, the
ここで、図3を参照して、顔向き角度αについて説明する。図3はカメラ画像および、当該画像が撮影された時点の運転者の頭部の上面図である。本実施形態では運転者の頭部は頭頂部を上面とする円柱形状を成しているものと見なす。なお、顔は円柱状の頭部の中心線を中心に回転する。顔向き角度αの値は、近赤外カメラ12に対して正面を向いた状態でα=0である。そして、顔向き角度αの値は、顔が近赤外カメラ12に対して正面を向いた状態から右方向を向くほど大きくなる。一方、顔が近赤外カメラ12に対して正面を向いた状態から左方向を向くほど、顔向き角度αの値は小さくなる。したがって、顔向き角度αの値は、顔が右方向を向くと正の値となり、左方向を向くと負の値となる。
Here, the face orientation angle α will be described with reference to FIG. FIG. 3 is a top view of the camera image and the driver's head when the image is taken. In the present embodiment, the driver's head is considered to have a cylindrical shape with the top of the head as the upper surface. The face rotates around the center line of the cylindrical head. The value of the face orientation angle α is α = 0 in a state where it faces the near
以下、図3を参照して、顔向き検知マイコン131が、顔向き角度αを検知する手法の一例について説明する。なお、下記の顔向き検知マイコン131が顔向き角度αを検出する手法は一例であり、顔向き角度αを検出する手法は下記の例に限らず、従来の既知の手法を用いて構わない。
Hereinafter, an example of a method in which the face
顔向き検知マイコン131は、カメラ画像中における運転者の顔の左端EL、および右端ER、および顔の中心Cを検出する。運転者の顔の左端ELは、顔の輪郭の左の端点のX座標である。運転者の顔の右端ERは、顔の輪郭の右の端点のX座標である。顔の中心Cは、運転者の鼻の位置のX座標である。顔向き検知マイコン131は、カメラ画像中における運転者の顔の輪郭を検出して左端ELおよび右端ERを検出する。また、カメラ画像中の運転者の鼻の位置を検出して顔の中心Cを検出する。そして、左端ELから顔の中心Cまでの幅WLを算出する。また、右端ERから顔の中心Cまでの幅WRを算出する。
The face
顔向き検知マイコン131は、上記のようにして算出された幅WLおよび幅WRの値の比にもとづいて顔向き角度αを検出する。図3(a)に示すように、顔が近赤外カメラ12に対して正面を向いている場合、幅WRおよび幅WLは同値である。一方、図3(b)に示すように、顔が右を向いている場合、幅WRに比べ幅WLの方が大きい。すなわち、顔向き角度αの大きさに応じて、幅WRおよび幅WLの値の比率が変化する。そこで、顔向き検知マイコン131は、幅WRおよび幅WLの値の比率を、顔向き角度αの値に換算するデータテーブルを予め記憶し、幅WR、幅WL、および当該データテーブルにもとづいて顔向き角度αを算出する。
The face
顔向き検知マイコン131は、顔向き角度αを検出した場合、顔向き角度αを示すデータを、人物状態判定装置132および車両制御システム2へ出力して処理を完了する。そして、ECU13は、顔向き検知マイコン131の処理が完了すると、処理をステップA4へ進める。
When detecting the face orientation angle α, the face
ステップA4において、ECU13は、顔向きが検出されたか否かを判定する。具体的には、上記のステップA3において、顔向き検知マイコン131が顔向き角度αを示すデータを出力したか否かを判定する。ECU13は、顔向きが検出されたと判断した場合、処理をステップA5へ進める。一方、ECU13は、顔向きが検出されていないと判断した場合、処理をステップA1へ戻す。
In step A4, the
ステップA5において、ECU13は、覚醒判定処理を実行する。具体的には、ECU13は、後述の図5に示す覚醒判定処理を人物状態判定装置132に実行させる。覚醒判定処理の詳細な説明は後述するが、人物状態判定装置132は、覚醒判定処理において運転者が覚醒しているか否かを判定し、当該判定の結果にもとづいて覚醒判定信号、または非覚醒判定信号を車両制御システム2へ出力する。人物状態判定装置132の覚醒判定処理が完了すると、ECU13は、ステップA5の処理を完了し、処理をステップA1へ戻す。
In step A5, the
上記ステップA4およびステップA5の処理によれば、ECU13は、運転者の顔の向きが検出された場合にのみ、人物状態判定装置132に運転者が覚醒しているか否かを判定させる。
According to the processing of step A4 and step A5, the
以下、上記に説明したECU13のステップA5の処理において人物状態判定装置132が実行する処理について図4から図12を参照して詳細に説明する。
Hereinafter, the process executed by the person
まず、人物状態判定装置132が覚醒判定処理において用いる主なデータについて図4を参照して説明する。図4は、人物状態判定装置132が覚醒判定処理において用いる主なデータ(以下、処理用データと呼称する)を示す図である。図4に示す処理用データは、人物状態判定装置132が有するメモリ等の記憶手段に記憶される。処理用データには、顔幅W、顔向き角度α、鼻の位置(Nx,Ny)、左眼瞼開度EL、左眼瞼開度の閾値ELth、右眼瞼開度ER、右眼瞼開度の閾値ERth、閉眼フラグ、口探索範囲の中心(Mx,My)、口探索範囲の横幅MW、口探索範囲の縦の長さMH、口角情報、笑顔フラグ、タイマーカウント値C、およびタイマーカウント値の閾値Cthが含まれる。
First, main data used by the person
顔幅Wは、カメラ画像中の運転者の顔の幅である。人物状態判定装置132は、カメラ画像中で顔の輪郭部分を探索して顔幅Wを検出する。
The face width W is the width of the driver's face in the camera image. The person
顔向き角度αは、上記に説明した運転者の顔の左右方向の角度である。人物状態判定装置132は、顔向き検知マイコン131から出力される顔向き角度αを取得する。
The face orientation angle α is an angle in the left-right direction of the driver's face described above. The person
鼻の位置(Nx,Ny)は、カメラ画像中において運転者の鼻の位置を示す座標である。人物状態判定装置132は、カメラ画像中で鼻の部分を探索して鼻の位置(Nx,Ny)を検出する。詳細は後述するが、人物状態判定装置132は、口探索範囲の中心(Mx,My)を鼻の位置(Nx,Ny)にもとづいて設定する。
The nose position (Nx, Ny) is a coordinate indicating the position of the driver's nose in the camera image. The person
左眼瞼開度ELは、カメラ画像中における運転者の左眼の上下瞼の間隔である。また、右眼瞼開度ERは、カメラ画像中における運転者の右眼の上下瞼の間隔である。詳細は後述するが、人物状態判定装置132はカメラ画像中で両眼の瞼の輪郭を各々検出し、当該輪郭にもとづいて左右の眼の瞼の間隔を各々検出する。左眼瞼開度の閾値ELthは、左眼瞼開度ELの閾値であり、予め定められた定数である。また、右眼瞼開度の閾値ERthは、右眼瞼開度ERの閾値であり、予め定められた定数である。詳細は後述するが、人物状態判定装置132は、左眼瞼開度ELの値が左眼瞼開度の閾値ELth未満であり、且つ右眼瞼開度ERの値が右眼瞼開度の閾値ERth未満である場合、運転者が眼を閉じていると推定し、閉眼フラグをオンにする。閉眼フラグは運転者が眼を閉じていると推定されたか否かを示すフラグである。なお、閉眼フラグは、当該閉眼フラグがオンである場合、運転者が眼を閉じていることを示し、当該閉眼フラグがオフである場合、運転者が開眼していることを示す。
The left eyelid opening degree EL is an interval between the upper and lower eyelids of the driver's left eye in the camera image. Further, the right eyelid opening degree ER is an interval between the upper and lower eyelids of the driver's right eye in the camera image. Although details will be described later, the person
口探索範囲とは、カメラ画像中で運転者の口を探索する領域である。本実施形態では、口探索範囲が、カメラ画像のXY座標軸と平行な4辺から成る長方形で設定される例について説明する。口探索範囲の中心(Mx,My)はカメラ画像中における口探索範囲の中心座標である。口探索範囲の横幅MWは、カメラ画像中における口探索範囲のX方向の幅である。口探索範囲の縦の長さMHは、カメラ画像中における口探索範囲のY方向の長さであり、予め定められた定数である。人物状態判定装置132は、口探索範囲の中心(Mx,My)、口探索範囲の横幅MW、および口探索範囲の縦の長さMHにより口探索範囲を設定し、当該口探索範囲20の領域内で運転者の口を検出する。
The mouth search range is an area for searching for the driver's mouth in the camera image. In the present embodiment, an example will be described in which the mouth search range is set as a rectangle having four sides parallel to the XY coordinate axes of the camera image. The center (Mx, My) of the mouth search range is the center coordinates of the mouth search range in the camera image. The width MW of the mouth search range is the width in the X direction of the mouth search range in the camera image. The vertical length MH of the mouth search range is the length in the Y direction of the mouth search range in the camera image, and is a predetermined constant. The person
口角情報は、人物状態判定装置132により検出された口に関する情報である。口角情報の詳細については後述図11において説明する。人物状態判定装置132は、口角情報にもとづいて運転者が笑っているか否かを推定し、笑顔フラグをオンまたはオフに切り替える。笑顔フラグは運転者が笑っていると推定されたか否かを示すフラグである。なお、笑顔フラグは、当該笑顔フラグがオンである場合、運転者が笑っていることを示し、当該笑顔フラグがオフである場合、運転者が笑っていないことを示す。
The mouth corner information is information about the mouth detected by the person
タイマーカウント値Cは、人物状態判定装置132が計測した時間を示すカウント値である。タイマーカウント値の閾値Cthは、タイマーカウント値Cの閾値である。詳細は後述するが、人物状態判定装置132は、運転者が閉眼し、且つ、笑っている状態であると推定した場合、当該状態の継続時間を計測してタイマーカウント値Cを増加させる。そして、人物状態判定装置132は、タイマーカウント値Cがタイマーカウント値の閾値Cthに達すると、運転者が覚醒していると判定する。
The timer count value C is a count value indicating the time measured by the person
次に、図5を参照して人物状態判定装置132が実行する覚醒判定処理について説明する。図5は、人物状態判定装置132が実行する覚醒判定処理を示すフローチャートの一例である。
Next, the arousal determination process executed by the person
ステップB1において、人物状態判定装置132は、顔向き角度αを取得する。具体的には、人物状態判定装置132は、上記図2のステップA3において顔向き検知マイコン131が算出した顔向き角度αの値を取得する。ステップB1の処理を完了すると、人物状態判定装置132は、処理をステップB2へ進める。
In step B1, the human
ステップB2において、人物状態判定装置132は、カメラ画像中の運転者の顔幅Wを検出する。具体的には、例えば公知のソーベルオペレータを用いたエッジ抽出処理によって、カメラ画像中で顔の輪郭部分を探索して顔幅Wを検出する。そして、人物状態判定装置132は、検出した顔幅Wを示すデータを人物状態判定装置132が備える記憶装置に記憶する。人物状態判定装置132は、ステップB2の処理を完了すると、処理をステップB3へ進める。
In step B2, the human
ステップB3において、人物状態判定装置132は、カメラ画像中で鼻の部分を探索して鼻の位置(Nx,Ny)を検出する。具体的には、人物状態判定装置132は、鼻孔の位置を検出する。そして、1対の鼻孔の中間位置を鼻の位置(Nx,Ny)として検出する。人物状態判定装置132は、検出した鼻の位置(Nx,Ny)を示すデータを人物状態判定装置132が備える記憶装置に記憶する。人物状態判定装置132は、ステップB3の処理を完了すると、処理をステップB4へ進める。
In step B3, the person
上記ステップB3において検出される鼻孔の形状は、眼や口の形状に比べて個人差が小さい。そのため、鼻の位置は眼や口の位置に比べてより正確に検出することができる。一方、眼や口の形状は個人差が大きいため、最適な探索範囲を設定しなければ当該眼や口の位置および形状を正確に検出し難い。したがって、下記のステップB4およびステップB5の処理では、鼻の位置(Nx,Ny)を基準に最適な眼の探索範囲および口探索範囲を設定することによって、運転者の眼や口の形状を正確に検出可能とする。 The nostril shape detected in step B3 has less individual differences than the eye and mouth shapes. Therefore, the position of the nose can be detected more accurately than the position of the eyes and mouth. On the other hand, since the eye and mouth shapes vary greatly among individuals, it is difficult to accurately detect the position and shape of the eyes and mouth unless an optimum search range is set. Therefore, in the following processing of Step B4 and Step B5, the optimal eye search range and mouth search range are set based on the position of the nose (Nx, Ny), thereby accurately determining the shape of the driver's eyes and mouth. Can be detected.
ステップB4において、人物状態判定装置132は、閉眼推定処理を実行する。閉眼推定処理とは、図6に示す、運転者が両眼を閉じている状態か否かを推定するサブルーチン処理である。なお、図6は閉眼推定処理のサブルーチンを示すフローチャートの一例である。図6に示す閉眼推定処理の詳細については後述で説明する。人物状態判定装置132は、閉眼推定処理を実行し、当該処理において運転者が両眼を閉眼した状態であると推定した場合、閉眼フラグをオンに設定して記憶する。一方、人物状態判定装置132は、閉眼推定処理において、運転者が少なくとも左右何れかの眼を開いた状態であると推定した場合、閉眼フラグをオフに設定して記憶する。ステップB4の処理を完了すると、人物状態判定装置132は、処理をステップB5へ進める。
In step B <b> 4, the person
ステップB5において、人物状態判定装置132は、笑顔推定処理を実行する。笑顔推定処理とは、図7に示す、運転者が笑っている状態か否かを推定するサブルーチン処理である。なお、図7は笑顔推定処理のサブルーチンを示すフローチャートの一例である。図7に示す笑顔推定処理の詳細については後述で説明する。人物状態判定装置132は、笑顔推定処理を実行し、当該処理において運転者が笑っている状態であると推定した場合、笑顔フラグをオンに設定して記憶する。一方、人物状態判定装置132は、笑顔推定処理において、運転者が笑っていないと推定した場合、笑顔フラグをオフに設定して記憶する。ステップB5の処理を完了すると、人物状態判定装置132は、処理をステップB6へ進める。
In step B5, the person
ステップB6において、人物状態判定装置132は、閉眼フラグがオンであるか否かを判定する。具体的には、人物状態判定装置132は、ステップB4において設定した閉眼フラグの状態を読み出し、オンまたはオフの何れであるかを判定する。閉眼フラグがオンであった場合、すなわち運転者が眼を閉じていると推定した場合、人物状態判定装置132は、処理をステップB7へ進める。一方、閉眼フラグがオフであった場合、すなわち運転者が眼を開いていると推定した場合、人物状態判定装置132は、処理をステップB11へ進める。
In step B6, the person
ステップB7において、人物状態判定装置132は、笑顔フラグがオンであるか否かを判定する。具体的には、人物状態判定装置132は、ステップB5において設定した笑顔フラグの状態を読み出し、オンまたはオフの何れであるかを判定する。笑顔フラグがオンであった場合、すなわち運転者が笑っていると推定した場合、人物状態判定装置132は、処理をステップB8へ進める。一方、笑顔フラグがオフであった場合、すなわち運転者が笑っていないと推定した場合、人物状態判定装置132は、処理をステップB10へ進める。
In step B7, the person
ステップB8において、人物状態判定装置132は、タイマーをカウントアップする。具体的には、人物状態判定装置132は、記憶しているタイマーカウント値Cに、例えば1などの定数を加算し、加算後のタイマーカウント値Cを記憶装置に上書きして記憶する。ステップB8の処理を完了すると、人物状態判定装置132は、処理をステップB9へ進める。
In step B8, the person
ステップB9において、人物状態判定装置132は、タイマーカウント値Cがタイマーカウント値の閾値Cthに達したか否かを判定する。具体的には、人物状態判定装置132は、記憶装置に記憶したタイマーカウント値Cおよびタイマーカウント値の閾値Cthを読み出し、各々の値の大きさを比較する。タイマーカウント値Cがタイマーカウント値の閾値Cthに達している場合、人物状態判定装置132は、処理をステップB13へ進める。一方、タイマーカウント値Cがタイマーカウント値の閾値Cthに達していない場合、人物状態判定装置132は、処理をステップB14へ進める。
In step B9, the person
ステップB10において、人物状態判定装置132は、タイマーを初期化する。具体的には、人物状態判定装置132は、記憶装置に記憶したタイマーカウント値Cの値を初期化する。ステップB10の処理を完了すると、人物状態判定装置132は、処理をステップB14へ進める。
In step B10, the person
ステップB11において、人物状態判定装置132は、タイマーを初期化する。具体的には、人物状態判定装置132は、ステップB10と同様に、記憶装置に記憶したタイマーカウント値Cの値を初期化する。ステップB11の処理を完了すると、人物状態判定装置132は、処理をステップB12へ進める。
In step B11, the person
ステップB12において、人物状態判定装置132は、口角度を学習する。詳細は後述するが、口角度は、カメラ画像中の運転者の口の形状に関する情報であり、上記ステップB5の処理において算出される。人物状態判定装置132は、口角度を学習情報として記憶する。人物状態判定装置132は、上述のステップB5の処理で運転者が笑顔であるか否かを推定する際に上記学習情報を用いる。ステップB12の処理を完了すると、人物状態判定装置132は、処理をステップB13へ進める。
In step B12, the person
ステップB13において、人物状態判定装置132は、覚醒判定信号を出力する。具体的には、人物状態判定装置132は、覚醒判定信号を車両制御システム2へ出力する。ステップB13の処理を完了すると、人物状態判定装置132は、覚醒判定処理のサブルーチンを完了し、処理を図2に示すフローチャートのステップA1へ戻す。
In step B13, the person
ステップB14において、人物状態判定装置132は、非覚醒判定信号を出力する。具体的には、人物状態判定装置132は、非覚醒判定信号を車両制御システム2へ出力する。ステップB14の処理を完了すると、人物状態判定装置132は、覚醒判定処理のサブルーチンを完了し、処理を図2に示すフローチャートのステップA1へ戻す。
In step B14, the person
上記のステップB6からステップB14の処理によれば、閉眼フラグがオン、且つ笑顔フラグがオンである場合、人物状態判定装置132は、タイマーにより当該状態の持続時間を計測する。そして、人物状態判定装置132は、上記持続時間がタイマーカウント値の閾値Cthにより決定される所定の時間に達した場合、覚醒判定信号を出力する。すなわち、人物状態判定装置132は、運転者が笑いながら眼を細めていると推定される状態で所定の時間を経過すると、運転者が覚醒していると判定する。また、人物状態判定装置132は、閉眼フラグがオフである場合、すなわち、運転者が両眼とも開いた状態であると推定した場合、運転者は覚醒していると判定して覚醒判定信号を出力する。
According to the processing from step B6 to step B14 described above, when the closed eye flag is on and the smile flag is on, the person
一方で、閉眼フラグがオンであっても笑顔フラグがオフである場合、すなわち、運転者が眼を閉じ、且つ、笑っていないと推定した場合、人物状態判定装置132は、運転者が覚醒していないと判定し、非覚醒判定信号を出力する。また、閉眼フラグがオン、且つ笑顔フラグがオンである場合であっても、タイマーカウントCがタイマーカウント値の閾値Cthに達していない間は、人物状態判定装置132は、運転者が覚醒していないと判定し、非覚醒判定信号を出力する。
On the other hand, if the smile flag is off even if the closed eye flag is on, that is, if it is estimated that the driver closes his eyes and is not laughing, the person
なお、人物状態判定装置132は、閉眼フラグがオフであった場合、口角度を学習する。すなわち、人物状態判定装置132は、運転者の眼が開いている状態での口角度を学習する。詳細は後述するが、人物状態判定装置132は、上記学習結果にもとづいて運転者が笑っているか否かを判定することによって、運転者が笑っているか否かをより正確に推定することができる。
Note that the person
上記の覚醒判定処理によれば、人物状態判定装置132は、運転者が眼を細めて笑っている場合、運転者が覚醒していないと誤判定することを防ぐことができる。
According to the above arousal determination process, the person
次に、上記に説明した覚醒判定処理のステップB4において人物状態判定装置132が実行する閉眼推定処理の詳細について図6を参照して説明する。なお、下記の閉眼推定処理は一例であり、人物状態判定装置132が運転者が閉眼しているか否かを推定する手法は下記の例に限らず、従来の既知の手法を用いて構わない。
Next, details of the closed eye estimation process executed by the person
ステップC1において、人物状態判定装置132は、左眼瞼開度ELを算出する。具体的には、まず、人物状態判定装置132は、カメラ画像中で運転者の左眼を検出する。次に、人物状態判定装置132は、例えば公知のソーベルオペレータを用いたエッジ抽出処理などによって、左眼の上瞼の輪郭および下瞼の輪郭を検出する。そして、人物状態判定装置132は、左眼の上瞼の輪郭から下瞼の輪郭までのY方向の距離の最大値を算出し、当該最大値を左眼瞼開度ELとして記憶装置に記憶する(図8参照)。ステップC1の処理を完了すると、人物状態判定装置132は、処理をステップC2へ進める。
In step C1, the person
ステップC2において、人物状態判定装置132は、右眼瞼開度ERを算出する。具体的には、人物状態判定装置132は、ステップC1と同様の方法で右眼瞼開度ERを算出し、記憶装置に記憶する(図8参照)。ステップC2の処理を完了すると、人物状態判定装置132は、処理をステップC3へ進める。
In step C2, the person
ステップC3において、左眼瞼開度ELが閾値ELth未満であるか否かを判定する。具体的には、人物状態判定装置132は、記憶装置に記憶した左眼瞼開度ELおよび左眼瞼開度の閾値ELthを読み出し、各々の値の大きさを比較する。タイマーカウント値Cがタイマーカウント値の閾値Cth未満である場合、人物状態判定装置132は、処理をステップC4へ進める。一方、タイマーカウント値Cがタイマーカウント値の閾値Cth以上である場合、人物状態判定装置132は、処理をステップC6へ進める。
In step C3, it is determined whether or not the left eyelid opening degree EL is less than a threshold value ELth. Specifically, the person
上記ステップC3の処理によれば、運転者の左眼が閉じているか否かを推定することができる。 According to the process in step C3, it can be estimated whether or not the driver's left eye is closed.
ステップC4において、右眼瞼開度ERが閾値ERth未満であるか否かを判定する。具体的には、人物状態判定装置132は、記憶装置に記憶した右眼瞼開度ERおよび右眼瞼開度の閾値ERthを読み出し、各々の値の大きさを比較する。タイマーカウント値Cがタイマーカウント値の閾値Cth未満である場合、人物状態判定装置132は、処理をステップC5へ進める。一方、タイマーカウント値Cがタイマーカウント値の閾値Cth以上である場合、人物状態判定装置132は、処理をステップC6へ進める。
In Step C4, it is determined whether or not the right eyelid opening degree ER is less than the threshold value ERth. Specifically, the person
上記ステップC4の処理によれば、運転者の右眼が閉じているか否かを推定することができる。 According to the process of step C4, it can be estimated whether or not the right eye of the driver is closed.
ステップC5において、人物状態判定装置132は、閉眼フラグをオンにする。具体的には、人物状態判定装置132は、閉眼フラグをオンに設定し、当該閉眼フラグの状態を記憶装置に記憶する。ステップC5の処理を完了すると、人物状態判定装置132は、閉眼推定処理のサブルーチンを完了し、処理を図5に示す覚醒判定処理のステップB5へ進める。
In step C5, the person
ステップC6において、人物状態判定装置132は、閉眼フラグをオフにする。具体的には、人物状態判定装置132は、閉眼フラグをオフに設定し、当該閉眼フラグの状態を記憶装置に記憶する。ステップC6の処理を完了すると、人物状態判定装置132は、閉眼推定処理のサブルーチンを完了し、処理を図5に示す覚醒判定処理のステップB5へ進める。
In step C6, the person
上記ステップC1からC6の処理によれば、左眼瞼開度および右眼瞼開度が各々の閾値未満である場合、すなわち左右両眼が閉じていると推定された場合に閉眼フラグがオンとなる。また、左眼瞼開度または右眼瞼開度の何れかが各々閾値以上である場合、すなわち左右両眼の少なくとも何れかが開いていると推定された場合には閉眼フラグがオフとなる。 According to the processing of steps C1 to C6, when the left eyelid opening and the right eyelid opening are less than the respective threshold values, that is, when it is estimated that both the left and right eyes are closed, the closed eye flag is turned on. In addition, when either the left eyelid opening or the right eyelid opening is equal to or greater than the threshold value, that is, when it is estimated that at least one of the left and right eyes is open, the closed eye flag is turned off.
次に、上記に説明した覚醒判定処理のステップB5において人物状態判定装置132が実行する笑顔推定処理の詳細について図7を参照して説明する。
Next, details of the smile estimation process executed by the person
ステップD1において、人物状態判定装置132は、口探索範囲20を設定する。図8を参照して口探索範囲の設定方法について具体的に説明する。なお、図8は、カメラ画像中で設定された口探索範囲20を示す図である。
In step D1, the person
まず、人物状態判定装置132は、口探索範囲20の横幅MWを算出する。カメラ画像中の運転者の口の大きさは、運転者の顔の向きに応じて変化するため、顔向き角度αの値に応じて最適な大きさに変更することが望ましい。そのため、人物状態判定装置132は、顔向き角度αの値を口探索範囲20の横幅MWの値に換算するデータテーブルを予め記憶し、顔向き角度αおよび該データテーブルにもとづいて口探索範囲20の横幅MWを算出する。
First, the person
次に、人物状態判定装置132は、覚醒判定処理のステップB3において検出した鼻の位置(Nx,Ny)にもとづいて下式により口探索範囲の中心(Mx,My)を算出する。
Mx=Nx
My=Ny−ΔM
なお、ΔMは予め人物状態判定装置132の記憶装置に記憶される定数である。人物の口の位置と鼻の位置との相対的な位置関係は個人差が少ないため、鼻の位置が既知であれば上記のような式で概ねの口の位置を推定することができる。人物状態判定装置132は、上記のように求めた口探索範囲の中心(Mx,My)を中心として、横幅MWおよび縦の長さMHの範囲を口探索範囲20として設定する。人物状態判定装置132は、ステップD1の処理を完了すると、処理をステップD2へ進める。
Next, the person
Mx = Nx
My = Ny−ΔM
ΔM is a constant stored in advance in the storage device of the person
なお、上記ステップD1の処理の説明では、人物状態判定装置132が、口探索範囲20を長方形に設定する例を示したが、上記のような長方形に限らず、口探索範囲20は運転者の口部分を包含する領域に設定可能であれば他の種々の形状として良い。例えば、人物状態判定装置132は、口探索範囲20を楕円などの形状に設定しても構わない。
In the description of the processing in step D1, the example in which the human
ステップD2において、人物状態判定装置132は、唇境界線を検出する。具体的には、人物状態判定装置132は、口探索範囲20内において、上下方向から、例えば公知のソーベルオペレータを用いたエッジ抽出処理などによって、唇境界線30を検出する。図9に唇境界線30を示す。なお、図9は、カメラ画像中における運転者の口の拡大図である。人物状態判定装置132は、ステップD2の処理を完了すると、処理をステップD3へ進める。
In step D2, the human
ステップD3において、人物状態判定装置132は、線分対を抽出する。人物状態判定装置132が、線分対を抽出する処理について図9および図10を参照して説明する。まず、人物状態判定装置132は、図9に示すように唇境界線30をN等分(Nは整数)する。なお、本実施形態では、一例としてN=8の場合、すなわち、唇境界線を8等分する例について説明する。次に、人物状態判定装置132は、図10に示すようにN等分された唇境界線を各々直線近似する。なお、図10は直線近似された唇境界線を示す図である。ここで、説明のため、直線近似して得られた線分を、各々、画像の左から順に線分31から線分38として符号を付す。上記の処理により得られた線分31〜38は、唇境界線30の両端からM番目(Mは整数)の線分同士を1組の線分対として後述の処理において処理される。例えば、M=1番目の線分対をP1とすると、線分対P1は線分31および線分38により構成され、M=2番目の線分対をP2とすると、線分対P2は線分32および線分37により構成される。上記のステップD3の処理を完了すると、人物状態判定装置132は、処理をステップD4へ進める。
In step D3, the human
人物状態判定装置132は、下記ステップD4からステップD6の処理により、指定された複数の線分対毎に、運転者が笑っているか否かを仮に推定し、当該結果を示すフラグ(笑顔仮フラグ)を設定する。そして、人物状態判定装置132は、後述ステップD7の処理において、線分対毎に設定した笑顔仮フラグを総合的に判断して、最終的に運転者が笑っているか否かを推定し、笑顔推定フラグを設定する。
The person
ステップD4において、人物状態判定装置132は、指定線分対のうち1つの線分対を選択する。指定線分対とは、後述のステップD5以後の処理において運転者が笑っているか否かの仮の推定を行う対象となる線分対である。人物状態判定装置132は、どの線分対を指定線分対とするか決定するため、指定番号Qを予め記憶する。上記指定番号Qは、上述ステップD3の説明におけるMに相当し、例えば、人物状態判定装置132が、指定番号Qとして1および2を予め記憶している場合、唇境界線の両端から1番目の線分対P1および2番目の線分対P2が指定線分対となる。人物状態判定装置132は、上記のようにして定められる指定線分対から1つを選択する。以下、本ステップD4において選択された指定線分対を選択線分対と呼称する。ステップD4の処理を完了すると、人物状態判定装置132は、処理をステップD5へ進める。
In step D4, the person
上記ステップD3およびステップD4の処理によれば、人物状態判定装置132は、近赤外カメラ12と運転者の顔との拒理が変化して、カメラ画像中に映る運転者の口の大きさが変化した場合であっても、唇境界線の所定の箇所を線分対として抽出し、選択することができる。
According to the processing of step D3 and step D4, the human
ステップD5において、人物状態判定装置132は、笑顔仮フラグ設定処理を実行する。笑顔仮フラグ設定処理は、運転者が笑っているか否かを選択線分対にもとづいて仮に推定する処理である。ここで、図11および図12を参照して、笑顔仮フラグ設定処理について説明する。なお、図11は笑顔仮フラグ設定処理において処理される口角情報のデータを示す図である。また、図12は、笑顔仮フラグ設定処理のサブルーチンを示すフローチャートの一例である。
In step D5, the person
まず、図11を参照して、笑顔仮フラグ設定処理において処理される口角情報のデータについて説明する。人物状態判定装置132は、口角情報として、指定線分対毎に、左口角度θL、右口角度θR、学習情報、合算値Σθ、合算値の閾値Σθth、平均左口角度AθL、平均右口角度AθR、左口角上位偏差σθL、右口角上位偏差σθR、および笑顔仮フラグを記憶し、処理する。
First, mouth angle information data processed in the smile temporary flag setting process will be described with reference to FIG. As the mouth angle information, the person
左口角度θLは、線分対を成す線分のうち運転者から見て左側の線分と水平線とが成す角度である。線分対P1の左口角度θLをθL_P1とすると、図10に示すように、左口角度θL_P1は、線分38と水平線が成す角度である。一方、右口角度θRは、線分対を成す線分のうち運転者から見て右側の線分と水平線とが成す角度である。したがって、右口角度θRをθR_P1とすると、図10に示すように、右口角度θR_P1は、線分31と水平線が成す角度である。運転者が笑顔である場合、唇境界線が湾曲し、左口角度θLおよび右口角度θRの値は大きくなる。なお、上記覚醒判定処理のステップB12において説明した口角度とは、上記左口角度θLおよび右口角度θRの総称である。上記の通り、口角度は運転者が笑っているか否かに応じてその大きさが変化するため、口角度を用いて運転者が笑っているか否かを推定することができる。
The left exit angle θL is an angle formed by a left line segment and a horizontal line as viewed from the driver among line segments forming a line segment pair. Assuming that the left mouth angle θL of the line segment pair P1 is θL_P1, as shown in FIG. 10, the left mouth angle θL_P1 is an angle formed by the line segment 38 and the horizontal line. On the other hand, the right exit angle θR is an angle formed by a right-side line segment and a horizontal line as viewed from the driver among line-segment pairs. Therefore, if the right mouth angle θR is θR_P1, as shown in FIG. 10, the right mouth angle θR_P1 is an angle formed by the
合算値Σθは当該線分対の最新の左口角度θLおよび右口角度θRの値を合算した合算値であり、下式で表せる。
Σθ=θL+θR
運転者が笑顔である場合、左口角度θLおよび右口角度θRの値は大きくなるため、合算値Σθは大きくなる。
The total value Σθ is a total value obtained by adding the values of the latest left mouth angle θL and right mouth angle θR of the line segment pair, and can be expressed by the following equation.
Σθ = θL + θR
When the driver is smiling, the values of the left mouth angle θL and the right mouth angle θR are large, so the total value Σθ is large.
学習情報は、上記覚醒判定処理のステップB12において記憶された複数の口角度のデータ群の総称である。人物状態判定装置132は、口角度を、新しく算出した順に定められた数だけ学習情報として記憶装置に記憶する。なお、本実施形態では、人物状態判定装置132が左口角度θLおよび右口角度θRを最新3つまで記憶するものとして説明する。学習情報として記憶された左口角度の値を、新しく記憶された順にθL1、θL2、およびθL3とする。同様に、学習情報として記憶された右口角度の値を、新しく記憶された順にθR1、θR2、およびθR3とする。口角度を学習情報として記憶する処理は、人物状態判定装置132により、上記覚醒判定処理のステップB12において実行される。このとき、人物状態判定装置132は、3つまで口角度のデータを記憶するため、記憶されている学習情報のうち最も古い口角度のデータを最新の口角度のデータで上書きする。
The learning information is a generic name for a plurality of mouth angle data groups stored in step B12 of the awakening determination process. The person
平均左口角度AθLは、学習情報として記憶された選択線分対の左口角度θLの平均値である。また、平均右口角度AθRは、学習情報として記憶された選択線分対の右口角度θRの平均値である。 The average left mouth angle AθL is an average value of the left mouth angles θL of the selected line segment pairs stored as learning information. The average right mouth angle AθR is an average value of the right mouth angle θR of the pair of selected line segments stored as learning information.
左口角上位偏差σθLは、学習情報として記憶された選択線分対の左口角度θLのうち、平均左口角度AθLより大きな値を有する左口角度θLの標準偏差である。また、右口角上位偏差σθRは、学習情報として記憶された選択線分対の右口角度θRのうち、平均右口角度AθRより大きな値を有する右口角度θRの標準偏差である。 The left mouth angle upper deviation σθL is a standard deviation of the left mouth angle θL having a value larger than the average left mouth angle AθL among the left mouth angles θL of the pair of selected line segments stored as learning information. Further, the right mouth angle upper deviation σθR is a standard deviation of the right mouth angle θR having a value larger than the average right mouth angle AθR among the right mouth angles θR of the pair of selected line segments stored as learning information.
合算値の閾値Σθthは、合算値Σθの閾値である。詳細は後述するが、合算値の閾値Σθthは、記憶されている口角度にもとづいて算出される。人物状態判定装置132は、合算値Σθの値が合算値の閾値Σθth以上であるか否かに応じて、笑顔仮フラグをオンまたはオフに設定する。
The threshold value Σθth of the sum value is a threshold value of the sum value Σθ. Although details will be described later, the threshold value Σθth of the total value is calculated based on the stored mouth angle. The person
笑顔仮フラグは、選択線分対にもとづいて運転者が笑っているか否かを仮に推定した結果を示すフラグである。笑顔仮フラグがオンである場合、当該選択線分対にもとづいて運転者が笑っていると推定されたことが示される。一方、笑顔仮フラグがオフである場合、当該選択線分対にもとづいて運転者が笑っていないと推定されたことが示される。詳細は後述するが、人物状態判定装置132は、選択線分対の合算値Σθおよび合算値の閾値Σθthにもとづいて笑顔仮フラグをオンまたはオフに設定する。
The temporary smile flag is a flag indicating a result of temporarily estimating whether or not the driver is laughing based on the selected line segment pair. When the smile temporary flag is on, it is indicated that the driver is estimated to be laughing based on the selected line segment pair. On the other hand, when the smile temporary flag is off, it is indicated that it is estimated that the driver is not laughing based on the selected line segment pair. Although details will be described later, the person
次に、図12を参照して笑顔仮フラグ設定処理のサブルーチンについて説明する。 Next, the smile temporary flag setting process subroutine will be described with reference to FIG.
ステップE1において、人物状態判定装置132は、口角度を算出する。具体的には、人物状態判定装置132は、選択線分対の口角度、すなわち左口角度θLおよび右口角度θRを算出して記憶装置に記憶する。例えば、人物状態判定装置132は、線分対P1を選択線分対として選択している場合、左口角度θL_P1および右口角度θR_P1を算出して記憶する。ステップE1の処理を完了すると、人物状態判定装置132は、処理をステップE2へ進める。
In step E1, the person
ステップE2において、人物状態判定装置132は、口角度の合算値を算出する。具体的には、人物状態判定装置132は、ステップE1において算出した最新の左口角度θLおよび右口角度θRの値を読み出し、当該値にもとづいて上述の式から合算値Σθを算出して記憶する。ステップE2の処理を完了すると、人物状態判定装置132は、処理をステップE3へ進める。
In step E2, the person
ステップE3において、人物状態判定装置132は、合算値の閾値Σθthを算出する。具体的には、まず、人物状態判定装置132は、学習情報として記憶した左口角度にもとづいて平均左口角度AθLを算出する。次に、人物状態判定装置132は、算出した平均左口角度AθLにもとづいて左口角上位偏差σθLを算出する。同様に、人物状態判定装置132は、平均右口角度AθRおよび右口角上位偏差σθRを算出する。次に、人物状態判定装置132は、下式により合算値の閾値Σθthを算出して記憶する。
Σθth=3(σθL+σθR)×ε
なお、上式中εは予め定められた係数である。ステップE3の処理を完了すると、人物状態判定装置132は、処理をステップE4へ進める。
In step E3, the person
Σθth = 3 (σθL + σθR) × ε
In the above equation, ε is a predetermined coefficient. When the process of step E3 is completed, the person
上記ステップE3および覚醒判定処理のステップB12の処理によれば、人物状態判定装置132は、運転者が開眼した状態における口の形状を予め学習し、当該学習した学習情報にもとづいて合算値の閾値Σθthを算出することができる。
According to the processing of step E3 and step B12 of the arousal determination processing, the person
ステップE4において、人物状態判定装置132は、合算値Σθが合算値の閾値Σθth以上であるか否かを判定する。具体的には、人物状態判定装置132は、記憶装置から合算値Σθおよび合算値の閾値Σθthの値を読み出し、各々の大小を比較する。人物状態判定装置132は、合算値Σθが合算値の閾値Σθth以上である場合、処理をステップE5へ進める。一方、人物状態判定装置132は、合算値Σθが合算値の閾値Σθth未満である場合、処理をステップE6へ進める。
In step E4, the person
ステップE5において、人物状態判定装置132は、選択線分対の笑顔仮フラグをオンにする。具体的には、人物状態判定装置132は、選択線分対の笑顔仮フラグをオンに設定し、当該設定を記憶装置に記憶する。ステップE5の処理を完了すると、人物状態判定装置132は、笑顔仮フラグ設定処理を完了して、処理を図7に示す笑顔推定処理のステップD6へ進める。
In step E5, the human
ステップE6において、人物状態判定装置132は、選択線分対の笑顔仮フラグをオフにする。具体的には、人物状態判定装置132は、選択線分対の笑顔仮フラグをオフに設定し、当該設定を記憶装置に記憶する。ステップE6の処理を完了すると、人物状態判定装置132は、笑顔仮フラグ設定処理を完了して、処理を図7に示す笑顔推定処理のステップD6へ進める。
In step E6, the human
上記ステップE4からステップE6の処理により、人物状態判定装置132は、合算値Σθが合算値の閾値Σθth以上である場合、笑顔仮フラグをオンに設定する。一方、人物状態判定装置132は、合算値Σθが合算値の閾値Σθth未満である場合、笑顔仮フラグをオフに設定する。
By the processing from step E4 to step E6, the person
ステップE4からステップE6の処理によれば、人物状態判定装置132は、学習結果を反映した合算値の閾値Σθthにもとづいて人物が笑っているか否かを判定することができる。したがって、人物状態判定装置132は、運転者の通常の状態での口の形状と、運転者が笑っている状態での口の形状との差異を識別し易くなり、運転者が笑っているか否かをより正確に推定することができる。
According to the processing from step E4 to step E6, the person
以上に説明した笑顔仮フラグ設定処理によれば、人物状態判定装置132は、運転者が眼を閉じていない状態、すなわち笑っていない状態での当該線分対の口角度の学習結果にもとづいて運転者が笑っているかいないかを仮に推定して、笑顔仮フラグを設定することができる。
According to the smile temporary flag setting process described above, the person
なお、上記の笑顔仮フラグ設定処理において、唇境界線の端部を指定線分対として指定すれば、口の端部形状に応じて運転者が笑っているか否かを仮に推定することができる。口の端部の形状は運転者が笑っている場合に顕著に変化するため、上記の笑顔仮フラグ設定処理によれば、運転者が笑っているか否かを正確に判定することができる。 In addition, in the smile temporary flag setting process described above, if the end of the lip boundary line is specified as a specified line segment pair, it can be temporarily estimated whether the driver is laughing according to the shape of the end of the mouth. . Since the shape of the end of the mouth changes significantly when the driver is laughing, it is possible to accurately determine whether or not the driver is laughing according to the smile temporary flag setting process.
図7のフローチャートの説明に戻り、ステップD6において、人物状態判定装置132は、全ての指定線分対を選択したか否かを判定する。人物状態判定装置132は、全ての指定線分対を選択した場合、処理をステップD7に進める。一方、人物状態判定装置132は、全ての指定線分対を選択していない場合、処理をステップD4に戻し、未選択の指定線分対を選択する。なお、最終的に全ての指定線分対について各々笑顔仮フラグを設定可能であれば、人物状態判定装置132が指定線分対を選択する順序は、予め定めていても良いし、ランダムに決定しても構わない。
Returning to the description of the flowchart of FIG. 7, in step D <b> 6, the person
ステップD7において、人物状態判定装置132は、全ての笑顔仮フラグがオンであるか否かを判定する。人物状態判定装置132は、全ての笑顔仮フラグがオンである場合、処理をステップD8へ進める。一方、人物状態判定装置132は、指定線分対の笑顔仮フラグの何れかがオフである場合、処理をステップD8へ進める。
In step D7, the person
ステップD8において、人物状態判定装置132は、笑顔フラグをオンに設定する。人物状態判定装置132は、ステップD8の処理を完了すると、笑顔推定処理を完了し、処理を覚醒判定処理のステップB6へ進める。
In step D8, the person
ステップD9において、人物状態判定装置132は、笑顔フラグをオフに設定する。人物状態判定装置132は、ステップD9の処理を完了すると、笑顔推定処理を完了し、処理を覚醒判定処理のステップB6へ進める。
In step D9, the person
上記ステップD7からステップD9の処理によれば、人物状態判定装置132は、全ての笑顔仮フラグがオンである場合、笑顔フラグをオンに設定し、指定線分対の笑顔仮フラグの何れかがオフである場合、笑顔フラグをオフに設定する。
According to the processing from step D7 to step D9 described above, when all the smile temporary flags are on, the person
以上に説明した笑顔推定処理によれば、人物状態判定装置132は、運転者の線分対を抽出し、当該線分対毎に、すなわち口の部分的な形状毎に運転者が笑っているか否かを仮に推定することにより、運転者が笑っているか否かを正確に推定することができる。
According to the smile estimation process described above, the person
なお、上記第1の実施形態では、笑顔推定処理のステップD4の処理において、人物状態判定装置132が、指定線分対として2組の線分対を用いる例を示したが、人物状態判定装置132が処理する指定線分対の数は上記に限らず、1組以上の線分対を指定線分対として用いれば良い。
In the first embodiment, the example in which the person
また、上記第1の実施形態では、人物状態判定装置132が学習情報として記憶する口角度の数を3つとした例を示したが、記憶する口角度のデータ数は上記に限らず、より多くのデータを記憶しても良いし、より少ないデータを記憶しても構わない。また、合算値の閾値Σθthを学習情報から算出せず、予め定めた固定値とするならば、覚醒判定処理のステップB12の処理を省略し、学習情報を記憶しないようにしても良い。
In the first embodiment, the example in which the number of mouth angles stored as learning information by the person
また、上記第1の実施形態では、笑顔仮フラグ設定処理のステップE1において、人物状態判定装置132が、水平線と線分とが成す角度を口角度として算出する例を示したが、水平線に限らず画像中において予め定めた基準線と線分とが成す角度を口角度としても構わない。
In the first embodiment, the example is shown in which the person
また、上記第1の実施形態では、笑顔仮フラグ設定処理のステップE3において、人物状態判定装置132が、学習情報のうち、平均より大きな角度の標準偏差にもとづいて合算値の閾値Σθthを算出する例を示したが、合算値の閾値Σθthの決定方法は上記に限らない。例えば、合算値の閾値Σθthは、人物状態判定装置132により他のパラメータにもとづいて算出しても構わないし、実験的に求めた固定値を予め記憶しておいても構わない。
In the first embodiment, in step E3 of the smile temporary flag setting process, the person
(第2の実施形態)
上記第1の実施形態の笑顔推定処理のステップD3では、人物状態判定装置132が、N等分した唇境界線を直線近似して線分対を抽出する例について説明したが、人物状態判定装置132は、N等分した境界線を円弧に近似して円弧対を抽出し、当該円弧対にもとづいて運転者が笑っているか否かを推定しても構わない。以下、人物状態判定装置132が、N等分した境界線を円弧に近似して円弧対を抽出し、当該円弧対にもとづいて運転者が笑っているか否かを推定する処理について図13および図14を参照して説明する。なお、第2の実施形態に係る人物状態判定装置132および人物状態判定装置132を含む運転者監視システムの構成については、第1の実施形態に係る構成と同様であるため、説明を省略する。
(Second Embodiment)
In step D3 of the smile estimation process of the first embodiment, an example in which the human
第2の実施形態に係る人物状態判定装置132が実行する処理は、笑顔推定処理のステップD3からステップD5の処理が異なるのみで、他の処理は上記第1の実施形態の処理と同様である。以下、第2の実施形態に係る人物状態判定装置132が実行する処理のうち、第1の実施形態と異なる処理について説明する。
The processing executed by the human
ステップD3において、人物状態判定装置132は、円弧対を抽出する。人物状態判定装置132が、線分対を抽出する処理について図13を参照して説明する。なお、図13は、円弧近似された唇境界線を示す図である。図13は、運転者が笑っていない状態の唇境界線を円弧近似した様子を示す。まず、人物状態判定装置132は、図13に示すように唇境界線30をN等分(Nは整数)する。なお、第2の実施形態では、一例としてN=4の場合、すなわち、唇境界線を4等分する例について説明する。次に、人物状態判定装置132は、図13(a)に示すようにN等分された唇境界線を各々円弧に近似する。ここで、説明のため、円弧近似して得られた円弧を、各々、画像の左から順に円弧41から円弧44として符号を付す。上記の処理により得られた円弧41から円弧44は、唇境界線30の両端からM番目(Mは整数)の円弧同士を1組の円弧対として処理される。例えば、M=1番目の円弧対をPa1とすると、円弧対Pa1は円弧41および円弧44により構成され、M=2番目の円弧対をPa2とすると、円弧対Pa2は円弧42および円弧43により構成される。上記のステップD3の処理を完了すると、人物状態判定装置132は、処理をステップD4へ進める。
In step D3, the human
ステップD4において、人物状態判定装置132は、指定円弧対から1対を選択する。指定円弧対は、後述のステップD5以後の処理において運転者が笑っているか否かの仮の推定を行う対象となる円弧対である。人物状態判定装置132は、どの円弧対を指定円弧対とするか決定するため、予め指定番号Qを予め記憶する。上記指定番号Qは、上述ステップD3の説明におけるMに相当し、例えば、人物状態判定装置132が、指定番号Qとして1および2を予め記憶している場合、唇境界線の両端から1番目の円弧対Pa1および2番目の円弧対Pa2が指定円弧対となる。人物状態判定装置132は、上記のようにして定められる指定円弧対から1つを選択する。以下、本ステップD4において選択された指定円弧対を選択円弧対と呼称し、以下、人物状態判定装置132が、円弧対Pa1を選択した例について説明する。ステップD4の処理を完了すると、人物状態判定装置132は、処理をステップD5へ進める。
In step D4, the person
ステップD5において、人物状態判定装置132は、笑顔仮フラグ設定処理を実行する。以下、第2の実施形態に係る笑顔仮フラグ設定処理について説明する。
In step D5, the person
まず、第2の実施形態に係る笑顔仮フラグ設定処理において処理されるデータについて説明する。人物状態判定装置132は、指定円弧対毎に、左円弧径RL、右円弧径RR、学習情報、合算値ΣR、合算値の閾値ΣRth、平均左円弧径ARL、平均右円弧径ARR、左円弧径上位偏差σRL、右円弧径上位偏差σRR、および笑顔仮フラグを記憶し、処理する。
First, data processed in the temporary smile flag setting process according to the second embodiment will be described. For each designated arc pair, the human
第2の実施形態に係る人物状態判定装置132は、口角度の代わりに左円弧径RLおよび右円弧径RRを用いて笑顔仮フラグを設定する。左円弧径RLは、円弧対を成す線分のうち運転者から見て左側の円弧の半径である。一方、右円弧径RRは、円弧対を成す線分のうち運転者から見て右側の円弧の半径である。左円弧径RLおよび左円弧径RLを総称して円弧径と呼称する。
The human
図13に示すように、円弧対Pa1の左円弧径をRL_Pa1とし、円弧対Pa1の右円弧径をRR_Pa1とする。ここで、運転者が笑った場合、図14に示すように円弧径が変化する。なお、図14は、運転者が笑った状態の唇境界線を円弧近似した様子を示す図である。運転者が笑顔である場合、唇境界線が湾曲するため、図13に示す左円弧径RL_Pa1に比べ、図14に示す左円弧径RL_Pa1は小さくなる。同様に、図13に示す右円弧径RR_Pa1に比べ、図14に示す右円弧径RR_Pa1は小さくなる。上記の通り、円弧径は運転者が笑っているか否かに応じてその大きさが変化するため、円弧径を用いて運転者が笑っているか否かを推定することができる。 As shown in FIG. 13, the left arc diameter of the arc pair Pa1 is RL_Pa1, and the right arc diameter of the arc pair Pa1 is RR_Pa1. Here, when the driver laughs, the arc diameter changes as shown in FIG. FIG. 14 is a diagram illustrating a state in which the lip boundary line in a state where the driver laughs is approximated by an arc. When the driver is smiling, the lip boundary line is curved, so the left arc diameter RL_Pa1 shown in FIG. 14 is smaller than the left arc diameter RL_Pa1 shown in FIG. Similarly, the right arc diameter RR_Pa1 shown in FIG. 14 is smaller than the right arc diameter RR_Pa1 shown in FIG. As described above, since the size of the arc diameter changes depending on whether or not the driver is laughing, it is possible to estimate whether or not the driver is laughing using the arc diameter.
合算値ΣRは当該円弧対の最新の左円弧径RLおよび右円弧径RRの値を合算した合算値であり、下式で表せる。
ΣR=RL+RR
運転者が笑顔である場合、左円弧径RLおよび右円弧径RRの値は大きくなるため、合算値ΣRは大きくなる。
The total value ΣR is a total value obtained by adding the values of the latest left arc diameter RL and right arc diameter RR of the arc pair, and can be expressed by the following equation.
ΣR = RL + RR
When the driver is smiling, the values of the left arc diameter RL and the right arc diameter RR are increased, and the combined value ΣR is increased.
次に、第2の実施形態に係る笑顔仮フラグ設定処理のサブルーチンについて説明する。 Next, a smile temporary flag setting process subroutine according to the second embodiment will be described.
ステップE1において、人物状態判定装置132は、円弧径を算出する。具体的には、人物状態判定装置132は、選択円弧対の円弧径、すなわち左円弧径RLおよび右円弧径RRを算出して記憶装置に記憶する。例えば、人物状態判定装置132は、線分対P1を選択線分対として選択している場合、左円弧径RL_Pa1および右円弧径RR_P1を算出して記憶する。ステップE1の処理を完了すると、人物状態判定装置132は、処理をステップE2へ進める。
In step E1, the human
ステップE2において、人物状態判定装置132は、円弧径の合算値を算出する。具体的には、人物状態判定装置132は、ステップE1において算出した最新の左円弧径RLおよび右円弧径RRの値を読み出し、当該値にもとづいて上述の式から合算値ΣRを算出して記憶する。ステップE2の処理を完了すると、人物状態判定装置132は、処理をステップE3へ進める。
In step E2, the person
ステップE3において、人物状態判定装置132は、合算値の閾値ΣRthを算出する。人物状態判定装置132は、第1の実施形態と同様にして予め円弧径を学習しておき、合算値の閾値ΣRthを算出する。ステップE3の処理を完了すると、人物状態判定装置132は、処理をステップE4へ進める。
In step E <b> 3, the person
ステップE4において、人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRth以下であるか否かを判定する。具体的には、人物状態判定装置132は、記憶装置から合算値ΣRおよび合算値の閾値ΣRthの値を読み出し、各々の大小を比較する。人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRth以下である場合、処理をステップE5へ進める。一方、人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRthより大きい場合、処理をステップE6へ進める。
In step E4, the person
ステップE5、およびステップE6の処理は第1の実施形態と同様であるので説明を省略する。 Since the processing of step E5 and step E6 is the same as that of the first embodiment, description thereof is omitted.
上記ステップE4からステップE6の処理により、人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRth以下である場合、笑顔仮フラグをオンに設定する。一方、人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRthより大きい場合、笑顔仮フラグをオフに設定する。上記のように口角度の代わりに円弧径を用いた場合も、第1の実施形態と同様に運転者が笑っているか否かを仮に推定して、笑顔仮フラグを設定することができる。
Through the processing from step E4 to step E6, the person
なお、上記第2の実施形態では、人物状態判定装置132が、合算値ΣRが合算値の閾値ΣRthより大きいか否かに応じて笑顔仮フラグを設定する例について説明したが、笑顔仮フラグを設定する方法は上記に限らない。例えば、下記2式の条件の少なくとも何れかが満たされた場合に笑顔仮フラグをオンとし、下記の2式の何れも満たされない場合、笑顔仮フラグをオフとしても良い。
RL≦Rth−ρ
RR≦Rth−τ
なお、上式のρおよびτは予め定められた定数である。上記のように笑顔仮フラグを設定することにより、円弧対のうち一方の円弧の円弧径が大きな値で、且つ他方の円弧の円弧径が小さな値となる場合、すなわち、運転者が一方の口端を上げて笑っている場合であっても、人物状態判定装置132は、運転者が笑っているか否かを正確に判定することができる。
In the second embodiment, the example in which the person
RL ≦ Rth−ρ
RR ≦ Rth−τ
In the above expression, ρ and τ are predetermined constants. When the smile temporary flag is set as described above, when the arc diameter of one arc of the arc pair is a large value and the arc diameter of the other arc is a small value, that is, the driver Even when the person is laughing with the edges raised, the person
なお、上記第2の実施形態では、人物状態判定装置132が、円弧の半径にもとづいて笑顔仮フラグを設定する例について説明したが、円弧の半径を用いる代わりに円弧の直径を用いても構わない。
In the second embodiment, the example in which the human
また、上記の第1の実施形態、および第2の実施形態では、笑顔推定処理のステップD3の処理において、人物状態判定装置132が、唇境界線を8等分する例について説明したが、ステップDの処理において唇境界線を分割する数は上記に限らず、2以上に分割すれば良い。また、人物状態判定装置132は、唇境界線を必ずしも等間隔に分割する必要はなく、唇境界線を分割する間隔を部分的に変更しても構わない。さらに言えば、人物状態判定装置132は、唇境界線のうち両端から一定の距離までを切り取って上記の線分対として抽出するなどしても構わない。
In the first embodiment and the second embodiment described above, the example in which the human
また、上記の第1の実施形態、および第2の実施形態では、笑顔推定処理のステップD7からステップD9の処理において、人物状態判定装置132が、全ての笑顔仮フラグがオンである場合に笑顔フラグをオンとし、笑顔仮フラグの何れかがオフである場合に笑顔フラグをオフとする例について説明したが、笑顔フラグの設定方法は上記に限らない。例えば、人物状態判定装置132は、笑顔仮フラグの総数のうち7割以上のフラグがオンである場合に笑顔フラグをオンとしても良い。
Further, in the first embodiment and the second embodiment described above, in the processing from step D7 to step D9 of the smile estimation process, the person
また、上記の第1の実施形態、および第2の実施形態では、覚醒判定処理のステップB6からステップB14の処理において、人物状態判定装置132が、運転者が笑いながら眼を細めていると推定される状態で所定の時間を経過すると、運転者が覚醒していると判定する例について説明したが、人物状態判定装置132は、所定時間の経過を待たずに運転者が覚醒しているか否かを判定しても構わない。例えば、ステップB8、ステップB9、ステップB10、ステップB11の処理を省略しても構わない。
In the first embodiment and the second embodiment, it is estimated that the person
また、上記の第1の実施形態、および第2の実施形態では、覚醒判定処理のステップB6からステップB14の処理において、人物状態判定装置132が、運転者が閉眼していると推定し、且つ、笑っていると推定された状態(以下、笑顔覚醒状態と呼称する)が一定時間継続した場合、運転者が覚醒していると判定する例について説明したが、人物状態判定装置132は、運転者が笑顔覚醒状態である頻度を算出し、当該頻度にもとづいて運転者が覚醒しているか否かを判定しても構わない。
In the first embodiment and the second embodiment described above, in the processing from Step B6 to Step B14 of the arousal determination processing, the person
例えば、人物状態判定装置132は、周期的に覚醒状態か否かの判定を行うものとする。人物状態判定装置132は、1周期の時間内において、運転者が笑顔覚醒状態であった時間の合計値を上記頻度として算出する。そして、人物状態判定装置132は、当該頻度が予め定めた閾値に達した場合、運転者が覚醒していると判定し、当該頻度が閾値に達していない場合、運転者が覚醒していないと判定する。
For example, it is assumed that the person
また、上記の第1の実施形態、および第2の実施形態では、図2のステップA5の覚醒判定処理において、人物状態判定装置132が顔向き角度αに応じて運転者の眼や口の探索範囲を設定する例について説明したが、人物状態判定装置132は当該探索範囲を必ずしも顔向き角度αに応じて変更しなくても構わない。人物状態判定装置132が顔向き角度αに応じて上記探索範囲を変更しない場合、ステップA3の処理は省略しても構わない。
In the first embodiment and the second embodiment described above, in the awakening determination process of step A5 in FIG. 2, the person
また、上記の第1の実施形態、および第2の実施形態では、人物状態判定装置132が車両の運転者の状態を判定する例について示したが、人物状態判定装置132が状態を判定する対象は車両の運転者に限らない。例えば、運転者以外の乗員の状態を判定しても構わないし、航空機等の操縦者の状態を判定するように本発明を適用しても構わない。
In the first and second embodiments, the example in which the person
本発明に係る人物状態判定装置は、人物が笑顔であるか否かに応じて当該人物の覚醒状態を正しく判定可能とする人物状態判定装置などとして有用である。 The person state determination apparatus according to the present invention is useful as a person state determination apparatus that can correctly determine the awakening state of a person according to whether or not the person is smiling.
1 運転者監視システム
2 車両制御システム
11 近赤外照明
12 近赤外カメラ
13 ECU
20 口探索範囲
30 唇境界線
31、32、33、34、35、36、37、38 線分
41、42、43、44 円弧
131 顔向き検知マイコン
132 人物状態判定装置
DESCRIPTION OF
20
Claims (7)
前記人物が眼を閉じているか否かを前記顔画像にもとづいて推定する閉眼推定手段と、
前記人物が笑っているか否かを前記顔画像中に含まれる前記人物の口の画像にもとづいて推定する笑顔推定手段と、
(a)前記人物の眼が開いていると前記閉眼推定手段が推定した場合、または前記人物が笑っていると前記笑顔推定手段が推定した場合には、前記人物が覚醒していると判定し、(b)前記人物が笑っていないと前記笑顔推定手段が推定し、且つ、前記人物の眼が閉じていると前記閉眼推定手段が推定した場合には、前記人物が覚醒していないと判定する覚醒判定手段とを備える人物状態判定装置。 Imaging means for capturing a face image by photographing a person's face;
Closed eye estimation means for estimating whether or not the person has eyes closed based on the face image;
Smile estimation means for estimating whether or not the person is laughing based on the mouth image of the person included in the face image;
(A) When the closed eye estimation means estimates that the person's eyes are open, or when the smile estimation means estimates that the person is smiling, it is determined that the person is awake. (B) If the smile estimation means estimates that the person is not laughing, and the closed eye estimation means estimates that the person's eyes are closed, it is determined that the person is not awake A person state determination device comprising awakening determination means.
前記笑顔推定手段は、人物が笑っているか否かを前記唇境界線の形状にもとづいて推定する、請求項1に記載の人物状態判定装置。 A lip boundary detecting means for detecting a lip boundary that is a boundary between the upper lip and the lower lip in the face image;
The person state determination apparatus according to claim 1, wherein the smile estimation unit estimates whether or not a person is laughing based on a shape of the lip boundary line.
前記笑顔推定手段は、人物が笑っているか否かを前記抽出された線分対にもとづいて推定する、請求項2に記載の人物状態判定装置。 Among the line segments formed by dividing the lip boundary line into N parts in the horizontal direction (N is an integer of 2 or more), a line segment for extracting the line segment pair located at the Mth (M is an integer of 1 or more) from the left and right ends It further comprises a pair extraction means,
The person state determination device according to claim 2, wherein the smile estimation unit estimates whether or not a person is laughing based on the extracted line segment pair.
前記線分対を成す直線線分各々が基準線と成す角度を算出する角度算出手段とを備え、
前記笑顔推定手段は、前記角度にもとづいて前記人物が笑っているか否かを推定する、請求項3に記載の人物状態判定装置。 Line segment approximating means for linearly approximating each line segment forming the line segment pair,
An angle calculating means for calculating an angle formed by each straight line segment forming the line pair and a reference line;
The person state determination apparatus according to claim 3, wherein the smile estimation unit estimates whether the person is smiling based on the angle.
前記線分対を成す円弧線分各々の半径または直径を算出する径算出手段とを備え、
前記笑顔推定手段は、前記線分対を成す円弧線分各々の半径または直径にもとづいて前記人物が笑っているか否かを推定する、請求項3に記載の人物状態判定装置。 Arc approximating means for approximating each line segment forming the line segment to an arc line segment by arc approximation;
A diameter calculating means for calculating a radius or a diameter of each arc line segment forming the line segment pair;
The person state determination apparatus according to claim 3, wherein the smile estimation unit estimates whether or not the person is laughing based on a radius or a diameter of each arc line segment forming the line segment pair.
前記笑顔推定手段は、前記学習した結果にもとづいて前記人物が笑っているか否かを推定する、請求項2に記載の人物状態判定装置。 Learning means for learning information related to the shape of the lip boundary only when the closed eye estimation means estimates that the person is open;
The person state determination apparatus according to claim 2, wherein the smile estimation unit estimates whether or not the person is laughing based on the learned result.
前記人物状態判定装置は前記車両に搭載される、請求項1に記載の人物状態判定装置。 The person is a driver of the vehicle;
The person state determination apparatus according to claim 1, wherein the person state determination apparatus is mounted on the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008164024A JP2010009093A (en) | 2008-06-24 | 2008-06-24 | Person state determination device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008164024A JP2010009093A (en) | 2008-06-24 | 2008-06-24 | Person state determination device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010009093A true JP2010009093A (en) | 2010-01-14 |
Family
ID=41589548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008164024A Withdrawn JP2010009093A (en) | 2008-06-24 | 2008-06-24 | Person state determination device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010009093A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016071577A (en) * | 2014-09-30 | 2016-05-09 | マツダ株式会社 | Driver state detection method and detection device |
JP2022077281A (en) * | 2020-11-11 | 2022-05-23 | 株式会社コムテック | Detection system |
JP2022077282A (en) * | 2020-11-11 | 2022-05-23 | 株式会社コムテック | Warning system |
-
2008
- 2008-06-24 JP JP2008164024A patent/JP2010009093A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016071577A (en) * | 2014-09-30 | 2016-05-09 | マツダ株式会社 | Driver state detection method and detection device |
JP2022077281A (en) * | 2020-11-11 | 2022-05-23 | 株式会社コムテック | Detection system |
JP2022077282A (en) * | 2020-11-11 | 2022-05-23 | 株式会社コムテック | Warning system |
JP7081844B2 (en) | 2020-11-11 | 2022-06-07 | 株式会社コムテック | Detection system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8369608B2 (en) | System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions | |
EP2596746B1 (en) | Pupil detection device and pupil detection method | |
EP2338416B1 (en) | Line-of-sight direction determination device and line-of-sight direction determination method | |
US10225462B2 (en) | Image processing to track face region of person | |
WO2016038784A1 (en) | Driver state determination apparatus | |
US9202106B2 (en) | Eyelid detection device | |
WO2013157466A1 (en) | Smoking detection device, method and program | |
EP2541493B1 (en) | Pupil detection device and pupil detection method | |
JP4992823B2 (en) | Face detection apparatus and face detection method | |
JP5273030B2 (en) | Facial feature point detection device and drowsiness detection device | |
JP5466610B2 (en) | Gaze estimation device | |
US20140147019A1 (en) | Red-eye detection device | |
JP6090129B2 (en) | Viewing area estimation device | |
JP2009219555A (en) | Drowsiness detector, driving support apparatus, drowsiness detecting method | |
JP2008065776A (en) | Doze detection device and doze detection method | |
JP2010191793A (en) | Alarm display and alarm display method | |
JP4989249B2 (en) | Eye detection device, dozing detection device, and method of eye detection device | |
JP2010009093A (en) | Person state determination device | |
US11161470B2 (en) | Occupant observation device | |
JP2007236488A (en) | Vigilance degree estimating device, system, and method | |
JP2009087303A (en) | Expression estimation device, expression estimation method, and vehicle controller | |
JP4781292B2 (en) | Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program | |
JP5655491B2 (en) | Open-eye detection device | |
US9082002B2 (en) | Detection device and detection method | |
US11077814B2 (en) | Occupant eye(s) observation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100702 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20110322 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20110901 |