JP2010009093A - Person state determination device - Google Patents

Person state determination device Download PDF

Info

Publication number
JP2010009093A
JP2010009093A JP2008164024A JP2008164024A JP2010009093A JP 2010009093 A JP2010009093 A JP 2010009093A JP 2008164024 A JP2008164024 A JP 2008164024A JP 2008164024 A JP2008164024 A JP 2008164024A JP 2010009093 A JP2010009093 A JP 2010009093A
Authority
JP
Japan
Prior art keywords
person
state determination
determination device
driver
line segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008164024A
Other languages
Japanese (ja)
Inventor
Junji Kawakubo
淳史 川久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008164024A priority Critical patent/JP2010009093A/en
Publication of JP2010009093A publication Critical patent/JP2010009093A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a person state determination device, capable of accurately determining a wakeful state of a person according to whether the person is smiling. <P>SOLUTION: The device includes an imaging means which photographs a person's face to obtain a face image; a closed eye estimation means which estimates whether the person is closing his/her eyes based on the face image; a smile estimation means which estimates whether the person is smiling, based on an image of the person's mouth contained in the face image; and an awakening determination means which determines that the person is awakened when opening of the person's eyes is estimated or when smiling of the person is estimated and closing of the person's eyes is estimated, and determines that the person is unawakened when non-smiling of the person is estimated and closing of the person's eyes is estimated. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は人物状態判定装置に関し、より特定的には人物の覚醒状態を判定する人物状態判定装置に関する。   The present invention relates to a person state determination apparatus, and more particularly to a person state determination apparatus that determines a person's arousal state.

近年、車両に運転者を撮影するカメラを備え、当該カメラに撮影された運転者の顔画像にもとづいて運転者の状態を検出し、検出された運転者の状態に応じて車両を制御する車両制御システムが開発されている。このようなシステムには、運転者の眼の開閉の状態を検出し、運転者の覚醒状態を判定する装置(以下、覚醒判定装置と呼称する)などが備えられる。   2. Description of the Related Art In recent years, a vehicle that includes a camera that captures a driver on a vehicle, detects a driver's state based on a driver's face image captured by the camera, and controls the vehicle according to the detected driver's state Control systems have been developed. Such a system includes a device that detects the open / closed state of the driver's eyes and determines the driver's arousal state (hereinafter referred to as an arousal determination device).

ところで、運転者の眼に直射光が照射された場合、運転者は当該直射光を眩しく感じて眼を細めた状態になる場合がある。運転者が眼を細めた状態になっていると、上記のような覚醒判定装置は、運転者が実際には覚醒しているにも拘わらず覚醒状態でないと誤判定してしまう。   By the way, when the driver's eyes are irradiated with direct light, the driver may feel dazzled by the direct light and may have a narrowed eye. When the driver is in a state of narrowing his eyes, the awakening determination device as described above erroneously determines that the driver is not in an awakening state even though the driver is actually awakening.

上記の問題を考慮して開発された直射光検出装置が、特許文献1に開示されている。当該直射光検出装置は、カメラにより撮影された画像にもとづいて、運転者の眼の開き具合(引用文献1に記載の眼開度)、および当該眼の近傍の光量を測定する。そして、上記眼開度および光量にもとづいて運転者の眼に直射光が当たっているか否かを判定する。   A direct light detection device developed in consideration of the above problems is disclosed in Patent Document 1. The direct light detection device measures the degree of opening of the driver's eyes (eye opening described in Citation 1) and the amount of light in the vicinity of the eyes based on an image taken by the camera. Then, it is determined whether or not the driver's eyes are exposed to direct light based on the eye opening and the light amount.

特許文献1に開示される直射光検出装置によれば、運転者が直射光により眩しさを感じているか否かを判断することが可能である。したがって、上記のような覚醒判定装置で運転者の覚醒状態を判定する際、当該装置が運転者の眼が閉じている状態であると検出していても、運転者の眼に直射光が当たっている場合、すなわち、運転者の眼に当たった直射光が原因で眼を細めていると推定される場合、運転者は覚醒していると判定することができる。
特開2006−251926号公報
According to the direct light detection device disclosed in Patent Document 1, it is possible to determine whether or not the driver feels dazzle by direct light. Therefore, when the driver's arousal state is determined by the above-described arousal determination device, even if the device detects that the driver's eyes are closed, the driver's eyes are exposed to direct light. In other words, if it is estimated that the eyes are narrowed due to direct light hitting the driver's eyes, it can be determined that the driver is awake.
JP 2006-251926 A

しかしながら、運転者が眼を細めた状態になる条件は、運転者の眼に直射光が当たった場合に限らない。例えば、運転者は、笑った場合などには、直射光を浴びていなくても眼を細めた状態となる。そして、運転者が笑って眼を細めている場合、特許文献1の発明を用いたとしても、上記のような覚醒判定装置は、当該運転者が覚醒状態でないと判定することがある。   However, the condition for the driver to narrow his eyes is not limited to the case where the driver's eyes are exposed to direct light. For example, when the driver laughs, the driver's eyes are narrowed even if they are not exposed to direct light. When the driver laughs and narrows his eyes, even if the invention of Patent Document 1 is used, the awakening determination device as described above may determine that the driver is not in an awake state.

本発明は上記課題に鑑みてなされたものであり、人物が笑顔であるか否かに応じて当該人物の覚醒状態を正しく判定可能とする人物状態判定装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a person state determination device that can correctly determine a person's arousal state according to whether or not a person is smiling.

本発明は上記に鑑みてなされたものであり、第1の発明は、人物の顔を撮影して顔画像を取得する撮像手段と、人物が眼を閉じているか否かを顔画像にもとづいて推定する閉眼推定手段と、人物が笑っているか否かを顔画像中に含まれる人物の口の画像にもとづいて推定する笑顔推定手段と、人物の眼が開いていると推定した場合、または人物が笑っていると推定し、且つ、人物の眼が閉じていると推定した場合、人物の眼が覚醒していると判定し、人物が笑っていないと推定し、且つ、人物の眼が閉じていると推定した場合、人物が覚醒していないと判定する覚醒判定手段とを備える人物状態判定装置である。   The present invention has been made in view of the above, and the first invention is based on an image capturing unit that captures a face of a person and obtains a face image, and whether the person closes his eyes based on the face image. Closed eye estimation means to estimate, smile estimation means to estimate whether a person is laughing based on the image of the person's mouth included in the face image, and if the person's eyes are estimated to be open, or a person If it is estimated that the person's eyes are closed, it is determined that the person's eyes are awake, the person is not smiling, and the person's eyes are closed. It is a person state determination apparatus provided with the awakening determination means which determines that the person is not awake when it estimates that the person is waking up.

第2の発明は、第1の発明において、人物状態判定装置は、顔画像中で、上唇と下唇との境界線である唇境界線を検出する唇境界線検出手段をさらに備え、笑顔推定手段は、人物が笑っているか否かを唇境界線の形状にもとづいて推定する。   According to a second aspect, in the first aspect, the human state determination device further includes a lip boundary detection unit that detects a lip boundary line that is a boundary line between the upper lip and the lower lip in the face image, and smile estimation The means estimates whether or not the person is laughing based on the shape of the lip boundary line.

第3の発明は、第2の発明において、人物状態判定装置は、唇境界線を水平方向にN等分(Nは2以上の整数)して成る線分のうち、左右両端からM番目(Mは1以上の整数)に位置する線分対を抽出する線分対抽出手段をさらに備え、笑顔推定手段は、人物が笑っているか否かを抽出された線分対にもとづいて推定する。   According to a third aspect, in the second aspect, the human state determination device includes the Mth from the left and right ends of the line segment obtained by dividing the lip boundary line into N equal parts (N is an integer equal to or greater than 2). M is further provided with line segment pair extraction means for extracting a line segment pair positioned at an integer of 1 or more, and the smile estimation means estimates whether or not a person is laughing based on the extracted line segment pair.

第4の発明は、第3の発明において、人物状態判定装置は、抽出された線分、当該線分対を成す2つの線分各々が水平線と成す角度を算出する角度算出手段と、2つの線分各々が水平線と成す角度の合算値を算出する合算値算出手段とを備え、笑顔推定手段は、合算値が閾値より大きい場合、人物が笑っていると判定する。   In a fourth aspect based on the third aspect, the human state determination device includes: an angle calculating unit that calculates an angle between the extracted line segment and each of the two line segments that form the line segment pair and a horizontal line; The smile estimation means determines that the person is smiling when the total value is larger than the threshold value.

第4の発明は、第3の発明において、人物状態判定装置は、線分対を成す線分を各々直線近似して直線線分とする線分近似手段と、線分対を成す直線線分各々が水平線と成す角度を算出する角度算出手段とを備え、笑顔推定手段は、角度にもとづいて人物が笑っていると判定する。   In a fourth aspect based on the third aspect, the human state determination device includes a line segment approximating means for linearly approximating each line segment forming a line segment pair to form a straight line segment, and a straight line segment forming a line segment pair. Angle calculating means for calculating an angle formed by each horizontal line, and the smile estimating means determines that the person is laughing based on the angle.

第5の発明は、第3の発明において、人物状態判定装置は、線分対の各線分を円弧に近似し、線分対を成す線分を各々円弧近似して円弧線分とする円弧近似手段と、線分対を成す円弧線分各々の半径または直径を算出する径算出手段とを備え、笑顔推定手段は、角度にもとづいて人物が笑っていると判定する。   In a fifth aspect based on the third aspect, the human state determination device approximates each line segment of the line segment pair to a circular arc, and approximates each line segment forming the line segment pair as a circular arc segment by circular arc approximation. Means and a diameter calculation means for calculating the radius or diameter of each arc line segment forming a line segment pair, and the smile estimation means determines that the person is laughing based on the angle.

第6の発明は、第2の発明において、人物状態判定装置は、閉眼推定手段により人物が開眼していると推定した場合にのみ、唇境界線の形状に関する情報を学習する学習手段をさらに備え、笑顔推定手段は、学習した結果にもとづいて人物が笑っているか否かを推定する。   In a sixth aspect based on the second aspect, the human state determination device further includes learning means for learning information related to the shape of the lip boundary line only when it is estimated by the closed eye estimation means that the person is open. The smile estimation means estimates whether or not the person is laughing based on the learning result.

第7の発明は、第1の発明において、人物は車両の運転者であり、人物状態判定装置は上記車両に搭載される。   In a seventh aspect based on the first aspect, the person is a driver of the vehicle, and the person state determination device is mounted on the vehicle.

第1の発明によれば、人物が笑っている場合、当該人物が眼を細めるなどして眼を閉じているか否かを判定し難い状態であっても、当該人物が眼を閉じているか否かを正しく判定することができる。   According to the first invention, when a person is laughing, whether or not the person closes his eyes even if it is difficult to determine whether or not the person closes his eyes by narrowing his eyes. Can be determined correctly.

第2の発明によれば、第1の発明において、人物が笑っているか否かを、当該人物の上唇と下唇との境界線にもとづいて推定することができる。人物の上唇と下唇との境界線は、顔画像中において容易に認識可能であることから、上記第2の発明によれば人物が笑っているか否かを顔画像にもとづいて容易に推定することができる。   According to the second invention, in the first invention, whether or not a person is laughing can be estimated based on the boundary line between the upper lip and the lower lip of the person. Since the boundary line between the upper lip and the lower lip of the person can be easily recognized in the face image, according to the second aspect, it is easily estimated based on the face image whether or not the person is laughing. be able to.

第3の発明によれば、第2の発明において、人物が笑っているか否かを、口の端部の形状にもとづいて推定することができる。口の端部の形状は人物が笑っている場合に顕著に変化するため、人物が笑っているか否かを容易に、且つ、正しく推定することができる。   According to the third invention, in the second invention, it is possible to estimate whether or not a person is laughing based on the shape of the end of the mouth. Since the shape of the edge of the mouth changes significantly when a person is laughing, it can be easily and correctly estimated whether or not the person is laughing.

第4の発明によれば、第3の発明において、人物が笑っているか否かを、口の端部の形状にもとづいて簡単な処理で推定することができる。   According to the fourth invention, in the third invention, whether or not a person is laughing can be estimated by a simple process based on the shape of the end of the mouth.

第5の発明によれば、第3の発明において、人物が笑っているか否かを、口の端部の形状にもとづいて推定することができる。口の端部の形状を円弧に近似すると、口の端部の形状変化が僅かであっても当該円弧の半径または直径が大きく変化するため、当該形状の変化を感度良検出することができる。また、顔画像中において人物の顔がロール方向に傾いている場合であっても、人物が笑っているか否かを正確に推定することができる。   According to the fifth aspect, in the third aspect, it is possible to estimate whether or not a person is laughing based on the shape of the end of the mouth. When the shape of the mouth end is approximated to a circular arc, even if the shape change of the mouth end is slight, the radius or diameter of the arc changes greatly, so that the change in the shape can be detected with good sensitivity. Even if the face of a person is tilted in the roll direction in the face image, it can be accurately estimated whether or not the person is laughing.

第6の発明によれば、人物が開眼した状態における唇境界線の形状を予め学習し、前記人物が笑っているか否かを当該学習結果にもとづいて推定できるため、人物が笑っているか否かを、より正確に推定することができる。   According to the sixth invention, since the shape of the lip boundary line when the person is open is learned in advance and whether or not the person is smiling can be estimated based on the learning result, whether or not the person is smiling Can be estimated more accurately.

第7の発明によれば、第1の発明の人物状態判定装置を車両に搭載し、当該車両の運転者の状態を判定することができる。   According to the seventh aspect, the person state determination device according to the first aspect can be mounted on a vehicle, and the state of the driver of the vehicle can be determined.

(第1の実施形態)
以下、本発明の第1の実施形態に係る人物状態判定装置132について図1から図12を参照して説明する。なお、本実施形態では、人物状態判定装置132を含む運転者監視システム1が、車両に搭載される例について説明する。運転者監視システム1は、搭載される車両の運転者の顔の画像を撮影し、当該画像にもとづいて運転者の状態を監視するシステムである。人物状態判定装置132は、上記の画像にもとづいて、運転者が眼を閉じているか否か、および運転者が笑っているか否かを推定し、各々の推定結果にもとづいて運転者が覚醒しているか否かを判定する。
(First embodiment)
Hereinafter, the human state determination device 132 according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 12. In the present embodiment, an example in which the driver monitoring system 1 including the person state determination device 132 is mounted on a vehicle will be described. The driver monitoring system 1 is a system that takes an image of the face of a driver of a vehicle on which the driver is mounted and monitors the state of the driver based on the image. The person state determination device 132 estimates whether or not the driver is closing his eyes and whether or not the driver is laughing based on the above image, and the driver is awakened based on each estimation result. It is determined whether or not.

まず、図1を参照して運転者監視システム1の機能構成について説明する。図1は、人物状態判定装置132を含む運転者監視システム1の機能構成を示すブロック図である。   First, the functional configuration of the driver monitoring system 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a functional configuration of the driver monitoring system 1 including the person state determination device 132.

運転者監視システム1は、近赤外照明11、近赤外カメラ12、およびECU(Electrical Control Unit)13を備える。そしてECU13は顔向き検知マイコン131および人物状態判定装置132を備える。運転者監視システム1は、CAN(Controller Area Network)などを介して車両制御システム2に接続される。顔向き検知マイコン131および人物状態判定装置132は、運転者の状態を示すデータを車両制御システム2へ各々出力する。   The driver monitoring system 1 includes a near infrared illumination 11, a near infrared camera 12, and an ECU (Electrical Control Unit) 13. The ECU 13 includes a face orientation detection microcomputer 131 and a person state determination device 132. The driver monitoring system 1 is connected to the vehicle control system 2 via a CAN (Controller Area Network) or the like. The face orientation detection microcomputer 131 and the person state determination device 132 each output data indicating the driver's state to the vehicle control system 2.

近赤外照明11は、近赤外光を発する照明装置であり、典型的には、近赤外光を発するLED(Light Emitting Diode)である。近赤外照明11は、車両内に配置され、近赤外光を運転者に照射する。   The near-infrared illumination 11 is an illumination device that emits near-infrared light, and is typically an LED (Light Emitting Diode) that emits near-infrared light. The near-infrared illumination 11 is disposed in the vehicle and irradiates the driver with near-infrared light.

近赤外カメラ12は、請求項に記載の撮像手段の一例である。近赤外カメラ12は、近赤外領域で高い感度特性を有する撮像装置であり、典型的には、近赤外CCDカメラである。近赤外領域で高い感度特性を有するカメラを用いることにより、夜間やトンネル内などを走行中で車内が暗い状況でも、近赤外照明11に照らされた撮像対象を感度良撮像することが可能である。近赤外カメラ12は、運転者の顔を撮像可能な位置に配置される。近赤外カメラ12は運転者の顔およびその周囲の画像を撮影し、撮影された画像をECU13へ出力する。なお、以下では、近赤外カメラ12によって撮影される画像をカメラ画像と呼称する。また、説明のため、カメラ画像中の位置情報を、左下端を原点として、縦方向をY座標、横方向をX座標とする座標系で表す。   The near-infrared camera 12 is an example of an imaging unit described in the claims. The near-infrared camera 12 is an imaging device having high sensitivity characteristics in the near-infrared region, and is typically a near-infrared CCD camera. By using a camera with high sensitivity characteristics in the near-infrared region, it is possible to capture an image of the object illuminated by the near-infrared illumination 11 with good sensitivity even when the vehicle is dark at night or in a tunnel. It is. The near-infrared camera 12 is disposed at a position where the driver's face can be imaged. The near-infrared camera 12 captures images of the driver's face and surroundings, and outputs the captured images to the ECU 13. Hereinafter, an image photographed by the near-infrared camera 12 is referred to as a camera image. For the sake of explanation, position information in the camera image is represented by a coordinate system in which the lower left corner is the origin, the vertical direction is the Y coordinate, and the horizontal direction is the X coordinate.

ECU13は、顔向き検知マイコン131および人物状態判定装置132などの情報処理装置、およびインターフェース回路などを備える処理装置である。ECU13は、カメラ画像を顔向き検知マイコン131および人物状態判定装置132などの情報処理装置で処理する。ECU13は、上記の処理の結果として得られる運転者の状態を示すデータを車両制御システム2へ出力する。   The ECU 13 is a processing device including an information processing device such as the face orientation detection microcomputer 131 and the person state determination device 132, an interface circuit, and the like. The ECU 13 processes the camera image with an information processing device such as the face orientation detection microcomputer 131 and the person state determination device 132. The ECU 13 outputs data indicating the driver's state obtained as a result of the above processing to the vehicle control system 2.

顔向き検知マイコン131は、典型的にはマイクロコンピュータなどの情報処理装置である。顔向き検知マイコン131は、カメラ画像中における運転者の顔の向きの角度を検出する。なお、本実施形態では、説明を簡単にするため、顔向き検知マイコン131が、運転者の顔の左右方向の角度(以下、顔向き角度αと呼称する)を検出する例について説明する。顔向き検知マイコン131は、顔向き角度αを車両制御システム2へ出力する。   The face orientation detection microcomputer 131 is typically an information processing device such as a microcomputer. The face orientation detection microcomputer 131 detects the angle of the driver's face orientation in the camera image. In the present embodiment, for the sake of simplicity, an example in which the face orientation detection microcomputer 131 detects the angle in the left-right direction of the driver's face (hereinafter referred to as the face orientation angle α) will be described. The face orientation detection microcomputer 131 outputs the face orientation angle α to the vehicle control system 2.

人物状態判定装置132は、典型的にはマイクロコンピュータなどの情報処理装置である。人物状態判定装置132は、後述する処理に用いるデータを記憶するメモリなどの記憶装置を備える。人物状態判定装置132は、運転者の眼が閉じているか否かを推定する処理(後述の閉眼推定処理)、および運転者が笑っているか否かを推定する処理(後述の笑顔推定処理)を実行する。そして、人物状態判定装置132は、上記の各推定処理の結果にもとづいて運転者が覚醒しているか否かを判定する。人物状態判定装置132は、上記判定の結果にもとづいて、運転者が覚醒していることを示す信号(以下、覚醒判定信号と呼称する)、または運転者が覚醒していないことを示す信号(以下、非覚醒判定信号と呼称する)を車両制御システム2へ出力する。   The person state determination device 132 is typically an information processing device such as a microcomputer. The person state determination device 132 includes a storage device such as a memory for storing data used for processing to be described later. The person state determination device 132 performs a process for estimating whether or not the driver's eyes are closed (a closed eye estimation process described later) and a process for estimating whether or not the driver is smiling (a smile estimation process described later). Execute. Then, the person state determination device 132 determines whether or not the driver is awake based on the result of each estimation process. Based on the result of the determination, the person state determination device 132 is a signal indicating that the driver is awake (hereinafter referred to as an awake determination signal) or a signal indicating that the driver is not awake ( Hereinafter, the non-wake determination signal is output to the vehicle control system 2.

車両制御システム2には、プリクラッシュ制御システムなどの、車両を制御するシステムが含まれる。車両制御システム2は、運転者の疲れ具合などを、入力される顔向き角度α、覚醒判定信号、および非覚醒判定信号などの運転者の状態を示すデータおよび信号にもとづいて判断する。そして、車両制御システム2は、車両と障害物との衝突の危険を報ずる警告や、衝突回避走行の制御などを実行するタイミングを、上記の運転者の疲れ具合に応じて最適に決定する。   The vehicle control system 2 includes a system that controls the vehicle, such as a pre-crash control system. The vehicle control system 2 determines the fatigue level of the driver based on data and signals indicating the driver's state, such as the input face orientation angle α, the arousal determination signal, and the non-awake determination signal. Then, the vehicle control system 2 optimally determines the timing for executing a warning for reporting the danger of a collision between the vehicle and an obstacle, control of collision avoidance travel, and the like according to the driver's fatigue level.

次に、図2を参照してECU13が実行する処理について説明する。なお、図2はECU13が実行する処理の一例を示すフローチャートである。   Next, processing executed by the ECU 13 will be described with reference to FIG. FIG. 2 is a flowchart showing an example of processing executed by the ECU 13.

ステップA1において、ECU13は、IG電源がオンであるか否かを判定する。ECU13は、IG電源がオンであると判断した場合、処理をステップA2へ進める。一方、ECU13は、IG電源がオフであると判断した場合、処理を終了する。   In step A1, the ECU 13 determines whether or not the IG power supply is on. If the ECU 13 determines that the IG power supply is on, the ECU 13 proceeds to step A2. On the other hand, when the ECU 13 determines that the IG power supply is off, the ECU 13 ends the process.

上記ステップA1の処理により、IG電源がオンである間、下記のステップA2からステップA5の処理が繰り返される。   By the process of step A1, the following processes of step A2 to step A5 are repeated while the IG power supply is on.

ステップA2において、ECU13は、カメラ画像を取得する。具体的には、ECU13は、近赤外カメラ12から出力されるカメラ画像を取得し、ECU13が備える記憶装置へ保存する。ECU13は、ステップA2の処理を完了すると、処理をステップA3へ進める。   In step A2, the ECU 13 acquires a camera image. Specifically, the ECU 13 acquires a camera image output from the near-infrared camera 12 and stores it in a storage device provided in the ECU 13. When the ECU 13 completes the process of step A2, the process proceeds to step A3.

ステップA3において、ECU13は、顔向き検知処理を実行する。具体的には、ECU13は、上記のステップA2において取得したカメラ画像にもとづいて顔向き角度αを検出する処理を、備えられた顔向き検知マイコン131に実行させる。   In step A3, the ECU 13 executes face orientation detection processing. Specifically, the ECU 13 causes the face orientation detection microcomputer 131 to execute a process of detecting the face orientation angle α based on the camera image acquired in step A2.

ここで、図3を参照して、顔向き角度αについて説明する。図3はカメラ画像および、当該画像が撮影された時点の運転者の頭部の上面図である。本実施形態では運転者の頭部は頭頂部を上面とする円柱形状を成しているものと見なす。なお、顔は円柱状の頭部の中心線を中心に回転する。顔向き角度αの値は、近赤外カメラ12に対して正面を向いた状態でα=0である。そして、顔向き角度αの値は、顔が近赤外カメラ12に対して正面を向いた状態から右方向を向くほど大きくなる。一方、顔が近赤外カメラ12に対して正面を向いた状態から左方向を向くほど、顔向き角度αの値は小さくなる。したがって、顔向き角度αの値は、顔が右方向を向くと正の値となり、左方向を向くと負の値となる。   Here, the face orientation angle α will be described with reference to FIG. FIG. 3 is a top view of the camera image and the driver's head when the image is taken. In the present embodiment, the driver's head is considered to have a cylindrical shape with the top of the head as the upper surface. The face rotates around the center line of the cylindrical head. The value of the face orientation angle α is α = 0 in a state where it faces the near infrared camera 12. The value of the face orientation angle α increases as the face turns to the right from the state where the face faces the front of the near-infrared camera 12. On the other hand, the value of the face angle α decreases as the face turns to the left from the state where the face faces the near-infrared camera 12. Therefore, the value of the face orientation angle α is a positive value when the face is directed to the right, and is a negative value when the face is directed to the left.

以下、図3を参照して、顔向き検知マイコン131が、顔向き角度αを検知する手法の一例について説明する。なお、下記の顔向き検知マイコン131が顔向き角度αを検出する手法は一例であり、顔向き角度αを検出する手法は下記の例に限らず、従来の既知の手法を用いて構わない。   Hereinafter, an example of a method in which the face orientation detection microcomputer 131 detects the face orientation angle α will be described with reference to FIG. Note that the method of detecting the face orientation angle α by the following face orientation detection microcomputer 131 is an example, and the method of detecting the face orientation angle α is not limited to the following example, and a conventionally known method may be used.

顔向き検知マイコン131は、カメラ画像中における運転者の顔の左端EL、および右端ER、および顔の中心Cを検出する。運転者の顔の左端ELは、顔の輪郭の左の端点のX座標である。運転者の顔の右端ERは、顔の輪郭の右の端点のX座標である。顔の中心Cは、運転者の鼻の位置のX座標である。顔向き検知マイコン131は、カメラ画像中における運転者の顔の輪郭を検出して左端ELおよび右端ERを検出する。また、カメラ画像中の運転者の鼻の位置を検出して顔の中心Cを検出する。そして、左端ELから顔の中心Cまでの幅WLを算出する。また、右端ERから顔の中心Cまでの幅WRを算出する。   The face orientation detection microcomputer 131 detects the left end EL and right end ER of the driver's face and the center C of the face in the camera image. The left end EL of the driver's face is the X coordinate of the left end point of the face outline. The right end ER of the driver's face is the X coordinate of the right end point of the face outline. The center C of the face is the X coordinate of the position of the driver's nose. The face direction detection microcomputer 131 detects the left end EL and the right end ER by detecting the contour of the driver's face in the camera image. Further, the center C of the face is detected by detecting the position of the driver's nose in the camera image. Then, the width WL from the left end EL to the center C of the face is calculated. Further, a width WR from the right end ER to the center C of the face is calculated.

顔向き検知マイコン131は、上記のようにして算出された幅WLおよび幅WRの値の比にもとづいて顔向き角度αを検出する。図3(a)に示すように、顔が近赤外カメラ12に対して正面を向いている場合、幅WRおよび幅WLは同値である。一方、図3(b)に示すように、顔が右を向いている場合、幅WRに比べ幅WLの方が大きい。すなわち、顔向き角度αの大きさに応じて、幅WRおよび幅WLの値の比率が変化する。そこで、顔向き検知マイコン131は、幅WRおよび幅WLの値の比率を、顔向き角度αの値に換算するデータテーブルを予め記憶し、幅WR、幅WL、および当該データテーブルにもとづいて顔向き角度αを算出する。   The face orientation detection microcomputer 131 detects the face orientation angle α based on the ratio between the width WL and the width WR calculated as described above. As shown in FIG. 3A, when the face is facing the front with respect to the near-infrared camera 12, the width WR and the width WL are the same value. On the other hand, as shown in FIG. 3B, when the face is facing right, the width WL is larger than the width WR. That is, the ratio of the values of the width WR and the width WL changes according to the size of the face orientation angle α. Therefore, the face orientation detection microcomputer 131 stores in advance a data table that converts the ratio of the width WR and width WL values to the value of the face orientation angle α, and the face WR, the width WL, and the face based on the data table. The orientation angle α is calculated.

顔向き検知マイコン131は、顔向き角度αを検出した場合、顔向き角度αを示すデータを、人物状態判定装置132および車両制御システム2へ出力して処理を完了する。そして、ECU13は、顔向き検知マイコン131の処理が完了すると、処理をステップA4へ進める。   When detecting the face orientation angle α, the face orientation detection microcomputer 131 outputs data indicating the face orientation angle α to the person state determination device 132 and the vehicle control system 2 to complete the process. And ECU13 will advance a process to step A4, if the process of the face direction detection microcomputer 131 is completed.

ステップA4において、ECU13は、顔向きが検出されたか否かを判定する。具体的には、上記のステップA3において、顔向き検知マイコン131が顔向き角度αを示すデータを出力したか否かを判定する。ECU13は、顔向きが検出されたと判断した場合、処理をステップA5へ進める。一方、ECU13は、顔向きが検出されていないと判断した場合、処理をステップA1へ戻す。   In step A4, the ECU 13 determines whether a face orientation is detected. Specifically, in step A3, it is determined whether or not the face orientation detection microcomputer 131 has output data indicating the face orientation angle α. If the ECU 13 determines that the face orientation has been detected, the ECU 13 advances the process to step A5. On the other hand, when the ECU 13 determines that the face orientation is not detected, the ECU 13 returns the process to step A1.

ステップA5において、ECU13は、覚醒判定処理を実行する。具体的には、ECU13は、後述の図5に示す覚醒判定処理を人物状態判定装置132に実行させる。覚醒判定処理の詳細な説明は後述するが、人物状態判定装置132は、覚醒判定処理において運転者が覚醒しているか否かを判定し、当該判定の結果にもとづいて覚醒判定信号、または非覚醒判定信号を車両制御システム2へ出力する。人物状態判定装置132の覚醒判定処理が完了すると、ECU13は、ステップA5の処理を完了し、処理をステップA1へ戻す。   In step A5, the ECU 13 executes an arousal determination process. Specifically, the ECU 13 causes the person state determination device 132 to execute an arousal determination process shown in FIG. Although the detailed description of the arousal determination process will be described later, the person state determination device 132 determines whether or not the driver is awake in the awakening determination process, and based on the determination result, the awakening determination signal or the non-awakening A determination signal is output to the vehicle control system 2. When the awakening determination process of the human state determination device 132 is completed, the ECU 13 completes the process of step A5 and returns the process to step A1.

上記ステップA4およびステップA5の処理によれば、ECU13は、運転者の顔の向きが検出された場合にのみ、人物状態判定装置132に運転者が覚醒しているか否かを判定させる。   According to the processing of step A4 and step A5, the ECU 13 causes the person state determination device 132 to determine whether or not the driver is awakened only when the direction of the driver's face is detected.

以下、上記に説明したECU13のステップA5の処理において人物状態判定装置132が実行する処理について図4から図12を参照して詳細に説明する。   Hereinafter, the process executed by the person state determination device 132 in the process of step A5 of the ECU 13 described above will be described in detail with reference to FIGS.

まず、人物状態判定装置132が覚醒判定処理において用いる主なデータについて図4を参照して説明する。図4は、人物状態判定装置132が覚醒判定処理において用いる主なデータ(以下、処理用データと呼称する)を示す図である。図4に示す処理用データは、人物状態判定装置132が有するメモリ等の記憶手段に記憶される。処理用データには、顔幅W、顔向き角度α、鼻の位置(Nx,Ny)、左眼瞼開度EL、左眼瞼開度の閾値ELth、右眼瞼開度ER、右眼瞼開度の閾値ERth、閉眼フラグ、口探索範囲の中心(Mx,My)、口探索範囲の横幅MW、口探索範囲の縦の長さMH、口角情報、笑顔フラグ、タイマーカウント値C、およびタイマーカウント値の閾値Cthが含まれる。   First, main data used by the person state determination device 132 in the awakening determination process will be described with reference to FIG. FIG. 4 is a diagram showing main data (hereinafter referred to as processing data) used by the person state determination device 132 in the awakening determination process. The processing data shown in FIG. 4 is stored in a storage unit such as a memory included in the person state determination device 132. The processing data includes face width W, face angle α, nose position (Nx, Ny), left eyelid opening EL, left eyelid opening threshold ELth, right eyelid opening ER, and right eyelid opening threshold. ERth, closed eye flag, mouth search range center (Mx, My), mouth search range width MW, mouth search range length MH, mouth angle information, smile flag, timer count value C, and timer count value threshold Cth is included.

顔幅Wは、カメラ画像中の運転者の顔の幅である。人物状態判定装置132は、カメラ画像中で顔の輪郭部分を探索して顔幅Wを検出する。   The face width W is the width of the driver's face in the camera image. The person state determination device 132 searches for a face outline in the camera image and detects the face width W.

顔向き角度αは、上記に説明した運転者の顔の左右方向の角度である。人物状態判定装置132は、顔向き検知マイコン131から出力される顔向き角度αを取得する。   The face orientation angle α is an angle in the left-right direction of the driver's face described above. The person state determination device 132 acquires the face orientation angle α output from the face orientation detection microcomputer 131.

鼻の位置(Nx,Ny)は、カメラ画像中において運転者の鼻の位置を示す座標である。人物状態判定装置132は、カメラ画像中で鼻の部分を探索して鼻の位置(Nx,Ny)を検出する。詳細は後述するが、人物状態判定装置132は、口探索範囲の中心(Mx,My)を鼻の位置(Nx,Ny)にもとづいて設定する。   The nose position (Nx, Ny) is a coordinate indicating the position of the driver's nose in the camera image. The person state determination device 132 searches the nose portion in the camera image to detect the position of the nose (Nx, Ny). Although details will be described later, the person state determination device 132 sets the center (Mx, My) of the mouth search range based on the position of the nose (Nx, Ny).

左眼瞼開度ELは、カメラ画像中における運転者の左眼の上下瞼の間隔である。また、右眼瞼開度ERは、カメラ画像中における運転者の右眼の上下瞼の間隔である。詳細は後述するが、人物状態判定装置132はカメラ画像中で両眼の瞼の輪郭を各々検出し、当該輪郭にもとづいて左右の眼の瞼の間隔を各々検出する。左眼瞼開度の閾値ELthは、左眼瞼開度ELの閾値であり、予め定められた定数である。また、右眼瞼開度の閾値ERthは、右眼瞼開度ERの閾値であり、予め定められた定数である。詳細は後述するが、人物状態判定装置132は、左眼瞼開度ELの値が左眼瞼開度の閾値ELth未満であり、且つ右眼瞼開度ERの値が右眼瞼開度の閾値ERth未満である場合、運転者が眼を閉じていると推定し、閉眼フラグをオンにする。閉眼フラグは運転者が眼を閉じていると推定されたか否かを示すフラグである。なお、閉眼フラグは、当該閉眼フラグがオンである場合、運転者が眼を閉じていることを示し、当該閉眼フラグがオフである場合、運転者が開眼していることを示す。   The left eyelid opening degree EL is an interval between the upper and lower eyelids of the driver's left eye in the camera image. Further, the right eyelid opening degree ER is an interval between the upper and lower eyelids of the driver's right eye in the camera image. Although details will be described later, the person state determination device 132 detects the contours of the eyelids of both eyes in the camera image, and detects the distance between the eyelids of the left and right eyes based on the contours. The threshold value ELth for the left eyelid opening is a threshold value for the left eyelid opening EL, and is a predetermined constant. Further, the threshold value ERth of the right eyelid opening is a threshold value of the right eyelid opening ER, and is a predetermined constant. Although the details will be described later, the human state determination device 132 has a value of the left eyelid opening EL that is less than the threshold value ELth of the left eyelid opening, and a value of the right eyelid opening ER that is less than the threshold value ERth of the right eyelid opening. In some cases, it is estimated that the driver has closed his eyes and the closed eye flag is turned on. The closed eye flag is a flag indicating whether or not the driver is estimated to have closed his eyes. The closed eye flag indicates that the driver is closing his eyes when the closed eye flag is on, and indicates that the driver is opening his eyes when the closed eye flag is off.

口探索範囲とは、カメラ画像中で運転者の口を探索する領域である。本実施形態では、口探索範囲が、カメラ画像のXY座標軸と平行な4辺から成る長方形で設定される例について説明する。口探索範囲の中心(Mx,My)はカメラ画像中における口探索範囲の中心座標である。口探索範囲の横幅MWは、カメラ画像中における口探索範囲のX方向の幅である。口探索範囲の縦の長さMHは、カメラ画像中における口探索範囲のY方向の長さであり、予め定められた定数である。人物状態判定装置132は、口探索範囲の中心(Mx,My)、口探索範囲の横幅MW、および口探索範囲の縦の長さMHにより口探索範囲を設定し、当該口探索範囲20の領域内で運転者の口を検出する。   The mouth search range is an area for searching for the driver's mouth in the camera image. In the present embodiment, an example will be described in which the mouth search range is set as a rectangle having four sides parallel to the XY coordinate axes of the camera image. The center (Mx, My) of the mouth search range is the center coordinates of the mouth search range in the camera image. The width MW of the mouth search range is the width in the X direction of the mouth search range in the camera image. The vertical length MH of the mouth search range is the length in the Y direction of the mouth search range in the camera image, and is a predetermined constant. The person state determination device 132 sets the mouth search range based on the center (Mx, My) of the mouth search range, the horizontal width MW of the mouth search range, and the vertical length MH of the mouth search range, and the region of the mouth search range 20 The driver's mouth is detected within.

口角情報は、人物状態判定装置132により検出された口に関する情報である。口角情報の詳細については後述図11において説明する。人物状態判定装置132は、口角情報にもとづいて運転者が笑っているか否かを推定し、笑顔フラグをオンまたはオフに切り替える。笑顔フラグは運転者が笑っていると推定されたか否かを示すフラグである。なお、笑顔フラグは、当該笑顔フラグがオンである場合、運転者が笑っていることを示し、当該笑顔フラグがオフである場合、運転者が笑っていないことを示す。   The mouth corner information is information about the mouth detected by the person state determination device 132. Details of the mouth corner information will be described later with reference to FIG. The person state determination device 132 estimates whether or not the driver is laughing based on the mouth angle information, and switches the smile flag on or off. The smile flag is a flag indicating whether or not it is estimated that the driver is laughing. The smile flag indicates that the driver is smiling when the smile flag is on, and indicates that the driver is not smiling when the smile flag is off.

タイマーカウント値Cは、人物状態判定装置132が計測した時間を示すカウント値である。タイマーカウント値の閾値Cthは、タイマーカウント値Cの閾値である。詳細は後述するが、人物状態判定装置132は、運転者が閉眼し、且つ、笑っている状態であると推定した場合、当該状態の継続時間を計測してタイマーカウント値Cを増加させる。そして、人物状態判定装置132は、タイマーカウント値Cがタイマーカウント値の閾値Cthに達すると、運転者が覚醒していると判定する。   The timer count value C is a count value indicating the time measured by the person state determination device 132. The timer count value threshold Cth is a threshold of the timer count value C. Although the details will be described later, when it is estimated that the driver is in a state where the driver is closed and smiling, the person state determination device 132 measures the duration of the state and increases the timer count value C. When the timer count value C reaches the timer count value threshold Cth, the person state determination device 132 determines that the driver is awake.

次に、図5を参照して人物状態判定装置132が実行する覚醒判定処理について説明する。図5は、人物状態判定装置132が実行する覚醒判定処理を示すフローチャートの一例である。   Next, the arousal determination process executed by the person state determination apparatus 132 will be described with reference to FIG. FIG. 5 is an example of a flowchart showing awakening determination processing executed by the person state determination device 132.

ステップB1において、人物状態判定装置132は、顔向き角度αを取得する。具体的には、人物状態判定装置132は、上記図2のステップA3において顔向き検知マイコン131が算出した顔向き角度αの値を取得する。ステップB1の処理を完了すると、人物状態判定装置132は、処理をステップB2へ進める。   In step B1, the human state determination device 132 acquires the face orientation angle α. Specifically, the person state determination device 132 acquires the value of the face orientation angle α calculated by the face orientation detection microcomputer 131 in step A3 of FIG. When the process of step B1 is completed, the person state determination device 132 proceeds with the process to step B2.

ステップB2において、人物状態判定装置132は、カメラ画像中の運転者の顔幅Wを検出する。具体的には、例えば公知のソーベルオペレータを用いたエッジ抽出処理によって、カメラ画像中で顔の輪郭部分を探索して顔幅Wを検出する。そして、人物状態判定装置132は、検出した顔幅Wを示すデータを人物状態判定装置132が備える記憶装置に記憶する。人物状態判定装置132は、ステップB2の処理を完了すると、処理をステップB3へ進める。   In step B2, the human state determination device 132 detects the driver's face width W in the camera image. Specifically, for example, the face width W is detected by searching for the contour portion of the face in the camera image by edge extraction processing using a known Sobel operator. Then, the person state determination device 132 stores data indicating the detected face width W in a storage device included in the person state determination device 132. When the person state determination device 132 completes the process of step B2, the process proceeds to step B3.

ステップB3において、人物状態判定装置132は、カメラ画像中で鼻の部分を探索して鼻の位置(Nx,Ny)を検出する。具体的には、人物状態判定装置132は、鼻孔の位置を検出する。そして、1対の鼻孔の中間位置を鼻の位置(Nx,Ny)として検出する。人物状態判定装置132は、検出した鼻の位置(Nx,Ny)を示すデータを人物状態判定装置132が備える記憶装置に記憶する。人物状態判定装置132は、ステップB3の処理を完了すると、処理をステップB4へ進める。   In step B3, the person state determination device 132 searches for the nose portion in the camera image and detects the position of the nose (Nx, Ny). Specifically, the person state determination device 132 detects the position of the nostril. Then, an intermediate position between the pair of nostrils is detected as a nose position (Nx, Ny). The person state determination device 132 stores data indicating the detected position (Nx, Ny) of the nose in a storage device included in the person state determination device 132. When the person state determination device 132 completes the process of step B3, the process proceeds to step B4.

上記ステップB3において検出される鼻孔の形状は、眼や口の形状に比べて個人差が小さい。そのため、鼻の位置は眼や口の位置に比べてより正確に検出することができる。一方、眼や口の形状は個人差が大きいため、最適な探索範囲を設定しなければ当該眼や口の位置および形状を正確に検出し難い。したがって、下記のステップB4およびステップB5の処理では、鼻の位置(Nx,Ny)を基準に最適な眼の探索範囲および口探索範囲を設定することによって、運転者の眼や口の形状を正確に検出可能とする。   The nostril shape detected in step B3 has less individual differences than the eye and mouth shapes. Therefore, the position of the nose can be detected more accurately than the position of the eyes and mouth. On the other hand, since the eye and mouth shapes vary greatly among individuals, it is difficult to accurately detect the position and shape of the eyes and mouth unless an optimum search range is set. Therefore, in the following processing of Step B4 and Step B5, the optimal eye search range and mouth search range are set based on the position of the nose (Nx, Ny), thereby accurately determining the shape of the driver's eyes and mouth. Can be detected.

ステップB4において、人物状態判定装置132は、閉眼推定処理を実行する。閉眼推定処理とは、図6に示す、運転者が両眼を閉じている状態か否かを推定するサブルーチン処理である。なお、図6は閉眼推定処理のサブルーチンを示すフローチャートの一例である。図6に示す閉眼推定処理の詳細については後述で説明する。人物状態判定装置132は、閉眼推定処理を実行し、当該処理において運転者が両眼を閉眼した状態であると推定した場合、閉眼フラグをオンに設定して記憶する。一方、人物状態判定装置132は、閉眼推定処理において、運転者が少なくとも左右何れかの眼を開いた状態であると推定した場合、閉眼フラグをオフに設定して記憶する。ステップB4の処理を完了すると、人物状態判定装置132は、処理をステップB5へ進める。   In step B <b> 4, the person state determination device 132 performs the closed eye estimation process. The closed eye estimation process is a subroutine process for estimating whether or not the driver is closing both eyes as shown in FIG. FIG. 6 is an example of a flowchart showing a subroutine for the closed eye estimation process. Details of the closed eye estimation process shown in FIG. 6 will be described later. The person state determination device 132 executes the closed eye estimation process, and when it is estimated that the driver has closed both eyes in the process, the closed eye flag is set to ON and stored. On the other hand, in the closed eye estimation process, the person state determination device 132 sets the closed eye flag to OFF and stores it when it is estimated that the driver has opened at least one of the left and right eyes. When the process of step B4 is completed, the person state determination device 132 proceeds with the process to step B5.

ステップB5において、人物状態判定装置132は、笑顔推定処理を実行する。笑顔推定処理とは、図7に示す、運転者が笑っている状態か否かを推定するサブルーチン処理である。なお、図7は笑顔推定処理のサブルーチンを示すフローチャートの一例である。図7に示す笑顔推定処理の詳細については後述で説明する。人物状態判定装置132は、笑顔推定処理を実行し、当該処理において運転者が笑っている状態であると推定した場合、笑顔フラグをオンに設定して記憶する。一方、人物状態判定装置132は、笑顔推定処理において、運転者が笑っていないと推定した場合、笑顔フラグをオフに設定して記憶する。ステップB5の処理を完了すると、人物状態判定装置132は、処理をステップB6へ進める。   In step B5, the person state determination device 132 executes smile estimation processing. The smile estimation process is a subroutine process for estimating whether or not the driver is smiling as shown in FIG. FIG. 7 is an example of a flowchart showing a subroutine of smile estimation processing. Details of the smile estimation process shown in FIG. 7 will be described later. When the person state determination device 132 executes a smile estimation process and estimates that the driver is laughing in the process, the person state determination device 132 sets the smile flag to ON and stores it. On the other hand, when it is estimated that the driver is not laughing in the smile estimation process, the person state determination device 132 sets the smile flag to OFF and stores it. When the process of step B5 is completed, the person state determination device 132 proceeds with the process to step B6.

ステップB6において、人物状態判定装置132は、閉眼フラグがオンであるか否かを判定する。具体的には、人物状態判定装置132は、ステップB4において設定した閉眼フラグの状態を読み出し、オンまたはオフの何れであるかを判定する。閉眼フラグがオンであった場合、すなわち運転者が眼を閉じていると推定した場合、人物状態判定装置132は、処理をステップB7へ進める。一方、閉眼フラグがオフであった場合、すなわち運転者が眼を開いていると推定した場合、人物状態判定装置132は、処理をステップB11へ進める。   In step B6, the person state determination device 132 determines whether or not the eye-closed flag is on. Specifically, the person state determination device 132 reads the state of the closed eye flag set in step B4 and determines whether it is on or off. When the closed eye flag is on, that is, when it is estimated that the driver is closing the eyes, the person state determination device 132 proceeds with the process to step B7. On the other hand, when the closed eye flag is off, that is, when it is estimated that the driver is opening his / her eyes, the person state determination device 132 proceeds with the process to step B11.

ステップB7において、人物状態判定装置132は、笑顔フラグがオンであるか否かを判定する。具体的には、人物状態判定装置132は、ステップB5において設定した笑顔フラグの状態を読み出し、オンまたはオフの何れであるかを判定する。笑顔フラグがオンであった場合、すなわち運転者が笑っていると推定した場合、人物状態判定装置132は、処理をステップB8へ進める。一方、笑顔フラグがオフであった場合、すなわち運転者が笑っていないと推定した場合、人物状態判定装置132は、処理をステップB10へ進める。   In step B7, the person state determination device 132 determines whether the smile flag is on. Specifically, the person state determination device 132 reads the state of the smile flag set in step B5 and determines whether it is on or off. When the smile flag is on, that is, when it is estimated that the driver is laughing, the person state determination device 132 proceeds with the process to step B8. On the other hand, when the smile flag is off, that is, when it is estimated that the driver is not laughing, the person state determination device 132 advances the process to step B10.

ステップB8において、人物状態判定装置132は、タイマーをカウントアップする。具体的には、人物状態判定装置132は、記憶しているタイマーカウント値Cに、例えば1などの定数を加算し、加算後のタイマーカウント値Cを記憶装置に上書きして記憶する。ステップB8の処理を完了すると、人物状態判定装置132は、処理をステップB9へ進める。   In step B8, the person state determination device 132 counts up the timer. Specifically, the person state determination device 132 adds a constant such as 1 to the stored timer count value C and overwrites and stores the timer count value C after the addition in the storage device. When the process of step B8 is completed, the person state determination device 132 proceeds with the process to step B9.

ステップB9において、人物状態判定装置132は、タイマーカウント値Cがタイマーカウント値の閾値Cthに達したか否かを判定する。具体的には、人物状態判定装置132は、記憶装置に記憶したタイマーカウント値Cおよびタイマーカウント値の閾値Cthを読み出し、各々の値の大きさを比較する。タイマーカウント値Cがタイマーカウント値の閾値Cthに達している場合、人物状態判定装置132は、処理をステップB13へ進める。一方、タイマーカウント値Cがタイマーカウント値の閾値Cthに達していない場合、人物状態判定装置132は、処理をステップB14へ進める。   In step B9, the person state determination device 132 determines whether or not the timer count value C has reached the threshold value Cth of the timer count value. Specifically, the person state determination device 132 reads the timer count value C and the threshold value Cth of the timer count value stored in the storage device, and compares the values. If the timer count value C has reached the threshold value Cth of the timer count value, the person state determination device 132 advances the process to step B13. On the other hand, if the timer count value C has not reached the timer count value threshold Cth, the person state determination device 132 advances the process to step B14.

ステップB10において、人物状態判定装置132は、タイマーを初期化する。具体的には、人物状態判定装置132は、記憶装置に記憶したタイマーカウント値Cの値を初期化する。ステップB10の処理を完了すると、人物状態判定装置132は、処理をステップB14へ進める。   In step B10, the person state determination device 132 initializes a timer. Specifically, the person state determination device 132 initializes the timer count value C stored in the storage device. When the process of step B10 is completed, the person state determination device 132 proceeds with the process to step B14.

ステップB11において、人物状態判定装置132は、タイマーを初期化する。具体的には、人物状態判定装置132は、ステップB10と同様に、記憶装置に記憶したタイマーカウント値Cの値を初期化する。ステップB11の処理を完了すると、人物状態判定装置132は、処理をステップB12へ進める。   In step B11, the person state determination device 132 initializes a timer. Specifically, the person state determination device 132 initializes the value of the timer count value C stored in the storage device, similarly to step B10. When the process of step B11 is completed, the person state determination device 132 proceeds with the process to step B12.

ステップB12において、人物状態判定装置132は、口角度を学習する。詳細は後述するが、口角度は、カメラ画像中の運転者の口の形状に関する情報であり、上記ステップB5の処理において算出される。人物状態判定装置132は、口角度を学習情報として記憶する。人物状態判定装置132は、上述のステップB5の処理で運転者が笑顔であるか否かを推定する際に上記学習情報を用いる。ステップB12の処理を完了すると、人物状態判定装置132は、処理をステップB13へ進める。   In step B12, the person state determination device 132 learns the mouth angle. Although details will be described later, the mouth angle is information related to the shape of the driver's mouth in the camera image, and is calculated in the process of step B5. The person state determination device 132 stores the mouth angle as learning information. The person state determination device 132 uses the learning information when estimating whether or not the driver is smiling in the process of step B5 described above. When the process of step B12 is completed, the person state determination device 132 proceeds with the process to step B13.

ステップB13において、人物状態判定装置132は、覚醒判定信号を出力する。具体的には、人物状態判定装置132は、覚醒判定信号を車両制御システム2へ出力する。ステップB13の処理を完了すると、人物状態判定装置132は、覚醒判定処理のサブルーチンを完了し、処理を図2に示すフローチャートのステップA1へ戻す。   In step B13, the person state determination device 132 outputs an arousal determination signal. Specifically, the person state determination device 132 outputs an awakening determination signal to the vehicle control system 2. When the process of step B13 is completed, the person state determination device 132 completes the subroutine of the arousal determination process and returns the process to step A1 of the flowchart shown in FIG.

ステップB14において、人物状態判定装置132は、非覚醒判定信号を出力する。具体的には、人物状態判定装置132は、非覚醒判定信号を車両制御システム2へ出力する。ステップB14の処理を完了すると、人物状態判定装置132は、覚醒判定処理のサブルーチンを完了し、処理を図2に示すフローチャートのステップA1へ戻す。   In step B14, the person state determination device 132 outputs a non-wake determination signal. Specifically, the person state determination device 132 outputs a non-wake determination signal to the vehicle control system 2. When the process of step B14 is completed, the person state determination device 132 completes the subroutine of the arousal determination process and returns the process to step A1 of the flowchart shown in FIG.

上記のステップB6からステップB14の処理によれば、閉眼フラグがオン、且つ笑顔フラグがオンである場合、人物状態判定装置132は、タイマーにより当該状態の持続時間を計測する。そして、人物状態判定装置132は、上記持続時間がタイマーカウント値の閾値Cthにより決定される所定の時間に達した場合、覚醒判定信号を出力する。すなわち、人物状態判定装置132は、運転者が笑いながら眼を細めていると推定される状態で所定の時間を経過すると、運転者が覚醒していると判定する。また、人物状態判定装置132は、閉眼フラグがオフである場合、すなわち、運転者が両眼とも開いた状態であると推定した場合、運転者は覚醒していると判定して覚醒判定信号を出力する。   According to the processing from step B6 to step B14 described above, when the closed eye flag is on and the smile flag is on, the person state determination device 132 measures the duration of the state using a timer. Then, the person state determination device 132 outputs an arousal determination signal when the duration has reached a predetermined time determined by the threshold value Cth of the timer count value. That is, the person state determination device 132 determines that the driver is awake when a predetermined time elapses in a state where it is estimated that the driver is laughing and narrowing his eyes. Also, when the closed eye flag is off, that is, when it is estimated that the driver is in the state where both eyes are open, the person state determination device 132 determines that the driver is awake and outputs an awakening determination signal. Output.

一方で、閉眼フラグがオンであっても笑顔フラグがオフである場合、すなわち、運転者が眼を閉じ、且つ、笑っていないと推定した場合、人物状態判定装置132は、運転者が覚醒していないと判定し、非覚醒判定信号を出力する。また、閉眼フラグがオン、且つ笑顔フラグがオンである場合であっても、タイマーカウントCがタイマーカウント値の閾値Cthに達していない間は、人物状態判定装置132は、運転者が覚醒していないと判定し、非覚醒判定信号を出力する。   On the other hand, if the smile flag is off even if the closed eye flag is on, that is, if it is estimated that the driver closes his eyes and is not laughing, the person state determination device 132 causes the driver to wake up. It determines that it is not, and outputs a non-wakefulness determination signal. In addition, even when the closed eye flag is on and the smile flag is on, while the timer count C does not reach the threshold value Cth of the timer count value, the person state determination device 132 causes the driver to wake up. It is determined that there is not, and a non-wakefulness determination signal is output.

なお、人物状態判定装置132は、閉眼フラグがオフであった場合、口角度を学習する。すなわち、人物状態判定装置132は、運転者の眼が開いている状態での口角度を学習する。詳細は後述するが、人物状態判定装置132は、上記学習結果にもとづいて運転者が笑っているか否かを判定することによって、運転者が笑っているか否かをより正確に推定することができる。   Note that the person state determination device 132 learns the mouth angle when the closed eye flag is off. That is, the person state determination device 132 learns the mouth angle when the driver's eyes are open. Although details will be described later, the person state determination device 132 can more accurately estimate whether or not the driver is laughing by determining whether or not the driver is laughing based on the learning result. .

上記の覚醒判定処理によれば、人物状態判定装置132は、運転者が眼を細めて笑っている場合、運転者が覚醒していないと誤判定することを防ぐことができる。   According to the above arousal determination process, the person state determination device 132 can prevent erroneous determination that the driver is not awake when the driver is laughing with his eyes narrowed.

次に、上記に説明した覚醒判定処理のステップB4において人物状態判定装置132が実行する閉眼推定処理の詳細について図6を参照して説明する。なお、下記の閉眼推定処理は一例であり、人物状態判定装置132が運転者が閉眼しているか否かを推定する手法は下記の例に限らず、従来の既知の手法を用いて構わない。   Next, details of the closed eye estimation process executed by the person state determination apparatus 132 in step B4 of the awakening determination process described above will be described with reference to FIG. In addition, the following closed eye estimation process is an example, and the method for estimating whether or not the person state determination device 132 is closed by the driver is not limited to the following example, and a conventional known method may be used.

ステップC1において、人物状態判定装置132は、左眼瞼開度ELを算出する。具体的には、まず、人物状態判定装置132は、カメラ画像中で運転者の左眼を検出する。次に、人物状態判定装置132は、例えば公知のソーベルオペレータを用いたエッジ抽出処理などによって、左眼の上瞼の輪郭および下瞼の輪郭を検出する。そして、人物状態判定装置132は、左眼の上瞼の輪郭から下瞼の輪郭までのY方向の距離の最大値を算出し、当該最大値を左眼瞼開度ELとして記憶装置に記憶する(図8参照)。ステップC1の処理を完了すると、人物状態判定装置132は、処理をステップC2へ進める。   In step C1, the person state determination device 132 calculates the left eyelid opening degree EL. Specifically, first, the person state determination device 132 detects the driver's left eye in the camera image. Next, the person state determination device 132 detects the contours of the upper eyelid and the lower eyelid of the left eye by, for example, an edge extraction process using a known Sobel operator. Then, the person state determination device 132 calculates the maximum value of the distance in the Y direction from the contour of the upper eyelid to the contour of the lower eyelid, and stores the maximum value in the storage device as the left eyelid opening degree EL ( (See FIG. 8). When the process of step C1 is completed, the person state determination device 132 proceeds with the process to step C2.

ステップC2において、人物状態判定装置132は、右眼瞼開度ERを算出する。具体的には、人物状態判定装置132は、ステップC1と同様の方法で右眼瞼開度ERを算出し、記憶装置に記憶する(図8参照)。ステップC2の処理を完了すると、人物状態判定装置132は、処理をステップC3へ進める。   In step C2, the person state determination device 132 calculates the right eyelid opening degree ER. Specifically, the person state determination device 132 calculates the right eyelid opening ER by the same method as in step C1, and stores it in the storage device (see FIG. 8). When the process of step C2 is completed, the person state determination device 132 proceeds with the process to step C3.

ステップC3において、左眼瞼開度ELが閾値ELth未満であるか否かを判定する。具体的には、人物状態判定装置132は、記憶装置に記憶した左眼瞼開度ELおよび左眼瞼開度の閾値ELthを読み出し、各々の値の大きさを比較する。タイマーカウント値Cがタイマーカウント値の閾値Cth未満である場合、人物状態判定装置132は、処理をステップC4へ進める。一方、タイマーカウント値Cがタイマーカウント値の閾値Cth以上である場合、人物状態判定装置132は、処理をステップC6へ進める。   In step C3, it is determined whether or not the left eyelid opening degree EL is less than a threshold value ELth. Specifically, the person state determination device 132 reads the left eyelid opening degree EL and the left eyelid opening degree threshold value ELth stored in the storage device, and compares the values. If the timer count value C is less than the threshold value Cth of the timer count value, the person state determination device 132 proceeds with the process to step C4. On the other hand, when the timer count value C is equal to or greater than the threshold value Cth of the timer count value, the person state determination device 132 proceeds with the process to step C6.

上記ステップC3の処理によれば、運転者の左眼が閉じているか否かを推定することができる。   According to the process in step C3, it can be estimated whether or not the driver's left eye is closed.

ステップC4において、右眼瞼開度ERが閾値ERth未満であるか否かを判定する。具体的には、人物状態判定装置132は、記憶装置に記憶した右眼瞼開度ERおよび右眼瞼開度の閾値ERthを読み出し、各々の値の大きさを比較する。タイマーカウント値Cがタイマーカウント値の閾値Cth未満である場合、人物状態判定装置132は、処理をステップC5へ進める。一方、タイマーカウント値Cがタイマーカウント値の閾値Cth以上である場合、人物状態判定装置132は、処理をステップC6へ進める。   In Step C4, it is determined whether or not the right eyelid opening degree ER is less than the threshold value ERth. Specifically, the person state determination device 132 reads the right eyelid opening ER and the right eyelid opening threshold ERth stored in the storage device, and compares the magnitudes of the values. If the timer count value C is less than the threshold value Cth of the timer count value, the person state determination device 132 proceeds with the process to step C5. On the other hand, when the timer count value C is equal to or greater than the threshold value Cth of the timer count value, the person state determination device 132 proceeds with the process to step C6.

上記ステップC4の処理によれば、運転者の右眼が閉じているか否かを推定することができる。   According to the process of step C4, it can be estimated whether or not the right eye of the driver is closed.

ステップC5において、人物状態判定装置132は、閉眼フラグをオンにする。具体的には、人物状態判定装置132は、閉眼フラグをオンに設定し、当該閉眼フラグの状態を記憶装置に記憶する。ステップC5の処理を完了すると、人物状態判定装置132は、閉眼推定処理のサブルーチンを完了し、処理を図5に示す覚醒判定処理のステップB5へ進める。   In step C5, the person state determination device 132 turns on the closed eye flag. Specifically, the person state determination device 132 sets the closed eye flag to ON, and stores the state of the closed eye flag in the storage device. When the process of step C5 is completed, the person state determination device 132 completes the closed eye estimation process subroutine and advances the process to step B5 of the arousal determination process shown in FIG.

ステップC6において、人物状態判定装置132は、閉眼フラグをオフにする。具体的には、人物状態判定装置132は、閉眼フラグをオフに設定し、当該閉眼フラグの状態を記憶装置に記憶する。ステップC6の処理を完了すると、人物状態判定装置132は、閉眼推定処理のサブルーチンを完了し、処理を図5に示す覚醒判定処理のステップB5へ進める。   In step C6, the person state determination device 132 turns off the closed eye flag. Specifically, the person state determination device 132 sets the closed eye flag to OFF, and stores the state of the closed eye flag in the storage device. When the process of step C6 is completed, the person state determination device 132 completes the closed eye estimation process subroutine and advances the process to step B5 of the arousal determination process shown in FIG.

上記ステップC1からC6の処理によれば、左眼瞼開度および右眼瞼開度が各々の閾値未満である場合、すなわち左右両眼が閉じていると推定された場合に閉眼フラグがオンとなる。また、左眼瞼開度または右眼瞼開度の何れかが各々閾値以上である場合、すなわち左右両眼の少なくとも何れかが開いていると推定された場合には閉眼フラグがオフとなる。   According to the processing of steps C1 to C6, when the left eyelid opening and the right eyelid opening are less than the respective threshold values, that is, when it is estimated that both the left and right eyes are closed, the closed eye flag is turned on. In addition, when either the left eyelid opening or the right eyelid opening is equal to or greater than the threshold value, that is, when it is estimated that at least one of the left and right eyes is open, the closed eye flag is turned off.

次に、上記に説明した覚醒判定処理のステップB5において人物状態判定装置132が実行する笑顔推定処理の詳細について図7を参照して説明する。   Next, details of the smile estimation process executed by the person state determination apparatus 132 in step B5 of the awakening determination process described above will be described with reference to FIG.

ステップD1において、人物状態判定装置132は、口探索範囲20を設定する。図8を参照して口探索範囲の設定方法について具体的に説明する。なお、図8は、カメラ画像中で設定された口探索範囲20を示す図である。   In step D1, the person state determination device 132 sets the mouth search range 20. The mouth search range setting method will be specifically described with reference to FIG. FIG. 8 is a diagram showing the mouth search range 20 set in the camera image.

まず、人物状態判定装置132は、口探索範囲20の横幅MWを算出する。カメラ画像中の運転者の口の大きさは、運転者の顔の向きに応じて変化するため、顔向き角度αの値に応じて最適な大きさに変更することが望ましい。そのため、人物状態判定装置132は、顔向き角度αの値を口探索範囲20の横幅MWの値に換算するデータテーブルを予め記憶し、顔向き角度αおよび該データテーブルにもとづいて口探索範囲20の横幅MWを算出する。   First, the person state determination device 132 calculates the width MW of the mouth search range 20. Since the size of the driver's mouth in the camera image changes according to the direction of the driver's face, it is desirable to change the size to an optimum size according to the value of the face orientation angle α. Therefore, the human state determination device 132 stores in advance a data table for converting the value of the face orientation angle α into the value of the width MW of the mouth search range 20, and based on the face orientation angle α and the data table, the mouth search range 20 The horizontal width MW of is calculated.

次に、人物状態判定装置132は、覚醒判定処理のステップB3において検出した鼻の位置(Nx,Ny)にもとづいて下式により口探索範囲の中心(Mx,My)を算出する。
Mx=Nx
My=Ny−ΔM
なお、ΔMは予め人物状態判定装置132の記憶装置に記憶される定数である。人物の口の位置と鼻の位置との相対的な位置関係は個人差が少ないため、鼻の位置が既知であれば上記のような式で概ねの口の位置を推定することができる。人物状態判定装置132は、上記のように求めた口探索範囲の中心(Mx,My)を中心として、横幅MWおよび縦の長さMHの範囲を口探索範囲20として設定する。人物状態判定装置132は、ステップD1の処理を完了すると、処理をステップD2へ進める。
Next, the person state determination device 132 calculates the center (Mx, My) of the mouth search range by the following equation based on the nose position (Nx, Ny) detected in step B3 of the arousal determination process.
Mx = Nx
My = Ny−ΔM
ΔM is a constant stored in advance in the storage device of the person state determination device 132. Since the relative positional relationship between the position of the person's mouth and the position of the nose is small in individual differences, if the position of the nose is known, the approximate position of the mouth can be estimated by the above formula. The person state determination device 132 sets the range of the horizontal width MW and the vertical length MH as the mouth search range 20 around the center (Mx, My) of the mouth search range obtained as described above. When the person state determination device 132 completes the process of step D1, the process proceeds to step D2.

なお、上記ステップD1の処理の説明では、人物状態判定装置132が、口探索範囲20を長方形に設定する例を示したが、上記のような長方形に限らず、口探索範囲20は運転者の口部分を包含する領域に設定可能であれば他の種々の形状として良い。例えば、人物状態判定装置132は、口探索範囲20を楕円などの形状に設定しても構わない。   In the description of the processing in step D1, the example in which the human state determination device 132 sets the mouth search range 20 to a rectangle has been described. However, the mouth search range 20 is not limited to the rectangle as described above, and the mouth search range 20 is determined by the driver. Various other shapes may be used as long as the region including the mouth portion can be set. For example, the person state determination device 132 may set the mouth search range 20 to a shape such as an ellipse.

ステップD2において、人物状態判定装置132は、唇境界線を検出する。具体的には、人物状態判定装置132は、口探索範囲20内において、上下方向から、例えば公知のソーベルオペレータを用いたエッジ抽出処理などによって、唇境界線30を検出する。図9に唇境界線30を示す。なお、図9は、カメラ画像中における運転者の口の拡大図である。人物状態判定装置132は、ステップD2の処理を完了すると、処理をステップD3へ進める。   In step D2, the human state determination device 132 detects a lip boundary line. Specifically, the person state determination device 132 detects the lip boundary line 30 in the mouth search range 20 from the vertical direction by, for example, edge extraction processing using a known Sobel operator. FIG. 9 shows the lip boundary line 30. FIG. 9 is an enlarged view of the driver's mouth in the camera image. When the person state determination device 132 completes the process of step D2, the process proceeds to step D3.

ステップD3において、人物状態判定装置132は、線分対を抽出する。人物状態判定装置132が、線分対を抽出する処理について図9および図10を参照して説明する。まず、人物状態判定装置132は、図9に示すように唇境界線30をN等分(Nは整数)する。なお、本実施形態では、一例としてN=8の場合、すなわち、唇境界線を8等分する例について説明する。次に、人物状態判定装置132は、図10に示すようにN等分された唇境界線を各々直線近似する。なお、図10は直線近似された唇境界線を示す図である。ここで、説明のため、直線近似して得られた線分を、各々、画像の左から順に線分31から線分38として符号を付す。上記の処理により得られた線分31〜38は、唇境界線30の両端からM番目(Mは整数)の線分同士を1組の線分対として後述の処理において処理される。例えば、M=1番目の線分対をP1とすると、線分対P1は線分31および線分38により構成され、M=2番目の線分対をP2とすると、線分対P2は線分32および線分37により構成される。上記のステップD3の処理を完了すると、人物状態判定装置132は、処理をステップD4へ進める。   In step D3, the human state determination device 132 extracts a line segment pair. A process in which the human state determination device 132 extracts line segment pairs will be described with reference to FIGS. 9 and 10. First, the person state determination device 132 divides the lip boundary line 30 into N equal parts (N is an integer) as shown in FIG. In this embodiment, as an example, a case where N = 8, that is, an example in which the lip boundary line is equally divided will be described. Next, the person state determination device 132 linearly approximates each lip boundary line divided into N as shown in FIG. FIG. 10 is a diagram showing a lip boundary line approximated by a straight line. Here, for the sake of explanation, the line segments obtained by the straight line approximation are respectively denoted by reference numerals as a line segment 31 to a line segment 38 in order from the left of the image. The line segments 31 to 38 obtained by the above process are processed in the process described later with the M-th line segments (M is an integer) from both ends of the lip boundary line 30 as a pair of line segments. For example, if M = 1 is the first line segment pair, P1 is composed of the line segment 31 and 38, and M = 2 is the line pair P2, the line pair P2 is the line segment. It consists of a minute segment 32 and a line segment 37. When the process of step D3 is completed, the person state determination device 132 proceeds with the process to step D4.

人物状態判定装置132は、下記ステップD4からステップD6の処理により、指定された複数の線分対毎に、運転者が笑っているか否かを仮に推定し、当該結果を示すフラグ(笑顔仮フラグ)を設定する。そして、人物状態判定装置132は、後述ステップD7の処理において、線分対毎に設定した笑顔仮フラグを総合的に判断して、最終的に運転者が笑っているか否かを推定し、笑顔推定フラグを設定する。   The person state determination device 132 temporarily estimates whether or not the driver is laughing for each of a plurality of designated line segment pairs by the processing of the following steps D4 to D6, and indicates a flag (temporary smile flag) indicating the result. ) Is set. Then, the person state determination device 132 comprehensively determines the smile temporary flag set for each line segment pair in the process of step D7 described later, and finally estimates whether or not the driver is laughing. Set the estimation flag.

ステップD4において、人物状態判定装置132は、指定線分対のうち1つの線分対を選択する。指定線分対とは、後述のステップD5以後の処理において運転者が笑っているか否かの仮の推定を行う対象となる線分対である。人物状態判定装置132は、どの線分対を指定線分対とするか決定するため、指定番号Qを予め記憶する。上記指定番号Qは、上述ステップD3の説明におけるMに相当し、例えば、人物状態判定装置132が、指定番号Qとして1および2を予め記憶している場合、唇境界線の両端から1番目の線分対P1および2番目の線分対P2が指定線分対となる。人物状態判定装置132は、上記のようにして定められる指定線分対から1つを選択する。以下、本ステップD4において選択された指定線分対を選択線分対と呼称する。ステップD4の処理を完了すると、人物状態判定装置132は、処理をステップD5へ進める。   In step D4, the person state determination device 132 selects one line segment pair from the specified line segment pair. The designated line segment pair is a line segment pair that is a target for provisional estimation as to whether or not the driver is laughing in the processing after Step D5 described later. The person state determination device 132 stores a designation number Q in advance in order to determine which line segment pair is the designated line segment pair. The designated number Q corresponds to M in the description of step D3. For example, when the person state determination device 132 stores 1 and 2 as the designated number Q in advance, the first number from both ends of the lip boundary line is the first. The line segment pair P1 and the second line segment pair P2 are designated line segment pairs. The person state determination device 132 selects one of the specified line segment pairs determined as described above. Hereinafter, the designated line segment pair selected in step D4 is referred to as a selected line segment pair. When the process of step D4 is completed, the person state determination device 132 proceeds with the process to step D5.

上記ステップD3およびステップD4の処理によれば、人物状態判定装置132は、近赤外カメラ12と運転者の顔との拒理が変化して、カメラ画像中に映る運転者の口の大きさが変化した場合であっても、唇境界線の所定の箇所を線分対として抽出し、選択することができる。   According to the processing of step D3 and step D4, the human state determination device 132 changes the rejection of the near-infrared camera 12 and the driver's face, and the size of the driver's mouth reflected in the camera image. Even when is changed, a predetermined portion of the lip boundary line can be extracted and selected as a line segment pair.

ステップD5において、人物状態判定装置132は、笑顔仮フラグ設定処理を実行する。笑顔仮フラグ設定処理は、運転者が笑っているか否かを選択線分対にもとづいて仮に推定する処理である。ここで、図11および図12を参照して、笑顔仮フラグ設定処理について説明する。なお、図11は笑顔仮フラグ設定処理において処理される口角情報のデータを示す図である。また、図12は、笑顔仮フラグ設定処理のサブルーチンを示すフローチャートの一例である。   In step D5, the person state determination device 132 executes a temporary smile flag setting process. The smile temporary flag setting process is a process of temporarily estimating whether or not the driver is laughing based on the selected line segment pair. Here, the smile temporary flag setting process will be described with reference to FIGS. 11 and 12. Note that FIG. 11 is a diagram showing mouth angle information data processed in the temporary smile flag setting process. FIG. 12 is an example of a flowchart showing a subroutine of smile temporary flag setting processing.

まず、図11を参照して、笑顔仮フラグ設定処理において処理される口角情報のデータについて説明する。人物状態判定装置132は、口角情報として、指定線分対毎に、左口角度θL、右口角度θR、学習情報、合算値Σθ、合算値の閾値Σθth、平均左口角度AθL、平均右口角度AθR、左口角上位偏差σθL、右口角上位偏差σθR、および笑顔仮フラグを記憶し、処理する。   First, mouth angle information data processed in the smile temporary flag setting process will be described with reference to FIG. As the mouth angle information, the person state determination device 132 sets the left mouth angle θL, the right mouth angle θR, the learning information, the sum value Σθ, the sum value threshold Σθth, the average left mouth angle AθL, and the average right mouth for each specified line segment pair. The angle AθR, the left mouth corner upper deviation σθL, the right mouth corner upper deviation σθR, and the smile temporary flag are stored and processed.

左口角度θLは、線分対を成す線分のうち運転者から見て左側の線分と水平線とが成す角度である。線分対P1の左口角度θLをθL_P1とすると、図10に示すように、左口角度θL_P1は、線分38と水平線が成す角度である。一方、右口角度θRは、線分対を成す線分のうち運転者から見て右側の線分と水平線とが成す角度である。したがって、右口角度θRをθR_P1とすると、図10に示すように、右口角度θR_P1は、線分31と水平線が成す角度である。運転者が笑顔である場合、唇境界線が湾曲し、左口角度θLおよび右口角度θRの値は大きくなる。なお、上記覚醒判定処理のステップB12において説明した口角度とは、上記左口角度θLおよび右口角度θRの総称である。上記の通り、口角度は運転者が笑っているか否かに応じてその大きさが変化するため、口角度を用いて運転者が笑っているか否かを推定することができる。   The left exit angle θL is an angle formed by a left line segment and a horizontal line as viewed from the driver among line segments forming a line segment pair. Assuming that the left mouth angle θL of the line segment pair P1 is θL_P1, as shown in FIG. 10, the left mouth angle θL_P1 is an angle formed by the line segment 38 and the horizontal line. On the other hand, the right exit angle θR is an angle formed by a right-side line segment and a horizontal line as viewed from the driver among line-segment pairs. Therefore, if the right mouth angle θR is θR_P1, as shown in FIG. 10, the right mouth angle θR_P1 is an angle formed by the line segment 31 and the horizontal line. When the driver is smiling, the lip boundary is curved and the values of the left mouth angle θL and the right mouth angle θR are increased. The mouth angle described in step B12 of the awakening determination process is a generic name for the left mouth angle θL and the right mouth angle θR. As described above, the size of the mouth angle changes depending on whether or not the driver is laughing. Therefore, it is possible to estimate whether or not the driver is laughing using the mouth angle.

合算値Σθは当該線分対の最新の左口角度θLおよび右口角度θRの値を合算した合算値であり、下式で表せる。
Σθ=θL+θR
運転者が笑顔である場合、左口角度θLおよび右口角度θRの値は大きくなるため、合算値Σθは大きくなる。
The total value Σθ is a total value obtained by adding the values of the latest left mouth angle θL and right mouth angle θR of the line segment pair, and can be expressed by the following equation.
Σθ = θL + θR
When the driver is smiling, the values of the left mouth angle θL and the right mouth angle θR are large, so the total value Σθ is large.

学習情報は、上記覚醒判定処理のステップB12において記憶された複数の口角度のデータ群の総称である。人物状態判定装置132は、口角度を、新しく算出した順に定められた数だけ学習情報として記憶装置に記憶する。なお、本実施形態では、人物状態判定装置132が左口角度θLおよび右口角度θRを最新3つまで記憶するものとして説明する。学習情報として記憶された左口角度の値を、新しく記憶された順にθL1、θL2、およびθL3とする。同様に、学習情報として記憶された右口角度の値を、新しく記憶された順にθR1、θR2、およびθR3とする。口角度を学習情報として記憶する処理は、人物状態判定装置132により、上記覚醒判定処理のステップB12において実行される。このとき、人物状態判定装置132は、3つまで口角度のデータを記憶するため、記憶されている学習情報のうち最も古い口角度のデータを最新の口角度のデータで上書きする。   The learning information is a generic name for a plurality of mouth angle data groups stored in step B12 of the awakening determination process. The person state determination device 132 stores the mouth angles in the storage device as learning information by the number determined in the newly calculated order. In the present embodiment, description will be made assuming that the person state determination device 132 stores the latest three left mouth angles θL and right mouth angles θR. The values of the left mouth angle stored as the learning information are set to θL1, θL2, and θL3 in the newly stored order. Similarly, the value of the right mouth angle stored as the learning information is set to θR1, θR2, and θR3 in the order in which they are newly stored. The process of storing the mouth angle as learning information is executed by the person state determination device 132 in step B12 of the awakening determination process. At this time, since the person state determination device 132 stores the mouth angle data up to three, the oldest mouth angle data of the stored learning information is overwritten with the latest mouth angle data.

平均左口角度AθLは、学習情報として記憶された選択線分対の左口角度θLの平均値である。また、平均右口角度AθRは、学習情報として記憶された選択線分対の右口角度θRの平均値である。   The average left mouth angle AθL is an average value of the left mouth angles θL of the selected line segment pairs stored as learning information. The average right mouth angle AθR is an average value of the right mouth angle θR of the pair of selected line segments stored as learning information.

左口角上位偏差σθLは、学習情報として記憶された選択線分対の左口角度θLのうち、平均左口角度AθLより大きな値を有する左口角度θLの標準偏差である。また、右口角上位偏差σθRは、学習情報として記憶された選択線分対の右口角度θRのうち、平均右口角度AθRより大きな値を有する右口角度θRの標準偏差である。   The left mouth angle upper deviation σθL is a standard deviation of the left mouth angle θL having a value larger than the average left mouth angle AθL among the left mouth angles θL of the pair of selected line segments stored as learning information. Further, the right mouth angle upper deviation σθR is a standard deviation of the right mouth angle θR having a value larger than the average right mouth angle AθR among the right mouth angles θR of the pair of selected line segments stored as learning information.

合算値の閾値Σθthは、合算値Σθの閾値である。詳細は後述するが、合算値の閾値Σθthは、記憶されている口角度にもとづいて算出される。人物状態判定装置132は、合算値Σθの値が合算値の閾値Σθth以上であるか否かに応じて、笑顔仮フラグをオンまたはオフに設定する。   The threshold value Σθth of the sum value is a threshold value of the sum value Σθ. Although details will be described later, the threshold value Σθth of the total value is calculated based on the stored mouth angle. The person state determination device 132 sets the temporary smile flag to ON or OFF depending on whether or not the value of the total value Σθ is equal to or greater than the threshold value Σθth of the total value.

笑顔仮フラグは、選択線分対にもとづいて運転者が笑っているか否かを仮に推定した結果を示すフラグである。笑顔仮フラグがオンである場合、当該選択線分対にもとづいて運転者が笑っていると推定されたことが示される。一方、笑顔仮フラグがオフである場合、当該選択線分対にもとづいて運転者が笑っていないと推定されたことが示される。詳細は後述するが、人物状態判定装置132は、選択線分対の合算値Σθおよび合算値の閾値Σθthにもとづいて笑顔仮フラグをオンまたはオフに設定する。   The temporary smile flag is a flag indicating a result of temporarily estimating whether or not the driver is laughing based on the selected line segment pair. When the smile temporary flag is on, it is indicated that the driver is estimated to be laughing based on the selected line segment pair. On the other hand, when the smile temporary flag is off, it is indicated that it is estimated that the driver is not laughing based on the selected line segment pair. Although details will be described later, the person state determination device 132 sets the smile temporary flag to ON or OFF based on the total value Σθ of the selected line segment pair and the threshold value Σθth of the total value.

次に、図12を参照して笑顔仮フラグ設定処理のサブルーチンについて説明する。   Next, the smile temporary flag setting process subroutine will be described with reference to FIG.

ステップE1において、人物状態判定装置132は、口角度を算出する。具体的には、人物状態判定装置132は、選択線分対の口角度、すなわち左口角度θLおよび右口角度θRを算出して記憶装置に記憶する。例えば、人物状態判定装置132は、線分対P1を選択線分対として選択している場合、左口角度θL_P1および右口角度θR_P1を算出して記憶する。ステップE1の処理を完了すると、人物状態判定装置132は、処理をステップE2へ進める。   In step E1, the person state determination device 132 calculates a mouth angle. Specifically, the person state determination device 132 calculates the mouth angle of the selected line segment pair, that is, the left mouth angle θL and the right mouth angle θR, and stores them in the storage device. For example, when the line segment pair P1 is selected as the selected line segment pair, the person state determination device 132 calculates and stores the left mouth angle θL_P1 and the right mouth angle θR_P1. When the process of step E1 is completed, the person state determination device 132 advances the process to step E2.

ステップE2において、人物状態判定装置132は、口角度の合算値を算出する。具体的には、人物状態判定装置132は、ステップE1において算出した最新の左口角度θLおよび右口角度θRの値を読み出し、当該値にもとづいて上述の式から合算値Σθを算出して記憶する。ステップE2の処理を完了すると、人物状態判定装置132は、処理をステップE3へ進める。   In step E2, the person state determination device 132 calculates the sum value of the mouth angles. Specifically, the human state determination device 132 reads the latest values of the left mouth angle θL and the right mouth angle θR calculated in step E1, and calculates and stores the sum value Σθ from the above formula based on the values. To do. When the process of step E2 is completed, the person state determination device 132 advances the process to step E3.

ステップE3において、人物状態判定装置132は、合算値の閾値Σθthを算出する。具体的には、まず、人物状態判定装置132は、学習情報として記憶した左口角度にもとづいて平均左口角度AθLを算出する。次に、人物状態判定装置132は、算出した平均左口角度AθLにもとづいて左口角上位偏差σθLを算出する。同様に、人物状態判定装置132は、平均右口角度AθRおよび右口角上位偏差σθRを算出する。次に、人物状態判定装置132は、下式により合算値の閾値Σθthを算出して記憶する。
Σθth=3(σθL+σθR)×ε
なお、上式中εは予め定められた係数である。ステップE3の処理を完了すると、人物状態判定装置132は、処理をステップE4へ進める。
In step E3, the person state determination device 132 calculates a threshold value Σθth of the sum value. Specifically, first, the person state determination device 132 calculates the average left mouth angle AθL based on the left mouth angle stored as learning information. Next, the person state determination device 132 calculates the left mouth angle upper deviation σθL based on the calculated average left mouth angle AθL. Similarly, the person state determination device 132 calculates the average right mouth angle AθR and the right mouth angle upper deviation σθR. Next, the person state determination device 132 calculates and stores a threshold value Σθth of the sum value by the following equation.
Σθth = 3 (σθL + σθR) × ε
In the above equation, ε is a predetermined coefficient. When the process of step E3 is completed, the person state determination device 132 advances the process to step E4.

上記ステップE3および覚醒判定処理のステップB12の処理によれば、人物状態判定装置132は、運転者が開眼した状態における口の形状を予め学習し、当該学習した学習情報にもとづいて合算値の閾値Σθthを算出することができる。   According to the processing of step E3 and step B12 of the arousal determination processing, the person state determination device 132 learns in advance the shape of the mouth in a state where the driver has opened his eyes, and the threshold value of the sum value based on the learned information thus learned. Σθth can be calculated.

ステップE4において、人物状態判定装置132は、合算値Σθが合算値の閾値Σθth以上であるか否かを判定する。具体的には、人物状態判定装置132は、記憶装置から合算値Σθおよび合算値の閾値Σθthの値を読み出し、各々の大小を比較する。人物状態判定装置132は、合算値Σθが合算値の閾値Σθth以上である場合、処理をステップE5へ進める。一方、人物状態判定装置132は、合算値Σθが合算値の閾値Σθth未満である場合、処理をステップE6へ進める。   In step E4, the person state determination device 132 determines whether or not the sum value Σθ is equal to or greater than the sum value threshold Σθth. Specifically, the person state determination device 132 reads the sum value Σθ and the sum value threshold value Σθth from the storage device, and compares the values. If the sum value Σθ is equal to or greater than the sum value threshold Σθth, the person state determination device 132 advances the process to step E5. On the other hand, when the sum value Σθ is less than the sum value threshold Σθth, the person state determination device 132 advances the process to step E6.

ステップE5において、人物状態判定装置132は、選択線分対の笑顔仮フラグをオンにする。具体的には、人物状態判定装置132は、選択線分対の笑顔仮フラグをオンに設定し、当該設定を記憶装置に記憶する。ステップE5の処理を完了すると、人物状態判定装置132は、笑顔仮フラグ設定処理を完了して、処理を図7に示す笑顔推定処理のステップD6へ進める。   In step E5, the human state determination device 132 turns on the smile temporary flag for the selected line segment pair. Specifically, the person state determination device 132 sets the smile temporary flag for the selected line segment pair to ON, and stores the setting in the storage device. When the process of step E5 is completed, the human state determination device 132 completes the smile temporary flag setting process, and advances the process to step D6 of the smile estimation process shown in FIG.

ステップE6において、人物状態判定装置132は、選択線分対の笑顔仮フラグをオフにする。具体的には、人物状態判定装置132は、選択線分対の笑顔仮フラグをオフに設定し、当該設定を記憶装置に記憶する。ステップE6の処理を完了すると、人物状態判定装置132は、笑顔仮フラグ設定処理を完了して、処理を図7に示す笑顔推定処理のステップD6へ進める。   In step E6, the human state determination device 132 turns off the smile temporary flag for the selected line segment pair. Specifically, the person state determination device 132 sets the smile temporary flag for the selected line segment pair to OFF, and stores the setting in the storage device. When the process of step E6 is completed, the human state determination device 132 completes the smile temporary flag setting process, and advances the process to step D6 of the smile estimation process shown in FIG.

上記ステップE4からステップE6の処理により、人物状態判定装置132は、合算値Σθが合算値の閾値Σθth以上である場合、笑顔仮フラグをオンに設定する。一方、人物状態判定装置132は、合算値Σθが合算値の閾値Σθth未満である場合、笑顔仮フラグをオフに設定する。   By the processing from step E4 to step E6, the person state determination device 132 sets the smile temporary flag to ON when the sum value Σθ is equal to or greater than the sum value threshold value Σθth. On the other hand, when the sum value Σθ is less than the sum value threshold value Σθth, the person state determination device 132 sets the smile temporary flag to OFF.

ステップE4からステップE6の処理によれば、人物状態判定装置132は、学習結果を反映した合算値の閾値Σθthにもとづいて人物が笑っているか否かを判定することができる。したがって、人物状態判定装置132は、運転者の通常の状態での口の形状と、運転者が笑っている状態での口の形状との差異を識別し易くなり、運転者が笑っているか否かをより正確に推定することができる。   According to the processing from step E4 to step E6, the person state determination device 132 can determine whether or not the person is laughing based on the threshold value Σθth of the total value reflecting the learning result. Therefore, the person state determination device 132 can easily identify the difference between the mouth shape in the normal state of the driver and the mouth shape in the state where the driver is laughing, and whether or not the driver is laughing. Can be estimated more accurately.

以上に説明した笑顔仮フラグ設定処理によれば、人物状態判定装置132は、運転者が眼を閉じていない状態、すなわち笑っていない状態での当該線分対の口角度の学習結果にもとづいて運転者が笑っているかいないかを仮に推定して、笑顔仮フラグを設定することができる。   According to the smile temporary flag setting process described above, the person state determination device 132 is based on the learning result of the mouth angle of the line segment pair when the driver is not closing his eyes, that is, when he is not laughing. A temporary smile flag can be set by presuming whether the driver is laughing or not.

なお、上記の笑顔仮フラグ設定処理において、唇境界線の端部を指定線分対として指定すれば、口の端部形状に応じて運転者が笑っているか否かを仮に推定することができる。口の端部の形状は運転者が笑っている場合に顕著に変化するため、上記の笑顔仮フラグ設定処理によれば、運転者が笑っているか否かを正確に判定することができる。   In addition, in the smile temporary flag setting process described above, if the end of the lip boundary line is specified as a specified line segment pair, it can be temporarily estimated whether the driver is laughing according to the shape of the end of the mouth. . Since the shape of the end of the mouth changes significantly when the driver is laughing, it is possible to accurately determine whether or not the driver is laughing according to the smile temporary flag setting process.

図7のフローチャートの説明に戻り、ステップD6において、人物状態判定装置132は、全ての指定線分対を選択したか否かを判定する。人物状態判定装置132は、全ての指定線分対を選択した場合、処理をステップD7に進める。一方、人物状態判定装置132は、全ての指定線分対を選択していない場合、処理をステップD4に戻し、未選択の指定線分対を選択する。なお、最終的に全ての指定線分対について各々笑顔仮フラグを設定可能であれば、人物状態判定装置132が指定線分対を選択する順序は、予め定めていても良いし、ランダムに決定しても構わない。   Returning to the description of the flowchart of FIG. 7, in step D <b> 6, the person state determination device 132 determines whether or not all the designated line segment pairs have been selected. If the person state determination device 132 has selected all the specified line segment pairs, the process proceeds to step D7. On the other hand, if all the designated line segment pairs have not been selected, the person state determination device 132 returns the process to step D4 and selects an unselected designated line segment pair. If the smile temporary flag can be finally set for all the specified line segment pairs, the order in which the person state determination device 132 selects the specified line segment pairs may be determined in advance or determined randomly. It doesn't matter.

ステップD7において、人物状態判定装置132は、全ての笑顔仮フラグがオンであるか否かを判定する。人物状態判定装置132は、全ての笑顔仮フラグがオンである場合、処理をステップD8へ進める。一方、人物状態判定装置132は、指定線分対の笑顔仮フラグの何れかがオフである場合、処理をステップD8へ進める。   In step D7, the person state determination device 132 determines whether all the smile temporary flags are on. If all the smile temporary flags are on, the person state determination device 132 proceeds with the process to step D8. On the other hand, if any of the temporary smile flags for the designated line segment pair is OFF, the person state determination apparatus 132 proceeds with the process to step D8.

ステップD8において、人物状態判定装置132は、笑顔フラグをオンに設定する。人物状態判定装置132は、ステップD8の処理を完了すると、笑顔推定処理を完了し、処理を覚醒判定処理のステップB6へ進める。   In step D8, the person state determination device 132 sets the smile flag to ON. When the person state determination apparatus 132 completes the process of step D8, the person state determination apparatus 132 completes the smile estimation process and advances the process to step B6 of the awakening determination process.

ステップD9において、人物状態判定装置132は、笑顔フラグをオフに設定する。人物状態判定装置132は、ステップD9の処理を完了すると、笑顔推定処理を完了し、処理を覚醒判定処理のステップB6へ進める。   In step D9, the person state determination device 132 sets the smile flag to OFF. When the person state determination device 132 completes the process of step D9, the person state determination apparatus 132 completes the smile estimation process and advances the process to step B6 of the awakening determination process.

上記ステップD7からステップD9の処理によれば、人物状態判定装置132は、全ての笑顔仮フラグがオンである場合、笑顔フラグをオンに設定し、指定線分対の笑顔仮フラグの何れかがオフである場合、笑顔フラグをオフに設定する。   According to the processing from step D7 to step D9 described above, when all the smile temporary flags are on, the person state determination device 132 sets the smile flag to on, and any of the smile temporary flags for the specified line segment pair is set. If it is off, the smile flag is set off.

以上に説明した笑顔推定処理によれば、人物状態判定装置132は、運転者の線分対を抽出し、当該線分対毎に、すなわち口の部分的な形状毎に運転者が笑っているか否かを仮に推定することにより、運転者が笑っているか否かを正確に推定することができる。   According to the smile estimation process described above, the person state determination device 132 extracts a line segment pair of the driver, and whether the driver is laughing for each line segment pair, that is, for each partial shape of the mouth. It is possible to accurately estimate whether or not the driver is laughing by temporarily estimating whether or not the driver is laughing.

なお、上記第1の実施形態では、笑顔推定処理のステップD4の処理において、人物状態判定装置132が、指定線分対として2組の線分対を用いる例を示したが、人物状態判定装置132が処理する指定線分対の数は上記に限らず、1組以上の線分対を指定線分対として用いれば良い。   In the first embodiment, the example in which the person state determination device 132 uses two pairs of line segments as the specified line segment pair in the process of step D4 of the smile estimation process has been described. The number of designated line segment pairs processed by 132 is not limited to the above, and one or more pairs of line segments may be used as the designated line segment pair.

また、上記第1の実施形態では、人物状態判定装置132が学習情報として記憶する口角度の数を3つとした例を示したが、記憶する口角度のデータ数は上記に限らず、より多くのデータを記憶しても良いし、より少ないデータを記憶しても構わない。また、合算値の閾値Σθthを学習情報から算出せず、予め定めた固定値とするならば、覚醒判定処理のステップB12の処理を省略し、学習情報を記憶しないようにしても良い。   In the first embodiment, the example in which the number of mouth angles stored as learning information by the person state determination device 132 is three is shown. However, the number of mouth angle data to be stored is not limited to the above, and more May be stored, or less data may be stored. If the threshold value Σθth of the total value is not calculated from the learning information and is set to a predetermined fixed value, the process of step B12 of the awakening determination process may be omitted and the learning information may not be stored.

また、上記第1の実施形態では、笑顔仮フラグ設定処理のステップE1において、人物状態判定装置132が、水平線と線分とが成す角度を口角度として算出する例を示したが、水平線に限らず画像中において予め定めた基準線と線分とが成す角度を口角度としても構わない。   In the first embodiment, the example is shown in which the person state determination device 132 calculates the angle formed by the horizontal line and the line segment as the mouth angle in Step E1 of the smile temporary flag setting process. First, an angle formed by a predetermined reference line and a line segment in the image may be used as the mouth angle.

また、上記第1の実施形態では、笑顔仮フラグ設定処理のステップE3において、人物状態判定装置132が、学習情報のうち、平均より大きな角度の標準偏差にもとづいて合算値の閾値Σθthを算出する例を示したが、合算値の閾値Σθthの決定方法は上記に限らない。例えば、合算値の閾値Σθthは、人物状態判定装置132により他のパラメータにもとづいて算出しても構わないし、実験的に求めた固定値を予め記憶しておいても構わない。   In the first embodiment, in step E3 of the smile temporary flag setting process, the person state determination device 132 calculates the threshold value Σθth of the sum value based on the standard deviation of the angle larger than the average in the learning information. Although an example has been shown, the method for determining the threshold value Σθth of the total value is not limited to the above. For example, the threshold value Σθth of the total value may be calculated based on other parameters by the human state determination device 132, or a fixed value obtained experimentally may be stored in advance.

(第2の実施形態)
上記第1の実施形態の笑顔推定処理のステップD3では、人物状態判定装置132が、N等分した唇境界線を直線近似して線分対を抽出する例について説明したが、人物状態判定装置132は、N等分した境界線を円弧に近似して円弧対を抽出し、当該円弧対にもとづいて運転者が笑っているか否かを推定しても構わない。以下、人物状態判定装置132が、N等分した境界線を円弧に近似して円弧対を抽出し、当該円弧対にもとづいて運転者が笑っているか否かを推定する処理について図13および図14を参照して説明する。なお、第2の実施形態に係る人物状態判定装置132および人物状態判定装置132を含む運転者監視システムの構成については、第1の実施形態に係る構成と同様であるため、説明を省略する。
(Second Embodiment)
In step D3 of the smile estimation process of the first embodiment, an example in which the human state determination device 132 extracts a line segment pair by linearly approximating the N-divided lip boundary line has been described. 132 may extract a pair of arcs by approximating the N equally divided boundary line to a circular arc, and may estimate whether the driver is laughing based on the arc pair. Hereinafter, a process in which the human state determination device 132 approximates an N-divided boundary line to an arc to extract an arc pair and estimates whether the driver is laughing based on the arc pair will be described with reference to FIGS. Reference is made to FIG. In addition, about the structure of the driver | operator monitoring system containing the person state determination apparatus 132 and the person state determination apparatus 132 which concern on 2nd Embodiment, since it is the same as that of the structure which concerns on 1st Embodiment, description is abbreviate | omitted.

第2の実施形態に係る人物状態判定装置132が実行する処理は、笑顔推定処理のステップD3からステップD5の処理が異なるのみで、他の処理は上記第1の実施形態の処理と同様である。以下、第2の実施形態に係る人物状態判定装置132が実行する処理のうち、第1の実施形態と異なる処理について説明する。   The processing executed by the human state determination device 132 according to the second embodiment is different from the processing of the smile estimation processing from step D3 to step D5, and the other processing is the same as the processing of the first embodiment. . Hereinafter, among the processes executed by the human state determination device 132 according to the second embodiment, processes different from the first embodiment will be described.

ステップD3において、人物状態判定装置132は、円弧対を抽出する。人物状態判定装置132が、線分対を抽出する処理について図13を参照して説明する。なお、図13は、円弧近似された唇境界線を示す図である。図13は、運転者が笑っていない状態の唇境界線を円弧近似した様子を示す。まず、人物状態判定装置132は、図13に示すように唇境界線30をN等分(Nは整数)する。なお、第2の実施形態では、一例としてN=4の場合、すなわち、唇境界線を4等分する例について説明する。次に、人物状態判定装置132は、図13(a)に示すようにN等分された唇境界線を各々円弧に近似する。ここで、説明のため、円弧近似して得られた円弧を、各々、画像の左から順に円弧41から円弧44として符号を付す。上記の処理により得られた円弧41から円弧44は、唇境界線30の両端からM番目(Mは整数)の円弧同士を1組の円弧対として処理される。例えば、M=1番目の円弧対をPa1とすると、円弧対Pa1は円弧41および円弧44により構成され、M=2番目の円弧対をPa2とすると、円弧対Pa2は円弧42および円弧43により構成される。上記のステップD3の処理を完了すると、人物状態判定装置132は、処理をステップD4へ進める。   In step D3, the human state determination device 132 extracts a pair of arcs. A process in which the human state determination device 132 extracts line segment pairs will be described with reference to FIG. FIG. 13 is a diagram showing a lip boundary line approximated by an arc. FIG. 13 shows a state where the lip boundary line in a state where the driver is not laughing is approximated by an arc. First, the person state determination device 132 divides the lip boundary line 30 into N equal parts (N is an integer) as shown in FIG. In the second embodiment, as an example, a case where N = 4, that is, an example in which the lip boundary line is equally divided will be described. Next, as shown in FIG. 13A, the human state determination device 132 approximates each lip boundary line divided into N parts to an arc. Here, for the sake of explanation, arcs obtained by approximating arcs are respectively denoted as arcs 41 to 44 in order from the left of the image. The arcs 41 to 44 obtained by the above processing are processed with the M-th (M is an integer) arcs from both ends of the lip boundary line 30 as a set of arc pairs. For example, if the M = 1st arc pair is Pa1, the arc pair Pa1 is constituted by an arc 41 and an arc 44, and if the M = 2nd arc pair is Pa2, the arc pair Pa2 is constituted by an arc 42 and an arc 43. Is done. When the process of step D3 is completed, the person state determination device 132 proceeds with the process to step D4.

ステップD4において、人物状態判定装置132は、指定円弧対から1対を選択する。指定円弧対は、後述のステップD5以後の処理において運転者が笑っているか否かの仮の推定を行う対象となる円弧対である。人物状態判定装置132は、どの円弧対を指定円弧対とするか決定するため、予め指定番号Qを予め記憶する。上記指定番号Qは、上述ステップD3の説明におけるMに相当し、例えば、人物状態判定装置132が、指定番号Qとして1および2を予め記憶している場合、唇境界線の両端から1番目の円弧対Pa1および2番目の円弧対Pa2が指定円弧対となる。人物状態判定装置132は、上記のようにして定められる指定円弧対から1つを選択する。以下、本ステップD4において選択された指定円弧対を選択円弧対と呼称し、以下、人物状態判定装置132が、円弧対Pa1を選択した例について説明する。ステップD4の処理を完了すると、人物状態判定装置132は、処理をステップD5へ進める。   In step D4, the person state determination device 132 selects one pair from the designated arc pair. The designated arc pair is an arc pair that is a target for provisional estimation as to whether or not the driver is laughing in the processing after Step D5 described later. The person state determination device 132 stores a designated number Q in advance in order to determine which arc pair is designated as the designated arc pair. The designation number Q corresponds to M in the description of step D3 described above. For example, when the person state determination device 132 has previously stored 1 and 2 as the designation number Q, the first designation from both ends of the lip boundary line The arc pair Pa1 and the second arc pair Pa2 are designated arc pairs. The person state determination device 132 selects one of the designated arc pairs determined as described above. Hereinafter, an example in which the designated arc pair selected in Step D4 is referred to as a selected arc pair and the person state determination device 132 selects the arc pair Pa1 will be described below. When the process of step D4 is completed, the person state determination device 132 proceeds with the process to step D5.

ステップD5において、人物状態判定装置132は、笑顔仮フラグ設定処理を実行する。以下、第2の実施形態に係る笑顔仮フラグ設定処理について説明する。   In step D5, the person state determination device 132 executes a temporary smile flag setting process. The smile temporary flag setting process according to the second embodiment will be described below.

まず、第2の実施形態に係る笑顔仮フラグ設定処理において処理されるデータについて説明する。人物状態判定装置132は、指定円弧対毎に、左円弧径RL、右円弧径RR、学習情報、合算値ΣR、合算値の閾値ΣRth、平均左円弧径ARL、平均右円弧径ARR、左円弧径上位偏差σRL、右円弧径上位偏差σRR、および笑顔仮フラグを記憶し、処理する。   First, data processed in the temporary smile flag setting process according to the second embodiment will be described. For each designated arc pair, the human state determination device 132 includes a left arc diameter RL, a right arc diameter RR, learning information, a sum value ΣR, a sum value threshold ΣRth, an average left arc diameter ARL, an average right arc diameter ARR, and a left arc. The diameter upper deviation σRL, the right arc diameter upper deviation σRR, and the temporary smile flag are stored and processed.

第2の実施形態に係る人物状態判定装置132は、口角度の代わりに左円弧径RLおよび右円弧径RRを用いて笑顔仮フラグを設定する。左円弧径RLは、円弧対を成す線分のうち運転者から見て左側の円弧の半径である。一方、右円弧径RRは、円弧対を成す線分のうち運転者から見て右側の円弧の半径である。左円弧径RLおよび左円弧径RLを総称して円弧径と呼称する。   The human state determination device 132 according to the second embodiment sets the temporary smile flag using the left arc diameter RL and the right arc diameter RR instead of the mouth angle. The left arc diameter RL is the radius of the left arc as viewed from the driver among the line segments forming the arc pair. On the other hand, the right arc diameter RR is the radius of the right arc when viewed from the driver among the line segments forming the arc pair. The left arc diameter RL and the left arc diameter RL are collectively referred to as an arc diameter.

図13に示すように、円弧対Pa1の左円弧径をRL_Pa1とし、円弧対Pa1の右円弧径をRR_Pa1とする。ここで、運転者が笑った場合、図14に示すように円弧径が変化する。なお、図14は、運転者が笑った状態の唇境界線を円弧近似した様子を示す図である。運転者が笑顔である場合、唇境界線が湾曲するため、図13に示す左円弧径RL_Pa1に比べ、図14に示す左円弧径RL_Pa1は小さくなる。同様に、図13に示す右円弧径RR_Pa1に比べ、図14に示す右円弧径RR_Pa1は小さくなる。上記の通り、円弧径は運転者が笑っているか否かに応じてその大きさが変化するため、円弧径を用いて運転者が笑っているか否かを推定することができる。   As shown in FIG. 13, the left arc diameter of the arc pair Pa1 is RL_Pa1, and the right arc diameter of the arc pair Pa1 is RR_Pa1. Here, when the driver laughs, the arc diameter changes as shown in FIG. FIG. 14 is a diagram illustrating a state in which the lip boundary line in a state where the driver laughs is approximated by an arc. When the driver is smiling, the lip boundary line is curved, so the left arc diameter RL_Pa1 shown in FIG. 14 is smaller than the left arc diameter RL_Pa1 shown in FIG. Similarly, the right arc diameter RR_Pa1 shown in FIG. 14 is smaller than the right arc diameter RR_Pa1 shown in FIG. As described above, since the size of the arc diameter changes depending on whether or not the driver is laughing, it is possible to estimate whether or not the driver is laughing using the arc diameter.

合算値ΣRは当該円弧対の最新の左円弧径RLおよび右円弧径RRの値を合算した合算値であり、下式で表せる。
ΣR=RL+RR
運転者が笑顔である場合、左円弧径RLおよび右円弧径RRの値は大きくなるため、合算値ΣRは大きくなる。
The total value ΣR is a total value obtained by adding the values of the latest left arc diameter RL and right arc diameter RR of the arc pair, and can be expressed by the following equation.
ΣR = RL + RR
When the driver is smiling, the values of the left arc diameter RL and the right arc diameter RR are increased, and the combined value ΣR is increased.

次に、第2の実施形態に係る笑顔仮フラグ設定処理のサブルーチンについて説明する。   Next, a smile temporary flag setting process subroutine according to the second embodiment will be described.

ステップE1において、人物状態判定装置132は、円弧径を算出する。具体的には、人物状態判定装置132は、選択円弧対の円弧径、すなわち左円弧径RLおよび右円弧径RRを算出して記憶装置に記憶する。例えば、人物状態判定装置132は、線分対P1を選択線分対として選択している場合、左円弧径RL_Pa1および右円弧径RR_P1を算出して記憶する。ステップE1の処理を完了すると、人物状態判定装置132は、処理をステップE2へ進める。   In step E1, the human state determination device 132 calculates an arc diameter. Specifically, the person state determination device 132 calculates the arc diameter of the selected arc pair, that is, the left arc diameter RL and the right arc diameter RR, and stores them in the storage device. For example, if the line segment pair P1 is selected as the selected line segment pair, the person state determination device 132 calculates and stores the left arc diameter RL_Pa1 and the right arc diameter RR_P1. When the process of step E1 is completed, the person state determination device 132 advances the process to step E2.

ステップE2において、人物状態判定装置132は、円弧径の合算値を算出する。具体的には、人物状態判定装置132は、ステップE1において算出した最新の左円弧径RLおよび右円弧径RRの値を読み出し、当該値にもとづいて上述の式から合算値ΣRを算出して記憶する。ステップE2の処理を完了すると、人物状態判定装置132は、処理をステップE3へ進める。   In step E2, the person state determination device 132 calculates the total value of the arc diameters. Specifically, the person state determination device 132 reads the latest values of the left arc diameter RL and the right arc diameter RR calculated in step E1, and calculates and stores the sum value ΣR from the above formula based on the values. To do. When the process of step E2 is completed, the person state determination device 132 advances the process to step E3.

ステップE3において、人物状態判定装置132は、合算値の閾値ΣRthを算出する。人物状態判定装置132は、第1の実施形態と同様にして予め円弧径を学習しておき、合算値の閾値ΣRthを算出する。ステップE3の処理を完了すると、人物状態判定装置132は、処理をステップE4へ進める。   In step E <b> 3, the person state determination device 132 calculates a threshold value ΣRth of the sum value. The person state determination device 132 learns the arc diameter in advance as in the first embodiment, and calculates the threshold value ΣRth of the sum value. When the process of step E3 is completed, the person state determination device 132 advances the process to step E4.

ステップE4において、人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRth以下であるか否かを判定する。具体的には、人物状態判定装置132は、記憶装置から合算値ΣRおよび合算値の閾値ΣRthの値を読み出し、各々の大小を比較する。人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRth以下である場合、処理をステップE5へ進める。一方、人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRthより大きい場合、処理をステップE6へ進める。   In step E4, the person state determination device 132 determines whether or not the sum value ΣR is equal to or less than the sum value threshold ΣRth. Specifically, the person state determination device 132 reads the sum value ΣR and the sum value threshold value ΣRth from the storage device, and compares the values. When the sum value ΣR is equal to or less than the sum value threshold ΣRth, the person state determination device 132 proceeds with the process to step E5. On the other hand, when the sum value ΣR is larger than the sum value threshold ΣRth, the person state determination device 132 advances the process to step E6.

ステップE5、およびステップE6の処理は第1の実施形態と同様であるので説明を省略する。   Since the processing of step E5 and step E6 is the same as that of the first embodiment, description thereof is omitted.

上記ステップE4からステップE6の処理により、人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRth以下である場合、笑顔仮フラグをオンに設定する。一方、人物状態判定装置132は、合算値ΣRが合算値の閾値ΣRthより大きい場合、笑顔仮フラグをオフに設定する。上記のように口角度の代わりに円弧径を用いた場合も、第1の実施形態と同様に運転者が笑っているか否かを仮に推定して、笑顔仮フラグを設定することができる。   Through the processing from step E4 to step E6, the person state determination device 132 sets the smile temporary flag to ON when the sum value ΣR is equal to or less than the sum value threshold ΣRth. On the other hand, when the sum value ΣR is larger than the sum value threshold ΣRth, the person state determination device 132 sets the smile temporary flag to OFF. Even when the arc diameter is used instead of the mouth angle as described above, it is possible to temporarily set whether or not the driver is smiling as in the first embodiment and set the smile temporary flag.

なお、上記第2の実施形態では、人物状態判定装置132が、合算値ΣRが合算値の閾値ΣRthより大きいか否かに応じて笑顔仮フラグを設定する例について説明したが、笑顔仮フラグを設定する方法は上記に限らない。例えば、下記2式の条件の少なくとも何れかが満たされた場合に笑顔仮フラグをオンとし、下記の2式の何れも満たされない場合、笑顔仮フラグをオフとしても良い。
RL≦Rth−ρ
RR≦Rth−τ
なお、上式のρおよびτは予め定められた定数である。上記のように笑顔仮フラグを設定することにより、円弧対のうち一方の円弧の円弧径が大きな値で、且つ他方の円弧の円弧径が小さな値となる場合、すなわち、運転者が一方の口端を上げて笑っている場合であっても、人物状態判定装置132は、運転者が笑っているか否かを正確に判定することができる。
In the second embodiment, the example in which the person state determination device 132 sets the smile temporary flag depending on whether or not the sum ΣR is greater than the sum threshold ΣRth has been described. The setting method is not limited to the above. For example, the smile temporary flag may be turned on when at least one of the following two conditions is satisfied, and the smile temporary flag may be turned off when neither of the following two expressions is satisfied.
RL ≦ Rth−ρ
RR ≦ Rth−τ
In the above expression, ρ and τ are predetermined constants. When the smile temporary flag is set as described above, when the arc diameter of one arc of the arc pair is a large value and the arc diameter of the other arc is a small value, that is, the driver Even when the person is laughing with the edges raised, the person state determination device 132 can accurately determine whether or not the driver is laughing.

なお、上記第2の実施形態では、人物状態判定装置132が、円弧の半径にもとづいて笑顔仮フラグを設定する例について説明したが、円弧の半径を用いる代わりに円弧の直径を用いても構わない。   In the second embodiment, the example in which the human state determination device 132 sets the temporary smile flag based on the radius of the arc has been described. However, instead of using the radius of the arc, the diameter of the arc may be used. Absent.

また、上記の第1の実施形態、および第2の実施形態では、笑顔推定処理のステップD3の処理において、人物状態判定装置132が、唇境界線を8等分する例について説明したが、ステップDの処理において唇境界線を分割する数は上記に限らず、2以上に分割すれば良い。また、人物状態判定装置132は、唇境界線を必ずしも等間隔に分割する必要はなく、唇境界線を分割する間隔を部分的に変更しても構わない。さらに言えば、人物状態判定装置132は、唇境界線のうち両端から一定の距離までを切り取って上記の線分対として抽出するなどしても構わない。   In the first embodiment and the second embodiment described above, the example in which the human state determination device 132 divides the lip boundary into eight equal parts has been described in the process of step D3 of the smile estimation process. The number of dividing the lip boundary line in the process of D is not limited to the above, and it may be divided into two or more. The human state determination device 132 does not necessarily need to divide the lip boundary line at equal intervals, and may partially change the interval at which the lip boundary line is divided. Furthermore, the person state determination device 132 may cut out a certain distance from both ends of the lip boundary line and extract it as the line segment pair.

また、上記の第1の実施形態、および第2の実施形態では、笑顔推定処理のステップD7からステップD9の処理において、人物状態判定装置132が、全ての笑顔仮フラグがオンである場合に笑顔フラグをオンとし、笑顔仮フラグの何れかがオフである場合に笑顔フラグをオフとする例について説明したが、笑顔フラグの設定方法は上記に限らない。例えば、人物状態判定装置132は、笑顔仮フラグの総数のうち7割以上のフラグがオンである場合に笑顔フラグをオンとしても良い。   Further, in the first embodiment and the second embodiment described above, in the processing from step D7 to step D9 of the smile estimation process, the person state determination device 132 smiles when all the smile temporary flags are on. Although an example has been described in which the flag is turned on and the smile flag is turned off when any of the smile temporary flags is off, the method for setting the smile flag is not limited to the above. For example, the person state determination device 132 may turn on the smile flag when 70% or more of the total smile temporary flag is on.

また、上記の第1の実施形態、および第2の実施形態では、覚醒判定処理のステップB6からステップB14の処理において、人物状態判定装置132が、運転者が笑いながら眼を細めていると推定される状態で所定の時間を経過すると、運転者が覚醒していると判定する例について説明したが、人物状態判定装置132は、所定時間の経過を待たずに運転者が覚醒しているか否かを判定しても構わない。例えば、ステップB8、ステップB9、ステップB10、ステップB11の処理を省略しても構わない。   In the first embodiment and the second embodiment, it is estimated that the person state determination device 132 is narrowing the eyes while the driver is laughing in the processing from Step B6 to Step B14 of the arousal determination processing. Although the example in which it is determined that the driver is awake when a predetermined time elapses in the state in which the driver is in the state of being held, the person state determination device 132 determines whether the driver is awake without waiting for the elapse of the predetermined time. It may be determined. For example, the processing of step B8, step B9, step B10, and step B11 may be omitted.

また、上記の第1の実施形態、および第2の実施形態では、覚醒判定処理のステップB6からステップB14の処理において、人物状態判定装置132が、運転者が閉眼していると推定し、且つ、笑っていると推定された状態(以下、笑顔覚醒状態と呼称する)が一定時間継続した場合、運転者が覚醒していると判定する例について説明したが、人物状態判定装置132は、運転者が笑顔覚醒状態である頻度を算出し、当該頻度にもとづいて運転者が覚醒しているか否かを判定しても構わない。   In the first embodiment and the second embodiment described above, in the processing from Step B6 to Step B14 of the arousal determination processing, the person state determination device 132 estimates that the driver is closed, and In the above description, an example in which it is determined that the driver is awake when the state estimated to be laughing (hereinafter referred to as a smile awake state) continues for a certain period of time has been described. The frequency at which the driver is in a smile awake state may be calculated, and it may be determined whether the driver is awake based on the frequency.

例えば、人物状態判定装置132は、周期的に覚醒状態か否かの判定を行うものとする。人物状態判定装置132は、1周期の時間内において、運転者が笑顔覚醒状態であった時間の合計値を上記頻度として算出する。そして、人物状態判定装置132は、当該頻度が予め定めた閾値に達した場合、運転者が覚醒していると判定し、当該頻度が閾値に達していない場合、運転者が覚醒していないと判定する。   For example, it is assumed that the person state determination device 132 periodically determines whether or not the person is awake. The person state determination device 132 calculates, as the frequency, the total value of the time during which the driver is in a smiling and awakening state within one period of time. Then, when the frequency reaches a predetermined threshold, the person state determination device 132 determines that the driver is awake, and when the frequency does not reach the threshold, the driver is not awake. judge.

また、上記の第1の実施形態、および第2の実施形態では、図2のステップA5の覚醒判定処理において、人物状態判定装置132が顔向き角度αに応じて運転者の眼や口の探索範囲を設定する例について説明したが、人物状態判定装置132は当該探索範囲を必ずしも顔向き角度αに応じて変更しなくても構わない。人物状態判定装置132が顔向き角度αに応じて上記探索範囲を変更しない場合、ステップA3の処理は省略しても構わない。   In the first embodiment and the second embodiment described above, in the awakening determination process of step A5 in FIG. 2, the person state determination device 132 searches for the driver's eyes and mouth according to the face orientation angle α. Although the example of setting the range has been described, the human state determination device 132 may not necessarily change the search range according to the face orientation angle α. When the human state determination device 132 does not change the search range according to the face orientation angle α, the process of step A3 may be omitted.

また、上記の第1の実施形態、および第2の実施形態では、人物状態判定装置132が車両の運転者の状態を判定する例について示したが、人物状態判定装置132が状態を判定する対象は車両の運転者に限らない。例えば、運転者以外の乗員の状態を判定しても構わないし、航空機等の操縦者の状態を判定するように本発明を適用しても構わない。   In the first and second embodiments, the example in which the person state determination device 132 determines the state of the driver of the vehicle has been described. Is not limited to a vehicle driver. For example, the state of an occupant other than the driver may be determined, or the present invention may be applied so as to determine the state of a pilot such as an aircraft.

本発明に係る人物状態判定装置は、人物が笑顔であるか否かに応じて当該人物の覚醒状態を正しく判定可能とする人物状態判定装置などとして有用である。   The person state determination apparatus according to the present invention is useful as a person state determination apparatus that can correctly determine the awakening state of a person according to whether or not the person is smiling.

人物状態判定装置132を含む運転者監視システム1の機能構成を示すブロック図The block diagram which shows the function structure of the driver | operator monitoring system 1 containing the person state determination apparatus 132. ECU13が実行する処理の一例を示すフローチャートThe flowchart which shows an example of the process which ECU13 performs カメラ画像および、当該画像が撮影された時点の運転者の頭部の上面図Camera image and top view of the driver's head at the time the image was taken 人物状態判定装置132が覚醒判定処理において用いる主なデータを示す図The figure which shows the main data which the person state determination apparatus 132 uses in an arousal determination process 人物状態判定装置132が実行する覚醒判定処理を示すフローチャートの一例An example of a flowchart showing awakening determination processing executed by the person state determination device 132 閉眼推定処理のサブルーチンを示すフローチャートの一例An example of a flowchart showing a subroutine for eye closure estimation processing 笑顔推定処理のサブルーチンを示すフローチャートの一例An example of a flowchart showing a subroutine for smile estimation processing は、カメラ画像中で設定された口探索範囲20を示す図Is a diagram showing the mouth search range 20 set in the camera image カメラ画像中における運転者の口の拡大図Enlarged view of the driver's mouth in the camera image 直線近似された唇境界線を示す図Diagram showing lip boundary line approximated by a straight line 笑顔仮フラグ設定処理において処理される口角情報のデータを示す図The figure which shows the data of mouth corner information processed in a smile temporary flag setting process 笑顔仮フラグ設定処理のサブルーチンを示すフローチャートの一例An example of a flowchart showing a subroutine of smile temporary flag setting processing 運転者が笑っていない状態の唇境界線を円弧近似した様子を示す図The figure which shows a mode that the lip boundary line of the state where the driver is not laughing is approximated by an arc 運転者が笑った状態の唇境界線を円弧近似した様子を示す図The figure which shows a mode that the lip boundary line of the state where the driver laughed is approximated by an arc

符号の説明Explanation of symbols

1 運転者監視システム
2 車両制御システム
11 近赤外照明
12 近赤外カメラ
13 ECU
20 口探索範囲
30 唇境界線
31、32、33、34、35、36、37、38 線分
41、42、43、44 円弧
131 顔向き検知マイコン
132 人物状態判定装置
DESCRIPTION OF SYMBOLS 1 Driver monitoring system 2 Vehicle control system 11 Near infrared illumination 12 Near infrared camera 13 ECU
20 mouth search range 30 lip boundary line 31, 32, 33, 34, 35, 36, 37, 38 line segment 41, 42, 43, 44 arc 131 face direction detection microcomputer 132 human state determination device

Claims (7)

人物の顔を撮影して顔画像を取得する撮像手段と、
前記人物が眼を閉じているか否かを前記顔画像にもとづいて推定する閉眼推定手段と、
前記人物が笑っているか否かを前記顔画像中に含まれる前記人物の口の画像にもとづいて推定する笑顔推定手段と、
(a)前記人物の眼が開いていると前記閉眼推定手段が推定した場合、または前記人物が笑っていると前記笑顔推定手段が推定した場合には、前記人物が覚醒していると判定し、(b)前記人物が笑っていないと前記笑顔推定手段が推定し、且つ、前記人物の眼が閉じていると前記閉眼推定手段が推定した場合には、前記人物が覚醒していないと判定する覚醒判定手段とを備える人物状態判定装置。
Imaging means for capturing a face image by photographing a person's face;
Closed eye estimation means for estimating whether or not the person has eyes closed based on the face image;
Smile estimation means for estimating whether or not the person is laughing based on the mouth image of the person included in the face image;
(A) When the closed eye estimation means estimates that the person's eyes are open, or when the smile estimation means estimates that the person is smiling, it is determined that the person is awake. (B) If the smile estimation means estimates that the person is not laughing, and the closed eye estimation means estimates that the person's eyes are closed, it is determined that the person is not awake A person state determination device comprising awakening determination means.
前記顔画像中で、上唇と下唇との境界線である唇境界線を検出する唇境界線検出手段をさらに備え、
前記笑顔推定手段は、人物が笑っているか否かを前記唇境界線の形状にもとづいて推定する、請求項1に記載の人物状態判定装置。
A lip boundary detecting means for detecting a lip boundary that is a boundary between the upper lip and the lower lip in the face image;
The person state determination apparatus according to claim 1, wherein the smile estimation unit estimates whether or not a person is laughing based on a shape of the lip boundary line.
前記唇境界線を水平方向にN分割(Nは2以上の整数)して成る線分のうち、左右両端からM番目(Mは1以上の整数)に位置する線分対を抽出する線分対抽出手段をさらに備え、
前記笑顔推定手段は、人物が笑っているか否かを前記抽出された線分対にもとづいて推定する、請求項2に記載の人物状態判定装置。
Among the line segments formed by dividing the lip boundary line into N parts in the horizontal direction (N is an integer of 2 or more), a line segment for extracting the line segment pair located at the Mth (M is an integer of 1 or more) from the left and right ends It further comprises a pair extraction means,
The person state determination device according to claim 2, wherein the smile estimation unit estimates whether or not a person is laughing based on the extracted line segment pair.
前記線分対を成す線分を各々直線近似して直線線分とする線分近似手段と、
前記線分対を成す直線線分各々が基準線と成す角度を算出する角度算出手段とを備え、
前記笑顔推定手段は、前記角度にもとづいて前記人物が笑っているか否かを推定する、請求項3に記載の人物状態判定装置。
Line segment approximating means for linearly approximating each line segment forming the line segment pair,
An angle calculating means for calculating an angle formed by each straight line segment forming the line pair and a reference line;
The person state determination apparatus according to claim 3, wherein the smile estimation unit estimates whether the person is smiling based on the angle.
前記線分対を成す線分を各々円弧近似して円弧線分とする円弧近似手段と、
前記線分対を成す円弧線分各々の半径または直径を算出する径算出手段とを備え、
前記笑顔推定手段は、前記線分対を成す円弧線分各々の半径または直径にもとづいて前記人物が笑っているか否かを推定する、請求項3に記載の人物状態判定装置。
Arc approximating means for approximating each line segment forming the line segment to an arc line segment by arc approximation;
A diameter calculating means for calculating a radius or a diameter of each arc line segment forming the line segment pair;
The person state determination apparatus according to claim 3, wherein the smile estimation unit estimates whether or not the person is laughing based on a radius or a diameter of each arc line segment forming the line segment pair.
前記人物が開眼していると前記閉眼推定手段が推定した場合にのみ、前記唇境界線の形状に関する情報を学習する学習手段をさらに備え、
前記笑顔推定手段は、前記学習した結果にもとづいて前記人物が笑っているか否かを推定する、請求項2に記載の人物状態判定装置。
Learning means for learning information related to the shape of the lip boundary only when the closed eye estimation means estimates that the person is open;
The person state determination apparatus according to claim 2, wherein the smile estimation unit estimates whether or not the person is laughing based on the learned result.
前記人物は車両の運転者であり、
前記人物状態判定装置は前記車両に搭載される、請求項1に記載の人物状態判定装置。
The person is a driver of the vehicle;
The person state determination apparatus according to claim 1, wherein the person state determination apparatus is mounted on the vehicle.
JP2008164024A 2008-06-24 2008-06-24 Person state determination device Withdrawn JP2010009093A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008164024A JP2010009093A (en) 2008-06-24 2008-06-24 Person state determination device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008164024A JP2010009093A (en) 2008-06-24 2008-06-24 Person state determination device

Publications (1)

Publication Number Publication Date
JP2010009093A true JP2010009093A (en) 2010-01-14

Family

ID=41589548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008164024A Withdrawn JP2010009093A (en) 2008-06-24 2008-06-24 Person state determination device

Country Status (1)

Country Link
JP (1) JP2010009093A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071577A (en) * 2014-09-30 2016-05-09 マツダ株式会社 Driver state detection method and detection device
JP2022077281A (en) * 2020-11-11 2022-05-23 株式会社コムテック Detection system
JP2022077282A (en) * 2020-11-11 2022-05-23 株式会社コムテック Warning system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071577A (en) * 2014-09-30 2016-05-09 マツダ株式会社 Driver state detection method and detection device
JP2022077281A (en) * 2020-11-11 2022-05-23 株式会社コムテック Detection system
JP2022077282A (en) * 2020-11-11 2022-05-23 株式会社コムテック Warning system
JP7081844B2 (en) 2020-11-11 2022-06-07 株式会社コムテック Detection system

Similar Documents

Publication Publication Date Title
US8369608B2 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
EP2596746B1 (en) Pupil detection device and pupil detection method
EP2338416B1 (en) Line-of-sight direction determination device and line-of-sight direction determination method
US10225462B2 (en) Image processing to track face region of person
WO2016038784A1 (en) Driver state determination apparatus
US9202106B2 (en) Eyelid detection device
WO2013157466A1 (en) Smoking detection device, method and program
EP2541493B1 (en) Pupil detection device and pupil detection method
JP4992823B2 (en) Face detection apparatus and face detection method
JP5273030B2 (en) Facial feature point detection device and drowsiness detection device
JP5466610B2 (en) Gaze estimation device
US20140147019A1 (en) Red-eye detection device
JP6090129B2 (en) Viewing area estimation device
JP2009219555A (en) Drowsiness detector, driving support apparatus, drowsiness detecting method
JP2008065776A (en) Doze detection device and doze detection method
JP2010191793A (en) Alarm display and alarm display method
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
JP2010009093A (en) Person state determination device
US11161470B2 (en) Occupant observation device
JP2007236488A (en) Vigilance degree estimating device, system, and method
JP2009087303A (en) Expression estimation device, expression estimation method, and vehicle controller
JP4781292B2 (en) Closed eye detection device, dozing detection device, closed eye detection method, and closed eye detection program
JP5655491B2 (en) Open-eye detection device
US9082002B2 (en) Detection device and detection method
US11077814B2 (en) Occupant eye(s) observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100702

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20110322

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110901