JP4458146B2 - Sleepiness determination apparatus and program - Google Patents

Sleepiness determination apparatus and program Download PDF

Info

Publication number
JP4458146B2
JP4458146B2 JP2007276551A JP2007276551A JP4458146B2 JP 4458146 B2 JP4458146 B2 JP 4458146B2 JP 2007276551 A JP2007276551 A JP 2007276551A JP 2007276551 A JP2007276551 A JP 2007276551A JP 4458146 B2 JP4458146 B2 JP 4458146B2
Authority
JP
Japan
Prior art keywords
sleepiness
facial expression
expression information
distance
drowsiness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007276551A
Other languages
Japanese (ja)
Other versions
JP2009045418A (en
Inventor
禎祐 木村
憲幸 尾崎
健二 石田
佳保里 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2007276551A priority Critical patent/JP4458146B2/en
Priority to US12/068,770 priority patent/US8045766B2/en
Publication of JP2009045418A publication Critical patent/JP2009045418A/en
Application granted granted Critical
Publication of JP4458146B2 publication Critical patent/JP4458146B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、対象者の顔面の動作に基づいて眠気の度合を判定する眠気判定装置,プログラムおよび眠気判定方法に関する。   The present invention relates to a drowsiness determination device, a program, and a drowsiness determination method for determining the degree of drowsiness based on the movement of a subject's face.

従来から、車両の運転者の居眠り運転を防止するため、車両内に搭載したカメラで運転者の顔を撮影し、得られた画像を処理して眠気の度合を判定する装置が提案されている。
このような装置では、得られた画像から運転者の目を特定し、その目の開度,視線などを検出して、それらに基づいて居眠り状態であるか否かを判定することが一般的である。例えば、目の開度を連続的に検出することで、目の開度の検出精度を向上して対象者が居眠り状態であることを検出する装置が提案されている(特許文献1参照)。
特開平11−66304号公報
2. Description of the Related Art Conventionally, in order to prevent a driver of a vehicle from taking a nap, an apparatus for photographing a driver's face with a camera mounted in the vehicle and processing the obtained image to determine the degree of sleepiness has been proposed. .
In such a device, it is common to identify the driver's eyes from the obtained images, detect the eye opening, line of sight, etc., and determine whether or not they are dozing based on them It is. For example, there has been proposed an apparatus that detects the opening degree of eyes by continuously detecting the opening degree of the eyes to detect that the subject is dozing (see Patent Document 1).
JP-A-11-66304

しかし、目の動きは、車両の走行している環境によって変化することが多い。例えば、運転者の目に日光が射した場合、眠気に関わらず通常より目を細める動作を行うことがある。また、高速道路と街中とでは眠気に関わらず運転手のミラーの確認頻度は異なる。   However, eye movements often change depending on the environment in which the vehicle is traveling. For example, when the driver's eyes are exposed to sunlight, an operation of narrowing the eyes than usual may be performed regardless of sleepiness. In addition, the confirmation frequency of the driver's mirror differs between the expressway and the city regardless of sleepiness.

目の動きは対象者の眠気とは直接的に関連するものの、上述したように眠気の度合の判定を阻害する外乱要因も多く、目のみで眠気の度合を判定するためには、数多くの外乱対策をとる必要があった。   Although eye movements are directly related to the subject's sleepiness, as described above, there are many disturbance factors that impede the determination of the degree of drowsiness. It was necessary to take measures.

本発明は、このような問題に鑑みてなされたものであり、眠気の度合の判定を阻害する外乱要因の影響を受けずに、眠気を判定することができる眠気判定装置,プログラムおよび眠気判定方法を提供することを目的とする。   The present invention has been made in view of such problems, and a drowsiness determination device, a program, and a drowsiness determination method capable of determining drowsiness without being affected by disturbance factors that hinder the determination of the degree of drowsiness. The purpose is to provide.

上述した問題を解決するためになされた請求項1に記載の眠気判定装置は、左右の口角の距離,眉と目の距離,頭部傾き角度,眉頭の中点と目頭の中点間の距離,眉頭間の距離,鼻下端の中点と目頭の中点間の距離,口端の中点と目頭の中点間の距離,下唇下端と目頭の中点間の距離,上まぶたと下まぶた間の距離,鼻下左右両端間の距離,上唇上端と目頭の中点間の距離,の各表情情報うち、少なくとも2つ以上を取得し、覚醒時に取得された表情情報と、眠気を判断すべきタイミングで取得された表情情報と、を比較することで、取得された表情情報それぞれについて、当該表情情報ごとに眠気の有無を判断し、該判断された表情情報の数に対する眠気有りと判断された表情情報の数の割合が多いほど、眠気の度合が強いと判定する。なお、眠気の有無の判断基準は、左右の口角の距離,上まぶたと下まぶた間の距離,鼻下左右両端間の距離については、眠気を判断すべきタイミングで取得した表情情報の値が、覚醒時に取得された表情情報の値よりも小さいときに眠気有りと判断する一方、眉と目の距離,頭部傾き角度,眉頭の中点と目頭の中点間の距離,眉頭間の距離,鼻下端の中点と目頭の中点間の距離,口端の中点と目頭の中点間の距離,下唇下端と目頭の中点間の距離,上唇上端と目頭の中点間の距離については、眠気を判断すべきタイミングで取得した前記表情情報の値が、覚醒時に取得された前記表情情報の値よりも大きいときに眠気有りと判断する。
また、上述した問題を解決するためになされた請求項2に記載の眠気判定装置は、左右の口角の距離,眉と目の距離,頭部傾き角度,眉頭の中点と目頭の中点間の距離,眉頭間の距離,鼻下端の中点と目頭の中点間の距離,口端の中点と目頭の中点間の距離,下唇下端と目頭の中点間の距離,上まぶたと下まぶた間の距離,鼻下左右両端間の距離,上唇上端と目頭の中点間の距離,の各表情情報うち、少なくとも2つ以上を取得し、覚醒時に取得された表情情報と、眠気を判断すべきタイミングで取得された表情情報と、を比較することで、取得された表情情報それぞれに基づいて、当該表情情報ごとに眠気の程度が予め定められた複数段階の何れに相当するかを判断し、当該判断した表情情報における該眠気の程度を示す段階の平均値または最頻値に基づいて眠気の度合を判定する。なお、眠気の程度の判断は、左右の口角の距離,上まぶたと下まぶた間の距離,鼻下左右両端間の距離については、眠気を判断すべきタイミングで取得した表情情報の値が、覚醒時に取得された表情情報の値よりも小さいときに眠気有りとして、それらの値の差異の大きさにより眠気の程度を判断する一方、眉と目の距離,頭部傾き角度,眉頭の中点と目頭の中点間の距離,眉頭間の距離,鼻下端の中点と目頭の中点間の距離,口端の中点と目頭の中点間の距離,下唇下端と目頭の中点間の距離,上唇上端と目頭の中点間の距離については、眠気を判断すべきタイミングで取得した値が、覚醒時に取得された値よりも大きいときに眠気有りとして、眠気を判断すべきタイミングで取得した値と覚醒時に取得された値との差異の大きさにより眠気の程度を判断する。
The drowsiness determination device according to claim 1, which is made to solve the above-described problem, includes a distance between left and right mouth corners, a distance between eyebrows and eyes, a head tilt angle, and a distance between a midpoint of the eyebrows and a midpoint of the eyes. , Distance between eyebrows, distance between midpoint of lower nose and midpoint of eye, distance between midpoint of mouth and midpoint of eye, distance between lower midpoint of lower lip and midpoint of eye, upper eyelid and lower Acquire at least two of the facial expression information, such as the distance between the eyelids, the distance between the lower right and left ends of the nose, and the distance between the upper lip upper end and the midpoint of the eye, and determine the facial expression information acquired at awakening and sleepiness by comparing the facial expression information obtained in should do the timing, with the respectively obtained facial expression information, and determines the presence or absence of drowsiness per the facial expression information, O and there sleepiness to the number of the determined facial expression information as the ratio of the number of the determined facial expression information is large, it is determined that the strong degree of drowsiness. The criteria for determining the presence or absence of sleepiness are the distance between the left and right mouth corners, the distance between the upper and lower eyelids, and the distance between the left and right lower nose. While it is judged that there is drowsiness when the value of facial expression information acquired at awakening is smaller, the distance between eyebrows and eyes, head tilt angle, distance between midpoint of eyebrows and midpoint of eyes, distance between eyebrows, The distance between the midpoint of the lower nose and the midpoint of the eye, the distance between the midpoint of the mouth and the midpoint of the eye, the distance between the lower lip and the midpoint of the eye, and the distance between the upper lip and the midpoint of the eye Is determined to be drowsy when the value of the facial expression information acquired at the timing when sleepiness should be determined is greater than the value of the facial expression information acquired at awakening.
The drowsiness determination device according to claim 2, which is made to solve the above-described problem, includes a distance between left and right mouth corners, a distance between eyebrows and eyes, a head tilt angle, a middle point between eyebrows and a middle point of eyes. Distance, distance between eyebrows, distance between midpoint of lower nose and midpoint of eye, distance between midpoint of mouth edge and midpoint of eye, distance between lower midpoint of lower lip and midpoint of eye, upper eyelid And at least two of the facial expression information, such as the distance between the lower eyelid, the distance between the left and right sides of the nose, the distance between the upper lip upper edge and the middle point of the eye, and the facial expression information acquired at awakening and sleepiness by comparing the facial expression information obtained by the timing to determine, whether based on each acquired facial expression information, corresponding to one of a plurality of stages in which the degree of drowsiness per the facial expression information is predetermined determines the average value of the step that indicates the degree of該眠air also in the determination the facial expression information Determining the degree of drowsiness based on the mode. The degree of sleepiness is determined by the distance between the left and right mouth corners, the distance between the upper and lower eyelids, and the distance between the left and right sides of the nose. When it is smaller than the value of facial expression information that is sometimes obtained, drowsiness is detected, and the degree of drowsiness is determined by the magnitude of the difference between these values, while the eyebrow-eye distance, head tilt angle, The distance between the middle point of the eye, the distance between the eyebrows, the distance between the middle point of the lower nose and the middle point of the eye, the distance between the middle point of the mouth edge and the middle point of the eye, and the middle point of the lower lip and the middle point of the eye The distance between the upper lip and the middle point of the upper lip is the timing at which sleepiness should be determined when the value acquired at the timing when sleepiness should be determined is greater than the value acquired at awakening. Sleep due to the magnitude of the difference between the acquired value and the value acquired at awakening To determine the degree of.

通常、眠気の度合が変化すると、顔の表情が変化する。図1に、表情を変化させる11の表情筋を示す。図中の矢印は、各表情筋が収縮した場合の皮膚の動作方向を示す。眠気の度合が変化すると、各表情筋が弛緩・収縮することにより皮膚が移動し、表情が変化する。また、眠気が強くなると、頭部を直立して維持することが困難になり、頭部が傾いてしまう。   Usually, when the degree of sleepiness changes, the facial expression changes. FIG. 1 shows eleven facial muscles that change facial expressions. The arrows in the figure indicate the direction of movement of the skin when each facial muscle contracts. When the degree of sleepiness changes, the facial muscles move due to relaxation and contraction of each facial muscle, and the facial expression changes. Moreover, when sleepiness becomes strong, it becomes difficult to keep the head upright, and the head tilts.

よって、眠気に伴う表情筋の動きを反映する顔特徴点間の距離および頭部の傾きを測定することで、眠気の度合を判定することができる。
上述した構成の眠気判定装置であれば、左右の口角の距離,眉と目の距離,頭部傾き角度,眉頭の中点と目頭の中点間の距離,眉頭間の距離,鼻下端の中点と目頭の中点間の距離,口端の中点と目頭の中点間の距離,下唇下端と目頭の中点間の距離,上まぶたと下まぶた間の距離,鼻下左右両端間の距離,上唇上端と目頭の中点間の距離,の表情情報のうち、いずれか2つ以上の表情情報に基づいて眠気の度合を判定することができる。そのため、眠気の度合の判定に、目の情報以外も利用することができる。よって、目の情報の取得を阻害する外乱要因の影響を受けた場合も眠気の度合を判定することができる。
Therefore, the degree of drowsiness can be determined by measuring the distance between facial feature points and the inclination of the head reflecting the movement of facial muscles associated with sleepiness.
In the case of the drowsiness determination device configured as described above, the distance between the left and right mouth corners, the distance between the eyebrows and the eyes, the head tilt angle, the distance between the middle point of the eyebrow and the middle point of the eye, the distance between the eyebrows, and the middle of the lower nose The distance between the point and the middle point of the eye, the distance between the middle point of the mouth and the middle point of the eye, the distance between the lower edge of the lower lip and the middle point of the eye, the distance between the upper eyelid and the lower eyelid, between the left and right lower ends of the nose The degree of drowsiness can be determined based on any two or more facial expression information among the facial expression information such as the distance between the upper lip upper end and the middle point of the upper eye. Therefore, information other than eye information can be used to determine the degree of sleepiness. Therefore, the degree of sleepiness can also be determined when affected by disturbance factors that hinder the acquisition of eye information.

また、上述した眠気判定装置では、上述した表情情報それぞれに基づく眠気の有無または程度の判断結果を、少なくとも2つ以上組み合わせて眠気の度合を判定する。上述した各情報は、後述する[眠気表情特徴の眠気の度合に対する傾向を確認する試験]で示すように、それぞれ変化が現れる眠気の度合が異なる。例えば、左右の口角の距離は軽度の眠気にて変化が発生し、眉と目の距離は中度の眠気にて変化が発生し、頭部傾き角度は強度の眠気にて変化が発生する。そのため、それらの情報を組み合わせて眠気の度合を判定することで、眠気の度合いを複数の段階にて判定することができることから、単一の情報に基づく眠気の判定に比べて、眠気の度合をより詳細に判定することができる。   In the above-described sleepiness determination apparatus, the degree of sleepiness is determined by combining at least two or more determination results of the presence or absence or degree of sleepiness based on each of the facial expression information described above. Each information described above has a different degree of sleepiness in which a change occurs, as will be described later in [Test for confirming tendency of sleepiness expression feature to sleepiness degree]. For example, the distance between the left and right mouth corners changes with mild sleepiness, the distance between the eyebrows and the eyes changes with moderate sleepiness, and the head tilt angle changes with strong sleepiness. Therefore, by combining the information and determining the degree of sleepiness, the degree of sleepiness can be determined in multiple stages, so the degree of sleepiness can be compared with the determination of sleepiness based on a single piece of information. More detailed determination can be made.

また、上記請求項1のように構成された眠気判定装置は、眠気の判断を行った表情情報のうち、眠気有りと判断されたものの割合に応じて眠気の度合を判定する。よって、すべての表情情報に基づく眠気の判断の結果を判定結果に反映することができる。その結果、ある表情情報が、眠気を伴わない表情の変化によって眠気有りと誤って判断された場合であっても、眠気の度合の判定は他の表情情報による判断結果と合わせて行われるため、眠気の度合が誤って判定されることを抑制できる。
また、上記請求項2のように構成された眠気判定装置は、表情情報それぞれに基づいて眠気の程度の段階を判断し、この眠気の程度の段階の平均値または最頻値に基づいて眠気の度合を判定する。
このように構成された眠気判定装置であれば、各表情情報の眠気の程度を複数段階に分類した高次の情報に基づいて眠気の度合を判定できるので、より適切に眠気の度合を判定することができる。
The drowsiness determination device configured as in claim 1 determines the degree of drowsiness according to the ratio of the facial expression information determined to be drowsiness that is determined to have drowsiness. Therefore, the result of sleepiness determination based on all facial expression information can be reflected in the determination result. As a result, even if certain facial expression information is erroneously determined to be drowsy due to a change in facial expression that does not involve drowsiness, the determination of the degree of sleepiness is performed in combination with the determination result by other facial expression information, It is possible to suppress erroneous determination of the degree of sleepiness.
Further, the drowsiness determination device configured as in claim 2 determines a level of drowsiness based on each facial expression information, and the drowsiness level is determined based on an average value or mode value of the level of drowsiness. Determine the degree.
With the drowsiness determination device configured as described above, the degree of drowsiness can be determined based on higher-order information in which the degree of drowsiness of each facial expression information is classified into a plurality of stages. be able to.

また、上記請求項1または請求項2のように構成された眠気判定装置であれば、覚醒時との比較により表情が変化したことを検出できるので、眠気の有無または程度の判断を適切に行うことができる。
なお、上述した表情情報を取得する具体的な方法については特に限定されない。例えば、電極を顔面に貼り付け、上述した表情筋の動作の大きさに比例して発生する微弱な電気を検出して、上述した各表情情報を検出することが考えられる。
In addition, since the drowsiness determination device configured as in claim 1 or 2 can detect that the facial expression has changed by comparison with awakening, the presence / absence or degree of drowsiness is appropriately determined. be able to.
The specific method for acquiring the facial expression information described above is not particularly limited. For example, it is conceivable to detect each facial expression information described above by attaching electrodes to the face and detecting the weak electricity generated in proportion to the magnitude of the movement of the facial expression muscle described above.

また、上述した方法以外の方法で眠気を判断する方法としては、対象者の顔を撮影し、その顔画像を画像処理することで上述した各表情情報を検出する方法が考えられる。そのためには、請求項5に記載の眠気判定装置のように構成するとよい。 Further, as a method for determining drowsiness by a method other than the method described above, a method of detecting each facial expression information described above by photographing the face of the subject and performing image processing on the face image is conceivable. For that purpose, it may be configured as drowsiness determination apparatus according to claim 5.

この眠気判定装置は、顔画像を示す画像データに基づいて、少なくとも顔面の構成要素の位置または頭部の傾き角度を示す位置・角度情報を検出し、該位置・角度情報に基づいて、前記表情情報を取得するように構成されている。   The drowsiness determination device detects position / angle information indicating at least a position of a component of a face or a tilt angle of a head based on image data indicating a face image, and based on the position / angle information, the facial expression It is configured to obtain information.

このように構成された眠気判定装置であれば、撮影手段により撮影された顔画像を示す画像データに基づいて、眠気の度合を判定することができる。よって、上述した各表情情報を検出するための電極などを、眠気の度合を判定する対象者に直接取り付けることなく、簡便に眠気の度合を判定することができる。   With the sleepiness determination device configured as described above, the degree of sleepiness can be determined based on the image data indicating the face image captured by the imaging unit. Therefore, the degree of drowsiness can be easily determined without directly attaching the electrodes for detecting each facial expression information described above to the subject who determines the degree of drowsiness.

また、請求項5に記載した眠気判定装置は、請求項6に記載した眠気判定装置のように、撮影手段を備えた車両に搭載されて用いられるものであってもよい。この場合は、撮影手段により撮影された顔画像を示す画像データに基づいて、上述した位置・角度情報を検出し、該位置・角度情報に基づいて前記表情情報を取得し、それらに基づいて眠気の度合を判定するように構成するとよい。 Further, the drowsiness determination device described in claim 5 may be used by being mounted on a vehicle provided with photographing means, like the drowsiness determination device described in claim 6 . In this case, the position / angle information described above is detected based on the image data indicating the face image captured by the image capturing means, the facial expression information is acquired based on the position / angle information, and sleepiness is based on the information. It is good to comprise so that the degree of may be determined.

このように構成された眠気判定装置であれば、車両に搭載して用いることができるので、車両の運転者を対象として眠気の度合を判定することができる。
なお、眠気の度合の判定結果に応じて運転者の居眠りを防止する動作を行う装置を車両に備え、その装置と連携することで、運転者の居眠りを防止することができる。例えば、上記眠気判定装置をカーナビゲーションシステムと連携して、眠気の度合の判定結果に応じた画面表示および音声出力をすることが考えられる。また、眠気の度合の判定結果に応じて、運転者に送風する装置,シートベルトを振動させる装置,ブレーキを制御する装置などを動作させてもよい。
Since the drowsiness determination device configured as described above can be mounted on a vehicle and used, the degree of drowsiness can be determined for a vehicle driver.
In addition, the apparatus which performs the operation | movement which prevents a driver's doze according to the determination result of the degree of sleepiness is provided in a vehicle, and a driver's doze can be prevented by cooperating with the apparatus. For example, it is conceivable that the drowsiness determination device cooperates with a car navigation system to perform screen display and audio output according to the determination result of the degree of sleepiness. Further, a device that blows air to the driver, a device that vibrates a seat belt, a device that controls a brake, or the like may be operated according to the determination result of the degree of sleepiness.

また、請求項3に記載の眠気判定装置のような方法で眠気の度合を判定してもよい。
この眠気判定装置は、左右の口角の距離,眉と目の距離,頭部傾き角度のうち少なくとも2つ以上を取得するものであって、前記頭部傾き角度に基づいて眠気ありと判断することを条件Aとし、前記眉と目の距離に基づいて眠気ありと判断することを条件Bとし、前記左右の口角の距離に基づいて眠気ありと判断することを条件Cとする。そして、この眠気判定装置は、これらの条件に基づいて眠気の度合を判定する。
Moreover, you may determine the degree of sleepiness by methods, such as the sleepiness determination apparatus of Claim 3 .
This drowsiness determination device acquires at least two of the distance between the left and right mouth corners, the distance between the eyebrows and the eyes, and the head tilt angle, and determines that there is drowsiness based on the head tilt angle. Is defined as Condition A, Condition B is determined to be drowsy based on the distance between the eyebrows and eyes, and Condition C is determined to be drowsy based on the distance between the left and right mouth corners. And this drowsiness determination apparatus determines the degree of drowsiness based on these conditions.

具体的には、前記条件Aが満たされる場合に強度眠気と判定する。また、前記条件Bが満たされると共に、前記条件Aが満たされない場合に、前記強度眠気よりも眠気の度合が低い中度眠気と判定する。また、前記条件Cが満たされると共に、前記条件Aおよび前記条件Bが満たされない場合に、前記中度眠気よりも眠気の度合が低い軽度眠気と判定する。そして、前記条件A,条件B,条件Cのいずれも満たされない場合に、眠気なしと判定する。   Specifically, when the condition A is satisfied, the sleepiness is determined to be strong. Further, when the condition B is satisfied and the condition A is not satisfied, it is determined that the sleepiness is moderate sleepiness lower than the intense sleepiness. In addition, when the condition C is satisfied and the condition A and the condition B are not satisfied, it is determined that the sleepiness is milder than that of the moderate sleepiness. If none of the conditions A, B, and C is satisfied, it is determined that there is no sleepiness.

上述したように、左右の口角の距離は軽度の眠気にて変化が発生し、眉と目の距離は中度の眠気にて変化が発生し、頭部傾き角度は強度の眠気にて変化が発生する。よって、このような方法で眠気の度合を判定する眠気判定装置であれば、表情情報取得手段が左右の口角の距離,眉と目の距離,頭部傾き角度のいずれについても情報を取得する場合には、強度眠気,中度眠気,軽度眠気,眠気なし,の4段階で眠気の度合を判定することができる。また、表情情報取得手段が、上述した情報のうち2つを取得する場合には、強度眠気,中度眠気,軽度眠気,のうちいずれか2つと、眠気なしとの3段階で眠気の度合を判定することができる。
ところで、取得した表情情報に基づいて眠気の有無または程度を判断する具体的な方法は特に限定されない。例えば、取得した表情情報に示される距離や角度の値が予め定められた基準範囲内にあるか否かにより眠気を判断する方法が考えられる。また、それ以外の方法で眠気を判断する構成としては、請求項4に記載したように、覚醒時に取得された表情情報と、眠気を判断すべきタイミングで取得された表情情報とを比較することで眠気の有無を判断し、その結果の組み合わせから眠気の度合を判定する構成が考えられる。
このように構成された眠気判定装置であれば、覚醒時との比較により表情が変化したことを検出できるので、眠気の有無または程度の判断を適切に行うことができる。
As described above, the distance between the left and right mouth corners changes with mild sleepiness, the distance between the eyebrows and the eyes changes with moderate sleepiness, and the head tilt angle changes with strong sleepiness. appear. Therefore, in the case of a drowsiness determination device that determines the degree of drowsiness by such a method, the facial expression information acquisition unit acquires information on any of the left and right mouth corner distances, the eyebrow and eye distances, and the head tilt angle. The level of drowsiness can be determined in four stages: intense drowsiness, moderate drowsiness, mild drowsiness, and no drowsiness. In addition, when the facial expression information acquisition means acquires two of the above-mentioned information, the degree of sleepiness is determined in three stages: strong sleepiness, moderate sleepiness, mild sleepiness, and no sleepiness. Can be determined.
By the way, the specific method of judging the presence or absence or degree of sleepiness based on the acquired facial expression information is not particularly limited. For example, a method of determining drowsiness based on whether the distance and angle values indicated in the acquired facial expression information are within a predetermined reference range is conceivable. Further, as a configuration for determining drowsiness by other methods, as described in claim 4, comparing facial expression information acquired at awakening with facial expression information acquired at a timing when sleepiness should be determined A configuration is possible in which the presence or absence of drowsiness is determined and the degree of drowsiness is determined from the combination of the results.
With the drowsiness determination device configured as described above, it is possible to detect that the facial expression has changed by comparison with awakening, and therefore it is possible to appropriately determine whether or not there is drowsiness.

また、請求項7に記載のプログラムは、請求項1から請求項6のいずれかに記載の表情情報取得手段および眠気判定手段として機能させるための処理手順を、コンピュータシステムに実行させるためのプログラムである。 A program according to a seventh aspect is a program for causing a computer system to execute the processing procedure for causing the facial expression information acquiring unit and the drowsiness determining unit according to any one of the first to sixth aspects to function. is there.

このようなプログラムにより制御されるコンピュータシステムは、請求項1から請求項6のいずれかに記載の眠気判定装置の一部を構成することができる。
なお、上述したプログラムは、コンピュータシステムによる処理に適した命令の順番付けられた列からなるものであって、各種記録媒体や通信回線を介して、眠気判定装置やこれを利用するユーザに提供されるものである。
A computer system controlled by such a program can constitute a part of the drowsiness determination device according to any one of claims 1 to 6 .
Note that the above-described program is composed of an ordered sequence of instructions suitable for processing by a computer system, and is provided to a sleepiness determination device and a user who uses this device via various recording media and communication lines. Is.

[実施例1]
(1.1)全体構成
実施例1における居眠り防止システム1は、車両2に搭載されて用いられるものであり、図2に示すように、運転者3の顔画像を撮影する撮影装置10と、顔画像に基づいて眠気の度合を判定する眠気判定装置20と、判定された眠気の度合に応じて居眠り運転による事故防止のための動作を行う複数の装置(警報装置30,首元空調装置40,シートベルト振動装置50,および,ブレーキ制御装置60)と、から構成される。
[Example 1]
(1.1) Overall Configuration The dozing prevention system 1 according to the first embodiment is used by being mounted on a vehicle 2, and as illustrated in FIG. 2, an imaging device 10 that captures a face image of the driver 3, A drowsiness determination device 20 that determines the degree of drowsiness based on the face image, and a plurality of devices (alarm device 30, neck air conditioner 40) that perform operations for preventing accidents due to drowsy driving according to the determined drowsiness level , A seat belt vibration device 50, and a brake control device 60).

これらのうち、撮影装置10は、車両2における運転者3の正面方向にて運転者3に向けて配置されており、運転者3の正面の顔画像を所定の時間間隔(例えば、1/30s)で撮影するように構成されている。   Among these, the imaging device 10 is arranged toward the driver 3 in the front direction of the driver 3 in the vehicle 2, and the face image of the front of the driver 3 is displayed at a predetermined time interval (for example, 1/30 s). ).

また、眠気判定装置20は、図3に示すように、制御部21,受信部22,入力部23,記憶部24,出力部25,などを備えている。
この眠気判定装置20の制御部21は、記憶部24に記憶されているプログラムに従って、眠気判定装置20全体を制御する。
Further, as shown in FIG. 3, the drowsiness determination device 20 includes a control unit 21, a reception unit 22, an input unit 23, a storage unit 24, an output unit 25, and the like.
The control unit 21 of the sleepiness determination device 20 controls the entire sleepiness determination device 20 according to a program stored in the storage unit 24.

また、この制御部21は、撮影装置10により撮影された顔画像を示す画像データを受信部22より受信する毎に、内蔵するメモリ(以降、「内蔵メモリ」という)にその画像データを記憶させる。その後、その画像データに基づいて、後述する制御部メイン処理,覚醒時データ収集処理,運転時データ収集処理,表情情報取得処理,眠気判定処理を行う。そして、眠気判定処理において、眠気の度合を眠気レベル0(眠気なし),眠気レベル1(軽度眠気),眠気レベル2(中度眠気),眠気レベル3(強度眠気),のいずれかと判定する。   The control unit 21 stores the image data in a built-in memory (hereinafter referred to as “built-in memory”) each time image data indicating a face image photographed by the photographing apparatus 10 is received from the receiving unit 22. . Thereafter, based on the image data, a control unit main process, awakening data collection process, a driving data collection process, a facial expression information acquisition process, and a drowsiness determination process, which will be described later, are performed. In the sleepiness determination process, the sleepiness level is determined as one of sleepiness level 0 (no sleepiness), sleepiness level 1 (mild sleepiness), sleepiness level 2 (medium sleepiness), and sleepiness level 3 (strong sleepiness).

入力部23は、後述する制御部メイン処理を開始するための開始ボタン,居眠り防止システム1の全ての処理および動作を終了させる終了ボタンなどを備えている。
記憶部24は、データを記憶する記憶領域として、制御部21を制御するプログラム用の記憶領域、後述する各種データを記憶するための記憶領域などを有している。
The input unit 23 includes a start button for starting a control unit main process, which will be described later, and an end button for ending all processes and operations of the dozing prevention system 1.
The storage unit 24 has a storage area for a program for controlling the control unit 21 and a storage area for storing various data to be described later as storage areas for storing data.

出力部25は、制御部21により判定された眠気の度合に応じて、警報装置30,首元空調装置40,シートベルト振動装置50,および,ブレーキ制御装置60に対し、以下に記す居眠り防止の動作をさせるための信号を出力する。   The output unit 25 prevents the following drowsy prevention from being given to the alarm device 30, the neck air conditioner 40, the seat belt vibration device 50, and the brake control device 60 according to the degree of sleepiness determined by the control unit 21. Outputs a signal for operation.

上述した装置のうち、警報装置30は、ディスプレイおよびスピーカを備えている。この警報装置30は、制御部21により判定された眠気の度合に応じて、運転者3に居眠り運転の注意を促す表示(例えば、眠気レベル1と判定された場合は「早めに休憩を取りましょう」、眠気レベル2と判定された場合は「注意してください」、眠気レベル3と判定された場合は「運転を中止してください」など)をディスプレイに出力すると共に、上述した表示内容をスピーカにて音声で出力する。   Among the devices described above, the alarm device 30 includes a display and a speaker. The warning device 30 displays a message that prompts the driver 3 to take a nap of driving according to the degree of drowsiness determined by the control unit 21 (for example, when it is determined that the drowsiness level is 1, “take a break early”). ”Sho”, “Caution” when drowsiness level 2 is determined, “Stop driving” when drowsiness level 3 is determined, and the like, Outputs sound by speaker.

また、首元空調装置40は、運転者3のシートにおけるヘッドレストに配置されており、制御部21により眠気レベル1〜3のいずれかであると判定されたときに、運転者3の首元に送風する。   Moreover, the neck air conditioner 40 is arrange | positioned at the headrest in the driver | operator's 3 sheet | seat, and when it determines with the drowsiness level 1-3 being one of the drowsiness levels 1-3 by the driver | operator's 3 head, Blow.

また、シートベルト振動装置50は、シートベルトの引き込み機構に備えられており、制御部21により眠気レベル2または眠気レベル3であると判定されたときに、シートベルトを振動させる。   The seat belt vibration device 50 is provided in a seat belt retracting mechanism, and vibrates the seat belt when the control unit 21 determines that it is the drowsiness level 2 or the drowsiness level 3.

また、ブレーキ制御装置60は、ブレーキを自動的に作動させる装置である。これは、制御部21により眠気レベル3であると判定されたときに、ブレーキを作動させ、車両の走行を強制的に停止させたり、順次減速させたりする。
(1.2)眠気判定装置20の制御部21による処理
以下に、実施例1における居眠り防止システム1の眠気判定装置20が備える制御部21により実行される各種処理について説明する。
(1.2.1)制御部メイン処理
以下に、制御部21による制御部メイン処理の処理手順を、図4に基づいて説明する。この制御部メイン処理は、入力部23に備えられた開始ボタンを押すことによって開始される。
The brake control device 60 is a device that automatically operates the brake. When it is determined that the drowsiness level 3 is determined by the control unit 21, the brake is operated to forcibly stop the vehicle running or sequentially decelerate the vehicle.
(1.2) Processing by Control Unit 21 of Drowsiness Determination Device 20 Various processes executed by the control unit 21 included in the drowsiness determination device 20 of the dozing prevention system 1 according to the first embodiment will be described below.
(1.2.1) Control Unit Main Process The processing procedure of the control unit main process performed by the control unit 21 will be described below with reference to FIG. This control unit main process is started by pressing a start button provided in the input unit 23.

この制御部メイン処理では、まず、覚醒時における運転者3の顔面の情報を収集する覚醒時データ収集処理を行う(ステップ1、以降ステップをSと記載する)。ここでは、運転者3の眠気を判定する基準となる覚醒時の顔面の情報として、L1b,L2b,αb,θbを収集する。この覚醒時データ収集処理について詳しくは後述する。なお、ここでいうL1とは、左右の口角の距離情報であり、L2とは、眉と目の距離情報であり、αとは、頭部の前後への傾き角度情報であり、θとは、頭部の左右への傾き角度情報である。   In this control unit main process, first, an awakening data collection process for collecting information on the face of the driver 3 at the time of awakening is performed (step 1; hereinafter, steps are referred to as S). Here, L1b, L2b, αb, and θb are collected as information on the face at the time of awakening, which is a reference for determining the sleepiness of the driver 3. The awakening data collection process will be described later in detail. Here, L1 is the distance information of the left and right mouth corners, L2 is the distance information of the eyebrows and the eyes, α is the tilt angle information of the head back and forth, and θ is The tilt angle information of the head to the left and right.

次に、運転者3の顔面の情報を収集する運転時データ収集処理を行う(S2)。ここでは運転者3の顔面の情報として、L1d,L2d,αd,θdを収集する。この運転時データ収集処理について詳しくは後述する。   Next, a driving data collection process for collecting information on the face of the driver 3 is performed (S2). Here, L1d, L2d, αd, and θd are collected as information on the face of the driver 3. This operation data collection process will be described in detail later.

次に、運転者3の眠気の度合を判定する眠気判定処理を行う(S3)。
ここでは、まず、S1において算出されたL1b,L2b,αb,θbと、S2において算出されたL1d,L2d,αd,θdとを比較することで、L1,L2,α,θそれぞれに基づく眠気の有無を判断する。
Next, a sleepiness determination process for determining the degree of sleepiness of the driver 3 is performed (S3).
Here, first, by comparing L1b, L2b, αb, θb calculated in S1 with L1d, L2d, αd, θd calculated in S2, sleepiness based on L1, L2, α, θ respectively. Judgment is made.

そして、その判断結果の組み合わせにより、眠気レベル0(眠気なし),眠気レベル1(軽度眠気),眠気レベル2(中度眠気),眠気レベル3(強度眠気)のいずれかに眠気の度合を判定する。この眠気判定処理について詳しくは後述する。   Based on the combination of the determination results, the sleepiness level is determined as one of sleepiness level 0 (no sleepiness), sleepiness level 1 (mild sleepiness), sleepiness level 2 (medium sleepiness), and sleepiness level 3 (strong sleepiness) To do. This sleepiness determination process will be described in detail later.

次に、入力部23の終了ボタンが押されたか否かがチェックされる(S4)。終了ボタンが押されていなければ(S4:NO)、処理がS2に戻る。一方、終了ボタンが押されていれば(S4:YES)、本処理を終了する。   Next, it is checked whether or not the end button of the input unit 23 has been pressed (S4). If the end button has not been pressed (S4: NO), the process returns to S2. On the other hand, if the end button is pressed (S4: YES), this process ends.

なお、この制御部メイン処理は、車両2におけるエンジン等の動力部が停止して車両全体の制御が終了した際にも終了する。
(1.2.2)覚醒時データ収集処理
以下に、制御部21による覚醒時データ収集処理の処理手順を、図5に基づいて説明する。この覚醒時データ収集処理は、制御部メイン処理のS1にて実行される。
Note that this control unit main process also ends when the power unit such as the engine in the vehicle 2 stops and the control of the entire vehicle ends.
(1.2.2) Awakening Data Collection Processing A processing procedure of awakening data collection processing by the control unit 21 will be described below with reference to FIG. This awakening data collection process is executed in S1 of the control unit main process.

この覚醒時データ収集処理では、まず、データの初期化を行う(S21)。ここでは、この時点で制御部21の内蔵メモリに記憶されている画像データの削除と、記憶部24に記憶されている各種データの削除と、を行う。   In this awakening data collection process, first, data is initialized (S21). Here, the deletion of the image data stored in the internal memory of the control unit 21 and the deletion of various data stored in the storage unit 24 are performed at this time.

次に、変数iを0に設定する(S22)。
次に、運転者3の顔面の情報を検出する表情情報取得処理を行う(S23)。ここでは、撮影装置10により撮影された顔画像を示す画像データに基づき、L1,L2,α,θを、所定の回数(m回)算出し、記憶部24に記憶する。このとき、記憶部24には、L1,L2,α,θがそれぞれm個ずつ記憶されている。
Next, the variable i is set to 0 (S22).
Next, facial expression information acquisition processing for detecting information on the face of the driver 3 is performed (S23). Here, L1, L2, α, and θ are calculated a predetermined number of times (m times) based on the image data indicating the face image captured by the imaging device 10 and stored in the storage unit 24. At this time, the storage unit 24 stores m pieces of L1, L2, α, and θ.

なお、L1は、左右の口角の距離であり、眠気を感じると口周りが緩むことで小さくなる。また、L2は、左目頭および左目尻の中心点と、左眉中心と、の距離(以降、単に「眉目間の距離」という)であり、眠気を感じると大きくなる。また、αは、頭部の前後への傾きを示す角度である。また、θは、頭部の左右への傾きを示す角度である。この表情情報取得処理について詳しくは後述する。   Note that L1 is the distance between the left and right mouth corners. L2 is the distance between the center point of the left eye head and the left eye corner and the center of the left eyebrow (hereinafter simply referred to as “distance between eyebrows”), and increases when sleepiness is felt. Further, α is an angle indicating the front-back inclination of the head. Further, θ is an angle indicating the tilt of the head to the left and right. The facial expression information acquisition process will be described in detail later.

次に、S23にて算出されたm個のL1,L2,α,θに基づき、その代表値L1a,L2a,αa,θaを算出する(S24)。
ここでは、まず、記憶部24に記憶されたL1,L2,α,θをすべて読み出す。そして、L1,L2,α,θそれぞれにおける度数分布に基づき、眠気の亢進に伴い値が小さくなるL1に関しては、累積相対度数が最小値より5%に該当する値をL1aとして算出する。一方、眠気の亢進に伴い値が大きくなるL2,α,θに関しては、累積相対度数が最大値より5%に該当する値をL2a,αa,θaとして算出する。
Next, based on the m pieces of L1, L2, α, θ calculated in S23, the representative values L1a, L2a, αa, θa are calculated (S24).
Here, first, all L1, L2, α, and θ stored in the storage unit 24 are read. Then, based on the frequency distribution in each of L1, L2, α, and θ, for L1 whose value decreases as sleepiness increases, a value corresponding to 5% of the cumulative relative frequency from the minimum value is calculated as L1a. On the other hand, for L2, α, and θ that increase in value due to increased sleepiness, values corresponding to 5% of the cumulative relative frequency from the maximum value are calculated as L2a, αa, and θa.

そして、このように算出されたL1a,L2a,αa,θaそれぞれの値を記憶部24に記憶し、記憶部24に記憶されていたL1,L2,α,θを削除する。記憶部24には、上述したL1a,L2a,αa,θaの値がそれぞれ複数個記憶できるようになっており、S24にて上述した値が算出される毎に、記憶部24に記憶される上述した値それぞれの個数は1つずつ増加していくこととなる。   Then, the values of L1a, L2a, αa, θa calculated in this way are stored in the storage unit 24, and L1, L2, α, θ stored in the storage unit 24 are deleted. The storage unit 24 can store a plurality of the above-described values of L1a, L2a, αa, and θa, and is stored in the storage unit 24 every time the above-described values are calculated in S24. The number of each value will increase by one.

その後、変数iをインクリメント(i=i+1)して(S25)、変数iが所定数n未満ならば(S26:YES)、処理がS23に戻る。一方、変数iが所定数n未満でなければ(S26:NO)、処理がS27に移行する。このとき、記憶部24には、L1a,L2a,αa,θaがそれぞれn個ずつ記憶されている。   Thereafter, the variable i is incremented (i = i + 1) (S25). If the variable i is less than the predetermined number n (S26: YES), the process returns to S23. On the other hand, if the variable i is not less than the predetermined number n (S26: NO), the process proceeds to S27. At this time, the storage unit 24 stores n L1a, L2a, αa, and θa.

次に、後述する眠気判定処理で用いられるL1b,L2b,αb,θbを算出する(S27)。
このS27では、S24にて記憶部24に記憶されたL1a,L2a,αa,θaを全て読み出し、それぞれの正規分布を作成する。これらの正規分布における平均値をμ,標準偏差をσとしたときに、眠気の亢進に伴い値が小さくなるL1に対応するL1aに関しては、μ−2σに該当する値をL1bとして算出する。一方、眠気の亢進に伴い値が大きくなるL2,α,θに対応するL2a,αa,θaに関しては、μ+2σに該当する値をそれぞれL2b,αb,θbとして算出する。
Next, L1b, L2b, αb, and θb used in sleepiness determination processing described later are calculated (S27).
In S27, all of L1a, L2a, αa, and θa stored in the storage unit 24 in S24 are read, and respective normal distributions are created. Assuming that the average value in these normal distributions is μ and the standard deviation is σ, for L1a corresponding to L1 that decreases as sleepiness increases, a value corresponding to μ−2σ is calculated as L1b. On the other hand, for L2a, αa, and θa corresponding to L2, α, and θ that increase as sleepiness increases, values corresponding to μ + 2σ are calculated as L2b, αb, and θb, respectively.

そして、このように算出したL1b,L2b,αb,θbそれぞれの値を記憶部24に記憶し、記憶部24に記憶されていたL1a,L2a,αa,θaを削除する。
その後、本処理を終了して、制御部メイン処理に戻る。
(1.2.3)運転時データ取得処理
以下に、制御部21による運転時データ収集処理の処理手順を、図6に基づいて説明する。この覚醒時データ収集処理は、制御部メイン処理のS2にて実行される。
Then, the values of L1b, L2b, αb, and θb calculated in this way are stored in the storage unit 24, and L1a, L2a, αa, and θa stored in the storage unit 24 are deleted.
Then, this process is terminated and the process returns to the control unit main process.
(1.2.3) Driving Data Acquisition Process The processing procedure of the driving data collection process by the control unit 21 will be described below with reference to FIG. This awakening data collection process is executed in S2 of the control part main process.

この運転時データ収集処理では、まず、運転者3の顔面の情報を検出する表情情報取得処理を行う(S31)。ここでは、覚醒時データ収集処理のS23と同様に、m個のL1,L2,α,θを取得する。この表情情報取得処理について、詳しくは後述する。   In this driving data collection processing, first, facial expression information acquisition processing for detecting information on the face of the driver 3 is performed (S31). Here, m L1, L2, α, θ are acquired in the same manner as in S23 of the awakening data collection process. The facial expression information acquisition process will be described later in detail.

次に、S31にて算出されたL1,L2,α,θに基づき、その代表値L1d,L2d,αd,θdを算出する(S32)。
ここでは、まず、記憶部24に記憶されたL1,L2,α,θをすべて読み出す。そして、L1,L2,α,θそれぞれにおける度数分布に基づき、眠気の亢進に伴い値が小さくなるL1に関しては、累積相対度数が最小値より5%に該当する値をL1dとして算出する。一方、眠気の亢進に伴い値が大きくなるL2,α,θに関しては、累積相対度数が最大値より5%に該当する値をL2d,αd,θdとして算出する。
Next, the representative values L1d, L2d, αd, θd are calculated based on L1, L2, α, θ calculated in S31 (S32).
Here, first, all L1, L2, α, and θ stored in the storage unit 24 are read. Then, based on the frequency distribution in each of L1, L2, α, and θ, for L1 whose value decreases as sleepiness increases, a value corresponding to 5% of the cumulative relative frequency from the minimum value is calculated as L1d. On the other hand, for L2, α, and θ that increase as sleepiness increases, a value corresponding to 5% of the cumulative relative frequency from the maximum value is calculated as L2d, αd, and θd.

そして、このように算出されたL1d,L2d,αd,θdそれぞれの値を記憶部24に記憶し、記憶部24に記憶されていたL1,L2,α,θを削除する。
その後、本処理を終了して、制御部メイン処理に戻る。
(1.2.4)表情情報取得処理
以下に、制御部21による表情情報取得処理の処理手順を、図7に基づいて説明する。この表情情報取得処理は、覚醒時データ収集処理におけるS23,運転時データ収集処理におけるS31にて実行される。
Then, the values of L1d, L2d, αd, and θd calculated in this way are stored in the storage unit 24, and L1, L2, α, and θ stored in the storage unit 24 are deleted.
Then, this process is terminated and the process returns to the control unit main process.
(1.2.4) Facial Expression Information Acquisition Processing A processing procedure of facial expression information acquisition processing by the control unit 21 will be described below with reference to FIG. This facial expression information acquisition process is executed in S23 in the awakening data collection process and in S31 in the driving data collection process.

この表情情報取得処理では、まず、変数jを0に設定する(S41)。
次に、撮影装置10により撮影された顔画像を示す画像データを受信部22より取得する(S42)。
In this facial expression information acquisition process, first, a variable j is set to 0 (S41).
Next, image data indicating a face image photographed by the photographing apparatus 10 is acquired from the receiving unit 22 (S42).

次に、S42にて取得した画像データに基づき、顔面の構成要素の位置・角度を示す位置・角度情報を検出する(S43)。
ここでは、図8に示すように、左目頭(x1,y1,z1),右目頭(x2,y2,z2),左目尻(x3,y3,z3),左眉頭(x4,y4,z4),右眉頭(x5,y5,z5),左眉中心上端(x6,y6,z6),左鼻孔外側端(右鼻孔と反対側に位置する端部)(x7,y7,z7),右鼻孔外側端(左鼻孔と反対側に位置する端部)(x8,y8,z8),左口角(x9,y9,z9),右口角(x10,y10,z10),下唇下端(x11,y11,z11),上まぶた(x12,y12,z12),下まぶた(x13,y13,z13),上唇上端(x14,y14,z14)の各顔特徴点の位置と、頭部の前後への傾き角度情報αおよび頭部の左右への傾き角度情報θと、を検出する。なお、上述したαおよびθは、頭部が前後,左右のいずれに傾いた場合であっても、正の値として検出する。
Next, based on the image data acquired in S42, position / angle information indicating the position / angle of the components of the face is detected (S43).
Here, as shown in FIG. 8, the left eye (x 1 , y 1 , z 1 ), the right eye (x 2 , y 2 , z 2 ), the left eye corner (x 3 , y 3 , z 3 ), left the inner end of eyebrow (x 4, y 4, z 4), Migimayuatama (x 5, y 5, z 5), the left eyebrow center upper (x 6, y 6, z 6), the left nostril outer end (right nostril opposite ) (X 7 , y 7 , z 7 ), right nostril outer end (end opposite to the left nostril) (x 8 , y 8 , z 8 ), left mouth corner (x 9 , y 9, z 9), right corner of the mouth (x 10, y 10, z 10), the lower lip lower end (x 11, y 11, z 11), the upper eyelid (x 12, y 12, z 12), lower lid ( x 13 , y 13 , z 13 ), the position of each facial feature point on the upper lip upper end (x 14 , y 14 , z 14 ), the head tilt angle information α and the head tilt angle to the left and right Information θ is detected. Note that α and θ described above are detected as positive values regardless of whether the head is tilted forward or backward or left and right.

上述した位置・角度情報は、顔画像を示す画像データから検出するが、実用化を考慮して1台のカメラで撮影した画像を用いて処理できることを前提とし、その画像から顔特徴点を検出してそれらの間の距離を検出する方法を採る。   The position / angle information described above is detected from image data representing a face image, but it is assumed that it can be processed using an image taken with a single camera in consideration of practical use, and face feature points are detected from that image. Then, the method of detecting the distance between them is adopted.

顔特徴点の検出は、形状抽出やパターン照合を用いて画像上の2次元座標を検出する方法が一般的であるが、本実施例では顔向きが変化した場合でも正確に特徴点間距離を検出する必要があるため、顔特徴点は3次元座標として検出する。具体的には、AAM(Active Appearance Model)を用いて、1台のカメラで撮影した顔画像から特徴点の3次元座標を検出し、その座標から特徴量となる顔特徴点間の距離を計算する。AAMとは、多数の特徴点からなる形態およびテクスチャ情報を持つ2次元モデル(図9(a)参照)と、形態のみからなる3次元モデル(図9(b)参照)とを用いて、画像にこれらのモデルをフィッティングさせていくことにより特徴点の3次元座標および頭部の傾きの角度を検出する手法である。   Face feature points are generally detected by detecting the two-dimensional coordinates on the image using shape extraction or pattern matching, but in this embodiment, the distance between feature points can be accurately determined even when the face orientation changes. Since it needs to be detected, the face feature points are detected as three-dimensional coordinates. Specifically, using AAM (Active Appearance Model), the three-dimensional coordinates of the feature points are detected from the face image photographed by one camera, and the distance between the face feature points as the feature amount is calculated from the coordinates. To do. AAM uses a two-dimensional model (see FIG. 9 (a)) having a form and texture information consisting of a large number of feature points, and a three-dimensional model (see FIG. 9 (b)) consisting only of a form. This is a method for detecting the three-dimensional coordinates of the feature points and the angle of inclination of the head by fitting these models.

次に、S43による検出結果に基づいて、左右の口角の距離情報L1および眉と目の距離情報L2を、後述する計算式にて算出し、S43にて検出されたαおよびθと共に記憶部24に記憶する(S44)。   Next, based on the detection result in S43, the distance information L1 of the left and right mouth corners and the distance information L2 of the eyebrows and the eyes are calculated by the calculation formula described later, and the storage unit 24 together with α and θ detected in S43. (S44).

上述した各情報のうち、L1は、左右の口角の距離であり、次に示す式で計算される。
L1=[(x9−x102+(y9−y102+(z9−z102]0.5
また、L2は、眉と目の距離(左目頭と左目尻の中心と、左眉中心上端と、の距離)であり、次に示す式で計算される。
Of the information described above, L1 is the distance between the left and right mouth corners, and is calculated by the following equation.
L1 = [(x 9 −x 10 ) 2 + (y 9 −y 10 ) 2 + (z 9 −z 10 ) 2 ] 0.5
L2 is the distance between the eyebrows and the eyes (the distance between the center of the left eye head and the left eye corner and the upper end of the left eyebrow center), and is calculated by the following equation.

L2=[(x6−(x1+x3)/2)2+(y6−(y1+y3)/2)2+(z6−(z1+z3)/2)2]0.5
そして、このように算出したL1,L2およびS43で検出したα,θそれぞれの値を記憶部24に記憶する。記憶部24には、上述した値がそれぞれ複数個記憶できるようになっており、S44にてL1,L2が算出される毎に、記憶部24に記憶されるL1,L2,α,θそれぞれの個数は1つずつ増加していくこととなる。
L2 = [(x 6 − (x 1 + x 3 ) / 2) 2 + (y 6 − (y 1 + y 3 ) / 2) 2 + (z 6 − (z 1 + z 3 ) / 2) 2 ] 0.5
Then, the values of α and θ detected in L1, L2 and S43 calculated in this way are stored in the storage unit 24. A plurality of the above-described values can be stored in the storage unit 24, and each time L1, L2 is calculated in S44, each of L1, L2, α, θ stored in the storage unit 24 is stored. The number will increase one by one.

このS44の後、変数jをインクリメント(j=j+1)して(S45)、変数jが所定数m未満ならば(S46:YES)、処理がS42に戻る。一方、変数jが所定数m未満でなければ(S46:NO)、本処理が終了する。
(1.2.5)眠気判定処理
以下に、制御部21による眠気判定処理の処理手順を、図10に基づいて説明する。この眠気判定処理は、制御部メイン処理のS3にて実行される。
After S44, the variable j is incremented (j = j + 1) (S45). If the variable j is less than the predetermined number m (S46: YES), the process returns to S42. On the other hand, if the variable j is not less than the predetermined number m (S46: NO), this process ends.
(1.2.5) Drowsiness Determination Processing A processing procedure of drowsiness determination processing by the control unit 21 will be described below with reference to FIG. This sleepiness determination process is executed in S3 of the control unit main process.

この眠気判定処理では、まず、変数L1f,L2f,αf,θfを0に設定する(S61)。
次に、覚醒時データ収集処理のS27において算出されたL1bの値と、運転時データ収集処理のS32において算出されたL1dの値と、を比較する(S62)。
In this sleepiness determination process, first, variables L1f, L2f, αf, and θf are set to 0 (S61).
Next, the value of L1b calculated in S27 of the awakening data collection process is compared with the value of L1d calculated in S32 of the driving data collection process (S62).

このとき、L1dの値がL1bの値以下であれば(S62:YES)、つまり、覚醒時と比較して左右口角間の距離が小さくなっていれば、変数L1fを1に設定し(S63)、処理がS64へ移行する。一方、L1dの値がL1bの値以下でなければ(S62:NO)、処理がS64へ移行する。   At this time, if the value of L1d is equal to or smaller than the value of L1b (S62: YES), that is, if the distance between the left and right mouth corners is smaller than that at awakening, the variable L1f is set to 1 (S63). The process proceeds to S64. On the other hand, if the value of L1d is not less than or equal to the value of L1b (S62: NO), the process proceeds to S64.

次に、覚醒時データ収集処理のS27において算出されたL2bの値と、運転時データ収集処理のS32において算出されたL2dの値と、を比較する(S64)。
このとき、L2dの値がL2bの値以上であれば(S64:YES)、つまり、覚醒時と比較して眉目間の距離が大きくなっていれば、変数L2fを1に設定し(S65)、処理がS66へ移行する。一方、L2dの値がL2bの値以上でなければ(S64:NO)、処理がS66へ移行する。
Next, the value of L2b calculated in S27 of the awakening data collection process is compared with the value of L2d calculated in S32 of the driving data collection process (S64).
At this time, if the value of L2d is equal to or greater than the value of L2b (S64: YES), that is, if the distance between the eyebrows is larger than that at awakening, the variable L2f is set to 1 (S65), The process proceeds to S66. On the other hand, if the value of L2d is not equal to or greater than the value of L2b (S64: NO), the process proceeds to S66.

次に、覚醒時データ収集処理のS27において算出されたαbの値と、運転時データ収集処理のS32において算出されたαdの値と、を比較する(S66)。
このとき、αdの値がαbの値以上であれば(S66:YES)、つまり、覚醒時と比較して頭部の前後への傾きが大きくなっていれば、変数αfを1に設定し(S67)、処理がS68へ移行する。一方、上述した条件を満たさなければ、(S66:NO)、変数αfを変更することなく、処理がS68へ移行する。
Next, the value of αb calculated in S27 of the awake data collection process is compared with the value of αd calculated in S32 of the data collection process during driving (S66).
At this time, if the value of αd is equal to or larger than the value of αb (S66: YES), that is, if the inclination of the head back and forth is larger than that at awakening, the variable αf is set to 1 ( (S67), the process proceeds to S68. On the other hand, if the above condition is not satisfied (S66: NO), the process proceeds to S68 without changing the variable αf.

次に、覚醒時データ収集処理のS27において算出されたθbの値と、運転時データ収集処理のS32において算出されたθdの値と、を比較する(S68)。
このとき、θdの値がθbの値以上であれば(S68:YES)、つまり、覚醒時と比較して頭部の左右への傾きが大きくなっていれば、変数θfを1に設定し(S69)、処理がS70へ移行する。一方、上述した条件を満たさなければ、(S68:NO)、変数θfを変更することなく、処理がS70へ移行する。
Next, the value of θb calculated in S27 of the awakening data collection process is compared with the value of θd calculated in S32 of the driving data collection process (S68).
At this time, if the value of θd is equal to or larger than the value of θb (S68: YES), that is, if the inclination of the head to the left and right is larger than that at awakening, the variable θf is set to 1 ( (S69), the process proceeds to S70. On the other hand, if the above condition is not satisfied (S68: NO), the process proceeds to S70 without changing the variable θf.

次に、変数L1f,L2f,αf,θfがいずれも0であれば(S70:YES)、眠気レベル0(眠気なし)と判定し(S71)、処理がS77に移行する。一方、変数L1f,L2f,αf,θfがいずれも0でなければ(S70:NO)、処理がS72に移行する。   Next, if the variables L1f, L2f, αf, and θf are all 0 (S70: YES), it is determined that the sleepiness level is 0 (no sleepiness) (S71), and the process proceeds to S77. On the other hand, if none of the variables L1f, L2f, αf, and θf is 0 (S70: NO), the process proceeds to S72.

次に、変数L2f,αf,θfがいずれも0であれば(S72:YES)、眠気レベル1(軽度眠気)と判定し(S73)、処理がS77に移行する。一方、変数L2f,αf,θfがいずれも0でなければ(S72:NO)、処理がS74に移行する。   Next, if the variables L2f, αf, and θf are all 0 (S72: YES), it is determined that the sleepiness level is 1 (mild sleepiness) (S73), and the process proceeds to S77. On the other hand, if none of the variables L2f, αf, and θf is 0 (S72: NO), the process proceeds to S74.

次に、変数αf,θfいずれも0であれば(S74:YES)、眠気レベル2(中度眠気)と判定し(S75)、処理がS77に移行する。一方、変数αf,θfがいずれも0でなければ(S74:NO)、眠気レベル3(強度眠気)と判定する(S76)。   Next, if both the variables αf and θf are 0 (S74: YES), it is determined that the sleepiness level is 2 (medium sleepiness) (S75), and the process proceeds to S77. On the other hand, if neither of the variables αf and θf is 0 (S74: NO), it is determined that the sleepiness level is 3 (intensity sleepiness) (S76).

次に、判定された眠気の度合に基づいて、警報装置30,首元空調装置40,シートベルト振動装置50,および,ブレーキ制御装置60に動作を行わせる信号を出力部25に出力させる(S77)。ここでは、眠気レベル0と判定された場合には上述したいずれの装置にも動作を行わせない。眠気レベル1と判定された場合には、警報装置30および首元空調装置40に動作を行わせる。眠気レベル2と判定された場合には、警報装置30,首元空調装置40,および,シートベルト振動装置50に動作を行わせる。眠気レベル3と判定された場合には、それら全ての装置に動作を行わせる。   Next, based on the determined degree of sleepiness, the output unit 25 is caused to output a signal for causing the alarm device 30, the neck air conditioner 40, the seat belt vibration device 50, and the brake control device 60 to perform an operation (S77). ). Here, when it is determined that the sleepiness level is 0, no operation is performed on any of the above-described apparatuses. When it is determined that the drowsiness level is 1, the alarm device 30 and the neck air conditioner 40 are operated. When it is determined that the sleepiness level is 2, the alarm device 30, the neck air conditioner 40, and the seat belt vibration device 50 are operated. When it is determined that the sleepiness level is 3, all the devices are operated.

次に、記憶部24からL1d,L2d,αd,θdを削除する(S78)。その後、本処理を終了して、制御部メイン処理に戻る。
(1.3)効果
このように構成された実施例1における眠気判定装置20であれば、左右の口角の距離,眉と目の距離,および,頭部傾き角度に基づいて眠気の度合を判定することができる。そのため、眠気の度合の判定に、目の開度などの目の情報を必要としない。よって、目の情報の取得を阻害する外乱要因の影響を受けないので、目の開度,瞳孔径,視線などの目の情報のみに基づいては眠気の度合が判定できない場合であっても、眠気の度合を判定することができる。
Next, L1d, L2d, αd, and θd are deleted from the storage unit 24 (S78). Then, this process is terminated and the process returns to the control unit main process.
(1.3) Effects With the sleepiness determination device 20 according to the first embodiment configured as described above, the degree of sleepiness is determined based on the distance between the left and right mouth corners, the distance between the eyebrows and the eyes, and the head tilt angle. can do. Therefore, eye information such as the opening degree of the eyes is not required for determining the degree of sleepiness. Therefore, because it is not affected by disturbance factors that obstruct the acquisition of eye information, even if the degree of sleepiness cannot be determined based only on eye information such as eye opening, pupil diameter, and line of sight, The degree of sleepiness can be determined.

また、上述した眠気判定装置20であれば、撮影装置10により撮影された顔画像を示す画像データに基づいて、眠気の度合を判定することができる。よって、左右の口角の距離,眉と目の距離,頭部傾き角度を検出するための電極などを、眠気の度合を判定する対象者に直接取り付けることなく、簡便に眠気の度合を判定することができる。   Further, with the drowsiness determination device 20 described above, the degree of drowsiness can be determined based on image data indicating a face image captured by the imaging device 10. Therefore, it is possible to easily determine the degree of drowsiness without directly attaching the electrodes for detecting the distance between the left and right mouth corners, the distance between the eyebrows and the eyes, the head tilt angle, etc. to the subject to determine the degree of drowsiness. Can do.

さらに、左右の口角の距離は軽度の眠気にて変化が発生し、眉と目の距離は中度の眠気にて変化が発生し、頭部傾き角度は強度の眠気にて変化が発生する。よって、このような方法で眠気の度合を判定する眠気判定装置20であれば、強度眠気,中度眠気,軽度眠気,および,眠気なし,の4段階で眠気の度合を判定することができる。   Further, the distance between the left and right mouth corners changes due to mild sleepiness, the distance between the eyebrows and the eyes changes due to moderate sleepiness, and the head tilt angle changes due to intense sleepiness. Therefore, the drowsiness determination apparatus 20 that determines the degree of drowsiness by such a method can determine the degree of drowsiness in four stages of intense drowsiness, medium drowsiness, mild drowsiness, and no drowsiness.

また、上述したこのように構成された居眠り防止システム1は、車両2に搭載して用いることができるので、車両2の運転者3を対象として眠気の度合を判定することができる。   Moreover, since the dozing prevention system 1 configured as described above can be mounted on the vehicle 2 and used, the degree of drowsiness can be determined for the driver 3 of the vehicle 2.

また、上述した居眠り防止システム1においては、眠気判定装置20が警報装置30と連携しており、眠気の度合の判定結果に応じた画面表示および音声出力を行う。また、眠気の度合の判定結果に応じて、首元空調装置40,シートベルト振動装置50,ブレーキ制御装置60が動作する。そのため、運転者3に対して眠気の度合に応じた適切な居眠り防止対応を行うことができ、居眠り運転による事故を未然に防止できる。
(1.4)対応関係
以上説明した実施形態において、図7におけるS43,S44が本発明における表情情報取得手段であり、図10の眠気判定処理が本発明における眠気判定手段であり、撮影装置10が本発明における撮影手段である。
[実施例2]
(2.1)全体構成
実施例2における居眠り防止システム1は、基本的に実施例1と同じ構成である。しかしながら、制御部21による処理が一部変更されているため、変更された処理を以下に示す。
(2.2)制御部21による処理
以下に、実施例2における居眠り防止システム1の眠気判定装置20が備える制御部21により実行される各種処理について説明する。この実施例2は、上述した実施例1と比べて、制御部メイン処理,覚醒時データ収集処理,運転時データ収集処理,および,眠気判定処理の処理方法が異なる。
(2.2.1)制御部メイン処理
以下に、実施例2における制御部メイン処理の処理手順を、図11に基づいて説明する。この制御部メイン処理は、入力部23に備えられた開始ボタンを押すことによって開始される。
Moreover, in the dozing prevention system 1 mentioned above, the drowsiness determination apparatus 20 cooperates with the warning device 30, and performs the screen display and audio | voice output according to the determination result of the sleepiness degree. Further, the neck air conditioner 40, the seat belt vibration device 50, and the brake control device 60 operate according to the determination result of the degree of sleepiness. For this reason, it is possible to appropriately prevent the driver 3 from falling asleep according to the degree of drowsiness, and to prevent an accident caused by a drowsy driving.
(1.4) Correspondence In the embodiment described above, S43 and S44 in FIG. 7 are facial expression information acquisition means in the present invention, the sleepiness determination processing in FIG. 10 is the sleepiness determination means in the present invention, and the photographing apparatus 10 These are the photographing means in the present invention.
[Example 2]
(2.1) Overall Configuration The dozing prevention system 1 according to the second embodiment is basically the same as the first embodiment. However, since the process by the control unit 21 is partially changed, the changed process is shown below.
(2.2) Processing by Control Unit 21 Hereinafter, various processing executed by the control unit 21 included in the drowsiness determination device 20 of the dozing prevention system 1 according to the second embodiment will be described. The second embodiment is different from the first embodiment in the processing methods of the control unit main process, the awakening data collection process, the driving data collection process, and the drowsiness determination process.
(2.2.1) Control Unit Main Process A processing procedure of the control unit main process in the second embodiment will be described below with reference to FIG. This control unit main process is started by pressing a start button provided in the input unit 23.

この制御部メイン処理では、まず、覚醒時における運転者3の顔面の情報を収集する覚醒時データ収集処理2を行う(S101)。ここでは、運転者3の眠気を判定する基準となる覚醒時の顔面の情報として、L1a,L2a,αa,θaをそれぞれn個ずつ取得する。実施例2における覚醒時データ収集処理について詳しくは後述する。   In this control unit main process, first, an awakening data collection process 2 for collecting information on the face of the driver 3 at the time of awakening is performed (S101). Here, n pieces of L1a, L2a, αa, and θa are respectively acquired as information on the face at the time of awakening, which is a reference for determining the sleepiness of the driver 3. The awakening data collection process in the second embodiment will be described in detail later.

次に、運転者3の顔面の情報を取得する運転時データ収集処理を行う(S102)。ここでは運転者3の顔面の情報として、L1d,L2d,αd,θdをそれぞれn個ずつ取得する。実施例2における運転時データ収集処理について詳しくは後述する。   Next, driving data collection processing for acquiring information on the face of the driver 3 is performed (S102). Here, n pieces of L1d, L2d, αd, and θd are acquired as information on the face of the driver 3, respectively. Details of the operation data collection processing in the second embodiment will be described later.

次に、運転者3の眠気の度合を判定する眠気判定処理を行う(S103)。
ここでは、S101において算出されたL1a,L2a,αa,θaそれぞれn個と、S102において算出されたL1d,L2d,αd,θdそれぞれn個と、に基づき、対応のあるt検定を行う。その検定結果に基づいて、左右の口角の距離情報L1,眉と目の距離情報L2,頭部の前後への傾き角度情報α,および,頭部の左右への傾き角度情報θそれぞれに基づく眠気の有無を判断し、その判断結果の組み合わせにより眠気の度合を判定する。実施例2における眠気判定処理について詳しくは後述する。
Next, sleepiness determination processing for determining the degree of sleepiness of the driver 3 is performed (S103).
Here, a corresponding t-test is performed based on n each of L1a, L2a, αa, and θa calculated in S101 and n each of L1d, L2d, αd, and θd calculated in S102. Based on the test result, the sleepiness based on the distance information L1 on the left and right mouth corners, the distance information L2 on the eyebrows and the eyes, the tilt angle information α before and after the head, and the tilt angle information θ on the left and right of the head. The degree of drowsiness is determined by combining the determination results. Details of the drowsiness determination processing in the second embodiment will be described later.

次に、入力部23の終了ボタンが押されたか否かがチェックされる(S104)。終了ボタンが押されていなければ(S104:NO)、処理がS102に戻る。一方、終了ボタンが押されていれば(S104:YES)、本処理を終了する。   Next, it is checked whether or not the end button of the input unit 23 has been pressed (S104). If the end button has not been pressed (S104: NO), the process returns to S102. On the other hand, if the end button has been pressed (S104: YES), this process ends.

なお、この制御部メイン処理は、車両2におけるエンジン等の動力部が停止して車両全体の制御が終了した際にも終了する。
(2.2.2)覚醒時データ収集処理
以下に、実施例2における覚醒時データ収集処理の処理手順を、図12に基づいて説明する。
Note that this control unit main process also ends when the power unit such as the engine in the vehicle 2 stops and the control of the entire vehicle ends.
(2.2.2) Awakening Data Collection Processing A processing procedure for awakening data collection processing in the second embodiment will be described below with reference to FIG.

この覚醒時データ収集処理において、S121〜S126の処理は、実施例1の覚醒時データ収集処理におけるS21〜S26と同様の処理である。S126にて変数iが所定数n未満でなければ(S126:NO)、実施例1の覚醒時データ収集処理のS27に該当する処理を行うことなく、本処理を終了して、制御部メイン処理に戻る。   In this awake data collection process, the processes of S121 to S126 are the same as S21 to S26 in the awake data collection process of the first embodiment. If the variable i is not less than the predetermined number n in S126 (S126: NO), the process ends without performing the process corresponding to S27 of the awakening data collection process of the first embodiment, and the control unit main process Return to.

なお、実施例1においては、覚醒時データ収集処理が終了した時点で、記憶部24にはL1b,L2b,αb,θbが記憶されていたが、実施例2においては、この時点で、記憶部24にL1a,L2a,αa,θaがそれぞれn個ずつ記憶されているという点で異なる。
(2.2.3)運転時データ収集処理
以下に、実施例2における運転時データ収集処理の処理手順を、図13に基づいて説明する。この運転時データ収集処理は、制御部メイン処理のS102にて実行される。
In the first embodiment, L1b, L2b, αb, and θb are stored in the storage unit 24 when the awakening data collection process is completed. In the second embodiment, the storage unit 24 24 is different in that n pieces of L1a, L2a, αa, and θa are stored.
(2.2.3) Operation Data Collection Process Hereinafter, a process procedure of the operation data collection process in the second embodiment will be described with reference to FIG. This operation time data collection process is executed in S102 of the control unit main process.

この運転時データ収集処理では、まず、変数kを0に設定する(S141)。
次に、実施例1にて述べた表情情報取得処理を行い、m個のL1,L2,α,θを算出する(S142)。
In this operation data collection process, first, a variable k is set to 0 (S141).
Next, the facial expression information acquisition process described in the first embodiment is performed to calculate m L1, L2, α, θ (S142).

次に、S142にて算出されたm個のL1,L2,α,θに基づき、その代表値L1d,L2d,αd,θdを算出する(S143)。ここでは、実施例1の運転時データ収集処理のS32と同様の処理を行って代表値を算出する。   Next, based on the m L1, L2, α, θ calculated in S142, the representative values L1d, L2d, αd, θd are calculated (S143). Here, the representative value is calculated by performing the same process as S32 of the operation data collection process of the first embodiment.

そして、このように算出したL1d,L2d,αd,θdそれぞれの値を記憶部24に記憶する。記憶部24には、上述した値がそれぞれ複数個記憶できるようになっており、S143にて上述した値を算出する毎に、記憶部24に記憶されるそれぞれの値の数は1つずつ増加していくこととなる。   The values of L1d, L2d, αd, and θd calculated in this way are stored in the storage unit 24. A plurality of the above-described values can be stored in the storage unit 24. Each time the above-described value is calculated in S143, the number of each value stored in the storage unit 24 increases by one. It will be done.

その後、変数kをインクリメント(k=k+1)して(S144)、変数kが所定数n未満ならば(S145:YES)、処理がS142に戻る。一方、変数kが所定数n未満でなければ(S145:NO)、本処理を終了して、制御部メイン処理に戻る。このとき、記憶部24には、L1d,L2d,αd,θdがそれぞれn個ずつ記憶されている。
(2.2.4)眠気判定処理
以下に、実施例2における眠気判定処理の処理手順を、図14に基づいて説明する。この眠気判定処理は、制御部メイン処理のS103にて実行される。
Thereafter, the variable k is incremented (k = k + 1) (S144). If the variable k is less than the predetermined number n (S145: YES), the process returns to S142. On the other hand, if the variable k is not less than the predetermined number n (S145: NO), this process is terminated and the process returns to the control part main process. At this time, the storage unit 24 stores n L1d, L2d, αd, and θd.
(2.2.4) Drowsiness Determination Processing A procedure of sleepiness determination processing according to the second embodiment will be described below with reference to FIG. This sleepiness determination process is executed in S103 of the control unit main process.

この眠気判定処理では、まず、変数L1f,L2f,αf,θfを0に設定する(S161)。
次に、覚醒時データ収集処理のS124において算出されたL1aの値n個と、運転時データ収集処理のS143において算出されたL1dの値n個と、に基づいて、対応のあるt検定を行う(S162)。この眠気判定処理において、対応のあるt検定の有意水準は5%とする。
In this drowsiness determination process, variables L1f, L2f, αf, and θf are first set to 0 (S161).
Next, a corresponding t-test is performed based on the n values of L1a calculated in S124 of the awake data collection process and the n values of L1d calculated in S143 of the driving data collection process. (S162). In this sleepiness determination process, the significance level of the corresponding t-test is 5%.

このとき、L1dの平均がL1aの平均に対して有意に小さければ(S162:YES)、つまり、覚醒時と比較して左右口角間の距離が小さくなっていれば、変数L1fを1に設定し(S163)、処理がS164へ移行する。一方、L1dの平均がL1aの平均に対して有意に小さくなければ(S162:NO)、処理がS164へ移行する。   At this time, if the average of L1d is significantly smaller than the average of L1a (S162: YES), that is, if the distance between the left and right mouth corners is smaller than that at awakening, the variable L1f is set to 1. (S163), the process proceeds to S164. On the other hand, if the average of L1d is not significantly smaller than the average of L1a (S162: NO), the process proceeds to S164.

次に、覚醒時データ収集処理のS124において算出されたL2aの値n個と、運転時データ収集処理のS143において算出されたL2dの値n個と、に基づいて、対応のあるt検定を行う(S164)。   Next, a corresponding t-test is performed based on n L2a values calculated in S124 of the awakening data collection process and n L2d values calculated in S143 of the driving data collection process. (S164).

このとき、L2dの平均がL2aの平均に対して有意に大きければ(S164:YES)、つまり、覚醒時と比較して眉目間の距離が大きくなっていれば、変数L2fを1に設定し(S165)、処理がS166へ移行する。一方、L1dの平均がL1aの平均に対して有意に大きくなければ(S164:NO)、処理がS166へ移行する。   At this time, if the average of L2d is significantly larger than the average of L2a (S164: YES), that is, if the distance between eyebrows is larger than that at awakening, the variable L2f is set to 1 ( In step S165, the process proceeds to step S166. On the other hand, if the average of L1d is not significantly larger than the average of L1a (S164: NO), the process proceeds to S166.

次に、覚醒時データ収集処理のS124において算出されたαaの値n個と、運転時データ収集処理のS143において算出されたαdの値n個と、に基づいて、対応のあるt検定を行う(S166)。   Next, a corresponding t-test is performed based on n values of αa calculated in S124 of the awake data collection process and n values of αd calculated in S143 of the data collection process during driving. (S166).

このとき、αdの平均がαaの平均に対して有意に大きければ(S166:YES)、つまり、覚醒時と比較して頭部の前後への傾きが大きくなっていれば、変数αfを1に設定し(S167)、処理がS168へ移行する。一方、上述した条件を満たさなければ(S166:NO)、変数αfを変更することなく、処理がS168へ移行する。   At this time, if the average of αd is significantly larger than the average of αa (S166: YES), that is, if the inclination of the head back and forth is larger than that at awakening, the variable αf is set to 1. The setting is made (S167), and the process proceeds to S168. On the other hand, if the above condition is not satisfied (S166: NO), the process proceeds to S168 without changing the variable αf.

次に、覚醒時データ収集処理のS124において算出されたθaの値n個と、運転時データ収集処理のS143において算出されたθdの値n個と、に基づいて、対応のあるt検定を行う(S168)。   Next, a corresponding t-test is performed based on the n values of θa calculated in S124 of the awake data collection process and the n values of θd calculated in S143 of the driving data collection process. (S168).

このとき、θdの平均がθaの平均に対して有意に大きければ(S168:YES)、つまり、覚醒時と比較して頭部の左右への傾きが大きくなっていれば、変数θfを1に設定し(S169)、処理がS170へ移行する。一方、上述した条件を満たさなければ(S168:NO)、変数θfを変更することなく、処理がS170へ移行する。   At this time, if the average of θd is significantly larger than the average of θa (S168: YES), that is, if the inclination of the head to the left and right is larger than that at awakening, the variable θf is set to 1. The setting is made (S169), and the process proceeds to S170. On the other hand, if the above condition is not satisfied (S168: NO), the process proceeds to S170 without changing the variable θf.

次に、変数L1f,L2f,αf,θfがいずれも0であれば(S170:YES)、眠気レベル0(眠気なし)と判定し(S171)、処理がS177に移行する。一方、変数L1f,L2f,αf,θfがいずれも0でなければ(S170:NO)、処理がS172に移行する。   Next, if the variables L1f, L2f, αf, and θf are all 0 (S170: YES), it is determined that the sleepiness level is 0 (no sleepiness) (S171), and the process proceeds to S177. On the other hand, if none of the variables L1f, L2f, αf, and θf is 0 (S170: NO), the process proceeds to S172.

次に、変数L2f,αf,θfがいずれも0であれば(S172:YES)、眠気レベル1(軽度眠気)と判定し(S173)、処理がS177に移行する。一方、変数L2f,αf,θfがいずれも0でなければ(S172:NO)、処理がS174に移行する。   Next, if the variables L2f, αf, and θf are all 0 (S172: YES), it is determined that the sleepiness level is 1 (mild sleepiness) (S173), and the process proceeds to S177. On the other hand, if none of the variables L2f, αf, and θf is 0 (S172: NO), the process proceeds to S174.

次に、変数αf,θfがいずれも0であれば(S174:YES)、眠気レベル2(中度眠気)と判定し(S175)、処理がS177に移行する。一方、変数αf,θfがいずれも0でなければ(S174:NO)、眠気レベル3(強度眠気)と判定する(S176)。   Next, if the variables αf and θf are both 0 (S174: YES), it is determined that the sleepiness level is 2 (medium sleepiness) (S175), and the process proceeds to S177. On the other hand, if neither of the variables αf and θf is 0 (S174: NO), it is determined that the sleepiness level is 3 (intensity sleepiness) (S176).

次に、判定された眠気の度合に基づいて、警報装置30,首元空調装置40,シートベルト振動装置50,および,ブレーキ制御装置60に動作を行わせる信号を出力部25に出力させる(S177)。ここでは、実施例1の眠気判定処理のS77と同様の処理を行う。   Next, based on the determined degree of sleepiness, the output unit 25 is caused to output a signal for causing the alarm device 30, the neck air conditioner 40, the seat belt vibration device 50, and the brake control device 60 to perform an operation (S177). ). Here, the same process as S77 of the sleepiness determination process of the first embodiment is performed.

次に、記憶部24からL1d,L2d,αd,θdを削除する(S178)。その後、本処理を終了して、制御部メイン処理に戻る。
(2.3)効果
実施例2に記載の眠気判定装置20または居眠り防止システム1においても、実施例1と同様の効果を得ることができる。さらに本実施例2においては、眠気判定処理において、眠気の有無の判断(S170,S172,S174)を対応のあるt検定にて行っているため、その判定結果がより信頼性の高いものとなっており、上述した実施例1と比べて誤判定を少なくすることができる。
(2.4)対応関係
以上説明した実施形態において、図7におけるS43,S44が本発明における表情情報取得手段であり、図14の眠気判定処理が本発明における眠気判定手段であり、撮影装置10が本発明における撮影手段である。
[実施例3]
(3.1)全体構成
実施例3における居眠り防止システム1は、基本的に実施例1と同じ構成である。しかしながら、制御部21による処理が異なるため、その処理を以下に説明する。
(3.2)制御部21による処理
以下に、実施例3における居眠り防止システム1の眠気判定装置20が備える制御部21により実行される各種処理について説明する。
(3.2.1)制御部メイン処理
以下に、実施例3における制御部メイン処理の処理手順を、図15に基づいて説明する。この制御部メイン処理は、入力部23に備えられた開始ボタンを押すことによって開始される。
Next, L1d, L2d, αd, and θd are deleted from the storage unit 24 (S178). Then, this process is terminated and the process returns to the control unit main process.
(2.3) Effects Also in the drowsiness determination device 20 or the dozing prevention system 1 described in the second embodiment, the same effects as in the first embodiment can be obtained. Furthermore, in the second embodiment, in the sleepiness determination process, the presence / absence of sleepiness (S170, S172, S174) is determined by a corresponding t-test, so that the determination result is more reliable. Therefore, erroneous determination can be reduced as compared with the first embodiment described above.
(2.4) Correspondence In the embodiment described above, S43 and S44 in FIG. 7 are facial expression information acquisition means in the present invention, and the sleepiness determination processing in FIG. 14 is the sleepiness determination means in the present invention. These are the photographing means in the present invention.
[Example 3]
(3.1) Overall Configuration The dozing prevention system 1 according to the third embodiment is basically the same as the first embodiment. However, since the process by the control unit 21 is different, the process will be described below.
(3.2) Processing by Control Unit 21 Hereinafter, various types of processing executed by the control unit 21 included in the drowsiness determination device 20 of the dozing prevention system 1 according to the third embodiment will be described.
(3.2.1) Control Unit Main Process A processing procedure for the control unit main process in the third embodiment will be described below with reference to FIG. This control unit main process is started by pressing a start button provided in the input unit 23.

この制御部メイン処理では、まず、表情情報取得処理を行う(S201)。ここでは、撮影装置10が撮影した運転者3の顔画像に基づいて、表情情報として左右の口角の距離(L1),眉と目の距離(L2),眉頭の中点と目頭の中点間の距離(L3),眉頭間の距離(L4),鼻下端の中点と目頭の中点間の距離(L5),口端の中点と目頭の中点間の距離(L6),下唇下端と目頭の中点間の距離(L7),上まぶたと下まぶた間の距離(L8),鼻下左右両端間の距離(L9),上唇上端と目頭の中点間の距離(L10),頭部の前後への傾き角度(α),頭部の左右への傾き角度(θ)の各表情情報を算出して、記憶部24に記憶する。この表情情報取得処理について、詳しくは後述する。なお、このS201にて算出された表情情報は、S201が実行されるごとに記憶部24に蓄積される。   In this control unit main processing, first, facial expression information acquisition processing is performed (S201). Here, based on the face image of the driver 3 photographed by the photographing apparatus 10, the distance between the left and right mouth corners (L1), the distance between the eyebrows and the eyes (L2), and the midpoint between the middle of the eyebrow and the middle of the eye as facial expression information. Distance (L3), distance between eyebrows (L4), distance between midpoint of lower nose and midpoint of eyes (L5), distance between midpoint of mouth end and midpoint of eyes (L6), lower lip The distance between the lower end and the middle point of the eye (L7), the distance between the upper eyelid and the lower eyelid (L8), the distance between the left and right sides of the nose (L9), the distance between the upper lip upper end and the middle point of the eye (L10), The facial expression information of the tilt angle (α) of the head to the front and rear and the tilt angle (θ) of the head to the left and right is calculated and stored in the storage unit 24. The facial expression information acquisition process will be described later in detail. The facial expression information calculated in S201 is accumulated in the storage unit 24 every time S201 is executed.

次に、規定の時間が経過したか否かがチェックされる(S202)。規定の時間(例えば、5min)経過していなければ(S202:NO)、所定の時間(例えば、5s)待機した後、処理がS201に戻る。一方、規定の時間経過していれば(S202:YES)、処理がS203に移行する。   Next, it is checked whether or not a specified time has passed (S202). If a specified time (for example, 5 minutes) has not elapsed (S202: NO), the process returns to S201 after waiting for a predetermined time (for example, 5 seconds). On the other hand, if the specified time has elapsed (S202: YES), the process proceeds to S203.

次に、眠気を判定する基準となる覚醒時情報を算出する(S203)。ここでは、S201にて記憶部24に複数回記憶された各表情情報をすべて読み出す。そして、読み出された各表情情報それぞれによって正規分布を作る。このとき、L1,L8およびL9は、眠気が亢進するにつれて値が小さくなるため、基準となる覚醒時情報の値を小さく設定する。よって、L1,L8およびL9に関しては、平均値をμ,標準偏差をσとしたときに、μ−2σに該当する値をL1,L8,L9それぞれの覚醒時情報として記憶部24に記憶する。一方、L2〜L7,L10,α,θに関しては、それぞれにより作られる正規分布におけるμ+2σに該当する値をL2〜L7,L10,α,θそれぞれの覚醒時情報として記憶部24に記憶する。   Next, awakening information that is a reference for determining sleepiness is calculated (S203). Here, all the facial expression information stored in the storage unit 24 a plurality of times in S201 is read out. Then, a normal distribution is created based on the read facial expression information. At this time, since the values of L1, L8, and L9 become smaller as sleepiness increases, the value of the awakening information that serves as a reference is set to be smaller. Therefore, for L1, L8, and L9, when the average value is μ and the standard deviation is σ, the value corresponding to μ−2σ is stored in the storage unit 24 as the awakening information of L1, L8, and L9. On the other hand, for L2 to L7, L10, α, and θ, values corresponding to μ + 2σ in the normal distribution created by each are stored in the storage unit 24 as information on awakening of each of L2 to L7, L10, α, and θ.

次に、表情情報取得処理を行う(S204)。ここでは、上述したS201と同様に、各表情情報を算出し、記憶部24に記憶する。
次に、運転者3の眠気の度合を判定する眠気判定処理を行う(S205)。ここでは、S203で算出された覚醒時情報と、S204で算出された表情情報と、を記憶部24から読み出して比較し、眠気の度合を判定する。この眠気判定処理について、詳しくは後述する。
Next, facial expression information acquisition processing is performed (S204). Here, each facial expression information is calculated and stored in the storage unit 24 as in S201 described above.
Next, sleepiness determination processing for determining the degree of sleepiness of the driver 3 is performed (S205). Here, the awakening information calculated in S203 and the facial expression information calculated in S204 are read from the storage unit 24 and compared to determine the degree of sleepiness. This drowsiness determination process will be described in detail later.

その後、S204で算出された表情情報を記憶部24から消去し、処理がS204に戻る。
なお、本処理は、入力部23の終了ボタンが押された場合,および,車両2におけるエンジン等の動力部が停止して車両全体の制御が終了した場合に終了する。
(3.2.2)表情情報取得処理
以下に、実施例3における表情情報取得処理の処理手順を、図16に基づいて説明する。この表情情報取得処理は、制御部メイン処理におけるS201,S204にて実行される。
Thereafter, the facial expression information calculated in S204 is deleted from the storage unit 24, and the process returns to S204.
This process ends when the end button of the input unit 23 is pressed and when the power unit such as the engine in the vehicle 2 stops and the control of the entire vehicle ends.
(3.2.2) Facial Expression Information Acquisition Processing Hereinafter, the processing procedure of facial expression information acquisition processing according to the third embodiment will be described with reference to FIG. This facial expression information acquisition processing is executed in S201 and S204 in the control unit main processing.

この表情情報取得処理では、まず、撮影装置10により撮影された顔画像を示す画像データを受信部22より取得する(S221)。
次に、S221にて取得した画像データに基づき、顔面の構成要素の位置・角度を示す位置・角度情報を検出する(S222)。ここでは、実施例1の表情情報取得処理のS43と同様に、AAMを用いて、左目頭(x1,y1,z1),右目頭(x2,y2,z2),左目尻(x3,y3,z3),左眉頭(x4,y4,z4),右眉頭(x5,y5,z5),左眉中心上端(x6,y6,z6),左鼻孔外側端(右鼻孔と反対側に位置する端部)(x7,y7,z7),右鼻孔外側端(左鼻孔と反対側に位置する端部)(x8,y8,z8),左口角(x9,y9,z9),右口角(x10,y10,z10),下唇下端(x11,y11,z11),上まぶた(x12,y12,z12),下まぶた(x13,y13,z13),上唇上端(x14,y14,z14)の各位置と、頭部の前後への傾き角度情報αおよび頭部の左右への傾き角度情報θと、を検出する。なお、上述したαおよびθは、頭部が前後,左右のいずれに傾いた場合であっても、正の値として検出する。
In this facial expression information acquisition process, first, image data indicating a face image photographed by the photographing apparatus 10 is obtained from the receiving unit 22 (S221).
Next, based on the image data acquired in S221, position / angle information indicating the position / angle of the facial component is detected (S222). Here, similarly to S43 in the facial expression information acquisition process of the first embodiment, the left eye (x 1 , y 1 , z 1 ), the right eye (x 2 , y 2 , z 2 ), the left eye corner, using AAM. (x 3, y 3, z 3), Hidarimayuatama (x 4, y 4, z 4), Migimayuatama (x 5, y 5, z 5), the left eyebrow center upper (x 6, y 6, z 6 ), Left nostril outer end (end located on the side opposite to the right nostril) (x 7 , y 7 , z 7 ), right nostril outer end (end located on the side opposite to the left nostril) (x 8 , y 8 , z 8 ), left mouth corner (x 9 , y 9 , z 9 ), right mouth corner (x 10 , y 10 , z 10 ), lower lip lower end (x 11 , y 11 , z 11 ), upper eyelid (x 12 , y 12 , z 12 ), lower eyelids (x 13 , y 13 , z 13 ), upper lip upper end (x 14 , y 14 , z 14 ), and tilt angle information α before and after the head and Tilt angle information θ to the left and right of the head is detected. Note that α and θ described above are detected as positive values regardless of whether the head is tilted forward or backward or left and right.

次に、S222による検出結果に基づいて、上述した表情情報L1〜L10を算出する(S223)。
上述した表情情報のうち、L1は、左右の口角の距離(左口角と右口角との距離)であり、上述した左口角と右口角とに基づき、次に示す式で計算される。
Next, the facial expression information L1 to L10 described above are calculated based on the detection result in S222 (S223).
In the facial expression information described above, L1 is the distance between the left and right mouth corners (the distance between the left mouth corner and the right mouth corner), and is calculated by the following formula based on the left mouth corner and the right mouth corner.

L1=[(x9−x102+(y9−y102+(z9−z102]0.5
また、L2は、眉と目の距離(左目頭と左目尻の中心と、左眉中心上端と、の距離)であり、次に示す式で計算される。
L1 = [(x 9 −x 10 ) 2 + (y 9 −y 10 ) 2 + (z 9 −z 10 ) 2 ] 0.5
L2 is the distance between the eyebrows and the eyes (the distance between the center of the left eye head and the left eye corner and the upper end of the left eyebrow center), and is calculated by the following equation.

L2=[(x6−(x1+x3)/2)2+(y6−(y1+y3)/2)2+(z6−(z1+z3)/2)2]0.5
また、L3は、眉頭の中点と目頭の中点間の距離(左眉頭と右眉頭の中心と、左目頭と右目頭の中心と、の距離)であり、次に示す式で計算される。
L2 = [(x 6 − (x 1 + x 3 ) / 2) 2 + (y 6 − (y 1 + y 3 ) / 2) 2 + (z 6 − (z 1 + z 3 ) / 2) 2 ] 0.5
L3 is a distance between the midpoint of the eyebrow and the midpoint of the eye (the distance between the center of the left eyebrow and the right eyebrow and the center of the left eye and the right eye), and is calculated by the following equation. .

L3=[((x4+x5)/2−(x1+x2)/2)2+((y4+y5)/2−(y1+y2)/2)2+((z4+z5)/2−(z1+z2)/2)2]0.5
また、L4は、眉頭間の距離(左眉頭と右眉頭との距離)であり、次に示す式で計算される。
L3 = [(((x 4 + x 5 ) / 2− (x 1 + x 2 ) / 2) 2 + ((y 4 + y 5 ) / 2− (y 1 + y 2 ) / 2) 2 + ((z 4 + z 5 ) / 2- (z 1 + z 2 ) / 2) 2 ] 0.5
L4 is the distance between the eyebrows (the distance between the left eyebrow and the right eyebrow), and is calculated by the following equation.

L4=[(x4−x52+(y4−y52+(z4−z52]0.5
また、L5は、鼻下端の中点と目頭の中点間の距離(左鼻孔外側端と右鼻孔外側端の中心と、左目頭と右目頭の中心と、の距離)であり、次に示す式で計算される。
L4 = [(x 4 −x 5 ) 2 + (y 4 −y 5 ) 2 + (z 4 −z 5 ) 2 ] 0.5
L5 is the distance between the midpoint of the nose lower end and the midpoint of the eye (the distance between the left nostril outer end and the right nostril outer end center, and the left and right eye center). Calculated by the formula.

L5=[((x7+x8)/2−(x1+x2)/2)2+((y7+y8)/2−(y1+y2)/2)2+((z7+z8)/2−(z1+z2)/2)2]0.5
また、L6は、口端の中点と目頭の中点間の距離(左口角と右口角の中心と、左目頭と右目頭の中心と、の距離)であり、次に示す式で計算される。
L5 = [((x 7 + x 8 ) / 2− (x 1 + x 2 ) / 2) 2 + ((y 7 + y 8 ) / 2− (y 1 + y 2 ) / 2) 2 + ((z 7 + z 8 ) / 2- (z 1 + z 2 ) / 2) 2 ] 0.5
L6 is the distance between the midpoint of the mouth edge and the midpoint of the eye (the distance between the center of the left and right mouth corners and the center of the left and right eye corners), and is calculated by the following equation. The

L6=[((x9+x10)/2−(x1+x2)/2)2+((y9+y10)/2−(y1+y2)/2)2+((z9+z10)/2−(z1+z2)/2)2]0.5
また、L7は、下唇下端と目頭の中点間の距離(下唇下端と、左目頭と右目頭の中心と、の距離)であり、次に示す式で計算される。
L6 = [((x 9 + x 10 ) / 2− (x 1 + x 2 ) / 2) 2 + ((y 9 + y 10 ) / 2− (y 1 + y 2 ) / 2) 2 + ((z 9 + z 10 ) / 2- (z 1 + z 2 ) / 2) 2 ] 0.5
L7 is the distance between the lower lip lower end and the middle point of the eye (the distance between the lower lip lower end and the center of the left and right eyes), and is calculated by the following equation.

L7=[(x11−(x1+x2)/2)2+(y11−(y1+y2)/2)2+(z11−(z1+z2)/2)2]0.5
また、L8は、上まぶたと下まぶた間の距離であり、次に示す式で計算される。
L7 = [(x 11 - ( x 1 + x 2) / 2) 2 + (y 11 - (y 1 + y 2) / 2) 2 + (z 11 - (z 1 + z 2) / 2) 2] 0.5
L8 is the distance between the upper eyelid and the lower eyelid, and is calculated by the following equation.

L8=[(x12−x132+(y12−y132+(z12−z132]0.5
また、L9は、鼻下左右両端間の距離(左鼻孔外側端と、右鼻孔外側端と、の距離)であり、次に示す式で計算される。
L8 = [(x 12 -x 13 ) 2 + (y 12 -y 13) 2 + (z 12 -z 13) 2] 0.5
L9 is the distance between the left and right ends of the nose (the distance between the left nostril outer end and the right nostril outer end), and is calculated by the following equation.

L9=[(x7−x82+(y7−y82+(z7−z82]0.5
なお、鼻孔の外側端間の距離に替えて、左右の鼻翼の外側端間の距離をL9として用いてもよい。その場合は、上述したS222にて、左右それぞれの鼻翼の外側端の位置を検出する構成とするとよい。
L9 = [(x 7 -x 8 ) 2 + (y 7 -y 8) 2 + (z 7 -z 8) 2] 0.5
Instead of the distance between the outer ends of the nostrils, the distance between the outer ends of the left and right nose wings may be used as L9. In that case, it is preferable that the position of the outer end of each of the right and left nose wings is detected in S222 described above.

また、L10は、上唇上端と目頭の中点間の距離(上唇上端と、左目頭と右目頭の中心と、の距離)であり、次に示す式で計算される。
L10=[(x14−(x1+x2)/2)2+(y14−(y1+y2)/2)2+(z14−(z1+z2)/2)2]0.5
このようにして算出したL1〜L10およびS223で検出したα,θそれぞれの値を記憶部24に記憶する。その後、本処理を終了して、制御部メイン処理に戻る。
(3.2.3)眠気判定処理
以下に、実施例3における眠気判定処理の処理手順を、図17に基づいて説明する。この眠気判定処理は、制御部メイン処理のS205にて実行される。
L10 is the distance between the upper lip upper end and the middle point of the eye (the distance between the upper lip upper end and the center of the left and right eyes), and is calculated by the following equation.
L10 = [(x 14 - ( x 1 + x 2) / 2) 2 + (y 14 - (y 1 + y 2) / 2) 2 + (z 14 - (z 1 + z 2) / 2) 2] 0.5
The values of α and θ detected in L1 to L10 and S223 calculated in this way are stored in the storage unit 24. Then, this process is terminated and the process returns to the control unit main process.
(3.2.3) Drowsiness Determination Processing A processing procedure of sleepiness determination processing according to the third embodiment will be described below with reference to FIG. This drowsiness determination process is executed in S205 of the control unit main process.

この眠気判定処理が開始されると、まず、表情情報それぞれにおける眠気の有無を判断する(S241)。ここでは、制御部メイン処理のS203で算出したL1〜L10,α,θそれぞれの覚醒時情報と、S204で算出した表情情報L1〜L10,α,θそれぞれとを比較し、眠気の有無を判断する。   When this drowsiness determination process is started, it is first determined whether or not there is drowsiness in each facial expression information (S241). Here, the awakening information of each of L1 to L10, α, and θ calculated in S203 of the control unit main process is compared with each of the facial expression information L1 to L10, α, and θ calculated in S204 to determine the presence or absence of drowsiness. To do.

なお、表情情報と覚醒時情報との比較と眠気の有無の対応関係を表1に示す。   Table 1 shows the correspondence between facial expression information and awakening information and the presence or absence of sleepiness.

この表1の対応関係に従って、眠気の有無を判断する。 The presence or absence of drowsiness is determined according to the correspondence relationship in Table 1.

次に、S241で判断した表情情報のうち、眠気有りと判断された表情情報の数が7以上か否かチェックする(S242)。
眠気有りと判断された表情情報の数が7以上であれば(S242:YES)、眠気レベルを3(強度眠気)と判定し(S243)、処理がS249に移行する。一方、7以上でなければ(S242:NO)、処理がS244に移行する。
Next, it is checked whether the number of facial expression information determined to be drowsy among the facial expression information determined in S241 is 7 or more (S242).
If the number of facial expression information determined to be drowsy is 7 or more (S242: YES), the drowsiness level is determined to be 3 (intensity drowsiness) (S243), and the process proceeds to S249. On the other hand, if it is not 7 or more (S242: NO), the process proceeds to S244.

次に、眠気有りと判断された表情情報の数が5以上か否かチェックする(S244)。
眠気有りと判断された表情情報の数が5以上であれば(S244:YES)、眠気レベルを2(中度眠気)と判定し(S245)、処理がS249に移行する。一方、5以上でなければ(S244:NO)、処理がS246に移行する。
Next, it is checked whether the number of facial expression information determined to be drowsy is 5 or more (S244).
If the number of facial expression information determined to be drowsy is 5 or more (S244: YES), the drowsiness level is determined to be 2 (medium drowsiness) (S245), and the process proceeds to S249. On the other hand, if it is not 5 or more (S244: NO), the process proceeds to S246.

次に、眠気有りと判断された表情情報の数が3以上か否かチェックする(S246)。眠気有りと判断された表情情報の数が3以上であれば(S246:YES)、眠気レベルを1(軽度眠気)と判定する(S247)。一方、3以上でなければ(S246:NO)、眠気レベルを0(眠気無し)と判定する(S248)。その後、処理がS249に移行する。   Next, it is checked whether the number of facial expression information determined to be drowsy is 3 or more (S246). If the number of facial expression information determined to be drowsy is 3 or more (S246: YES), the drowsiness level is determined to be 1 (mild drowsiness) (S247). On the other hand, if it is not 3 or more (S246: NO), it is determined that the sleepiness level is 0 (no sleepiness) (S248). Thereafter, the process proceeds to S249.

次に、判定された眠気の度合に基づいて、警報装置30,首元空調装置40,シートベルト振動装置50,および,ブレーキ制御装置60に動作を行わせる信号を出力部25に出力させる(S249)。ここでは、実施例1の眠気判定処理のS77と同様の処理を行う。その後、本処理を終了して、制御部メイン処理に戻る。
(3.3)効果
実施例3に記載の居眠り防止システム1においても、実施例1および実施例2と同様に、目の情報のみに基づいては眠気の度合が判定できない場合であっても、顔面の表情の動きを検出する電極などを、眠気の度合を判定する対象者に直接取り付けることなく、簡便に眠気の度合を判定することができる。
Next, based on the determined degree of sleepiness, the output unit 25 is caused to output a signal for causing the alarm device 30, the neck air conditioner 40, the seat belt vibration device 50, and the brake control device 60 to perform an operation (S249). ). Here, the same process as S77 of the sleepiness determination process of the first embodiment is performed. Then, this process is terminated and the process returns to the control unit main process.
(3.3) Effect Even in the dozing prevention system 1 described in the third embodiment, similarly to the first and second embodiments, even if the degree of sleepiness cannot be determined based on only eye information, The degree of drowsiness can be easily determined without directly attaching an electrode or the like for detecting the facial expression movement to the subject who determines the degree of drowsiness.

さらに、本実施例においては、実施例1,2と比較して多数の表情情報に基づいて眠気を判定しているため、その判定結果がより信頼性の高いものとなる。
(3.4)対応関係
以上説明した実施形態において、図16におけるS222,S223が本発明における表情情報取得手段であり、図17の眠気判定処理が本発明における眠気判定手段であり、撮影装置10が本発明における撮影手段である。
[実施例4]
(4.1)全体構成
実施例4における居眠り防止システム1は、基本的に実施例3と同じ構成であり、制御部メイン処理,表情情報取得処理は実施例3と同様の処理であるが、実施例3における眠気判定処理の処理に替えて、以下に説明する眠気判定処理が実行される。
(4.2)眠気判定処理
以下に、実施例4における居眠り防止システム1の制御部21により実行される眠気判定処理を、図18に基づいて説明する。本処理は、実施例3の制御部メイン処理のS205にて実行される。
Furthermore, in the present embodiment, drowsiness is determined based on a large amount of facial expression information as compared with the first and second embodiments, so that the determination result is more reliable.
(3.4) Correspondence In the embodiment described above, S222 and S223 in FIG. 16 are facial expression information acquisition means in the present invention, and the sleepiness determination processing in FIG. 17 is the sleepiness determination means in the present invention. These are the photographing means in the present invention.
[Example 4]
(4.1) Overall Configuration The dozing prevention system 1 in the fourth embodiment is basically the same configuration as in the third embodiment, and the control unit main process and facial expression information acquisition process are the same processes as in the third embodiment. Instead of the sleepiness determination processing in the third embodiment, the sleepiness determination processing described below is executed.
(4.2) Sleepiness Determination Processing The sleepiness determination processing executed by the control unit 21 of the dozing prevention system 1 in the fourth embodiment will be described below with reference to FIG. This process is executed in S205 of the control unit main process of the third embodiment.

この眠気判定処理では、まず、顔傾きが覚醒時情報より大きいか否かを判定する(S261)。具体的には、制御部メイン処理のS203で算出したα,θの覚醒時情報と、S204で算出した表情情報α,θとをそれぞれ比較し、表情情報α,θのいずれか一方でも覚醒時情報より大きければ(S261:YES)、眠気レベルを3(強度眠気)と判定し(S262)、処理がS268に移行する。一方、表情情報α,θのいずれも覚醒時情報より大きくなければ(S261:NO)、処理がS263に移行する。   In this sleepiness determination process, first, it is determined whether or not the face inclination is larger than the awakening information (S261). Specifically, the awakening information of α and θ calculated in S203 of the control unit main process is compared with the facial expression information α and θ calculated in S204, respectively, and either of the facial expression information α and θ is awakening. If it is larger than the information (S261: YES), the sleepiness level is determined to be 3 (strong sleepiness) (S262), and the process proceeds to S268. On the other hand, if neither the facial expression information α or θ is larger than the awakening information (S261: NO), the process proceeds to S263.

次に、眉と目の距離が覚醒時情報より大きいか否かを判定する(S263)。具体的には、制御部メイン処理のS203で算出したL2の覚醒時情報と、S204で算出した表情情報L2とを比較し、表情情報L2が覚醒時情報より大きければ(S263:YES)、眠気レベルを2(中度眠気)と判定し(S264)、処理をS268に移行する。一方、表情情報L2が覚醒時情報より大きくなければ(S263:NO)、処理がS265に移行する。   Next, it is determined whether or not the distance between the eyebrows and the eyes is larger than the awakening information (S263). Specifically, the L2 awakening information calculated in S203 of the control unit main process is compared with the facial expression information L2 calculated in S204, and if the facial expression information L2 is larger than the awakening information (S263: YES), sleepiness The level is determined to be 2 (medium sleepiness) (S264), and the process proceeds to S268. On the other hand, if the facial expression information L2 is not larger than the awakening information (S263: NO), the process proceeds to S265.

次に、口角間距離が覚醒時情報より小さいか否かを判定する(S265)。具体的には、制御部メイン処理のS203で算出したL1の覚醒時情報と、S204で算出した表情情報L1とを比較し、表情情報L1が覚醒時情報より小さければ(S265:YES)、眠気レベルを1(軽度眠気)と判定する(S266)。一方、表情情報L1が覚醒時情報より小さくなければ(S265:NO)、眠気レベルを0(眠気無し)と判定する(S267)。その後、処理がS268に移行する。   Next, it is determined whether the distance between the mouth corners is smaller than the awakening information (S265). Specifically, the awakening information of L1 calculated in S203 of the control unit main process is compared with the facial expression information L1 calculated in S204, and if the facial expression information L1 is smaller than the awakening information (S265: YES), sleepiness The level is determined to be 1 (mild drowsiness) (S266). On the other hand, if the facial expression information L1 is not smaller than the awakening information (S265: NO), the sleepiness level is determined to be 0 (no sleepiness) (S267). Thereafter, the process proceeds to S268.

次に、判定された眠気の度合に基づいて、警報装置30,首元空調装置40,シートベルト振動装置50,および,ブレーキ制御装置60に動作を行わせる信号を出力部25に出力させる(S268)。ここでは、実施例1の眠気判定処理のS77と同様の処理を行う。その後、本処理を終了して、制御部メイン処理に戻る。
(4.3)効果
実施例4に記載の居眠り防止システム1においても、実施例1〜実施例3と同様に、目の情報のみに基づいては眠気の度合が判定できない場合であっても、顔面の表情の動きを検出する電極などを、眠気の度合を判定する対象者に直接取り付けることなく、簡便に眠気の度合いを判定することができる。
[変形例]
以上、本発明の実施例について説明したが、本発明は、上記各実施例に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
Next, based on the determined degree of sleepiness, the output unit 25 is caused to output a signal that causes the alarm device 30, the neck air conditioner 40, the seat belt vibration device 50, and the brake control device 60 to perform an operation (S268). ). Here, the same process as S77 of the sleepiness determination process of the first embodiment is performed. Then, this process is terminated and the process returns to the control unit main process.
(4.3) Effects Even in the dozing prevention system 1 described in the fourth embodiment, as in the first to third embodiments, even if the degree of sleepiness cannot be determined based on only eye information, The degree of drowsiness can be easily determined without directly attaching an electrode or the like for detecting the movement of facial expression to the subject who determines the degree of drowsiness.
[Modification]
As mentioned above, although the Example of this invention was described, this invention is not limited to each said Example at all, and as long as it belongs to the technical scope of this invention, it cannot be overemphasized that various forms can be taken. .

例えば、上記各実施例においては、撮影装置10により撮影した顔画像を示す画像データに基づいて、顔面の動作を取得する構成について例示した。しかし、顔面の動作を取得できれば、その具体的な構成は特に限定されない。   For example, in each of the above-described embodiments, the configuration for acquiring the facial motion based on the image data indicating the facial image captured by the imaging device 10 has been illustrated. However, the specific configuration is not particularly limited as long as the facial motion can be acquired.

例えば、電極を顔面に貼り付け、顔の筋肉が動くときにその力の大きさに比例して発生する微弱な電気を検出して、口周り緩み,眉上がり,頭部傾きなどを取得してもよい。
また、上記各実施例において、眠気判定装置20による処理は、入力部23に備えられた開始ボタンを押すことによって開始される構成を例示したが、それ以外の条件を満たすことによって開始される構成としても良い。
For example, by attaching electrodes to the face and detecting the weak electricity generated in proportion to the magnitude of the force when the facial muscles move, acquire the loose mouth, eyebrows, head tilt, etc. Also good.
Moreover, in each said Example, although the process by the drowsiness determination apparatus 20 illustrated the structure started by pressing the start button with which the input part 23 was equipped, the structure started by satisfying other conditions It is also good.

例えば、車両2におけるエンジン等の動力部が起動した際に同時に処理を開始する構成や、車両内に車両の進行速度を測定する車速センサが備えられており、車速センサが所定の速度(例えば、30km/h)を超えたことを検出したときに処理を開始する構成などが考えられる。   For example, a configuration in which processing is started at the same time when a power unit such as an engine in the vehicle 2 is activated, or a vehicle speed sensor that measures the traveling speed of the vehicle is provided in the vehicle, and the vehicle speed sensor has a predetermined speed (for example, A configuration is conceivable in which the processing is started when it is detected that the speed exceeds 30 km / h).

また、上記各実施例において、頭部の傾きに関する情報として、前後頭部傾き角度情報αと左右頭部傾き角度情報θとをいずれも取得する構成を例示した。しかし、いずれか一方のみを取得する構成としてもよい。   Further, in each of the above-described embodiments, the configuration in which both the front and rear head tilt angle information α and the left and right head tilt angle information θ are acquired as information on the head tilt is illustrated. However, it may be configured to acquire only one of them.

また、上記各実施例においては、左右の口角の距離,眉と目の距離,頭部傾き角度,眉頭の中点と目頭の中点間の距離,眉頭間の距離,鼻下端の中点と目頭の中点間の距離,口端の中点と目頭の中点間の距離,下唇下端と目頭の中点間の距離,上まぶたと下まぶた間の距離,鼻下左右両端間の距離,上唇上端と目頭の中点間の距離,のうちいずれかの表情情報に基づいて眠気の度合を判定する構成について例示した。しかし、視線などを検出して、それらに基づいて眠気の有無を検出し、その検出結果と、上述した情報とを組み合わせて眠気の度合を判定してもよい。   In each of the above embodiments, the distance between the left and right mouth corners, the distance between the eyebrows and the eyes, the head tilt angle, the distance between the midpoint of the eyebrows and the midpoint of the eyes, the distance between the eyebrows, the midpoint of the bottom of the nose, The distance between the middle point of the eye, the distance between the middle point of the mouth and the middle point of the eye, the distance between the lower lip and the middle point of the eye, the distance between the upper eyelid and the lower eyelid, the distance between the left and right sides of the nose The configuration of determining the degree of sleepiness based on the expression information of any one of the distance between the upper lip upper end and the middle point of the eye is illustrated. However, it is also possible to detect gaze and the like, detect the presence or absence of drowsiness based on them, and determine the degree of drowsiness by combining the detection result and the information described above.

また、上記実施例3においては、眠気判定処理で説明したように、12の表情情報それぞれに基づいて眠気の有無を判断し、眠気有りと判断された表情情報の数に応じて眠気の度合を判定する構成を例示した。しかしながら、眠気の有無を判断する表情情報は12に限定されず、また、眠気の度合のしきい値となる数も7,5,3に限定されない。   Further, in the third embodiment, as described in the sleepiness determination process, the presence or absence of sleepiness is determined based on each of the 12 facial expression information, and the degree of sleepiness is determined according to the number of facial expression information determined to be sleepy. The structure to determine was illustrated. However, the facial expression information for determining the presence or absence of sleepiness is not limited to 12, and the number serving as the threshold value of the sleepiness level is not limited to 7, 5, and 3.

また、上述した眠気判定処理は、各表情情報に基づいて、眠気の有無ではなく、眠気の程度を判断するように構成してもよい。その場合、眠気の度合は、眠気の程度の平均により判定してもよいし、眠気の程度の最頻値により判定してもよい。なお、眠気の程度は、覚醒時情報と比較してどの程度乖離しているかによって判断するとよい。   The drowsiness determination process described above may be configured to determine not the presence or absence of drowsiness but the degree of drowsiness based on each facial expression information. In this case, the degree of sleepiness may be determined by an average of the degree of sleepiness, or may be determined by a mode value of the degree of sleepiness. It should be noted that the degree of sleepiness may be determined based on how far away from the awakening information.

また、上記実施例4においては、頭部傾き角度(顔傾き),眉と目の距離,左右の口角間距離に基づいて眠気の度合を判定する構成を例示したが、その他の表情情報を用いて眠気の度合を判定してもよい。また、覚醒時情報と表情情報との比較は、統計的検定を用いた有意性判定による比較でもよい。
[眠気表情特徴の眠気の度合に対する傾向を確認する試験]
以下に、上述した眠気表情特徴の眠気の度合に対する傾向を確認するための試験を説明する。
Further, in the fourth embodiment, the configuration in which the degree of sleepiness is determined based on the head tilt angle (face tilt), the distance between the eyebrows and the eyes, and the distance between the left and right mouth corners, but other facial expression information is used. The degree of sleepiness may be determined. The comparison between the awakening information and the facial expression information may be a comparison by significance determination using a statistical test.
[Study to confirm the tendency of sleepy facial expression features to the degree of sleepiness]
Below, the test for confirming the tendency with respect to the degree of sleepiness of the sleepiness facial expression feature mentioned above is explained.

本試験では、まず、対象者が覚醒状態から居眠り状態となるまでの顔面の変化を連続的に撮影した。そして、評価者がその撮影した映像を見て対象者の眠気のレベルを官能評価でレベル0〜5に分類し、それぞれの眠気のレベルにおいて、左右口角の距離,眉目間の距離,前後の頭部傾き,左右の頭部傾き,眉頭の中点と目頭の中点間の距離,眉頭間の距離,鼻下端の中点と目頭の中点間の距離,口端の中点と目頭の中点間の距離,下唇下端と目頭の中点間の距離,上まぶたと下まぶた間の距離,左鼻孔外側端と右鼻孔外側端の距離,上唇上端と目頭の中点間の距離をそれぞれ10回程度測定した。   In this test, first, the changes in the face from the awake state to the doze state were continuously photographed. The evaluator classifies the subject's sleepiness level into levels 0 to 5 by sensory evaluation by looking at the captured video. At each sleepiness level, the distance between the left and right mouth corners, the distance between the eyebrows, and the front and rear heads. Head tilt, left and right head tilt, distance between midpoint of eyebrow and midpoint of eye, distance between browhead, distance between midpoint of lower nose and midpoint of eye, midpoint of mouth and inside of eyes The distance between the points, the distance between the lower lip and the middle point of the eye, the distance between the upper eyelid and the lower eyelid, the distance between the outer edge of the left nostril and the outer edge of the right nostril, and the distance between the upper edge of the upper lip and the middle point of the eye Measurement was performed about 10 times.

眠気のレベルは、全く眠くなさそうな状態をレベル0,やや眠そうな状態をレベル1,眠そうな状態をレベル2,かなり眠そうな状態をレベル3,耐え難いほど眠そうな状態をレベル4,眠っている状態をレベル5とした。   The level of sleepiness is level 0 when it seems to be totally sleepless, level 1 when it is somewhat sleepy, level 2 when it is sleepy, level 3 when it is quite sleepy, level 4 when it is unbearably sleepy , Sleeping state was set to level 5.

上述したもののうち、左右口角の距離,眉目間の距離,前後の頭部傾き,左右の頭部傾き,の測定結果のグラフを図19(a)〜(d)に示す。各グラフは、横軸に眠気のレベル、縦軸に左右目頭間を10とした場合の相対距離を示す。   19A to 19D are graphs showing measurement results of the distance between the left and right mouth corners, the distance between the eyebrows, the front and rear head tilt, and the left and right head tilt among the above-described items. Each graph shows the relative distance when the horizontal axis represents drowsiness level and the vertical axis represents 10 between the left and right eyes.

太枠で囲まれた部分は、各測定結果において、眠気のレベル0の測定結果とその他のレベルの測定結果とに関して、対応のあるt検定を行い、有意の差があると判定された部分である。なお、口角の間の距離および頭部傾きは有意水準5%、眉目間の距離は有意水準1%にて検定した。   The part surrounded by a thick frame is a part where, in each measurement result, a corresponding t-test is performed on the measurement result of drowsiness level 0 and the measurement result of other levels, and it is determined that there is a significant difference. is there. The distance between mouth corners and head inclination were tested at a significance level of 5%, and the distance between eyebrows was tested at a significance level of 1%.

図19から分かるように、口角間の距離は眠気のレベル1から有意の差があり、眉目間の距離は眠気のレベル3から有意の差があり、頭部傾きは眠気のレベル5から有意の差が表れた。   As can be seen from FIG. 19, the distance between the corners of the mouth is significantly different from drowsiness level 1, the distance between the eyebrows is significantly different from drowsiness level 3, and the head tilt is significant from drowsiness level 5. A difference appeared.

このように、口周り緩み,眉上がり,頭部傾きは、それぞれ変化が表れる眠気の度合が異なる。よって、これらの表情特徴を組み合わせることによって、それらを単独で用いたときと比べてより多くの段階に眠気の度合を分けて判定することができる。   As described above, the degree of drowsiness in which changes occur in the mouth looseness, the eyebrows, and the head tilt are different. Therefore, by combining these facial expression features, it is possible to determine the degree of sleepiness separately in more stages than when they are used alone.

また、眉頭の中点と目頭の中点間の距離,眉頭間の距離,鼻下端の中点と目頭の中点間の距離,口端の中点と目頭の中点間の距離,下唇下端と目頭の中点間の距離,上まぶたと下まぶた間の距離,左鼻孔外側端と右鼻孔外側端の距離,上唇上端と目頭の中点間の距離,の測定結果のグラフを図20〜図27に示す。図20〜図24および図27では、眠気の亢進に応じて各距離が大きくなっていき、図25および図26では、眠気の亢進に応じて距離が小さくなっていくことが示されている。よって、上述した各実施例のような手法で眠気の度合が判定できることが分かる。   Also, the distance between the middle point of the eyebrow and the middle point of the eye, the distance between the eyebrows, the distance between the middle point of the bottom of the nose and the middle point of the eye, the distance between the middle point of the mouth and the middle point of the eye, the lower lip FIG. 20 is a graph showing the measurement results of the distance between the lower end and the middle point of the eye, the distance between the upper eyelid and the lower eyelid, the distance between the outer edge of the left nostril and the outer edge of the right nostril, and the distance between the upper edge of the upper lip and the middle point of the eye. To FIG. 20 to 24 and 27, each distance increases as sleepiness increases, and FIGS. 25 and 26 illustrate that the distance decreases as sleepiness increases. Therefore, it can be seen that the degree of drowsiness can be determined by the method as in each of the embodiments described above.

表情筋を示す図Illustration showing facial muscles 居眠り防止システムを示す側面図Side view of the dozing prevention system 眠気判定装置を示すブロック図Block diagram showing the drowsiness determination device 実施例1の制御部メイン処理の手順を示すフローチャートThe flowchart which shows the procedure of the control part main process of Example 1. 実施例1の覚醒時データ収集処理の手順を示すフローチャートThe flowchart which shows the procedure of the data collection process at the time of awakening of Example 1. 実施例1の運転時データ収集処理の手順を示すフローチャートThe flowchart which shows the procedure of the data collection processing at the time of Example 1 実施例1の表情情報取得処理の手順を示すフローチャートThe flowchart which shows the procedure of the facial expression information acquisition process of Example 1. 顔特徴点を示す図Diagram showing facial feature points AAMの2Dモデルと3Dモデルとを示す図Diagram showing 2D model and 3D model of AAM 実施例1の眠気判定処理の手順を示すフローチャートThe flowchart which shows the procedure of the drowsiness determination process of Example 1. 実施例2の制御部メイン処理の手順を示すフローチャートThe flowchart which shows the procedure of the control part main process of Example 2. FIG. 実施例2の覚醒時データ収集処理の手順を示すフローチャートThe flowchart which shows the procedure of the data collection process at the time of awakening of Example 2. 実施例2の運転時データ収集処理の手順を示すフローチャートThe flowchart which shows the procedure of the operation time data collection process of Example 2. 実施例2の眠気判定処理の手順を示すフローチャートThe flowchart which shows the procedure of the sleepiness determination process of Example 2. 実施例3の制御部メイン処理の手順を示すフローチャートThe flowchart which shows the procedure of the control part main process of Example 3. 実施例3の表情情報取得処理の手順を示すフローチャートThe flowchart which shows the procedure of the facial expression information acquisition process of Example 3. 実施例3の眠気判定処理の手順を示すフローチャートThe flowchart which shows the procedure of the drowsiness determination processing of Example 3 実施例4の眠気判定処理の手順を示すフローチャートThe flowchart which shows the procedure of the sleepiness determination processing of Example 4 眠気表情特徴の眠気の度合に対する傾向を確認する試験の結果Results of a test to confirm the tendency of sleepiness facial features to the degree of sleepiness 眉頭の中点と目頭の中点間の距離と、眠気レベルの関係The relationship between the middle point of the eyebrow and the middle point of the eye and the sleepiness level 眉頭間の距離と、眠気レベルの関係Relationship between distance between eyebrows and sleepiness level 鼻下端の中点と目頭の中点間の距離と、眠気レベルの関係The relationship between the midpoint of the lower nose and the midpoint of the eyes and the sleepiness level 口端の中点と目頭の中点間の距離と、眠気レベルの関係Relationship between midpoint of mouth edge and midpoint of eyes and drowsiness level 下唇下端と目頭の中点間の距離と、眠気レベルの関係The relationship between the distance between the lower lip lower edge and the middle point of the eye and the sleepiness level 上まぶたと下まぶた間の距離と、眠気レベルの関係Relationship between distance between upper and lower eyelids and sleepiness level 左鼻孔外側端と右鼻孔外側端間の距離と、眠気レベルの関係Relationship between distance between left and right nostril outer edges and right nostril outer edge and drowsiness level 上唇上端と目頭の中点間の距離と、眠気レベルの関係The relationship between the distance between the upper lip upper edge and the midpoint of the eye and the sleepiness level

符号の説明Explanation of symbols

1…居眠り防止システム、2…車両、3…運転者、10…撮影装置、20…眠気判定装置、21…制御部、22…受信部、23…入力部、24…記憶部、25…出力部、30…警報装置、40…首元空調装置、50…シートベルト振動装置、60…ブレーキ制御装置。   DESCRIPTION OF SYMBOLS 1 ... Dozing prevention system, 2 ... Vehicle, 3 ... Driver, 10 ... Imaging device, 20 ... Drowsiness determination device, 21 ... Control part, 22 ... Reception part, 23 ... Input part, 24 ... Memory | storage part, 25 ... Output part , 30 ... alarm device, 40 ... neck air conditioner, 50 ... seat belt vibration device, 60 ... brake control device.

Claims (7)

表情情報A〜Kのうち、少なくとも2つ以上を取得する表情情報取得手段と、
前記表情情報取得手段により覚醒時に取得された前記表情情報と、前記表情情報取得手段により眠気を判断すべきタイミングで取得された前記表情情報と、を比較することで、前記表情情報取得手段により取得された前記表情情報それぞれについて、当該表情情報ごとに眠気の有無を判断し、該判断された前記表情情報の数に対する眠気有りと判断された前記表情情報の数の割合が多いほど、眠気の度合が強いと判定する眠気判定手段と、を備え、
前記表情情報A〜Kにおける眠気の有無の判断基準は、前記表情情報A,I,Jについては、眠気を判断すべきタイミングで取得した前記表情情報の値が、覚醒時に取得された前記表情情報の値よりも小さいときに眠気有りと判断する一方、前記表情情報B,C,D,E,F,G,H,Kについては、眠気を判断すべきタイミングで取得した前記表情情報の値が、覚醒時に取得された前記表情情報の値よりも大きいときに眠気有りと判断する
ことを特徴とする眠気判定装置。
(A)左右の口角の距離
(B)眉と目の距離
(C)頭部傾き角度
(D)眉頭の中点と目頭の中点間の距離
(E)眉頭間の距離
(F)鼻下端の中点と目頭の中点間の距離
(G)口端の中点と目頭の中点間の距離
(H)下唇下端と目頭の中点間の距離
(I)上まぶたと下まぶた間の距離
(J)鼻下左右両端間の距離
(K)上唇上端と目頭の中点間の距離
Facial expression information acquisition means for acquiring at least two of facial expression information A to K;
Acquired by the facial expression information acquisition means by comparing the facial expression information acquired at the time of awakening by the facial expression information acquisition means and the facial expression information acquired at a timing when sleepiness should be determined by the facial expression information acquisition means about each of the facial expression information, to determine the presence or absence of drowsiness per the facial expression information, as the ratio of the number of the facial expression information it is determined that there drowsiness on the number of the facial expression information the decision is large, drowsiness Drowsiness judging means for judging that the degree is strong ,
The criteria for determining the presence or absence of sleepiness in the facial expression information A to K is that the facial expression information acquired at the time of awakening is the value of the facial expression information acquired at the timing when sleepiness should be determined. On the other hand, when the expression information B, C, D, E, F, G, H, and K is determined to be drowsiness, the value of the expression information acquired at the timing when sleepiness should be determined is determined. A drowsiness determination device characterized by determining drowsiness when the value of the facial expression information acquired at awakening is greater.
(A) Distance between left and right mouth corners (B) Distance between eyebrows and eyes (C) Head tilt angle (D) Distance between midpoint of eyebrows and midpoint of eyes (E) Distance between eyebrows (F) Lower nose Distance between the middle point of the eye and the middle point of the eye (G) Distance between the middle point of the mouth edge and the middle point of the eye (H) Distance between the lower edge of the lower lip and the middle point of the eye (I) Between the upper eyelid and the lower eyelid Distance (J) Distance between the right and left ends of the nose (K) Distance between the upper lip upper end and the middle point of the eye
表情情報A〜Kのうち、少なくとも2つ以上を取得する表情情報取得手段と、
前記表情情報取得手段により覚醒時に取得された前記表情情報と、前記表情情報取得手段により眠気を判断すべきタイミングで取得された前記表情情報と、を比較することで、前記表情情報取得手段により取得された前記表情情報それぞれに基づいて、当該表情情報ごとに眠気の程度が予め定められた複数段階の何れに相当するかを判断し、当該判断した前記表情情報における該眠気の程度を示す段階の平均値または最頻値に基づいて眠気の度合を判定する眠気判定手段と、を備え、
前記眠気の程度の判断は、前記表情情報A,I,Jについては、眠気を判断すべきタイミングで取得した前記表情情報の値が、覚醒時に取得された前記表情情報の値よりも小さいときに眠気有りとして、それらの値の差異の大きさにより眠気の程度を判断する一方、前記表情情報B,C,D,E,F,G,H,Kについては、眠気を判断すべきタイミングで取得した前記表情情報の値が、覚醒時に取得された前記表情情報の値よりも大きいときに眠気有りとして、それらの値の差異の大きさにより眠気の程度を判断する
ことを特徴とする眠気判定装置。
(A)左右の口角の距離
(B)眉と目の距離
(C)頭部傾き角度
(D)眉頭の中点と目頭の中点間の距離
(E)眉頭間の距離
(F)鼻下端の中点と目頭の中点間の距離
(G)口端の中点と目頭の中点間の距離
(H)下唇下端と目頭の中点間の距離
(I)上まぶたと下まぶた間の距離
(J)鼻下左右両端間の距離
(K)上唇上端と目頭の中点間の距離
Facial expression information acquisition means for acquiring at least two of facial expression information A to K;
Acquired by the facial expression information acquisition means by comparing the facial expression information acquired at the time of awakening by the facial expression information acquisition means and the facial expression information acquired at a timing when sleepiness should be determined by the facial expression information acquisition means Determining the degree of sleepiness corresponding to each facial expression information based on the determined facial expression information, and indicating the degree of sleepiness in the determined facial expression information. Drowsiness determining means for determining the degree of drowsiness based on an average value or a mode value ,
For the expression information A, I, and J, the degree of sleepiness is determined when the value of the expression information acquired at the timing when sleepiness should be determined is smaller than the value of the expression information acquired at awakening. While there is drowsiness, the degree of drowsiness is determined by the magnitude of the difference between these values, while the facial expression information B, C, D, E, F, G, H, K is acquired at the timing when drowsiness should be determined. When the value of the facial expression information is greater than the value of the facial expression information acquired at awakening, it is assumed that there is sleepiness, and the degree of sleepiness is determined based on the magnitude of the difference between the values. .
(A) Distance between left and right mouth corners (B) Distance between eyebrows and eyes (C) Head tilt angle (D) Distance between midpoint of eyebrows and midpoint of eyes (E) Distance between eyebrows (F) Lower nose Distance between the middle point of the eye and the middle point of the eye (G) Distance between the middle point of the mouth edge and the middle point of the eye (H) Distance between the lower edge of the lower lip and the middle point of the eye (I) Between the upper eyelid and the lower eyelid Distance (J) Distance between the right and left ends of the nose (K) Distance between the upper lip upper end and the middle point of the eye
左右の口角の距離,眉と目の距離,頭部傾き角度,の各表情情報うち、少なくとも2つ以上の前記表情情報を取得する表情情報取得手段と、  Facial expression information acquisition means for acquiring at least two facial expression information out of the facial expression information of the distance between the left and right mouth corners, the distance between the eyebrows and the eyes, and the head tilt angle;
前記表情情報取得手段により取得された前記表情情報それぞれに基づいて眠気の度合を判定する眠気判定手段と、を備え、  Drowsiness determining means for determining the degree of sleepiness based on each of the facial expression information acquired by the facial expression information acquiring means,
前記眠気判定手段は、  The drowsiness determining means includes
前記頭部傾き角度に基づいて眠気ありと判断することを条件Aとし、前記眉と目の距離に基づいて眠気ありと判断することを条件Bとし、前記左右の口角の距離に基づいて眠気ありと判断することを条件Cとし、  The condition A is determined to be drowsy based on the head tilt angle, the condition B is determined to be drowsy based on the distance between the eyebrows and eyes, and the person is drowsy based on the distance between the left and right mouth corners. Is determined to be Condition C,
前記条件Aが満たされる場合には、眠気の度合を、強度眠気と判定し、  When the condition A is satisfied, the degree of sleepiness is determined as intense sleepiness,
前記条件Bが満たされると共に、前記条件Aが満たされない場合には、眠気の度合を、前記強度眠気よりも眠気の度合が低い中度眠気と判定し、  When the condition B is satisfied and the condition A is not satisfied, the degree of sleepiness is determined as medium sleepiness having a lower sleepiness level than the intense sleepiness,
前記条件Cが満たされると共に、前記条件Aおよび前記条件Bが満たされない場合には、眠気の度合を、前記中度眠気よりも眠気の度合が低い軽度眠気と判定し、  When the condition C is satisfied and the condition A and the condition B are not satisfied, the degree of drowsiness is determined as mild drowsiness having a lower degree of drowsiness than the moderate drowsiness,
前記条件A,条件B,条件Cのいずれも満たされない場合には、眠気なしと判定する  When none of the conditions A, B, and C is satisfied, it is determined that there is no sleepiness
ことを特徴とする眠気判定装置。  A drowsiness determination device characterized by the above.
前記眠気判定手段は、覚醒時に取得された前記表情情報と、眠気を判断すべきタイミングで取得された前記表情情報と、を比較することで眠気の有無を判断し、該判断の結果の組み合わせに基づいて眠気の度合を判定する  The drowsiness determining means determines the presence or absence of drowsiness by comparing the facial expression information acquired at the time of awakening and the facial expression information acquired at a timing when sleepiness should be determined. Based on the degree of sleepiness
ことを特徴とする請求項3に記載の眠気判定装置。  The drowsiness determination device according to claim 3.
前記表情情報取得手段は、顔画像を示す画像データに基づいて、少なくとも顔面の構成要素の位置または頭部の傾き角度を示す位置・角度情報を検出し、該位置・角度情報に基づいて、前記表情情報を取得する  The facial expression information acquisition means detects position / angle information indicating at least the position of a component of the face or the tilt angle of the head based on image data indicating a face image, and based on the position / angle information, Get facial expression information
ことを特徴とする請求項1から請求項4のいずれかに記載の眠気判定装置。  The drowsiness determination device according to any one of claims 1 to 4, wherein
車両に搭載されて用いられるものであって、  It is used by being mounted on a vehicle,
前記表情情報取得手段は、該車両に備えられた撮影手段により撮影された前記画像データに基づいて、前記位置・角度情報を検出する  The facial expression information acquisition means detects the position / angle information based on the image data photographed by photographing means provided in the vehicle.
ことを特徴とする請求項5に記載の眠気判定装置。  The drowsiness determination device according to claim 5.
請求項1から6のいずれかに記載の表情情報取得手段および眠気判定手段として機能させるための処理手順を、コンピュータシステムに実行させるためのプログラム。  The program for making a computer system perform the process sequence for functioning as a facial expression information acquisition means and sleepiness determination means in any one of Claim 1 to 6.
JP2007276551A 2007-02-16 2007-10-24 Sleepiness determination apparatus and program Expired - Fee Related JP4458146B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007276551A JP4458146B2 (en) 2007-02-16 2007-10-24 Sleepiness determination apparatus and program
US12/068,770 US8045766B2 (en) 2007-02-16 2008-02-12 Device, program, and method for determining sleepiness

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007036386 2007-02-16
JP2007191098 2007-07-23
JP2007276551A JP4458146B2 (en) 2007-02-16 2007-10-24 Sleepiness determination apparatus and program

Publications (2)

Publication Number Publication Date
JP2009045418A JP2009045418A (en) 2009-03-05
JP4458146B2 true JP4458146B2 (en) 2010-04-28

Family

ID=40498193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007276551A Expired - Fee Related JP4458146B2 (en) 2007-02-16 2007-10-24 Sleepiness determination apparatus and program

Country Status (1)

Country Link
JP (1) JP4458146B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5273030B2 (en) * 2009-12-18 2013-08-28 株式会社デンソー Facial feature point detection device and drowsiness detection device
JP2012203551A (en) * 2011-03-24 2012-10-22 Komatsu Ltd Dozing prevention system and dump truck
JP2014515847A (en) * 2011-03-25 2014-07-03 ティーケー ホールディングス インク. Driver alertness determination system and method
JP5666383B2 (en) 2011-05-26 2015-02-12 パナソニック株式会社 Sleepiness estimation apparatus and sleepiness estimation method
JP6775135B2 (en) * 2016-05-20 2020-10-28 マツダ株式会社 Driver status detector
JP6973928B2 (en) * 2017-11-10 2021-12-01 アルパイン株式会社 Eyelid open / close judgment device and drowsiness detection device
JP6888542B2 (en) 2017-12-22 2021-06-16 トヨタ自動車株式会社 Drowsiness estimation device and drowsiness estimation method
CN109717830B (en) * 2019-01-22 2021-09-17 中国科学院苏州生物医学工程技术研究所 Fatigue detection and wake-up promotion system based on eye movement and head movement parameter monitoring
JP7175381B2 (en) * 2019-03-20 2022-11-18 三菱電機株式会社 Arousal level estimation device, automatic driving support device, and arousal level estimation method
JP2021007717A (en) * 2019-07-03 2021-01-28 本田技研工業株式会社 Occupant observation device, occupant observation method and program
JP7433573B2 (en) * 2022-01-27 2024-02-19 三菱電機株式会社 Adjustment device, face orientation estimation device, and adjustment method

Also Published As

Publication number Publication date
JP2009045418A (en) 2009-03-05

Similar Documents

Publication Publication Date Title
JP4458146B2 (en) Sleepiness determination apparatus and program
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
WO2020078465A1 (en) Method and device for driving state analysis, driver monitoring system and vehicle
US8045766B2 (en) Device, program, and method for determining sleepiness
WO2020078464A1 (en) Driving state detection method and apparatus, driver monitoring system, and vehicle
US8433095B2 (en) Drowsiness detector
CN104573623B (en) Face detection device and method
US7948387B2 (en) Drowsiness determination apparatus, program, and method
JP5326521B2 (en) Arousal state determination device and arousal state determination method
CN106965675B (en) A kind of lorry swarm intelligence safety work system
CN107697069A (en) Fatigue of automobile driver driving intelligent control method
CN105701445A (en) determination apparatus and determination method
JP6573193B2 (en) Determination device, determination method, and determination program
JP2016539446A (en) A device for preventing doze driving in two stages through recognition of movement, face, eyes and mouth shape
CN109543651B (en) Method for detecting dangerous driving behavior of driver
JP2019195377A (en) Data processing device, monitoring system, awakening system, data processing method, and data processing program
CN107405121A (en) The method and apparatus that fatigue state and/or sleep state for the driver to vehicle are identified
KR20200001553A (en) Controlling an autonomous vehicle based on passenger behavior
Hasan et al. State-of-the-art analysis of modern drowsiness detection algorithms based on computer vision
WO2019176492A1 (en) Calculation system, information processing device, driving assistance system, index calculation method, computer program, and storage medium
WO2022113275A1 (en) Sleep detection device and sleep detection system
JP7465738B2 (en) Electronic device, information processing device, wakefulness calculation method, and wakefulness calculation program
CN113827244B (en) Method for detecting and monitoring driver's sight line direction, system and device
Parsai et al. Intelligent Monitoring System for Driver’s Alertness (A vision based approach)
JP6689470B1 (en) Information processing apparatus, program, and information processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100201

R151 Written notification of patent or utility model registration

Ref document number: 4458146

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130219

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140219

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees