JP2011128966A - Face feature point detection device and sleepiness detection device - Google Patents

Face feature point detection device and sleepiness detection device Download PDF

Info

Publication number
JP2011128966A
JP2011128966A JP2009287941A JP2009287941A JP2011128966A JP 2011128966 A JP2011128966 A JP 2011128966A JP 2009287941 A JP2009287941 A JP 2009287941A JP 2009287941 A JP2009287941 A JP 2009287941A JP 2011128966 A JP2011128966 A JP 2011128966A
Authority
JP
Japan
Prior art keywords
face
feature point
image
dimensional coordinates
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009287941A
Other languages
Japanese (ja)
Other versions
JP5273030B2 (en
Inventor
Satori Hachisuga
知理 蜂須賀
Noriyuki Ozaki
憲幸 尾崎
Sadasuke Kimura
禎祐 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2009287941A priority Critical patent/JP5273030B2/en
Publication of JP2011128966A publication Critical patent/JP2011128966A/en
Application granted granted Critical
Publication of JP5273030B2 publication Critical patent/JP5273030B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face feature point detection device and a sleepiness detection device facilitated in practical use capable of grasping an expression with high accuracy. <P>SOLUTION: By imaging the face image of a driver 3 by an imaging device 10, a sleepiness detection device 20 first generates a 2D reference face and a 2D template in an individual information model for use to obtain feature points on the face of the driver 3 (S1). Next, feature points at an awakening state are obtained (S2), and a sleepiness level is estimated by detecting the feature points at timing to detect the sleepiness (S3). According to the sleepiness level, a signal is output to operate a nap prevention device (S4). The acquisition of the feature points is performed by imaging the face image of the driver 3 by the imaging device 10, and by fitting the image concerned by deforming the 2D reference face and the 2D template so as to obtain two-dimensional coordinates of the feature points from the imaged image. Next, three-dimensional coordinates are obtained by be fir to a 3D reference face which is a common model. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、対象者の撮影画像から顔上の特徴点の位置を取得する顔特徴点検出装置と、その顔特徴点検出装置を用いた眠気検出装置に関する。   The present invention relates to a face feature point detection device that acquires a position of a feature point on a face from a photographed image of a subject, and a drowsiness detection device using the face feature point detection device.

従来、対象者の顔を撮影し、撮影された画像から顔における特徴点の位置の変化や顔の向きを捉える技術が提案されている。例えば、対象者(車両の運転者)の顔画像を撮影し、多数の特徴点からなる形態およびテクスチャ情報を持つ2D(2次元)モデルと、形態のみからなる3D(3次元)モデルと、を用いて、撮影された画像にこれらのモデルをフィッティングさせて対象者の顔の変化を捉えることにより、対象者が居眠り状態であることを検出する装置が提案されている(特許文献1参照)。   2. Description of the Related Art Conventionally, a technique has been proposed in which a subject's face is photographed and changes in the positions of feature points on the face and the orientation of the face are captured from the photographed image. For example, a face image of a target person (vehicle driver) is photographed, and a 2D (two-dimensional) model having a form and texture information consisting of a large number of feature points, and a 3D (three-dimensional) model consisting only of a form An apparatus has been proposed that detects that a subject is dozing by fitting these models to captured images and capturing changes in the subject's face (see Patent Document 1).

特開2009−45418号公報JP 2009-45418 A

上述した特許文献1の装置では、2Dモデルおよび3Dモデルとして、個人の様々な画像データに基づいて作成されるその個人にカスタマイズしたモデル(個人モデル)か、あるいは複数人の画像データに基づいて作成される汎用的なモデル(共通モデル)のいずれかが用いられる。   In the device disclosed in Patent Document 1 described above, as a 2D model and a 3D model, a model customized for each individual (individual model) created based on various individual image data, or created based on image data of a plurality of persons One of the general-purpose models (common model) to be used is used.

個人モデルを用いる場合、画像データを提供した個人に対しては非常に高い精度で表情の検出を行うことができるが、その個人以外を対象とすると検出精度が低くなってしまう。よって、高い精度で表情の検出を行うためには、表情を測定する対象者ごとにモデルを作成する必要があり、実用化できる場面が限定されていた。   When a personal model is used, facial expressions can be detected with very high accuracy for an individual who has provided image data, but the detection accuracy is low when a person other than the individual is targeted. Therefore, in order to detect facial expressions with high accuracy, it is necessary to create a model for each person whose facial expressions are to be measured, and the scenes that can be put to practical use are limited.

一方、共通モデルを用いる場合は、対象者ごとに詳細なモデルを作成する必要がなく、予め作成しておいたモデルを用いることができるので、実用化が容易である。しかしながら、その共通モデルは平均的な顔に基づくモデルとなるため、個人モデルを用いる場合と比較すれば多くの対象者に対して良好な検出を行うことができるものの、対象者の顔と平均的な顔との相違が大きくなるほど検出精度が悪化し、多くの対象者にとっては例えば眠気を判定するほどの高精度の表情変化を捉えることができなかった。   On the other hand, when a common model is used, it is not necessary to create a detailed model for each subject, and a model created in advance can be used. However, since the common model is a model based on the average face, although it can detect better for many subjects compared to the case of using the individual model, As the difference from the correct face increases, the detection accuracy deteriorates. For many subjects, for example, it is impossible to capture a change in facial expression with high accuracy enough to determine drowsiness, for example.

本発明は、上述した問題に鑑みてなされたものであり、その目的は、実用化が容易であり、高い精度で表情を捉えることができる顔特徴点検出装置および眠気検出装置を提供することである。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a facial feature point detection device and a drowsiness detection device that can be easily put into practical use and can capture facial expressions with high accuracy. is there.

上述した問題を解決するためになされた請求項1に記載の発明は、顔上の予め定められた複数存在する特徴点の3次元座標の動きを、撮影された画像から検出する顔特徴点検出装置である。   The invention according to claim 1, which has been made to solve the above-described problem, is a face feature point detection that detects a movement of three-dimensional coordinates of a plurality of predetermined feature points on a face from a photographed image. Device.

この顔特徴点検出装置は、撮影対象者の顔を示す撮影画像を取得する手段を有している。この手段は、カメラ等の撮影装置から撮影画像を取得するものであってもよいし、記憶装置などに記憶された撮影画像を取得するものであってもよい。なお、上述した特徴点とは、例えば目尻や目頭、口角、眉といった、顔における位置を特定できる測定点である。この特徴点の動きを知ることで、表情の変化、即ち眠気などの体調や感情などの変化を検出することができる。   This face feature point detection device has means for acquiring a photographed image showing the face of the subject. This means may acquire a captured image from an imaging device such as a camera, or may acquire a captured image stored in a storage device or the like. Note that the above-described feature points are measurement points that can specify positions on the face, such as the corners of the eyes, the corners of the eyes, the corners of the mouth, and the eyebrows. By knowing the movement of this feature point, it is possible to detect changes in facial expressions, that is, changes in physical condition such as sleepiness and emotions.

また、上記顔特徴点検出装置は、取得した撮影画像である基準画像から、顔上に予め定められた複数の特徴点の2次元座標を抽出し、その2次元座標からなる基準2D顔モデルを作成する。ここでいう基準2D顔モデルは、特徴点の2次元座標情報のみを有するデータ群であってもよいし、特徴点を並べて可視化した図形の情報をさらに有するものであってもよい。そして、この基準2D顔モデルから、複数の特徴点の2次元座標を移動させてなる変形2D顔モデルを作成する。   Further, the face feature point detection device extracts two-dimensional coordinates of a plurality of predetermined feature points on the face from a reference image that is an acquired photographed image, and generates a reference 2D face model composed of the two-dimensional coordinates. create. The reference 2D face model here may be a data group having only two-dimensional coordinate information of feature points, or may further have information of a graphic in which feature points are arranged and visualized. Then, a modified 2D face model is created by moving the two-dimensional coordinates of a plurality of feature points from the reference 2D face model.

また、上記顔特徴点検出装置は、基準画像を、作成された変形2D顔モデルに合わせて変形した変形画像を作成する。基準2Dモデルは基準画像に基づくものであるため、当然にその特徴点は基準画像の特徴点に対応している。基準2Dモデルの変形2Dモデルへの変化に合わせて、画像と特徴点との対応を維持するように基準画像を変形させて変形画像を作成する。   The face feature point detection apparatus creates a deformed image obtained by deforming the reference image according to the created deformed 2D face model. Since the reference 2D model is based on the reference image, the feature points naturally correspond to the feature points of the reference image. The reference image is deformed so as to maintain the correspondence between the image and the feature point in accordance with the change of the reference 2D model to the deformed 2D model, and a deformed image is created.

また、上記顔特徴点検出装置は、取得した撮影画像である判定画像と、上述した変形画像と、を、変形画像における特徴点の2次元座標の移動を調整してフィッティングを行う。そして、判定画像と変形画像とが適合するときの変形画像に対応する変形2D顔モデルにおける複数の特徴点の2次元座標を、判定画像における複数の特徴点の2次元座標である確定2D座標として決定する。ここでいう適合とは、判定画像と変形画像とが所定の精度以上で一致した状態を意味している。   The face feature point detection apparatus performs fitting on the acquired determination image, which is a captured image, and the above-described deformed image by adjusting the movement of the two-dimensional coordinates of the feature points in the deformed image. Then, the two-dimensional coordinates of the plurality of feature points in the deformed 2D face model corresponding to the deformed image when the determination image and the deformed image are matched are defined 2D coordinates that are the two-dimensional coordinates of the plurality of feature points in the determination image. decide. The term “adaptation” as used herein means a state in which the determination image and the deformed image match with a predetermined accuracy.

このように、上記顔特徴点検出装置は、ここまでの処理によって、取得した判定画像における顔上の特徴点の2次元座標を検出する。
次に、顔特徴点検出装置は、上述した複数の特徴点に対応する予め定められた3次元座標を移動させた3次元座標からなる変形3D顔モデルを作成する。ここでいう変形3D顔モデルは、特徴点の3次元座標情報のみを有するデータ群であってもよいし、特徴点を並べて可視化した図形の情報をさらに有するものであってもよい。
In this way, the face feature point detection apparatus detects the two-dimensional coordinates of the feature points on the face in the acquired determination image through the processing so far.
Next, the face feature point detection apparatus creates a modified 3D face model composed of three-dimensional coordinates obtained by moving predetermined three-dimensional coordinates corresponding to the plurality of feature points described above. The modified 3D face model here may be a data group having only the three-dimensional coordinate information of the feature points, or may further have graphic information obtained by arranging and visualizing the feature points.

続いて、この変形3D顔モデルの3次元座標を、変換式を用いて2次元座標に変換した変換2D座標を作成する。ここでいう変換式とは、例えば透視投影行列である。
そして、既に決定している確定2D座標と、作成された変換2D座標と、を、変形3D顔モデルへの3次元座標の移動や、上述した変換式を調整してフィッティングを行う。なお、変換式を調整することにより、変形3D顔モデルの顔の向きを変えて2次元座標に変換することができる。
Subsequently, converted 2D coordinates are created by converting the three-dimensional coordinates of the deformed 3D face model into two-dimensional coordinates using a conversion formula. The conversion formula here is, for example, a perspective projection matrix.
Then, the determined 2D coordinates that have already been determined and the created converted 2D coordinates are fitted by moving the three-dimensional coordinates to the deformed 3D face model or adjusting the conversion formula described above. In addition, by adjusting the conversion formula, the face direction of the deformed 3D face model can be changed and converted into two-dimensional coordinates.

そして、確定2D座標と適合する変換2D座標に対応する変形3D顔モデルにおける複数の特徴点の3次元座標を、判定画像における複数の特徴点の3次元座標として決定する。ここでいう適合とは、確定2D座標と変換2D座標とが所定の精度以上で一致した状態を意味している。   Then, the three-dimensional coordinates of the plurality of feature points in the modified 3D face model corresponding to the transformed 2D coordinates that match the confirmed 2D coordinates are determined as the three-dimensional coordinates of the plurality of feature points in the determination image. The term “adaptation” here means a state in which the confirmed 2D coordinate and the converted 2D coordinate coincide with each other with a predetermined accuracy.

つまり、上記顔特徴点検出装置は、ここまでの処理によって、取得した判定画像における顔上の特徴点の3次元座標を検出する。
このように構成された顔特徴点検出装置では、2次元座標と基準画像という2次元のモデルが、所定のタイミングにて撮影対象者から取得した情報を用いて作成されているため、複数の対象者から作成した共通モデルを用いる場合と比較して2次元座標(確定2D座標)の検出精度が高くなる。従って、顔特徴点検出装置全体としての検出精度も高くなるので、撮影対象者の表情の変化を高精度に捉えることができるようになる。
That is, the face feature point detection apparatus detects the three-dimensional coordinates of the feature points on the face in the acquired determination image through the processing so far.
In the face feature point detection apparatus configured in this way, a two-dimensional model of two-dimensional coordinates and a reference image is created using information acquired from a subject at a predetermined timing, so that a plurality of objects The detection accuracy of two-dimensional coordinates (determined 2D coordinates) is higher than when a common model created from a person is used. Accordingly, the detection accuracy of the face feature point detection apparatus as a whole is increased, so that changes in the facial expression of the subject can be captured with high accuracy.

また、予め定められた3次元座標や変換式などの3次元のモデルは、撮影対象者にカスタマイズしたものではないので、3次元のモデルを作成するために撮影対象者の様々な画像を使用してモデルを作成するといった作業が必要なく、撮影対象者は、顔特徴点の検出前に正面の顔を撮影するだけでよい。従って、撮影対象者に負担を掛けず様々な場面で使用できるようになる。   In addition, since three-dimensional models such as predetermined three-dimensional coordinates and conversion formulas are not customized to the person to be photographed, various images of the person to be photographed are used to create a three-dimensional model. Thus, there is no need to create a model, and the person to be photographed only needs to photograph the front face before detecting the facial feature points. Therefore, it can be used in various situations without imposing a burden on the subject.

このように、上述した顔特徴点検出装置では、実用化が容易であり、高い精度で表情を捉えることができる。
ところで、変形3D顔モデルを作成する際の3次元座標の移動に関して、特徴点ごとに移動する方向が定められており、移動量のみを調整して変形3D顔モデルを作成するように構成されている場合、撮影対象者の顔の形状や動作方向に個人差があっても、特徴点の座標は移動量のみを変化量として表すことができるため、移動量の判定や複数の撮影対象者同士の比較を容易に行うことができるようになる。
Thus, the face feature point detection apparatus described above is easy to put into practical use and can capture facial expressions with high accuracy.
By the way, regarding the movement of the three-dimensional coordinates when creating the deformed 3D face model, the moving direction is determined for each feature point, and the deformed 3D face model is created by adjusting only the movement amount. If there are individual differences in the shape and movement direction of the face of the person being photographed, the coordinates of the feature points can only represent the amount of movement as the amount of change. Can be easily compared.

なお、上述した基準画像は、特徴点を決定するための基準となるモデル(基準2D顔モデル)を作成するために撮影された撮影画像であり、上述した判定画像は、実際に特徴点の動きを判定する判定対象となる撮影画像である。よって、基準画像は予め取得しておき、判定画像は特徴点の動きを判定するときに取得することで、リアルタイムで特徴点の動作を判定することができる。   Note that the above-described reference image is a captured image that is captured to create a model (reference 2D face model) that serves as a reference for determining feature points, and the above-described determination image is the actual movement of feature points. It is the picked-up image used as the determination object which determines this. Therefore, by acquiring the reference image in advance and acquiring the determination image when determining the movement of the feature point, the operation of the feature point can be determined in real time.

請求項2に記載の発明は、請求項1に記載の顔特徴点検出装置において、フィッティングのために3次元座標を移動させる際に、予め定められた特徴点の位置関係を定めるルールを満たすように特徴点の3次元座標を移動させることを特徴とする。   According to a second aspect of the present invention, in the facial feature point detection device according to the first aspect, when moving the three-dimensional coordinates for fitting, a rule for determining a predetermined positional relationship between feature points is satisfied. The feature point is that the three-dimensional coordinates of the feature points are moved.

このように構成された顔特徴点検出装置では、特徴点がルールから外れる位置に移動することがないので、変形3D顔モデルが不自然な形状となることがない。よって、不自然な形状の変形3Dモデルを使用する無駄なフィッティングの処理を無くすことができ、また局所解に陥り精度の低い検出結果を出力することを抑制できる。   In the face feature point detection apparatus configured as described above, the feature point does not move to a position outside the rule, so that the deformed 3D face model does not have an unnatural shape. Therefore, it is possible to eliminate useless fitting processing using a deformed 3D model having an unnatural shape, and it is possible to suppress a detection result with low accuracy falling into a local solution.

なお、上記ルールとしては、請求項3から請求項6に記載の顔特徴点検出装置のように、特徴点同士の位置関係を規定することが考えられる。
請求項3に記載の顔特徴点検出装置は、上述したルールとして、目の位置を示す特徴点が眉の位置を示す特徴点よりも下に位置するように定められていることを特徴とする。なお目の位置を示す特徴点とは、目自体を示す特徴点であってもよいし、まぶたや目尻、目頭などを示す特徴点であってもよい。
In addition, as said rule, it is possible to prescribe | regulate the positional relationship between feature points like the face feature point detection apparatus of Claims 3-6.
The face feature point detection apparatus according to claim 3 is characterized in that, as the above-described rule, the feature point indicating the eye position is determined to be located below the feature point indicating the eyebrow position. . The feature point indicating the eye position may be a feature point indicating the eye itself, or may be a feature point indicating the eyelid, the corner of the eye, the top of the eye, or the like.

また、請求項4に記載の顔特徴点検出装置は、上述したルールとして、口の位置を示す特徴点が鼻の位置を示す特徴点よりも下に位置するように定められていることを特徴とする。   The face feature point detection apparatus according to claim 4 is characterized in that, as the above-described rule, the feature point indicating the position of the mouth is positioned below the feature point indicating the position of the nose. And

また、請求項5に記載の顔特徴点検出装置は、上述したルールとして、上まぶたの位置を示す特徴点が、下まぶたの位置を示す特徴点よりも上に位置するように定められていることを特徴とする。   Further, in the face feature point detection apparatus according to claim 5, the rule described above is set such that the feature point indicating the position of the upper eyelid is positioned above the feature point indicating the position of the lower eyelid. It is characterized by that.

また、請求項6に記載の顔特徴点検出装置は、上述したルールとして、左の口角の位置を示す特徴点が、右の口角を示す特徴点よりも左に位置するように定められていることを特徴とする。   Further, in the face feature point detecting device according to claim 6, as the rule described above, the feature point indicating the position of the left mouth corner is determined to be located to the left of the feature point indicating the right mouth corner. It is characterized by that.

また、上述したルール以外にも、例えば眉目間の距離を規定すること、口角間の距離を規定すること、下唇と顎との距離を規定することなどが考えられる。
請求項7に記載の発明は、請求項1から請求項6のいずれか1項に記載の顔特徴点検出装置と、眠気を判定する手段と、を備える眠気検出装置である。
In addition to the rules described above, for example, the distance between the eyebrows, the distance between the mouth corners, the distance between the lower lip and the chin can be considered.
The invention described in claim 7 is a drowsiness detection apparatus comprising the face feature point detection apparatus according to any one of claims 1 to 6 and means for determining drowsiness.

眠気を判定する手段は、撮影対象者が覚醒しているときに撮影された判定画像に基づいて顔特徴点検出装置が決定した複数の特徴点の3次元座標(A)と、眠気を判断すべきタイミングで撮影された判定画像に基づいて顔特徴点検出装置が決定した複数の特徴点の3次元座標(B)と、の比較により眠気の度合を判定する。   The means for determining drowsiness determines three-dimensional coordinates (A) of a plurality of feature points determined by the face feature point detection device based on a determination image shot when the subject is awake, and drowsiness. The degree of drowsiness is determined by comparison with the three-dimensional coordinates (B) of a plurality of feature points determined by the face feature point detection device based on the determination image captured at the power timing.

このように構成された眠気検出装置では、顔特徴点検出装置が検出した特徴点に基づいて眠気を検出するので、高い精度で眠気を検出することができると共に、撮影対象者に負担を掛けず様々な場面で使用できるようになる。   In the drowsiness detection device configured as described above, drowsiness is detected based on the feature points detected by the face feature point detection device, so that drowsiness can be detected with high accuracy and the subject is not burdened. It can be used in various situations.

請求項8に記載の発明は、請求項7に記載の眠気検出装置において、眠気を判定する手段が、3次元座標(A)と3次元座標(B)とを比較して複数の特徴点の移動量を算出し、その移動量を以下に示す複数のデータと比較することで眠気の度合を判定する。   The invention according to claim 8 is the drowsiness detection device according to claim 7, wherein the means for determining drowsiness compares the three-dimensional coordinates (A) with the three-dimensional coordinates (B), and compares a plurality of feature points. The amount of movement is calculated, and the amount of sleepiness is determined by comparing the amount of movement with a plurality of data shown below.

上述したデータとは、撮影対象者が覚醒している状態における複数の特徴点の3次元座標から、その撮影対象者が眠気を有する状態における複数の特徴点の3次元座標までの移動量と、眠気を有する状態におけるその撮影対象者の眠気の度合と、を対応付けたものである。なお、データを取得する対象となる撮影対象者は1人であってもよいが、複数人であることが好ましい。   The data described above is the amount of movement from the three-dimensional coordinates of a plurality of feature points in a state in which the subject is awake to the three-dimensional coordinates of the plurality of feature points in a state in which the subject is photographed. The degree of sleepiness of the subject to be photographed in a state of drowsiness is associated. Note that the number of persons to be photographed, which is a target for acquiring data, may be one, but preferably a plurality of persons.

このように構成された眠気検出装置あれば、データに記憶された移動量と検出された移動量とを比較することで眠気の度合を判定するので、覚醒状態における特徴点の位置の個人差を考慮する必要がなくなるため、高い精度で眠気の度合を判定することができる。   With the drowsiness detection device configured as described above, since the degree of drowsiness is determined by comparing the movement amount stored in the data with the detected movement amount, the individual difference in the position of the feature point in the awake state is determined. Since there is no need to consider, the degree of sleepiness can be determined with high accuracy.

請求項9に記載の発明は、請求項7または請求項8に記載の眠気検出装置において、さらに、撮影対象者の心拍数を測定する手段を備えている。そして、撮影対象者が覚醒しているときとは、心拍数測定手段により測定された心拍数の平均値が所定の範囲内にある状態のときであり、そのときに撮影した判定画像に基づいて特徴点の3次元座標を検出し、その座標を覚醒時の特徴点とする。   The invention described in claim 9 is the drowsiness detection device according to claim 7 or 8, further comprising means for measuring the heart rate of the subject. And when the subject is awake, the average value of the heart rate measured by the heart rate measuring means is in a predetermined range, and based on the determination image taken at that time The three-dimensional coordinates of the feature points are detected, and the coordinates are used as the feature points at awakening.

このように構成された眠気検出装置では、心拍数に基づいて覚醒状態を判断できる。よって、覚醒状態でないときに撮影された判定画像を覚醒しているときの判定画像として処理してしまうことがなくなるので、高い精度で眠気を検出することができる。   The drowsiness detection device configured as described above can determine the arousal state based on the heart rate. Therefore, the determination image captured when not in the awake state is not processed as the determination image at the time of awakening, so that drowsiness can be detected with high accuracy.

居眠り防止システムを示す側面図Side view of the dozing prevention system 眠気検出装置の構成を示すブロック図Block diagram showing the configuration of the drowsiness detection device 居眠り防止処理の処理手順を示すフローチャートThe flowchart which shows the processing procedure of the dozing prevention processing 顔上の特徴点をしめす図Figure showing feature points on the face 個人適合処理の処理手順を示すフローチャートFlow chart showing processing procedure of personal adaptation processing 個人表情モデルを示す図Figure showing an individual expression model 基準値取得処理の処理手順を示すフローチャートA flowchart showing the procedure of the reference value acquisition process 眠気推定処理の処理手順を示すフローチャートFlow chart showing processing procedure of sleepiness estimation processing 眠気推定アルゴリズムの説明図Illustration of sleepiness estimation algorithm 表情特徴量検出処理の処理手順を示すフローチャートFlow chart showing processing procedure of facial expression feature amount detection processing 3D表情修正処理の処理手順を示すフローチャートThe flowchart which shows the process sequence of 3D facial expression correction processing まぶた間距離が0以下である状態を示す図The figure which shows the state whose distance between eyelids is 0 or less 上下まぶた間距離が目尻と目頭との距離よりも大きい状態を示す図The figure which shows the state where the distance between upper and lower eyelids is larger than the distance between the corner of the eye 眉頭と上まぶたとの距離が、こめかみ間の距離の2分の1よりも大きい状態を示す図The figure which shows the state in which the distance of an eyebrow head and an upper eyelid is larger than 1/2 of the distance between temples 眉の特徴点が上まぶたよりも下に位置している状態を示す図The figure which shows the state in which the feature point of an eyebrow is located below the upper eyelid 上唇が下唇よりも下に位置している状態を示す図The figure which shows the state where the upper lip is located below the lower lip 顎位置と下唇との距離が、目頭と目尻との距離の2分の1よりも小さい状態を示す図The figure which shows the state where the distance of a chin position and a lower lip is smaller than 1/2 of the distance of an eye head and an eye corner 鼻と上唇との距離が0以下である状態を示す図The figure which shows the state where the distance of a nose and an upper lip is 0 or less 口角間の距離が0以下である状態を示す図The figure which shows the state whose distance between mouth corners is 0 or less 実際に眉が動いた状態を示す図The figure which shows the state where the eyebrows actually moved 本実施例の共通の3次元モデルを用いた場合に眉が動いた状態を示す図The figure which shows the state which the eyebrows moved when the common three-dimensional model of a present Example was used 本実施例の共通の3次元モデルを用いた場合に眉が動いた状態を示す図The figure which shows the state which the eyebrows moved when the common three-dimensional model of a present Example was used

以下に本発明の実施形態を図面と共に説明する。ただし、以下に説明する実施形態は、あくまでも例示にすぎず、本発明が、下記の事例以外にも様々な形態で実施できるのはもちろんである。
[実施例]
(1)全体構成
本実施例の居眠り防止システム1を図1に示す。居眠り防止システム1は、車両2に搭載されて、運転者3(撮影対象者)の眠気を検出して居眠りを防止するシステムであり、撮影装置10と、眠気検出装置20と、居眠り運転による事故防止のための動作を行う警報装置30,首元空調装置40,シートベルト振動装置50,およびブレーキ制御装置60から構成される。
Embodiments of the present invention will be described below with reference to the drawings. However, the embodiment described below is merely an example, and it goes without saying that the present invention can be implemented in various forms other than the following examples.
[Example]
(1) Overall Configuration FIG. 1 shows a dozing prevention system 1 according to this embodiment. The dozing prevention system 1 is a system that is mounted on a vehicle 2 and detects drowsiness of a driver 3 (person to be photographed) to prevent dozing, and includes an imaging device 10, a drowsiness detection device 20, and an accident caused by dozing operation. It comprises an alarm device 30 that performs an operation for prevention, a neck air conditioner 40, a seat belt vibration device 50, and a brake control device 60.

これらのうち、撮影装置10は、車両2の運転者3の顔を連続的に撮影するものであって、車両2のダッシュボード4にて運転者3に向けて配置されており、運転者3の正面の顔を示す画像を所定の時間間隔(例えば、1/30s)で撮影するように構成されている。   Among these, the photographing device 10 continuously photographs the face of the driver 3 of the vehicle 2, and is arranged toward the driver 3 on the dashboard 4 of the vehicle 2. An image showing the front face of the camera is taken at a predetermined time interval (for example, 1/30 s).

眠気検出装置20は、撮影装置10により撮影された画像に基づいて運転者3の顔における複数の特徴点(顔における位置を特定できる測定点であり、以降、特徴点とはこの測定点のことを意味する。)を検出すると共に、レベル0〜5の6段階で、眠気のレベルを判定する。眠気検出装置20の構成を図2に示す。眠気検出装置20は、制御部21と、画像キャプチャボード22と、ハードディスクドライブ23と、車内LAN通信部24と、からなる。   The drowsiness detection device 20 is a plurality of feature points on the face of the driver 3 based on the image photographed by the photographing device 10 (measurement points that can specify the position on the face, and hereinafter the feature points are these measurement points. And drowsiness level is determined in 6 levels of levels 0-5. The configuration of the drowsiness detection device 20 is shown in FIG. The drowsiness detection device 20 includes a control unit 21, an image capture board 22, a hard disk drive 23, and an in-vehicle LAN communication unit 24.

制御部21は、図示しないCPU,ROM,RAM,EEPROMなどからなる周知のマイクロコンピュータであって、ROMに記憶されているプログラムに基づいて各種処理を実行する。   The control unit 21 is a well-known microcomputer including a CPU, ROM, RAM, EEPROM, etc. (not shown), and executes various processes based on programs stored in the ROM.

画像キャプチャボード22は、撮影装置10にて撮影された運転者3の顔の画像データ(以降、単に撮影画像ともいう)を撮影装置10から取得して一時的に記憶し、制御部21からの指令に応じて制御部21に最新の画像を提供する。   The image capture board 22 acquires the image data of the face of the driver 3 photographed by the photographing device 10 (hereinafter, also simply referred to as a photographed image) from the photographing device 10 and temporarily stores it. The latest image is provided to the control unit 21 in accordance with the command.

HDD23は、後述する個人情報モデル、眠気レベル推定に用いる学習データなどのデータを記憶するための記憶領域を有している。
車内LAN通信部24は、制御部21からの出力に基づいて、警報装置30,首元空調装置40,シートベルト振動装置50,および,ブレーキ制御装置60に対し、居眠りを防止するための動作を制御する信号を出力する。
The HDD 23 has a storage area for storing data such as a personal information model described later and learning data used for sleepiness level estimation.
Based on the output from the control unit 21, the in-vehicle LAN communication unit 24 performs an operation for preventing a doze on the alarm device 30, the neck air conditioner 40, the seat belt vibration device 50, and the brake control device 60. Outputs a control signal.

警報装置30は、図示しないディスプレイおよびスピーカを備えている。この警報装置30は、制御部21により判定された眠気の度合に応じて、運転者3に居眠り運転の注意を促す表示(例えば、眠気レベル1,2と判定された場合は「早めに休憩を取りましょう」、眠気レベル3と判定された場合は「注意してください」、眠気レベル4,5と判定された場合は「運転を中止してください」など)をディスプレイに出力すると共に、上述した表示内容をスピーカにて音声で出力する。   The alarm device 30 includes a display and a speaker (not shown). This alarm device 30 displays a message that prompts the driver 3 to take a nap of driving according to the degree of drowsiness determined by the control unit 21 (for example, when it is determined that the drowsiness level is 1 or 2, “break early”. ”Let's take it”, “Caution” when sleepiness level 3 is determined, “Stop driving” when sleepiness levels 4 and 5 are determined, and the like. The displayed content is output by voice through a speaker.

また、首元空調装置40は、運転者3のシートにおけるヘッドレストに配置されており、制御部21により眠気レベル1〜5のいずれかであると判定されたときに、運転者3の首元に送風する。   Moreover, the neck air conditioner 40 is arrange | positioned at the headrest in the driver | operator's 3 sheet | seat, and when it determines with the drowsiness level 1-5 by the control part 21, at the driver | operator's 3 neck. Blow.

また、シートベルト振動装置50は、シートベルトの引き込み機構に備えられており、制御部21により眠気レベル3〜5であると判定されたときに、シートベルトを振動させる。   The seat belt vibration device 50 is provided in the seat belt retracting mechanism, and vibrates the seat belt when the control unit 21 determines that the drowsiness level is 3 to 5.

また、ブレーキ制御装置60は、ブレーキを自動的に作動させる装置である。これは、制御部21により眠気レベル5であると判定されたときに、ブレーキを作動させ、車両の走行を強制的に停止させたり、順次減速させたりする。
(2)眠気検出装置20による処理
以下に、眠気検出装置20が備える制御部21により実行される各種処理について説明する。
(2.1)居眠り防止処理
居眠り防止処理の処理手順を、図3に示すフローチャートに基づいて説明する。本処理は、車両2が起動して居眠り防止システム1が起動している間、継続して実行される。
The brake control device 60 is a device that automatically operates the brake. When the control unit 21 determines that the drowsiness level is 5, the brake is operated to forcibly stop the vehicle running or sequentially decelerate the vehicle.
(2) Processing by Drowsiness Detection Device 20 Hereinafter, various processing executed by the control unit 21 included in the drowsiness detection device 20 will be described.
(2.1) Dozing Prevention Process The processing procedure of the dozing prevention process will be described based on the flowchart shown in FIG. This process is continuously executed while the vehicle 2 is activated and the dozing prevention system 1 is activated.

本処理では、まず、個人適合処理を行う(ステップ1、以降、ステップを単にSと記載する)。ここでは、運転者3の顔上の特徴点を取得するときに用いる個人情報モデルの一部を運転者3の撮影画像に基づいて作成する。この個人適合処理および個人情報モデルの詳細は後述する。   In this processing, first, personal adaptation processing is performed (step 1; hereinafter, steps are simply referred to as S). Here, a part of the personal information model used when acquiring the feature points on the face of the driver 3 is created based on the photographed image of the driver 3. Details of the personal adaptation process and the personal information model will be described later.

次に、基準値取得処理を行う(S2)。ここでは、S1で作成した個人情報モデルを利用して、運転者3が眠気を有していない状態(即ち覚醒状態)における特徴点を取得する。顔上の特徴点を図4に示す。特徴点とは、顔において予め定められた特徴点の座標情報であって、本実施例では、上まぶた101L,101R、下まぶた102L,102R、目頭103L,103R、目尻104L,104R、眉頭105L,105R、眉上端106L,106R、眉尻107L,107R、鼻108L,108R、上唇109、下唇110、口角111L,111R、輪郭112〜116の各点が定められている。なお、特徴点は上述したものに限定されることなく、眠気に伴う表情の変化が現れる点であれば様々な点に設定することができる。   Next, a reference value acquisition process is performed (S2). Here, using the personal information model created in S1, feature points in a state where the driver 3 is not drowsy (that is, an awake state) are acquired. The feature points on the face are shown in FIG. The feature point is coordinate information of a predetermined feature point on the face, and in this embodiment, the upper eyelids 101L and 101R, the lower eyelids 102L and 102R, the eyes 103L and 103R, the corners 104L and 104R, the eyebrows 105L, 105R, upper eyebrows 106L and 106R, buttocks 107L and 107R, noses 108L and 108R, upper lip 109, lower lip 110, corners 111L and 111R, and contours 112 to 116 are defined. Note that the feature points are not limited to those described above, and can be set to various points as long as changes in facial expressions accompanying sleepiness appear.

なお、特徴点の取得/検出とは、特徴点に対応する座標を取得/検出することをいう。この基準値取得処理の詳細は後述する。
次に、眠気推定処理を行う(S3)。ここでは、S2にて取得した覚醒状態における特徴点と、S3を実行する時点で取得した特徴点と、を比較してその移動量を算出し、予め有している学習データとの比較によって眠気のレベルをレベル0〜レベル5の6段階で算出する。さらに、特徴点の測定精度を示す値である信頼度Aと、眠気レベルの判定精度を示す値である信頼度Bと、も合わせて算出する。この眠気推定処理と学習データの詳細は後述する。
Note that acquisition / detection of feature points refers to acquisition / detection of coordinates corresponding to feature points. Details of this reference value acquisition process will be described later.
Next, sleepiness estimation processing is performed (S3). Here, the amount of movement is calculated by comparing the feature point in the awake state acquired in S2 and the feature point acquired at the time of executing S3, and the amount of movement is compared with the learning data that is stored in advance. Are calculated in 6 levels from level 0 to level 5. Further, a reliability A that is a value indicating the measurement accuracy of the feature point and a reliability B that is a value indicating the determination accuracy of the drowsiness level are also calculated. Details of this sleepiness estimation process and learning data will be described later.

次に、S3にて判定された眠気レベルおよび信頼度A,Bに基づいて、警報装置30,首元空調装置40,シートベルト振動装置50,およびブレーキ制御装置60に動作を行わせる信号を出力する(S4)。   Next, based on the drowsiness level and the reliability levels A and B determined in S3, a signal for causing the alarm device 30, the neck air conditioner 40, the seat belt vibration device 50, and the brake control device 60 to perform an operation is output. (S4).

ここでは、眠気レベル0と判定された場合には上述したいずれの装置にも動作を行わせない。眠気レベル1,2と判定された場合には、警報装置30および首元空調装置40に動作を行わせる。眠気レベル3と判定された場合には、警報装置30,首元空調装置40,および,シートベルト振動装置50に動作を行わせる。眠気レベル4,5と判定された場合には、それら全ての装置に動作を行わせるが、信頼度A,Bの何れも所定のしきい値を下回る場合には、ブレーキ制御装置60の動作は行わない。   Here, when it is determined that the sleepiness level is 0, no operation is performed on any of the above-described apparatuses. When it is determined that the sleepiness level is 1 or 2, the alarm device 30 and the neck air conditioner 40 are operated. When the sleepiness level 3 is determined, the alarm device 30, the neck air conditioner 40, and the seat belt vibration device 50 are operated. When it is determined that the drowsiness level is 4 or 5, all the devices are operated. However, when both the reliability levels A and B are lower than the predetermined threshold value, the operation of the brake control device 60 is performed. Not performed.

このS4の後、処理がS3に戻り、再度眠気の推定を行う。
(2.2)個人適合処理
個人適合処理の処理手順を、図5に示すフローチャートに基づいて説明する。本処理は、居眠り防止処理(図3)のS1にて実行される。
After S4, the process returns to S3, and sleepiness is estimated again.
(2.2) Personal Adaptation Processing The personal adaptation processing procedure will be described based on the flowchart shown in FIG. This process is executed in S1 of the dozing prevention process (FIG. 3).

本処理では、まず、撮影装置10により撮影された運転者3の撮影画像を、画像キャプチャボード22から取得する(S10)。
次に、S10にて取得した撮影画像から、正面顔である領域(図6(b)に相当する部分)を検出する(S12)。本実施例では、haar−like特徴を用いて検出を行っているが、顔画像テンプレートを用いる方法などでも良い。
In this process, first, a photographed image of the driver 3 photographed by the photographing device 10 is acquired from the image capture board 22 (S10).
Next, a region that is a front face (portion corresponding to FIG. 6B) is detected from the captured image acquired in S10 (S12). In this embodiment, the detection is performed using the haar-like feature, but a method using a face image template may be used.

次に、S12にて検出された正面顔から特徴点を検出する(S14)。ここでは、共通2D表情モデル(AAM:Active Appearance Model)を用いたフィッティングにより各特徴点を検出し、その2次元座標を取得する。なお、AAMによるフィッティングに変えて、エッジ特徴点やGabor特徴量を用いて特徴点を検出してもよい。   Next, feature points are detected from the front face detected in S12 (S14). Here, each feature point is detected by fitting using a common 2D facial expression model (AAM: Active Appearance Model), and its two-dimensional coordinates are acquired. Note that the feature points may be detected using edge feature points or Gabor feature values instead of the fitting by AAM.

次に、S14にて検出した特徴点が異常値を示すか否かを判断する(S16)。ここでは、所定の特徴点間の距離が所定のしきい値を超える異常な値を示しているか否かを判断し、いずれかが異常値であれば(S16:YES)、S10にて取得した画像データが正面顔ではないと判断して、S10に戻り再度画像データを取得する。ここで言う所定の特徴点間の距離とは、例えば、目の開度(上まぶたと下まぶたとの間の距離)や、口の開度(上下の唇の間の距離)などが該当する。一方、いずれも異常値でなければ(S16:NO)、処理がS18に移行する。   Next, it is determined whether or not the feature point detected in S14 shows an abnormal value (S16). Here, it is determined whether or not the distance between the predetermined feature points indicates an abnormal value exceeding a predetermined threshold value, and if either is an abnormal value (S16: YES), it is acquired in S10. It is determined that the image data is not a front face, and the process returns to S10 to acquire the image data again. The distance between the predetermined feature points mentioned here corresponds to, for example, the opening degree of the eye (distance between the upper eyelid and the lower eyelid), the opening degree of the mouth (distance between the upper and lower lips), and the like. . On the other hand, if none of them is an abnormal value (S16: NO), the process proceeds to S18.

次に、個人表情モデルを作成する(S18)。個人表情モデルは、図6(a)に示す2D基準顔,同図(b)に示す2Dテンプレート,同図(c)に示す2D表情ベクトル,同図(d)に示す3D基準顔,同図(e)に示す3D表情ベクトル,図示しない2D変換行列からなる。   Next, a personal expression model is created (S18). The personal expression model includes a 2D reference face shown in FIG. 6A, a 2D template shown in FIG. 6B, a 2D expression vector shown in FIG. 6C, a 3D reference face shown in FIG. It consists of a 3D expression vector shown in (e) and a 2D transformation matrix (not shown).

上記2D基準顔とは、2次元座標を有する複数の特徴点からなる顔形状モデルである。
また、2Dテンプレートとは、2D基準顔の領域に対応する顔画像である。
また、2D表情ベクトルとは、2D基準顔の特徴点の位置を変化させる2次元ベクトルであって、特徴点ごとに設定される。
The 2D reference face is a face shape model composed of a plurality of feature points having two-dimensional coordinates.
The 2D template is a face image corresponding to a 2D reference face area.
The 2D expression vector is a two-dimensional vector that changes the position of the feature point of the 2D reference face, and is set for each feature point.

また、3D基準顔とは、3次元座標を有する複数の特徴点からなる顔形状モデルである。
また、3D表情ベクトルとは、3D基準顔の特徴点の位置を変化させる3次元ベクトルであって、特徴点ごとに設定される。
The 3D reference face is a face shape model including a plurality of feature points having three-dimensional coordinates.
The 3D expression vector is a three-dimensional vector that changes the position of the feature point of the 3D reference face, and is set for each feature point.

また、2D変換行列は、3D基準顔の各特徴点を、2次元座標に変換する際に用いる透視投影行列であって、本発明における変換式に相当する。
なお、上述した2D基準顔は、2Dテンプレートと組み合わせた状態(図6(f)参照)でその表情を変化させて(特徴点の座標を調整して)フィッティングを行うものであるため、2D表情ベクトルの方向は表情の変化(表情筋の動き)に沿うように予め定められている。3D表情ベクトルの方向も同様に、表情の変化に沿うように定められている。
The 2D conversion matrix is a perspective projection matrix used when converting each feature point of the 3D reference face into two-dimensional coordinates, and corresponds to the conversion formula in the present invention.
Note that the 2D reference face described above is a 2D facial expression because fitting is performed by changing the facial expression (adjusting the coordinates of feature points) in a state combined with the 2D template (see FIG. 6F). The direction of the vector is determined in advance so as to follow the change in facial expression (movement of facial muscles). Similarly, the direction of the 3D facial expression vector is determined along the change in facial expression.

このS18では、S14にて検出した特徴点に基づいて2D基準顔を作成すると共に、S12にて検出した正面顔を2Dテンプレートとして設定する。なお、ここで作成される2D基準顔が本発明における基準2D顔モデルに相当し、ここで設定される2Dテンプレートが本発明における基準画像に相当する。   In S18, a 2D reference face is created based on the feature points detected in S14, and the front face detected in S12 is set as a 2D template. The 2D reference face created here corresponds to the reference 2D face model in the present invention, and the 2D template set here corresponds to the reference image in the present invention.

なお、2D表情ベクトルは、作成した2D基準顔に合わせてカスタマイズされる。2D基準顔と2D表情ベクトルは、互いに相関関係を有する汎用モデルを有しており、汎用モデルにおける2D基準顔から新たに作成された2D基準顔への変化に応じて、汎用モデルの2D表情ベクトルを変化させ、新たな2D表情ベクトルを設定する。   The 2D expression vector is customized according to the created 2D reference face. The 2D reference face and the 2D expression vector have a general-purpose model having a correlation with each other, and the 2D expression vector of the general-purpose model is changed according to the change from the 2D reference face to the newly created 2D reference face in the general-purpose model. And a new 2D expression vector is set.

なお、上記3D基準顔,3D表情ベクトル,2D変換行列は、予め汎用のデータを有している。このS18の後、本処理を終了する。
(2.3)基準値取得処理
基準値取得処理の処理手順を、図7に示すフローチャートに基づいて説明する。本処理は、居眠り防止処理(図3)のS2にて実行される。
The 3D reference face, 3D expression vector, and 2D conversion matrix have general-purpose data in advance. After this S18, this process ends.
(2.3) Reference Value Acquisition Processing A procedure for the reference value acquisition processing will be described based on the flowchart shown in FIG. This process is executed in S2 of the dozing prevention process (FIG. 3).

本処理では、まず、経過時間のカウントを開始する(S30)。
次に、表情特徴量検出処理を行う(S32)。ここでは運転者3の顔を撮影し、その顔の撮影画像に基づいて運転者3の顔における複数の特徴点の3次元座標(複数の特徴点の3次元座標を、以降、3次元特徴点集合という)を取得して記憶する。この表情特徴量検出処理の詳細は後述する。
In this process, first, counting of elapsed time is started (S30).
Next, facial expression feature amount detection processing is performed (S32). Here, the face of the driver 3 is photographed, and based on the photographed image of the face, three-dimensional coordinates of a plurality of feature points on the face of the driver 3 (three-dimensional coordinates of the plurality of feature points are referred to as three-dimensional feature points hereinafter). Is acquired and stored. Details of the facial expression feature amount detection processing will be described later.

次に、S30にて経過時間のカウントを開始してから5分間が経過したか否かを判断する(S34)。5分経過していなければ(S34:NO)、処理がS32に戻り、新たに3次元特徴点集合を取得する。5分経過していれば、S36に移行する。   Next, it is determined whether or not 5 minutes have elapsed since the elapsed time started in S30 (S34). If five minutes have not elapsed (S34: NO), the process returns to S32 to newly acquire a three-dimensional feature point set. If 5 minutes have elapsed, the process proceeds to S36.

次に、S32にて取得した複数の3次元特徴点集合の中から、測定の精度が高い3次元特徴点集合のみを選別する(S36)。測定の精度は、S32の表情特徴量検出処理において撮影画像と個人表情モデルとのフィッティングを行ったときの一致度合を示す値として、3次元特徴点集合の算出と同時に算出されている。ここでは、その値が所定のしきい値以上である3次元特徴点集合を選別する。   Next, only the three-dimensional feature point set with high measurement accuracy is selected from the plurality of three-dimensional feature point sets acquired in S32 (S36). The accuracy of the measurement is calculated simultaneously with the calculation of the three-dimensional feature point set as a value indicating the degree of coincidence when the captured image and the personal expression model are fitted in the expression feature amount detection process of S32. Here, a three-dimensional feature point set whose value is equal to or greater than a predetermined threshold is selected.

次に、S36にて選別された3次元特徴点集合を用いて、特徴点ごとの平均値を算出して特徴点ごとの平均の3次元座標(以降、単に基準値ともいう)を決定する。そして、その算出した基準値を記憶し、その後本処理を終了する。   Next, using the three-dimensional feature point set selected in S36, an average value for each feature point is calculated to determine an average three-dimensional coordinate for each feature point (hereinafter also simply referred to as a reference value). Then, the calculated reference value is stored, and then this process is terminated.

なお、S30〜S34の処理は、一定の時間を掛けて複数の3次元特徴点集合を取得することにより、覚醒状態における各特徴点の平均的な3次元座標を取得することを目的としている。従って、多数の3次元特徴点集合を取得することができれば5分以外の時間設定であってもよいし、時間経過ではなく3次元特徴点集合を取得した回数をカウントして、所定回数を超えた場合にS36に移行するように構成してもよい。
(2.4)眠気推定処理
眠気推定処理の処理手順を、図8に示すフローチャートに基づいて説明する。本処理は、居眠り防止処理(図3)のS3にて実行される。
In addition, the process of S30-S34 aims at acquiring the average three-dimensional coordinate of each feature point in an arousal state by acquiring a some 3D feature point set over a fixed time. Therefore, as long as a large number of 3D feature point sets can be acquired, the time may be set to a time other than 5 minutes. In such a case, the process may proceed to S36.
(2.4) Drowsiness Estimation Processing The procedure of sleepiness estimation processing will be described based on the flowchart shown in FIG. This process is executed in S3 of the dozing prevention process (FIG. 3).

本処理では、まず、経過時間のカウントを開始する(S40)。
次に、表情特徴量検出処理を行う(S42)。ここでは運転者3の顔を撮影し、その顔の撮影画像に基づいて3次元特徴点集合を取得して記憶する。この表情特徴量検出処理の詳細は後述する。
In this process, first, counting of elapsed time is started (S40).
Next, facial expression feature amount detection processing is performed (S42). Here, the face of the driver 3 is photographed, and a three-dimensional feature point set is acquired and stored based on the photographed image of the face. Details of the facial expression feature amount detection processing will be described later.

次に、S40にて経過時間のカウントを開始してから5秒間が経過したか否かを判断する(S44)。5秒経過していなければ(S44:NO)、処理がS42に戻り、新たに3次元特徴点集合を取得する。5秒経過していれば(S44:YES)、S46に移行する。   Next, it is determined whether or not 5 seconds have elapsed since the start of counting the elapsed time in S40 (S44). If 5 seconds have not elapsed (S44: NO), the process returns to S42, and a new three-dimensional feature point set is acquired. If 5 seconds have elapsed (S44: YES), the process proceeds to S46.

次に、S42にて取得した複数の3次元特徴点集合の中から、測定の精度が高い3次元特徴点集合みを選別すると共に、精度が高い3次元特徴点集合の割合を算出する(S46)。測定の精度は、上述したS36における測定の精度と同様に、3次元特徴点集合の算出と同時に値として算出される。ここでは、その値が所定のしきい値以上である3次元特徴点集合を選別し、所定のしきい値以上である3次元特徴点集合の割合を信頼度Aとして記憶する。   Next, a three-dimensional feature point set with high measurement accuracy is selected from the plurality of three-dimensional feature point sets acquired in S42, and a ratio of the three-dimensional feature point set with high accuracy is calculated (S46). ). The measurement accuracy is calculated as a value simultaneously with the calculation of the three-dimensional feature point set, similar to the measurement accuracy in S36 described above. Here, a three-dimensional feature point set whose value is equal to or greater than a predetermined threshold is selected, and the ratio of the three-dimensional feature point set equal to or greater than the predetermined threshold is stored as the reliability A.

次に、S46にて選別された3次元特徴点集合を用いて、特徴点ごとの平均値を算出して特徴点ごとの3次元座標の平均値を算出する(S48)。
次に、規格値の算出を行う(S50)。具体的には、S48にて算出した3次元座標の平均値と、基準値取得処理のS38にて取得した基準値とを比較し、各特徴点ごとの移動量を算出する。その移動量を規格値として記憶する。
Next, the average value for each feature point is calculated using the three-dimensional feature point set selected in S46, and the average value of the three-dimensional coordinates for each feature point is calculated (S48).
Next, a standard value is calculated (S50). Specifically, the average value of the three-dimensional coordinates calculated in S48 is compared with the reference value acquired in S38 of the reference value acquisition process, and the movement amount for each feature point is calculated. The movement amount is stored as a standard value.

次に、眠気推定を行う(S52)。ここでは、S50にて算出した規格値を用いて、眠気推定アルゴリズムにより眠気のレベルを算出する。眠気推定アルゴリズムについて、図9を用いて説明する。   Next, sleepiness estimation is performed (S52). Here, the drowsiness level is calculated by the drowsiness estimation algorithm using the standard value calculated in S50. The sleepiness estimation algorithm will be described with reference to FIG.

まず、図中に示す運転者データ201について説明する。運転者データ201に示される値(x1,y1,z1,x2,y2,z2,・・・)は、上記S50にて算出した特徴点の規格値を並べたものである。x、y、zに付された数値(1,2・・・)は特徴点を識別するための数値であり、(x1,y1,z1)、(x2,y2,z2)・・・(xi,yi,zi)が、それぞれの特徴点における規格値を示している。   First, the driver data 201 shown in the figure will be described. The values (x1, y1, z1, x2, y2, z2,...) Shown in the driver data 201 are obtained by arranging the standard values of the feature points calculated in S50. Numerical values (1, 2,...) attached to x, y, z are numerical values for identifying feature points, and (x1, y1, z1), (x2, y2, z2),. , Yi, zi) indicate standard values at the respective feature points.

眠気推定を行うには、まず、運転者データ201と、HDD23に予め記憶された学習データ202と、を比較する。
この学習データ202は、眠気レベル203とその眠気レベル203と対になる規格値204とのセット205を複数集めてなるものである。各セット205における規格値204は、学習データ202のサンプルとなる人物に対して、居眠り防止処理のS1(個人適合処理),S2(基準値取得処理),および眠気推定処理のS30〜S50までの処理を行って算出したものである。即ち、上記運転者データ201と同様の手法で算出されている。
In order to perform sleepiness estimation, first, the driver data 201 is compared with the learning data 202 stored in advance in the HDD 23.
The learning data 202 is a collection of a plurality of sets 205 of drowsiness levels 203 and standard values 204 that are paired with the drowsiness levels 203. The standard value 204 in each set 205 corresponds to S1 (personal adaptation processing), S2 (reference value acquisition processing) of dozing prevention processing, and S30 to S50 of sleepiness estimation processing for a person who is a sample of the learning data 202. It is calculated by performing processing. That is, it is calculated by the same method as the driver data 201.

眠気レベル203は、その眠気推定処理におけるS30〜S50を実行するときの上記人物の眠気の度合を観察者が官能評価した値である。学習データ202は、複数の人物に関する複数のセット205を有している。   The sleepiness level 203 is a value obtained by sensory evaluation of the degree of sleepiness of the person when executing S30 to S50 in the sleepiness estimation process. The learning data 202 has a plurality of sets 205 regarding a plurality of persons.

運転者データ201と、学習データ202におけるすべてのセット205の規格値204と、を比較した後、運転者データ201と類似性の高い上位K個のセット205を抽出する。そして、抽出したセット205の中で、最多の眠気レベルを運転者3の眠気レベルであると推定する。図9の場合には、類似性の高い上位K個のセットにおいて、眠気レベル0のセットが最多であったので、眠気レベルを「0」と推定している。なお、運転者データ201と学習データ202とを比較して眠気レベルを推定する処理には、例えばK−NN法などを用いることが考えられる。   After comparing the driver data 201 with the standard values 204 of all the sets 205 in the learning data 202, the top K sets 205 having high similarity to the driver data 201 are extracted. Then, the most sleepy level in the extracted set 205 is estimated to be the sleepiness level of the driver 3. In the case of FIG. 9, the sleepiness level 0 is estimated to be “0” because the set of sleepiness level 0 is the most in the top K sets having high similarity. For example, the K-NN method may be used for the process of estimating the drowsiness level by comparing the driver data 201 and the learning data 202.

なお、この眠気推定の一致精度、即ち抽出したセット全数(K個)のうち最多であった眠気レベルを有するセットの個数の割合を、信頼度Bとして記憶する。その後、本処理を終了する。   The matching accuracy of the sleepiness estimation, that is, the ratio of the number of sets having the sleepiness level that is the largest among the total number (K) of the extracted sets is stored as the reliability B. Thereafter, this process is terminated.

なお、本処理のS40〜S44の処理は、上述した基準値取得処理のS30〜S34の5分間と比較して短い5秒間をカウントしている。ここでは、各特徴点の平均的な3次元座標を取得するために複数の3次元特徴点集合を取得できる時間をとるものの、運転者3に眠気が発現すれば即座にその眠気を検出する必要があるため、短い時間間隔で眠気推定を行うために5分よりも短い時間としている。また、S34の場合と同様に、5秒以外の時間設定であってもよいし、3次元特徴点集合を取得した回数をカウントして、所定回数を超えた場合にS46に移行するように構成してもよい。
(2.5)表情特徴量検出処理
表情特徴量検出処理の処理手順を、図10に示すフローチャートに基づいて説明する。本処理は、基準値取得処理(図7)のS32、および眠気推定処理(図8)のS42にて実行される。
In addition, the process of S40-S44 of this process is counting 5 seconds short compared with 5 minutes of S30-S34 of the reference value acquisition process mentioned above. Here, although it takes time to acquire a plurality of three-dimensional feature point sets in order to acquire the average three-dimensional coordinates of each feature point, it is necessary to immediately detect sleepiness when the driver 3 develops sleepiness. Therefore, in order to estimate sleepiness at short time intervals, the time is shorter than 5 minutes. Similarly to the case of S34, a time setting other than 5 seconds may be set, or the number of times the three-dimensional feature point set is acquired is counted, and the process proceeds to S46 when the predetermined number of times is exceeded. May be.
(2.5) Facial Expression Feature Quantity Detection Processing A processing procedure of facial expression feature quantity detection processing will be described based on the flowchart shown in FIG. This process is executed in S32 of the reference value acquisition process (FIG. 7) and S42 of the sleepiness estimation process (FIG. 8).

本処理では、まず、撮影装置10により撮影された撮影画像をキャプチャボードから取得する(S60)。なお、ここで取得する撮影画像が、本発明における判定画像に相当する。   In this process, first, a photographed image photographed by the photographing apparatus 10 is acquired from the capture board (S60). The captured image acquired here corresponds to the determination image in the present invention.

次に、個人適合処理(図5)のS18にて作成した2D基準顔を、各特徴点を2D表情ベクトルを用いて移動させて変形し、その変形後の各特徴点からなる顔形状モデルである2D表情Aを作成する(S62)。なお、この2D表情Aが、本発明における変形2D顔モデルに相当する。   Next, the 2D reference face created in S18 of the personal adaptation process (FIG. 5) is transformed by moving each feature point using the 2D facial expression vector, and a face shape model composed of each feature point after the transformation. A 2D facial expression A is created (S62). The 2D facial expression A corresponds to the modified 2D face model in the present invention.

次に、S62にて作成した2D表情Aに合うように、個人適合処理のS18にて作成した2Dテンプレートを変形する(S64)。2D基準顔と2Dテンプレートを組み合わせると、図6(f)に示すようになり、2D基準顔が2D表情Aに変形するときの特徴点の移動に合わせて、2Dテンプレートを変形する。この変形した2Dテンプレートが、本発明における変形画像に相当する。   Next, the 2D template created in S18 of the personal adaptation process is modified so as to match the 2D facial expression A created in S62 (S64). When the 2D reference face and the 2D template are combined, as shown in FIG. 6F, the 2D template is deformed in accordance with the movement of the feature point when the 2D reference face is transformed into the 2D expression A. This deformed 2D template corresponds to a deformed image in the present invention.

次に、S60にて取得した撮影画像における2D基準顔に対応する部分(顔部分)の画像と、S64にて変形させた2Dテンプレートとをフィッティングし(S66)、誤差を数値化する。この数値化には、輝度差分を用いる手法や、正規化相互相関を用いる手法が考えられる。   Next, the image of the part (face part) corresponding to the 2D reference face in the captured image acquired in S60 and the 2D template deformed in S64 are fitted (S66), and the error is digitized. For this digitization, a method using a luminance difference or a method using a normalized cross-correlation can be considered.

次に、撮影画像と2Dテンプレートが一致したか否かを判断する(S68)。S66にて取得した誤差が所定のしきい値を超えていれば、一致していないと判断し(S68:NO)、2D基準顔の変形量を再設定する(S70)。具体的には、最急降下法、ニュートン法などを用いて、誤差が小さくなる2D表情ベクトルの大きさを特徴点ごとに決定する。そしてS62にて作成した2D表情Aを破棄した後、S62に戻り、再設定した2D表情ベクトルを用いて2D基準顔を変形させる。   Next, it is determined whether the captured image matches the 2D template (S68). If the error acquired in S66 exceeds a predetermined threshold value, it is determined that they do not match (S68: NO), and the deformation amount of the 2D reference face is reset (S70). Specifically, the magnitude of the 2D facial expression vector that reduces the error is determined for each feature point using the steepest descent method, Newton method, or the like. Then, after the 2D facial expression A created in S62 is discarded, the process returns to S62, and the 2D reference face is deformed using the reset 2D facial expression vector.

一方、S68にて、誤差が所定のしきい値以下であれば、撮影画像と2Dテンプレートとが一致したと判断し(S68:YES)、S62にて作成した2D表情Aが撮影した画像の特徴点を表していると決定する。その後、処理がS72に移行する。なお、この決定された2D表情Aが、本発明における確定2D座標に相当する。   On the other hand, if the error is equal to or smaller than the predetermined threshold value in S68, it is determined that the photographed image matches the 2D template (S68: YES), and the feature of the image photographed by the 2D facial expression A created in S62 is determined. Determine that it represents a point. Thereafter, the process proceeds to S72. The determined 2D facial expression A corresponds to the determined 2D coordinate in the present invention.

続いて、図6(d)に示す3D基準顔を、図6(e)に示す3D表情ベクトルを用いて移動させて変形し、その変形後の各特徴点からなる顔形状モデルである3D表情を作成する(S72)。3D表情の作成にあたっては、個人適合処理のS18にて作成した2D基準顔を参考に、その顔に近づくように3D表情ベクトルの移動量を決定する。なお、この3D表情が、本発明における変形3D顔モデルに相当する。   Subsequently, the 3D reference face shown in FIG. 6 (d) is deformed by moving it using the 3D expression vector shown in FIG. 6 (e), and the 3D expression is a face shape model composed of each feature point after the deformation. Is created (S72). In creating the 3D facial expression, the movement amount of the 3D facial expression vector is determined so as to approach the face with reference to the 2D reference face created in S18 of the personal adaptation process. This 3D facial expression corresponds to the modified 3D face model in the present invention.

次に、S72にて作成した3D表情が、顔のつくりとして不自然な形状である場合にそのずれを修正する3D表情修正処理を行う(S74)。この3D表情修正処理により、S72における3D基準顔の変形に、特徴点の位置関係を定めるルールを与えて、不自然な形状となることを抑制する。これには、後述するS82,S84における最急降下法、ニュートン法などを用いた誤差最小化問題において、局所解に陥ることを抑制する効果がある。この3D表情修正処理の詳細は後述する。   Next, when the 3D facial expression created in S72 has an unnatural shape as a face structure, 3D facial expression correction processing is performed to correct the deviation (S74). By this 3D facial expression correction processing, a rule for determining the positional relationship of the feature points is given to the deformation of the 3D reference face in S72 to suppress an unnatural shape. This has the effect of suppressing falling into a local solution in the error minimization problem using the steepest descent method or Newton method in S82 and S84 described later. Details of this 3D facial expression correction process will be described later.

次に、2D変換行列を用いて、S72にて作成した3D表情を2次元座標に変換した2D表情Bを算出する(S76)。なお、この2D表情Bが、本発明における変換2D座標に相当する。   Next, using the 2D conversion matrix, a 2D facial expression B obtained by converting the 3D facial expression created in S72 into two-dimensional coordinates is calculated (S76). The 2D facial expression B corresponds to the converted 2D coordinates in the present invention.

次に、S76にて算出した2D表情Bと2D表情Aとをフィッティングする(S78)。
次に、2D表情Aと2D表情Bとが一致したか否かを判断する(S80)。ここでは、各特徴点ごとの距離を誤差として測定し、その誤差の相加平均が所定のしきい値を超えていれば、一致していないと判断し(S80:NO)、誤差を小さくするように続くS82,S84の処理を行う。
Next, the 2D facial expression B and the 2D facial expression A calculated in S76 are fitted (S78).
Next, it is determined whether or not the 2D facial expression A and the 2D facial expression B match (S80). Here, the distance for each feature point is measured as an error, and if the arithmetic average of the errors exceeds a predetermined threshold, it is determined that they do not match (S80: NO), and the error is reduced. The subsequent processes of S82 and S84 are performed as described above.

まず、3D基準顔の変形量を再設定する(S82)。具体的には、最急降下法、ニュートン法などを用いて、誤差が小さくなる3D表情ベクトルの大きさを特徴点ごとに決定する。これにより、3D基準顔の各特徴点を移動して、3D表情と撮影画像との表情の相違を小さくすることができる。   First, the deformation amount of the 3D reference face is reset (S82). Specifically, the size of the 3D facial expression vector that reduces the error is determined for each feature point using the steepest descent method, Newton method, or the like. Thereby, each feature point of the 3D reference face can be moved to reduce the difference in expression between the 3D expression and the photographed image.

次に、2D変換行列を更新する(S84)。具体的には、最急降下法、ニュートン法などを用いて、誤差が小さくなる2D変換行列を決定する。これにより、3D基準顔を2次元化するにあたって顔の向きを調整して誤差を小さくすることができ、3D表情と撮影画像との顔向きの相違を小さくすることができる。このS84の後、2D表情Bを破棄し、再度S72〜S76にて2D表情Bを作成する。   Next, the 2D conversion matrix is updated (S84). Specifically, a 2D conversion matrix with a small error is determined using a steepest descent method, a Newton method, or the like. This makes it possible to reduce the error by adjusting the face direction when making the 3D reference face two-dimensional, and to reduce the difference in the face direction between the 3D facial expression and the captured image. After S84, the 2D facial expression B is discarded, and the 2D facial expression B is created again in S72 to S76.

また、S80にて、誤差の平均値が所定のしきい値以下であれば、一致していると判断し(S80:YES)、S74にて修正した3D表情が撮影画像の特徴点を表していると決定してその3次元座標(3次元特徴点集合)を記憶する(S86)。その後、本処理を終了する。
(2.6)3D表情修正処理
3D表情修正処理の処理手順を、図11に示すフローチャートに基づいて説明する。本処理は、表情特徴量検出処理(図10)のS74にて、直前のS72で作成した3D表情に基づいて実行される。なお、以下の説明において、左右両方に位置する特徴点については左側のみを代表して記載する。
In S80, if the average value of errors is equal to or less than a predetermined threshold value, it is determined that they match (S80: YES), and the 3D facial expression corrected in S74 represents the feature point of the captured image. The three-dimensional coordinates (three-dimensional feature point set) are stored (S86). Thereafter, this process is terminated.
(2.6) 3D Facial Expression Correction Processing The processing procedure of 3D facial expression correction processing will be described based on the flowchart shown in FIG. This process is executed based on the 3D facial expression created in S72 immediately before in S74 of the facial expression feature amount detection process (FIG. 10). In the following description, the feature points located on both the left and right sides are described only on the left side.

本処理では、まず、まぶた間距離が0以下であるか否かを判断する(S100)。まぶた間距離が0以下である状態とは、図12に示すように、上まぶた101Lが下まぶた102Lよりも下に位置している状態であり、このとき、下まぶた102Lの位置から上まぶた101Lの位置までの上に向かう距離が0またはマイナスとなる。   In this process, first, it is determined whether or not the distance between eyelids is 0 or less (S100). The state where the distance between the eyelids is 0 or less is a state where the upper eyelid 101L is located below the lower eyelid 102L as shown in FIG. 12, and at this time, the upper eyelid 101L is located from the position of the lower eyelid 102L. The upward distance to the position of 0 is 0 or minus.

まぶた間の距離が0以下でなければ(S100:NO)、処理がS104に移行する。まぶた間距離が0以下であれば(S100:YES)、上まぶた101Lの位置を基準に、下まぶた102L、目頭103L,目尻104Lを予め決められた位置に変更する(S102)。その後、処理がS104に移行する。   If the distance between the eyelids is not less than or equal to 0 (S100: NO), the process proceeds to S104. If the distance between the eyelids is 0 or less (S100: YES), the lower eyelid 102L, the eyes 103L, and the eyes 104L are changed to predetermined positions based on the position of the upper eyelid 101L (S102). Thereafter, the process proceeds to S104.

次に、図13に示すように、上下まぶた間の距離L1が目尻と目頭との距離L2よりも大きいか否かを判断する(S104)。これにより、上下まぶた間の距離が離れすぎてしまうことを防止する。   Next, as shown in FIG. 13, it is determined whether or not the distance L1 between the upper and lower eyelids is larger than the distance L2 between the corners of the eyes and the eyes (S104). This prevents the distance between the upper and lower eyelids from being too far apart.

L1>L2でなければ(S104:NO)、処理がS108に移行する。L1>L2であれば(S104:YES)、上まぶた101Lの位置を基準に、下まぶた102L、目頭103L,目尻104Lを予め決められた位置に変更する(S106)。その後、処理がS108に移行する。   If L1> L2 is not satisfied (S104: NO), the process proceeds to S108. If L1> L2 (S104: YES), the lower eyelid 102L, the eye 103L, and the eye corner 104L are changed to predetermined positions based on the position of the upper eyelid 101L (S106). Thereafter, the process proceeds to S108.

次に、図14に示すように、眉頭105Lと上まぶた101Lとの距離L3が、こめかみ間(輪郭112,116間)の距離L4の2分の1よりも大きいか否かを判断する(S108)。これにより、眉目間の距離が離れすぎてしまうことを防止する。   Next, as shown in FIG. 14, it is determined whether or not the distance L3 between the eyebrow head 105L and the upper eyelid 101L is larger than one half of the distance L4 between the temples (between the contours 112 and 116) (S108). ). Thereby, it is prevented that the distance between eyebrows is separated too much.

L3>(L4/2)でなければ(S108:NO)、処理がS112に移行する。L3>(L4/2)であれば(S108:YES)、上まぶた101Lの位置を基準に、眉頭105L、眉上端106L、眉尻107Lを予め決められた位置に変更する(S110)。その後、処理がS112に移行する。   If L3> (L4 / 2) is not satisfied (S108: NO), the process proceeds to S112. If L3> (L4 / 2) (S108: YES), the eyebrow head 105L, the eyebrow upper end 106L, and the eyebrow butt 107L are changed to predetermined positions based on the position of the upper eyelid 101L (S110). Thereafter, the process proceeds to S112.

次に、眉の特徴点(眉頭105L、眉上端106L、眉尻107L)と上まぶた101Lとの距離が0以下であるか否かを判断する(S112)。眉と上まぶたとの距離が0以下である状態とは、図15に示すように、眉の特徴点が上まぶた101Lよりも下に位置している状態であり、このとき、上まぶた101Lの位置から眉の特徴点までの上に向かう距離が0またはマイナスとなる。   Next, it is determined whether or not the distance between the eyebrow feature points (eyebrow head 105L, eyebrow upper end 106L, eyebrow butt 107L) and upper eyelid 101L is 0 or less (S112). The state where the distance between the eyebrows and the upper eyelid is 0 or less is a state in which the feature point of the eyebrows is located below the upper eyelid 101L as shown in FIG. The upward distance from the position to the eyebrow feature point is 0 or minus.

眉と上まぶたとの距離が0以下でなければ(S112:NO)、処理がS116に移行する。眉と上まぶたとの距離が0以下であれば(S112:YES)、上まぶた101Lの位置を基準に、眉頭105L、眉上端106L、眉尻107Lを予め決められた位置に変更する(S114)。その後、処理がS116に移行する。   If the distance between the eyebrows and the upper eyelid is not less than 0 (S112: NO), the process proceeds to S116. If the distance between the eyebrows and the upper eyelid is 0 or less (S112: YES), the eyebrow head 105L, the upper eyebrow upper end 106L, and the eyebrows upper end 107L are changed to predetermined positions based on the position of the upper eyelid 101L (S114). . Thereafter, the process proceeds to S116.

次に、唇間の距離が0以下であるか否かを判断する(S116)。唇間の距離が0以下である状態とは、図16に示すように、上唇109が下唇110よりも下に位置している状態であり、下唇110の位置から上唇109までの上に向かう距離が0またはマイナスとなる。   Next, it is determined whether or not the distance between lips is 0 or less (S116). The state where the distance between the lips is 0 or less is a state where the upper lip 109 is located below the lower lip 110 as shown in FIG. The distance to go is 0 or minus.

唇間の距離が0以下でなければ(S116:NO)、処理がS120に移行する。唇間の距離が0以下であれば(S116:YES)、上唇109と下唇110の位置を入れ替える(S118)。その後、処理がS120に移行する。   If the distance between lips is not less than or equal to 0 (S116: NO), the process proceeds to S120. If the distance between the lips is 0 or less (S116: YES), the positions of the upper lip 109 and the lower lip 110 are switched (S118). Thereafter, the process proceeds to S120.

次に、図17に示すように、顎位置(輪郭114)と下唇110との距離L5が、目頭103Lと目尻104Lとの距離L6の2分の1よりも小さいか否かを判断する(S120)。これにより、下唇が下がりすぎてしまうことを防止する。   Next, as shown in FIG. 17, it is determined whether or not the distance L5 between the jaw position (contour 114) and the lower lip 110 is smaller than one half of the distance L6 between the eye 103L and the outer corner 104L ( S120). This prevents the lower lip from falling too much.

L5<(L6/2)でなければ(S120:NO)、処理がS124に移行する。L5<(L6/2)であれば(S120:YES)、顎位置(輪郭114)を基準に、下唇110を予め決められた位置に変更する(S122)。その後、処理がS124に移行する。   If L5 <(L6 / 2) is not satisfied (S120: NO), the process proceeds to S124. If L5 <(L6 / 2) (S120: YES), the lower lip 110 is changed to a predetermined position based on the jaw position (contour 114) (S122). Thereafter, the process proceeds to S124.

次に、鼻108Lと上唇109との距離が0以下であるか否かを判断する(S124)。鼻108Lと上唇109との距離が0以下である状態とは、図18に示すように、鼻108Lが上唇109よりも下に位置している状態であり、上唇109の位置から鼻108Lまでの上に向かう距離が0またはマイナスとなる。   Next, it is determined whether or not the distance between the nose 108L and the upper lip 109 is 0 or less (S124). The state where the distance between the nose 108L and the upper lip 109 is 0 or less is a state where the nose 108L is positioned below the upper lip 109 as shown in FIG. 18, and the distance from the position of the upper lip 109 to the nose 108L. The upward distance is 0 or minus.

鼻108Lと上唇109との距離が0以下でなければ(S124:NO)、処理がS128に移行する。鼻108Lと上唇109との距離が0以下であれば(S124:YES)、鼻108Lの位置を基準に、上唇109を予め決められた位置に変更する(S126)。その後、処理がS128に移行する。   If the distance between the nose 108L and the upper lip 109 is not less than 0 (S124: NO), the process proceeds to S128. If the distance between the nose 108L and the upper lip 109 is 0 or less (S124: YES), the upper lip 109 is changed to a predetermined position based on the position of the nose 108L (S126). Thereafter, the process proceeds to S128.

次に、口角間の距離が0以下であるか否かを判断する(S128)。口角間の距離が0以下である状態とは、図19に示すように、左口角111Lが右口角111Rよりも右に位置している状態であり、左口角111Lから右口角111Rまでの右に向かう距離が0またはマイナスとなる。   Next, it is determined whether the distance between the mouth corners is 0 or less (S128). The state where the distance between the mouth corners is equal to or less than 0 is a state where the left mouth corner 111L is positioned to the right of the right mouth corner 111R as shown in FIG. 19, and is located to the right from the left mouth corner 111L to the right mouth corner 111R. The distance to go is 0 or minus.

口角間の距離が0以下でなければ(S128:NO)、本処理を終了する。口角間の距離が0以下であれば(S128:YES)、左口角111Lと右口角111Rの位置を入れ替える(S130)。その後、本処理を終了する。
(3)発明の効果
このように構成された居眠り防止システム1では、個人表情モデルにおける2D基準顔と2Dテンプレートとを、個人適合処理にて運転者3から取得した情報を用いて作成しているため、特徴点の検出精度が高くすることができる結果、眠気の検出精度を高めることができる。
If the distance between the mouth corners is not less than or equal to 0 (S128: NO), this process ends. If the distance between the mouth corners is 0 or less (S128: YES), the positions of the left mouth corner 111L and the right mouth corner 111R are switched (S130). Thereafter, this process is terminated.
(3) Effects of the Invention In the dozing prevention system 1 configured as described above, the 2D reference face and the 2D template in the personal expression model are created using information acquired from the driver 3 by the personal adaptation process. Therefore, the detection accuracy of feature points can be increased, and as a result, the detection accuracy of sleepiness can be increased.

また、3D基準顔や2D変換行列は、運転者3にカスタマイズしたものではないので、運転者3の様々な画像を作成してモデルを作成するといった作業が必要なく、運転者3は何ら特別な動作をとる必要がない。よって、運転者3の個人表情モデル作成の負担を小さくして眠気の検出を行うことができる。このような居眠り防止システム1は、運転者3を撮影して3D基準顔や2D変換行列を作成する構成と比較して実用化が容易である。   Also, since the 3D reference face and the 2D conversion matrix are not customized to the driver 3, there is no need to create a model by creating various images of the driver 3, and the driver 3 does not have any special features. There is no need to take action. Therefore, it is possible to detect drowsiness while reducing the burden on the driver 3 for creating the personal facial expression model. Such a dozing prevention system 1 is easy to put into practical use as compared with a configuration in which the driver 3 is photographed to create a 3D reference face and a 2D conversion matrix.

また、3D基準顔,2D変換行列は予め作成された共通のモデルであって、また3D表情ベクトルの移動方向が定まっているため、以下に示すメリットがある。
まず、図20(a),(b)に、特徴点を検出する対象となるA,B2名の実際の眉の位置と動作を示す。図20(a)は覚醒時の眉位置であり、図20(b)は眠気を有するとき(傾眠時)の上がった眉位置である。
Further, the 3D reference face and the 2D conversion matrix are common models created in advance, and the moving direction of the 3D facial expression vector is fixed.
First, FIGS. 20A and 20B show the actual position and operation of the eyebrows of the two persons A and B, whose feature points are to be detected. FIG. 20A shows the eyebrow position at the time of awakening, and FIG. 20B shows the eyebrow position that rises when the person has drowsiness (drowsiness).

A,Bは、覚醒時,傾眠時において、眉目間の距離、眉頭間の距離のいずれも異なっている。また、眉が上がるときの動作方向も異なっている。従来のように、3D基準顔、2D変換行列、3D表情ベクトルが個人にカスタマイズされたものを用いる場合、上述した移動前の眉位置と移動方向の個人差により、眉の位置や移動量に基づいて画一的に表情の変化を判断することが難いという問題がある。   A and B are different in both the distance between the eyebrows and the distance between the eyebrows during awakening and somnolence. The direction of movement when the eyebrows are raised is also different. When using a 3D reference face, a 2D transformation matrix, and a 3D expression vector customized for each person as in the past, based on the eyebrow position before moving and the individual difference in the moving direction based on the position and amount of movement of the eyebrow Therefore, there is a problem that it is difficult to judge changes in facial expression uniformly.

一方、本実施例のように共通のモデルを用いると、図21に示すように、共通3D表情の眉は、方向の定められた3D表情ベクトルにより所定の範囲内で移動する。よって、A,Bの眉の位置は、共通の3D基準顔における眉を予め定まった方向に移動させたいずれかの位置であるとして判断される。   On the other hand, when a common model is used as in the present embodiment, as shown in FIG. 21, the eyebrows of the common 3D facial expression move within a predetermined range by a 3D facial expression vector whose direction is determined. Therefore, the positions of the eyebrows A and B are determined as any position obtained by moving the eyebrows in the common 3D reference face in a predetermined direction.

また、図22に示すように、覚醒時の眉位置、傾眠時の眉位置には個人差があるものの、眉が動作したか否かは、覚醒時と傾眠時との眉の移動量に基づいて判断することができる。   In addition, as shown in FIG. 22, although there are individual differences in the eyebrow position during awakening and the eyebrow position during somnolence, whether or not the eyebrows have moved is based on the amount of eyebrow movement between awakening and somnolence. Can be judged.

このように、対象者の顔の形状や動作方向に個人差があっても、表情の変化を、特徴点の移動量のみをパラメータとして扱うことができるため、特徴点の初期位置や移動方向などを勘案する必要がなく、表情変化の判定や比較を容易に行うことができるようになる。   In this way, even if there are individual differences in the shape and movement direction of the target person's face, changes in facial expressions can be handled using only the movement amount of the feature point as a parameter, so the initial position and movement direction of the feature point, etc. Therefore, it is possible to easily determine and compare facial expression changes.

さらに、学習データとして、複数の対象者に対して本実施例の居眠り防止システム1と同様の処理を行って取得したデータを用いるため、眠気レベルの判定精度を高めることができる。   Furthermore, since the data acquired by performing the process similar to the dozing prevention system 1 of a present Example with respect to a some subject is used as learning data, the determination precision of a drowsiness level can be improved.

また、上記構成の居眠り防止システム1では、3D表情修正処理を行うことにより、特徴点がルールから外れる位置に移動することがないので、3D表情が不自然な形状となることがない。よって、不自然な形状の3D表情を使用する無駄なフィッティングの処理を無くすことができ、また精度の低い検出結果を出力することを抑制できる。
(4)変形例
以上、本発明の実施例について説明したが、本発明は、上記実施例に何ら限定されることはなく、本発明の技術的範囲に属する限り種々の形態をとり得ることはいうまでもない。
Further, in the dozing prevention system 1 having the above-described configuration, the 3D facial expression is not unnaturally shaped by performing the 3D facial expression correction process because the feature point does not move to a position outside the rule. Therefore, useless fitting processing that uses an unnatural 3D expression can be eliminated, and output of detection results with low accuracy can be suppressed.
(4) Modifications While the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and can take various forms as long as they belong to the technical scope of the present invention. Needless to say.

例えば、上記実施例においては、覚醒状態の特徴点を取得する基準値取得処理を、個人適合処理の直後に行う構成を例示したが、それ以外のタイミングで行ってもよい。例えば、車両2のハンドル、シートなどの運転者3と接触(接近)する部分に運転者3の心拍数を測定する測定センサなどの心拍数測定手段を取り付けておき、測定センサが測定した心拍数の平均値が所定の範囲内にある状態のときに運転者3が覚醒状態であると判断し、覚醒状態である場合に基準値取得処理を実行するように構成してもよい。   For example, in the above-described embodiment, the configuration in which the reference value acquisition process for acquiring the feature point of the awake state is performed immediately after the personal adaptation process is illustrated, but it may be performed at other timings. For example, a heart rate measuring means such as a measurement sensor for measuring the heart rate of the driver 3 is attached to a part of the vehicle 2 such as a handle or a seat that comes into contact (approaching) with the heart rate measured by the measurement sensor. The driver 3 may be determined to be in an awake state when the average value is within a predetermined range, and the reference value acquisition process may be executed when the driver 3 is in an awake state.

このように構成された居眠り防止システム1では、心拍数に基づいて覚醒状態を判断できる。よって、覚醒状態でないときに撮影された撮影画像を覚醒しているときの撮影画像として処理してしまうことがなくなるので、高い精度で眠気を検出することができる。   In the dozing prevention system 1 configured as described above, the arousal state can be determined based on the heart rate. Therefore, since the captured image captured when not in the awake state is not processed as the captured image when awakening, drowsiness can be detected with high accuracy.

また、上記実施例においては、2D基準顔と2Dテンプレートとを個人適合処理において取得した撮影画像に基づいて作成する構成を例示したが、2D基準顔と2Dテンプレートのみ予め取得しておいたものを用いる構成であってもよい。例えば、HDD23にそのデータを記憶しておいて、運転者3が運転する際にそのデータを読み出す構成であってもよいし、運転者3がそれらのデータが記憶された記憶媒体を所持しており、運転する際にその記憶媒体からそれらのデータを読み出す構成であってもよい。   In the above embodiment, the 2D reference face and the 2D template are exemplified based on the captured image acquired in the personal adaptation process. However, only the 2D reference face and the 2D template are acquired in advance. The structure to be used may be used. For example, the data may be stored in the HDD 23 and read when the driver 3 drives, or the driver 3 may have a storage medium storing the data. In the driving, the data may be read from the storage medium.

また、表情特徴量検出処理(図10)のS74における3D表情修正処理において、不自然な形状にならなくするためのルールは、図11に示すルールに限定されない。例えば、左右口角間の距離を、こめかみ間の距離の2分の1以下となるように制限することが考えられる。   Further, in the 3D facial expression correction process in S74 of the facial expression feature amount detection process (FIG. 10), the rule for preventing an unnatural shape is not limited to the rule shown in FIG. For example, it is conceivable to limit the distance between the left and right mouth corners to be equal to or less than half of the distance between the temples.

また、比較すべき距離の基準値が0以外である場合(S104,S108,S120)において、基準値となる特徴点間の距離は、上記実施例にて説明したものに限らない。例えばS104においては、まぶた間の距離が離れすぎないように、目尻と目頭との間の距離を基準としてそれよりも小さいことをルールとしているが、左右目頭間の距離を基準としてもよい。なお、基準値として用いる距離は、表情の変化によって影響を受けにくい距離が望ましい。
(5)対応関係
制御部21により実行されるS10,60の処理が、本発明の画像取得手段による処理に相当し、S18の処理が基準2D顔モデル作成手段による処理に相当し、S62の処理が2D変形手段による処理に相当し、S64の処理が変形画像作成手段による処理に相当し、S66〜70の処理が2次元座標決定手段による処理に相当し、S72,74の処理が3D変形手段による処理に相当し、S76の処理が座標変換手段による処理に相当し、S78〜84の処理が3次元座標決定手段による処理に相当し、S50,S52の処理が眠気判定手段による処理に相当する。
In addition, when the reference value of the distance to be compared is other than 0 (S104, S108, S120), the distance between the feature points serving as the reference value is not limited to that described in the above embodiment. For example, in S104, the rule is that the distance between the eye corners and the eyes is smaller than the distance so that the distance between the eyelids is not too far, but the distance between the left and right eyes may be used as a reference. The distance used as the reference value is preferably a distance that is not easily affected by changes in facial expressions.
(5) Correspondence Relationship The processing of S10 and 60 executed by the control unit 21 corresponds to the processing by the image acquisition unit of the present invention, the processing of S18 corresponds to the processing by the reference 2D face model creation unit, and the processing of S62 Corresponds to the processing by the 2D deformation means, the processing of S64 corresponds to the processing by the deformation image creation means, the processing of S66 to 70 corresponds to the processing by the two-dimensional coordinate determination means, and the processing of S72 and 74 is the 3D deformation means. The processing of S76 corresponds to the processing by the coordinate conversion means, the processing of S78 to 84 corresponds to the processing by the three-dimensional coordinate determination means, and the processing of S50 and S52 corresponds to the processing by the sleepiness determination means. .

1…居眠り防止システム、2…車両、3…運転者、4…ダッシュボード、10…撮影装置、20…眠気検出装置、21…制御部、22…画像キャプチャボード、23…ハードディスクドライブ、24…車内LAN通信部、30…警報装置、40…首元空調装置、50…シートベルト振動装置、60…ブレーキ制御装置、101…上まぶた、102…下まぶた、103…目頭、104…目尻、105…眉頭、106…眉上端、107…眉尻、108…鼻、109…上唇、110…下唇、111…口角、112〜116…輪郭、201…運転者データ、202…学習データ、203…眠気レベル、204…規格値、205…セット DESCRIPTION OF SYMBOLS 1 ... Dozing prevention system, 2 ... Vehicle, 3 ... Driver, 4 ... Dashboard, 10 ... Imaging device, 20 ... Drowsiness detection device, 21 ... Control part, 22 ... Image capture board, 23 ... Hard disk drive, 24 ... Inside the car LAN communication unit, 30 ... alarm device, 40 ... neck air conditioner, 50 ... seat belt vibration device, 60 ... brake control device, 101 ... upper eyelid, 102 ... lower eyelid, 103 ... eye, 104 ... eye corner, 105 ... eyebrow 106 ... upper end of eyebrows, 107 ... buttocks, 108 ... nose, 109 ... upper lip, 110 ... lower lip, 111 ... corner of mouth, 112 to 116 ... contour, 201 ... driver data, 202 ... learning data, 203 ... drowsiness level, 204 ... standard value, 205 ... set

Claims (9)

撮影対象者の顔を示す撮影画像を取得する画像取得手段と、
前記画像取得手段が取得した撮影画像である基準画像から、顔上に予め定められた複数の特徴点の2次元座標を抽出し、当該2次元座標からなる基準2D顔モデルを作成する基準2D顔モデル作成手段と、
前記基準2D顔モデル作成手段により作成された基準2D顔モデルから前記複数の特徴点の2次元座標を移動させてなる変形2D顔モデルを作成する2D変形手段と、
前記基準画像を、前記2D変形手段により作成された前記変形2D顔モデルに合わせて変形した変形画像を作成する変形画像作成手段と、
前記画像取得手段が取得した撮影画像である判定画像と、前記変形画像と、を、前記2D変形手段による前記2次元座標の移動を調整してフィッティングを行い、前記判定画像と前記変形画像とが適合するときの前記変形画像に対応する前記変形2D顔モデルにおける前記複数の特徴点の2次元座標を、前記判定画像における前記複数の特徴点の2次元座標である確定2D座標として決定する2次元座標決定手段と、
前記複数の特徴点に対応する予め定められた3次元座標を移動させてなる3次元座標からなる変形3D顔モデルを作成する3D変形手段と、
前記3D変形手段により作成された前記変形3D顔モデルの前記3次元座標を、変換式を用いて2次元座標に変換した変換2D座標を作成する座標変換手段と、
前記2次元座標決定手段により決定された確定2D座標と、前記変換2D座標と、を、前記3D変形手段による前記3次元座標の移動および/または前記変換式を調整してフィッティングを行い、前記確定2D座標と適合する前記変換2D座標に対応する前記変形3D顔モデルにおける前記複数の特徴点の3次元座標を、前記判定画像における前記複数の特徴点の3次元座標として決定する3次元座標決定手段と、
を備える顔特徴点検出装置。
Image acquisition means for acquiring a captured image showing the face of the person to be imaged;
A reference 2D face for extracting two-dimensional coordinates of a plurality of predetermined feature points on a face from a reference image that is a captured image acquired by the image acquisition means and creating a reference 2D face model composed of the two-dimensional coordinates. Model creation means;
2D deforming means for creating a deformed 2D face model by moving the two-dimensional coordinates of the plurality of feature points from the reference 2D face model created by the reference 2D face model creating means;
Deformed image creating means for creating a deformed image obtained by deforming the reference image according to the deformed 2D face model created by the 2D deforming means;
The determination image, which is a captured image acquired by the image acquisition unit, and the modified image are fitted by adjusting the movement of the two-dimensional coordinates by the 2D deformation unit, and the determination image and the modified image are obtained. Two-dimensional that determines two-dimensional coordinates of the plurality of feature points in the deformed 2D face model corresponding to the deformed image when matched as fixed two-dimensional coordinates that are two-dimensional coordinates of the plurality of feature points in the determination image Coordinate determination means;
3D deforming means for creating a deformed 3D face model composed of three-dimensional coordinates obtained by moving predetermined three-dimensional coordinates corresponding to the plurality of feature points;
Coordinate conversion means for creating converted 2D coordinates obtained by converting the three-dimensional coordinates of the deformed 3D face model created by the 3D deforming means into two-dimensional coordinates using a conversion formula;
The fixed 2D coordinates determined by the two-dimensional coordinate determining means and the converted 2D coordinates are fitted by adjusting the movement of the three-dimensional coordinates by the 3D deforming means and / or the conversion formula, and the fixed 3D coordinate determination means for determining, as the 3D coordinates of the plurality of feature points in the determination image, the three-dimensional coordinates of the plurality of feature points in the deformed 3D face model corresponding to the transformed 2D coordinates that match 2D coordinates When,
A face feature point detection apparatus.
前記3D変形手段は、予め定められた前記特徴点の位置関係を定めるルールを満たすように前記特徴点の3次元座標を移動させる
ことを特徴とする請求項1に記載の顔特徴点検出装置。
The face feature point detection apparatus according to claim 1, wherein the 3D deforming unit moves the three-dimensional coordinates of the feature points so as to satisfy a rule that defines a predetermined positional relationship between the feature points.
前記ルールは、目の位置を示す前記特徴点が、眉の位置を示す前記特徴点よりも下に位置するように定められている
ことを特徴とする請求項2に記載の顔特徴点検出装置。
3. The face feature point detection device according to claim 2, wherein the rule is defined such that the feature point indicating the position of the eye is positioned below the feature point indicating the position of the eyebrows. .
前記ルールは、口の位置を示す前記特徴点が、鼻の位置を示す前記特徴点よりも下に位置するように定められている
ことを特徴とする請求項2または請求項3に記載の顔特徴点検出装置。
The face according to claim 2 or 3, wherein the rule is set so that the feature point indicating the position of the mouth is located below the feature point indicating the position of the nose. Feature point detection device.
前記ルールは、上まぶたの位置を示す前記特徴点が、下まぶたの位置を示す前記特徴点よりも上に位置するように定められている
ことを特徴とする請求項2から請求項4のいずれか1項に記載の顔特徴点検出装置。
5. The rule according to claim 2, wherein the rule is defined such that the feature point indicating the position of the upper eyelid is positioned above the feature point indicating the position of the lower eyelid. The facial feature point detection apparatus according to claim 1.
前記ルールは、左の口角の位置を示す前記特徴点が、右の口角を示す前記特徴点よりも左に位置するように定められている
ことを特徴とする請求項2から請求項5のいずれか1項に記載の顔特徴点検出装置。
6. The rule according to claim 2, wherein the rule is defined such that the feature point indicating the position of the left mouth corner is positioned to the left of the feature point indicating the right mouth corner. The facial feature point detection apparatus according to claim 1.
請求項1から請求項6のいずれか1項に記載の顔特徴点検出装置と、
撮影対象者が覚醒しているときに撮影された前記判定画像に基づいて前記顔特徴点検出装置が決定した当該判定画像における前記複数の特徴点の3次元座標(A)と、眠気を判断すべきタイミングで撮影された前記判定画像に基づいて前記顔特徴点検出装置が決定した当該判定画像における前記複数の特徴点の3次元座標(B)と、の比較により眠気の度合を判定する眠気判定手段と、を備える
ことを特徴とする眠気検出装置。
The facial feature point detection apparatus according to any one of claims 1 to 6,
The sleep feature is determined based on the three-dimensional coordinates (A) of the plurality of feature points in the determination image determined by the face feature point detection device based on the determination image captured when the subject is awake. Sleepiness determination that determines the degree of sleepiness by comparing with the three-dimensional coordinates (B) of the plurality of feature points in the determination image determined by the facial feature point detection device based on the determination image captured at power timing And a drowsiness detection device.
前記眠気判定手段は、
撮影対象者が覚醒している状態における前記複数の特徴点の3次元座標から、当該撮影対象者が眠気を有する状態における前記複数の特徴点の3次元座標までの移動量と、前記眠気を有する状態における当該撮影対象者の眠気の度合と、を対応付けたデータを複数有しており、
前記3次元座標(A)と前記3次元座標(B)とを比較して、前記複数の特徴点の移動量を算出し、当該移動量を前記データと比較することで、眠気の度合を判定する
ことを特徴とする請求項7に記載の眠気検出装置。
The drowsiness determining means includes
The amount of movement from the three-dimensional coordinates of the plurality of feature points in a state in which the subject to be photographed is awake to the three-dimensional coordinates of the plurality of feature points in a state in which the subject to be photographed is sleepy, and the sleepiness A plurality of data that associates the degree of sleepiness of the subject in the state with the degree of sleepiness,
The amount of sleepiness is determined by comparing the three-dimensional coordinates (A) and the three-dimensional coordinates (B), calculating the movement amounts of the plurality of feature points, and comparing the movement amounts with the data. The drowsiness detection device according to claim 7.
撮影対象者の心拍数を測定する心拍数測定手段を備え、
前記覚醒しているときとは、前記心拍数測定手段により測定された心拍数の平均値が所定の範囲内にある状態のときである
ことを特徴とする請求項7または請求項8に記載の眠気検出装置。
Equipped with a heart rate measuring means for measuring the heart rate of the subject,
The time of awakening is a time when the average value of the heart rate measured by the heart rate measuring means is within a predetermined range. Sleepiness detection device.
JP2009287941A 2009-12-18 2009-12-18 Facial feature point detection device and drowsiness detection device Expired - Fee Related JP5273030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009287941A JP5273030B2 (en) 2009-12-18 2009-12-18 Facial feature point detection device and drowsiness detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009287941A JP5273030B2 (en) 2009-12-18 2009-12-18 Facial feature point detection device and drowsiness detection device

Publications (2)

Publication Number Publication Date
JP2011128966A true JP2011128966A (en) 2011-06-30
JP5273030B2 JP5273030B2 (en) 2013-08-28

Family

ID=44291487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009287941A Expired - Fee Related JP5273030B2 (en) 2009-12-18 2009-12-18 Facial feature point detection device and drowsiness detection device

Country Status (1)

Country Link
JP (1) JP5273030B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013088672A1 (en) * 2011-12-13 2013-06-20 パナソニック株式会社 Measurement-target-selecting device, face-shape-estimating device, method for selecting measurement target, and method for estimating face shape
EP3033999A1 (en) * 2014-12-15 2016-06-22 Aisin Seiki Kabushiki Kaisha Apparatus and method for determining the state of a driver
JP2016115117A (en) * 2014-12-15 2016-06-23 アイシン精機株式会社 Determination device and determination method
JP2016115120A (en) * 2014-12-15 2016-06-23 アイシン精機株式会社 Opened/closed eye determination device and opened/closed eye determination method
KR20160100654A (en) 2015-02-16 2016-08-24 주식회사 바이브라시스템 method and apparatus for detecting drowsiness by physiological signal by using video
US9913607B2 (en) 2014-12-26 2018-03-13 The Yokohama Rubber Co., Ltd. Collision avoidance system and collision avoidance method
US10144349B2 (en) 2014-12-26 2018-12-04 The Yokohama Rubber Co., Ltd. Collision avoidance system and collision avoidance method
WO2019102619A1 (en) * 2017-11-27 2019-05-31 三菱電機株式会社 Expression recognition device
US10372972B2 (en) 2013-10-09 2019-08-06 Aisin Seiki Kabushiki Kaisha Face detection apparatus, face detection method, and program
KR20190134909A (en) * 2018-05-10 2019-12-05 한국전자통신연구원 The apparatus and method for Driver Status Recognition based on Driving Status Decision Information
WO2021171538A1 (en) * 2020-02-28 2021-09-02 三菱電機株式会社 Facial expression recognition device and facial expression recognition method
JP2021535499A (en) * 2018-08-27 2021-12-16 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Face Posture Estimate / 3D Face Reconstruction Methods, Devices, and Electronic Devices
JP7518443B2 (en) 2017-08-17 2024-07-18 テイ・エス テック株式会社 Anomaly detection device and vehicle

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006034803A (en) * 2004-07-29 2006-02-09 Denso Corp Method and device for displaying biological information
JP2007233997A (en) * 2006-02-06 2007-09-13 Toshiba Corp Facial feature point detecting system and method thereof
JP2009045418A (en) * 2007-02-16 2009-03-05 Denso Corp Device, program, and method for determining sleepiness
JP2009199417A (en) * 2008-02-22 2009-09-03 Denso Corp Face tracking device and face tracking method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006034803A (en) * 2004-07-29 2006-02-09 Denso Corp Method and device for displaying biological information
JP2007233997A (en) * 2006-02-06 2007-09-13 Toshiba Corp Facial feature point detecting system and method thereof
JP2009045418A (en) * 2007-02-16 2009-03-05 Denso Corp Device, program, and method for determining sleepiness
JP2009199417A (en) * 2008-02-22 2009-09-03 Denso Corp Face tracking device and face tracking method

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125307A (en) * 2011-12-13 2013-06-24 Panasonic Corp Measurement object extraction device, face shape estimating device, measurement object extraction method, and face shape estimating method
CN103890811A (en) * 2011-12-13 2014-06-25 松下电器产业株式会社 Measurement-target-selecting device, face-shape-estimating device, method for selecting measurement target, and method for estimating face shape
US9465979B2 (en) 2011-12-13 2016-10-11 Panasonic Intellectual Property Corporation Of America Measurement-target-selecting device, face-shape-estimating device, method for selecting measurement target, and method for estimating face shape
WO2013088672A1 (en) * 2011-12-13 2013-06-20 パナソニック株式会社 Measurement-target-selecting device, face-shape-estimating device, method for selecting measurement target, and method for estimating face shape
US10372972B2 (en) 2013-10-09 2019-08-06 Aisin Seiki Kabushiki Kaisha Face detection apparatus, face detection method, and program
EP3033999A1 (en) * 2014-12-15 2016-06-22 Aisin Seiki Kabushiki Kaisha Apparatus and method for determining the state of a driver
JP2016115117A (en) * 2014-12-15 2016-06-23 アイシン精機株式会社 Determination device and determination method
JP2016115120A (en) * 2014-12-15 2016-06-23 アイシン精機株式会社 Opened/closed eye determination device and opened/closed eye determination method
US9913607B2 (en) 2014-12-26 2018-03-13 The Yokohama Rubber Co., Ltd. Collision avoidance system and collision avoidance method
US10144349B2 (en) 2014-12-26 2018-12-04 The Yokohama Rubber Co., Ltd. Collision avoidance system and collision avoidance method
KR20160100654A (en) 2015-02-16 2016-08-24 주식회사 바이브라시스템 method and apparatus for detecting drowsiness by physiological signal by using video
JP7518443B2 (en) 2017-08-17 2024-07-18 テイ・エス テック株式会社 Anomaly detection device and vehicle
WO2019102619A1 (en) * 2017-11-27 2019-05-31 三菱電機株式会社 Expression recognition device
JPWO2019102619A1 (en) * 2017-11-27 2020-02-27 三菱電機株式会社 Facial expression recognition device
KR102479049B1 (en) 2018-05-10 2022-12-20 한국전자통신연구원 The apparatus and method for Driver Status Recognition based on Driving Status Decision Information
KR20190134909A (en) * 2018-05-10 2019-12-05 한국전자통신연구원 The apparatus and method for Driver Status Recognition based on Driving Status Decision Information
JP2021535499A (en) * 2018-08-27 2021-12-16 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited Face Posture Estimate / 3D Face Reconstruction Methods, Devices, and Electronic Devices
JP7203954B2 (en) 2018-08-27 2023-01-13 アリババ・グループ・ホールディング・リミテッド Face Pose Estimation/3D Face Reconstruction Method, Apparatus, and Electronic Device
US11941753B2 (en) 2018-08-27 2024-03-26 Alibaba Group Holding Limited Face pose estimation/three-dimensional face reconstruction method, apparatus, and electronic device
WO2021171538A1 (en) * 2020-02-28 2021-09-02 三菱電機株式会社 Facial expression recognition device and facial expression recognition method

Also Published As

Publication number Publication date
JP5273030B2 (en) 2013-08-28

Similar Documents

Publication Publication Date Title
JP5273030B2 (en) Facial feature point detection device and drowsiness detection device
US9715627B2 (en) Area information estimating device, area information estimating method, and air conditioning apparatus
JP5137833B2 (en) Gaze direction detection device and gaze direction detection method
US8369608B2 (en) System and method for detecting drowsy facial expressions of vehicle drivers under changing illumination conditions
TWI383325B (en) Face expressions identification
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
JPWO2009091029A1 (en) Face posture estimation device, face posture estimation method, and face posture estimation program
JP2010264095A (en) Heart rate measuring apparatus and heart rate measuring method
JPWO2010035472A1 (en) Gaze direction determination device and gaze direction determination method
JP6708152B2 (en) Driver state estimating device and driver state estimating method
JP5001930B2 (en) Motion recognition apparatus and method
JP6090129B2 (en) Viewing area estimation device
JP7240910B2 (en) Passenger observation device
JP2017194772A (en) Arousal determination apparatus
CN114821674B (en) Sleep state monitoring method, electronic device and storage medium
WO2011086803A1 (en) Image matching system, image matching method, computer program
JP2019126657A (en) Detection device and detection program
JP2006215743A (en) Image processing apparatus and image processing method
JP2008046691A (en) Face image processor and program for computer
JP5170130B2 (en) Height estimation device
JP2024500530A (en) Seatbelt fastening detection method, device, storage medium and processor
JP5688514B2 (en) Gaze measurement system, method and program
CN110415486B (en) Attitude determination method, electronic system and non-transitory computer readable recording medium
JP2011086051A (en) Eye position recognition device
JP2006227734A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130429

R151 Written notification of patent or utility model registration

Ref document number: 5273030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees