JP2010092180A - Eyelid likelihood arithmetic device and program - Google Patents

Eyelid likelihood arithmetic device and program Download PDF

Info

Publication number
JP2010092180A
JP2010092180A JP2008260065A JP2008260065A JP2010092180A JP 2010092180 A JP2010092180 A JP 2010092180A JP 2008260065 A JP2008260065 A JP 2008260065A JP 2008260065 A JP2008260065 A JP 2008260065A JP 2010092180 A JP2010092180 A JP 2010092180A
Authority
JP
Japan
Prior art keywords
eyelid
likelihood
heel
eye
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008260065A
Other languages
Japanese (ja)
Other versions
JP5111321B2 (en
Inventor
Takashi Naito
貴志 内藤
Shinichi Kojima
真一 小島
Satoru Nakanishi
悟 中西
Takehiko Tanaka
勇彦 田中
Takuhiro Omi
拓寛 大見
Junya Kasugai
純也 春日井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Denso Corp
Toyota Motor Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Denso Corp, Toyota Motor Corp, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2008260065A priority Critical patent/JP5111321B2/en
Publication of JP2010092180A publication Critical patent/JP2010092180A/en
Application granted granted Critical
Publication of JP5111321B2 publication Critical patent/JP5111321B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To calculate eyelid likelihood with satisfactory accuracy even when a captured image includes a face in profile. <P>SOLUTION: Sums of a value (w<SB>right</SB>×λ<SB>r_eyelid</SB>) acquired by applying weight w<SB>right</SB>corresponding to the right eyelid to the right eyelid likelihood of the right comparison eyelid model in the combination of the right and left comparison eyelid models whose eyelid openings are the same and a value (w<SB>left</SB>×λ<SB>l_eyelid</SB>) acquired by applying weight w<SB>left</SB>corresponding to the left eyelid to the left eyelid likelihood of the left comparison eyelid model for each combination as the right and left eyelid likelihood λ<SB>eyelid</SB>, wherein the weight corresponding to the eyelid likelihood of the eyelid far from a camera 12 is set smaller than the weight corresponding to the eyelid likelihood of the eyelid closer to the camera according to a face direction angle θ (124), and the maximum right and left eyelid likelihood λ<SB>eyelid_max</SB>among the plurality of calculated right and left eyelid likelihood λ<SB>eyelid</SB>is calculated as the whole eyelid likelihood λ<SB>eyelid_all</SB>(128). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、瞼尤度演算装置、及びプログラムに関する。   The present invention relates to a heel likelihood calculation device and a program.

従来、視線の移動方向を検出するためにアイモデルを用いたコンデンセイション(Condensation)による黒目追跡の技術が知られている(例えば、非特許文献1参照)。非特許文献1に記載の技術では、右の瞼の瞼形状モデル(瞼モデル)のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更して、右の瞼形状モデルの形状が投影された画像座標(2次元座標)上で、画像を撮影して画像データを出力するカメラ等の撮影手段によって撮影された画像の画像データに基づいて右の瞼の尤度を推定している。同様に、左の瞼の瞼形状モデルのモデルパラメータの少なくとも1つのモデルパラメータを複数回変更して、左の瞼形状モデルの形状が投影された画像座標上で、撮影手段によって撮影された画像の画像データに基づいて左の瞼の尤度を推定している。そして、推定された右の瞼の尤度と左の瞼の尤度との和を全体の瞼の尤度として推定している。
北川洋介、加藤丈和、呉海元、和田俊和著「アイモデルを用いたCondensationによる黒目追跡」画像の認識・理解シンポジウム(MIRU2005) インタラクティブセッション、pp.1343--1350、(2005).
2. Description of the Related Art Conventionally, a technique for tracking a black eye by condensation using an eye model for detecting a moving direction of a line of sight is known (see, for example, Non-Patent Document 1). In the technique described in Non-Patent Document 1, at least one model parameter of the right heel shape model (瞼 model) is changed a plurality of times and image coordinates on which the shape of the right heel shape model is projected On the (two-dimensional coordinates), the likelihood of the right eyelid is estimated based on the image data of the image captured by the imaging means such as a camera that captures the image and outputs the image data. Similarly, at least one model parameter of the left heel shape model is changed a plurality of times, and the image captured by the imaging unit is projected on the image coordinates on which the shape of the left heel shape model is projected. The likelihood of the left eyelid is estimated based on the image data. Then, the sum of the likelihood of the estimated right eyelid and the likelihood of the left eyelid is estimated as the overall likelihood of the eyelid.
Yosuke Kitagawa, Takekazu Kato, Motoshi Kure, Toshikazu Wada “Kurome Tracking with Condensation Using Eye Models” Image Recognition and Understanding Symposium (MIRU2005) Interactive Session, pp.1343--1350, (2005).

しかしながら、非特許文献1に記載の技術では、図7(A)に示すように、画像を撮影したカメラ90に対して撮影対象の顔が横を向いていない状況、すなわち画像を撮影した際のカメラ90の位置と右の瞼92との距離、及びカメラ90の位置と左の瞼94との距離が等しい状況を想定して全体の瞼の尤度を推定しており、図7(B)に示すように、画像を撮影したカメラ90に対して撮影対象の顔が横を向いている状況、すなわち画像を撮影した際のカメラ90の位置と右の瞼92との距離、及び当該カメラ90の位置と左の瞼94との距離が異なる状況では、カメラ90から遠いほうの瞼(図7(B)の例では、左の瞼94)では、遠いほうの瞼を含む領域の画像の精度が近い方の瞼を含む領域の画像の精度と比較して良好なものではなく、このため遠いほうの瞼の瞼尤度が良好な精度で推定できなくなり、ひいては全体の瞼尤度が良好な精度で推定できなくなる、という問題がある。   However, in the technique described in Non-Patent Document 1, as shown in FIG. 7A, the situation where the face to be imaged does not face sideways with respect to the camera 90 that captured the image, that is, when the image was captured The likelihood of the entire eyelid is estimated on the assumption that the distance between the position of the camera 90 and the right eyelid 92 and the distance between the position of the camera 90 and the left eyelid 94 are equal, and FIG. As shown in FIG. 4, the situation where the face to be imaged faces sideways with respect to the camera 90 that captured the image, that is, the distance between the position of the camera 90 and the right eyelid 92 when the image is captured, and the camera 90 In the situation where the distance between the position of and the left eyelid 94 is different, the accuracy of the image of the region including the farther eyelid is farther from the camera 90 (the left eyelid 94 in the example of FIG. 7B). Is not as good as the accuracy of the image of the area containing the wrinkles closer to Ku, this because of the eyelids likelihood of far more of the eyelids can not be estimated with good accuracy, and thus the entire eyelid likelihood can not be estimated with good accuracy, there is a problem in that.

本発明は、上記の問題を解決するために成されたものであり、画像に含まれる撮影対象の顔の画像が横を向いている場合であっても、瞼尤度をより良好な精度で演算することができる瞼尤度演算装置、及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problem, and even when the image of the face to be photographed included in the image faces sideways, the likelihood of wrinkles can be improved with better accuracy. It is an object of the present invention to provide a wrinkle likelihood calculation device and a program that can be calculated.

上記の目的を達成するために、本発明の第1の瞼尤度演算装置は、顔の画像を含む画像を撮影して画像データを出力する撮影手段と、前記画像データに基づいて、前記顔の顔向き角度を検出する検出手段と、複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第1の演算手段と、前記検出手段によって検出された顔向き角度に応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である前記右の比較瞼モデル及び前記左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの前記右の瞼尤度に重み付けた値と、前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの前記左の瞼尤度に重み付けた値との和を該組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算する第2の演算手段と、前記第2の演算手段によって複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算する第3の演算手段とを含んで構成されている。   In order to achieve the above object, a first heel likelihood calculating apparatus according to the present invention includes a photographing unit that captures an image including a face image and outputs image data, and the face based on the image data. Detecting means for detecting the face orientation angle, a starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left upper eyelid by a plurality of second model parameters And a storage means for storing a port model defining the shape of the left lower eyelid, and creating a plurality of right comparison eyelid models by changing at least one model parameter of the first model parameter a plurality of times A creating means for creating a plurality of left comparison kites by changing at least one model parameter of the second model parameter a plurality of times, and a right comparison kit model A right heel likelihood indicating the degree of matching between the shape of the right upper eyelid and the shape of the right lower eyelid and the shape of the right upper eyelid and the shape of the right lower eyelid of the image photographed by the photographing means; and The left heel likelihood indicating the degree to which the shapes of the left upper heel and the left lower heel represented by the left comparative heel model match the shapes of the left upper heel and the left lower heel of the image. A first calculating means for calculating, and a starboard and a left upper eye including a right upper eyelid and a right lower eyelid of an image photographed by the photographing means according to a face orientation angle detected by the detecting means And the size corresponding to the likelihood of the eyelid farther from the position where the image was photographed by the photographing means among the left eyelids including the left lower eyelid is the size corresponding to the eyelid likelihood of the near eyelid The weight corresponding to the right eyelid out of the weights corresponding to the left and right eyelids determined to be smaller than A value weighted to the right heel likelihood of the right comparative heel model in the combination of the right comparative heel model and the left comparative heel model having the same opening, and a weight corresponding to each of the left and right heel models A second calculation for performing a plurality of calculations for each combination as a right and left heel likelihood in the combination of a weight corresponding to the left heel and a value obtained by weighting the left heel likelihood of the left comparison heel model Means, and third computing means for computing the largest left and right eyelid likelihood as the overall eyelid likelihood among the left and right eyelid likelihood for each combination calculated by the second computing means. It is configured.

本発明の瞼尤度演算装置によれば、撮影手段、例えばカメラ等によって撮影された画像に含まれる顔の画像が横を向いている場合(すなわち、画像に含まれる撮影対象の顔の画像が横を向いている場合)であっても、画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度に重み付けた値と、左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの左の瞼尤度に重み付けた値との和をこの組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算し、複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算するので、全体の瞼尤度に対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度をより良好な精度で演算することができる。   According to the eyelid likelihood calculation apparatus of the present invention, when a face image included in an image captured by an imaging unit, such as a camera, is facing sideways (that is, an image of a face to be captured included in the image is Even if it is facing sideways), the size corresponding to the eyelid likelihood of the eyelid farther to the position where the image was taken is smaller than the size corresponding to the eyelid likelihood of the near eyelid. The weight corresponding to the right eyelid among the weights corresponding to the left and right eyelids determined in the above is the right comparison eyelid model with the same eyelid opening degree and the right comparison eyelid model in the combination of the left eyelid eyelid model. The sum of the value weighted to the right eyelid likelihood and the weight corresponding to the left eyelid among the weights corresponding to the left and right eyelids, and the value weighted to the left eyelid likelihood of the left comparative eyelid model Multiple calculations for each combination as left and right heel likelihood in this combination Of the left and right wing likelihoods for each of the combinations calculated, the largest left and right heel likelihoods are calculated as the overall 瞼 likelihood, so the 瞼 likelihood of the cocoon with the lower accuracy relative to the overall 瞼 likelihood , And the overall likelihood of wrinkles can be calculated with better accuracy.

また、上記の目的を達成するために、本発明の第2の瞼尤度演算装置は、顔の画像を含む画像を撮影して画像データを出力する撮影手段と、前記画像データに基づいて、前記顔の右目までの距離及び左目までの距離、前記顔の右耳までの距離及び左耳までの距離、または前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する検出手段と、複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第1の演算手段と、前記検出手段によって検出された前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、または前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離に応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である前記右の比較瞼モデル及び前記左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの前記右の瞼尤度に重み付けた値と、前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの前記左の瞼尤度に重み付けた値との和を該組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算する第2の演算手段と、前記第2の演算手段によって複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算する第3の演算手段とを含んで構成されている。   In order to achieve the above object, the second heel likelihood computing device of the present invention is based on an image capturing unit that captures an image including a face image and outputs image data, and the image data. The distance to the right eye and the left eye of the face, the distance to the right ear of the face and the distance to the left ear, or the distance from the right eye to the right eye and the left eye to the left eye A detecting means for detecting a distance to the eyes, a starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left upper eyelid by a plurality of second model parameters And a storage means for storing a port model defining the shape of the left lower eyelid, and creating a plurality of right comparison eyelid models by changing at least one model parameter of the first model parameter a plurality of times Creating means for creating a plurality of left comparison kites by changing at least one model parameter of the second model parameter a plurality of times, and a right upper kite and a right model represented by the right comparison kit Expressed by the right eyelid likelihood indicating the degree of matching between the shape of the lower eyelid and the shape of the right upper eyelid and the shape of the right lower eyelid of the image photographed by the photographing means, and the left comparative eyelid model First computing means for computing a left heel likelihood indicating a degree of matching between the shapes of the left upper heel and the left lower heel and the shapes of the left upper heel and the left lower heel of the image; The distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear detected by the detecting means, or the distance from the right eye to the right eye and the left eye The eyes of the left eye Of the image taken by the photographing means according to the distance at the right starboard including the right upper eyelid and the right lower eyelid and the left upper eyelet and the left starboard including the left lower eyelid by the photographing means. Corresponding to each of the left and right eyelids, the size corresponding to the eyelid likelihood of the eyelid farther from the position where the image was taken is smaller than the size corresponding to the eyelid likelihood of the near eyelid Of the weights, the weight corresponding to the right eyelid is weighted to the right eyelid likelihood of the right comparison eyelid model and the right comparison eyelid model in the combination of the right eyelid opening model and the left eyelid eyelid model. The sum of the value and the weight corresponding to the left eyelid among the weights corresponding to each of the left and right eyelids, and the value obtained by weighting the left eyelid likelihood of the left comparative eyelid model, A second calculating means for calculating a plurality of likelihoods for each combination; Among the left and right eyelid likelihoods for each combination calculated by the second computing means, the third arithmetic means for computing the largest left and right eyelid likelihood as the overall eyelid likelihood is configured. .

本発明の瞼尤度演算装置によれば、撮影手段、例えばステレオカメラ等によって撮影された画像に含まれる顔の画像が横を向いている場合(すなわち、画像に含まれる撮影対象の顔の画像が横を向いている場合)であっても、画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度に重み付けた値と、左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの左の瞼尤度に重み付けた値との和をこの組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算し、複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算するので、全体の瞼尤度に対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度をより良好な精度で演算することができる。   According to the eyelid likelihood calculation apparatus of the present invention, when a face image included in an image captured by an imaging unit, such as a stereo camera, is facing sideways (that is, an image of a face to be captured included in the image). Even when the image is taken sideways), the size corresponding to the eyelid likelihood of the eyelid farther from the position where the image was taken is smaller than the size corresponding to the eyelid likelihood of the near eyelid. Of the weights corresponding to each of the left and right eyelids determined as described above, the weight corresponding to the right eyelid is set to the right comparison eyelid model in the combination of the right eyelid opening model and the left eyelid eyelid model having the same eyelid opening. The weight of the right heel likelihood and the weight corresponding to the left heel among the weights corresponding to the left and right heels, and the value weighted to the left heel likelihood of the left comparative heel model For each combination as the left and right heel likelihood in this combination Of the left and right heel likelihoods for each combination that has been arithmetically calculated, the largest left and right heel likelihood is calculated as the overall heel likelihood, so the accuracy of the heel with the lower accuracy relative to the overall heel likelihood The ratio of the heel likelihood becomes smaller, so that the overall heel likelihood can be calculated with better accuracy.

また、上記の目的を達成するために、本発明の第3の瞼尤度演算装置は、顔の画像を含む画像を撮影して画像データを出力する撮影手段と、前記画像データに基づいて、前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラスト、または前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第1の演算手段と、複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第2の演算手段と、前記第1の演算手段によって演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、または前記右目領域のエッジ強度及び前記左目領域のエッジ強度に応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち、コントラストまたはエッジ強度が小さいほうの瞼の瞼尤度に対応する大きさが、コントラストまたはエッジ強度が大きいほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である前記右の比較瞼モデル及び前記左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの前記右の瞼尤度に重み付けた値と、前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの前記左の瞼尤度に重み付けた値との和を該組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算する第3の演算手段と、前記第3の演算手段によって複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算する第4の演算手段とを含んで構成されている。   In order to achieve the above object, the third heel likelihood computing device of the present invention is based on an image capturing unit that captures an image including a face image and outputs image data, and the image data. First computing means for computing the contrast of the right eye region of the face image and the contrast of the left eye region of the face image, or the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image And a starboard model in which the shape of the right upper eyelid and the right lower eyelid are determined by a plurality of first model parameters, and a shape of the left upper eyelid and the left armpit are determined by a plurality of second model parameters. A storage means for storing the left port model, and at least one model parameter of the first model parameter is changed a plurality of times to create a plurality of right comparison model models, and the second model Creating means for creating a plurality of left comparison eyelid models by changing at least one model parameter of the parameter a plurality of times, and each shape of the right upper eyelid and the right lower eyelet represented by the right comparison eyelid model And the left upper eye represented by the left comparative eye model indicating the degree to which the shape of the right upper eyelid and the right lower eyelid of the image photographed by the photographing means coincide with each other. And a second computing means for computing a left heel likelihood indicating a degree of matching between each shape of the left lower eyelid and each shape of the left upper eyelid and the left lower eyelid of the image, According to the contrast of the right eye region and the contrast of the left eye region calculated by the calculating unit, or the edge strength of the right eye region and the edge strength of the left eye region, the upper right corner of the image photographed by the photographing unit and Right Of the starboard including the heel and the left upper heel and the left heel including the left lower heel, the size corresponding to the 瞼 likelihood of the heel with the smaller contrast or edge strength is the one with the larger contrast or edge strength. Of the weights corresponding to the left and right eyelids, the weight corresponding to the right eyelid is set to be smaller than the size corresponding to the eyelid likelihood of the eyelid, and the right comparative eyelid model having the same eyelid opening degree. And a value weighted to the right heel likelihood of the right comparative heel model in the combination of the left comparative heel model and a weight corresponding to the left heel among the weights corresponding to each of the left and right heels, A third computing means for computing a plurality of combinations for each combination as a right and left likelihood for the combination, and a plurality of computations by the third computing means. Left for each combination Among the right wing likelihoods, a fourth calculation means for calculating the largest left and right heel likelihoods as the overall heel likelihood is configured.

本発明の瞼尤度演算装置によれば、撮影手段、例えばステレオカメラ等によって撮影された画像に含まれる顔の画像が横を向いている場合(すなわち、画像に含まれる撮影対象の顔の画像が横を向いている場合)であっても、コントラストまたはエッジ強度が小さいほうの瞼の瞼尤度に対応する大きさが、コントラストまたはエッジ強度が大きいほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた左右の瞼の各々に対応する重み、すなわち、画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度に重み付けた値と、左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの左の瞼尤度に重み付けた値との和をこの組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算し、複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算するので、全体の瞼尤度に対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度をより良好な精度で演算することができる。   According to the eyelid likelihood calculation apparatus of the present invention, when a face image included in an image captured by an imaging unit, such as a stereo camera, is facing sideways (that is, an image of a face to be captured included in the image). The size corresponding to the likelihood of the eyelid with the smaller contrast or edge strength is the size corresponding to the likelihood of the eyelid with the higher contrast or edge strength. The weight corresponding to each of the left and right eyelids determined to be smaller than that, that is, the magnitude corresponding to the eyelid likelihood of the eyelid farther from the position where the image was taken, is the eyelid likelihood of the near eyelid. Of the weights corresponding to each of the left and right eyelids determined to be smaller than the corresponding size, the weight corresponding to the right eyelid is a combination of the right comparison eyelid model and the left comparison eyelid model having the same eyelid opening. Right in A value weighted to the right eye likelihood of the comparative eyelid model and a weight corresponding to the left eyelid among the weights corresponding to each of the left and right eyelids, weighted to the left eyelid likelihood of the left eyelid model Is calculated for each combination as the left and right heel likelihoods in this combination, and the largest left and right heel likelihood is calculated as the overall heel likelihood for each combination. Therefore, the ratio of the heel likelihood of the cocoon with the lower accuracy relative to the overall heel likelihood becomes smaller, whereby the overall heel likelihood can be calculated with better accuracy.

また、上記の目的を達成するために、本発明の第4の瞼尤度演算装置は、顔の画像を含む画像を撮影して画像データを出力する撮影手段と、前記画像データに基づいて前記顔の顔向き角度を検出する第1の検出手段、前記画像データに基づいて前記顔の右目までの距離及び左目までの距離を検出する第2の検出手段、前記画像データに基づいて前記顔の右耳までの距離及び左耳までの距離を検出する第3の検出手段、前記画像データに基づいて前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する第4の検出手段、前記画像データに基づいて前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラストを演算する第1の演算手段、並びに前記画像データに基づいて前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第2の演算手段の少なくとも1つの手段を備えた処理手段と、複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第3の演算手段と、検出された顔向き角度、前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離、演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、並びに前記右目領域のエッジ強度及び前記左目領域のエッジ強度の少なくとも1つに応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である前記右の比較瞼モデル及び前記左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの前記右の瞼尤度に重み付けた値と、前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの前記左の瞼尤度に重み付けた値との和を該組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算する第4の演算手段と、前記第4の演算手段によって複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算する第5の演算手段とを含んで構成されている。   In order to achieve the above object, the fourth heel likelihood calculation device of the present invention is configured to capture an image including a face image and output image data, and based on the image data, First detection means for detecting a face orientation angle of the face, second detection means for detecting a distance to the right eye and a distance to the left eye of the face based on the image data, and the face of the face based on the image data Third detection means for detecting a distance to the right ear and a distance to the left ear, a distance from the right eye to the right eye based on the image data, and a distance from the left eye to the left eye Fourth detection means for detecting a distance, first calculation means for calculating the contrast of the right eye region of the face image and the contrast of the left eye region of the face image based on the image data, and based on the image data Processing means comprising at least one means of second computing means for computing the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image; and a right by a plurality of first model parameters Storage means for storing a starboard model that defines the shape of the upper arm and the lower arm of the right, and a port model that defines the shape of the left upper arm and the left armpit according to a plurality of second model parameters; Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison eyelid models, each shape of the right upper eyelid and right lower eyelid represented by the right comparison eyelid model, and the photographing means Therefore, the right upper eyelid likelihood indicating the degree of coincidence between the shape of the right upper eyelid and the right lower eyelid of the captured image, and the left upper eyelid and the lower left left represented by the left comparative eyelid model Third computing means for computing a left eyelid likelihood indicating a degree of matching between each shape of the eyelid and each shape of the left upper eyelid and the left lower eyelid of the image, the detected face orientation angle, The distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear, the distance from the right eye to the right eye and the distance from the left eye to the left eye The right contrast of the right eye area and the contrast of the left eye area, and the edge intensity of the right eye area and the edge intensity of the left eye area calculated according to at least one of the calculated right eye area contrast and the left eye area. Right including heel and right lower heel The size corresponding to the heel likelihood of the heel farther from the position where the image was photographed by the photographing means out of the left heel including the heel, the left upper heel, and the left lower heel The weight corresponding to the right eyelid among the weights corresponding to the left and right eyelids determined to be smaller than the size corresponding to the likelihood, the right comparative eyelid model having the same eyelid opening and the left The right comparison 瞼 model of the right comparison 瞼 model in the combination of the right heel likelihood and the weight corresponding to the left heel among the weights corresponding to the left and right heels, the left comparison 瞼 model A fourth calculation means for performing a plurality of calculations for each combination as a left and right wrinkle likelihood in the combination, and a combination calculated by the fourth calculation means; The largest left of each left and right heel likelihood The eyelids likelihood is configured to include a fifth calculating means for calculating the overall eyelid likelihood.

本発明の瞼尤度演算装置によれば、撮影手段、例えばステレオカメラ等によって撮影された画像に含まれる顔の画像が横を向いている場合(すなわち、画像に含まれる撮影対象の顔の画像が横を向いている場合)であっても、画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度に重み付けた値と、左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの左の瞼尤度に重み付けた値との和をこの組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算し、複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算するので、全体の瞼尤度に対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度をより良好な精度で演算することができる。   According to the eyelid likelihood calculation apparatus of the present invention, when a face image included in an image captured by an imaging unit, such as a stereo camera, is facing sideways (that is, an image of a face to be captured included in the image). Even when the image is taken sideways), the size corresponding to the eyelid likelihood of the eyelid farther from the position where the image was taken is smaller than the size corresponding to the eyelid likelihood of the near eyelid. Of the weights corresponding to each of the left and right eyelids determined as described above, the weight corresponding to the right eyelid is set to the right comparison eyelid model in the combination of the right eyelid opening model and the left eyelid eyelid model having the same eyelid opening. The weight of the right heel likelihood and the weight corresponding to the left heel among the weights corresponding to the left and right heels, and the value weighted to the left heel likelihood of the left comparative heel model For each combination as the left and right heel likelihood in this combination Of the left and right heel likelihoods for each combination that has been arithmetically calculated, the largest left and right heel likelihood is calculated as the overall heel likelihood, so the accuracy of the heel with the lower accuracy relative to the overall heel likelihood The ratio of the heel likelihood becomes smaller, so that the overall heel likelihood can be calculated with better accuracy.

また、上記の目的を達成するために、本発明の第5の瞼尤度演算装置は、顔の画像を含む画像を撮影して画像データを出力する撮影手段と、前記画像データに基づいて前記顔の顔向き角度を検出する第1の検出手段、前記画像データに基づいて前記顔の右目までの距離及び左目までの距離を検出する第2の検出手段、前記画像データに基づいて前記顔の右耳までの距離及び左耳までの距離を検出する第3の検出手段、前記画像データに基づいて前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する第4の検出手段、前記画像データに基づいて前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラストを演算する第1の演算手段、並びに前記画像データに基づいて前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第2の演算手段の少なくとも1つの手段を備えた処理手段と、複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第3の演算手段と、検出された顔向き角度、前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離、演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、並びに前記右目領域のエッジ強度及び前記左目領域のエッジ強度の少なくとも1つに応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを前記第3の演算手段によって演算された最大の前記右の瞼尤度に重み付けた値、及び前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを前記第3の演算手段によって演算された最大の前記左の瞼尤度に重み付けた値のうち大きい方の値を選択する選択手段と、前記選択手段によって選択された値を、該選択された方の瞼の瞼尤度として演算する第4の演算手段とを含んで構成されている。   In order to achieve the above object, a fifth heel likelihood calculation device according to the present invention includes a photographing means for photographing an image including a face image and outputting image data, and the image data based on the image data. First detection means for detecting a face orientation angle of the face, second detection means for detecting a distance to the right eye and a distance to the left eye of the face based on the image data, and the face of the face based on the image data Third detection means for detecting a distance to the right ear and a distance to the left ear, a distance from the right eye to the right eye based on the image data, and a distance from the left eye to the left eye Fourth detection means for detecting a distance, first calculation means for calculating the contrast of the right eye region of the face image and the contrast of the left eye region of the face image based on the image data, and based on the image data Processing means comprising at least one means of second computing means for computing the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image; and a right by a plurality of first model parameters Storage means for storing a starboard model that defines the shape of the upper arm and the lower arm of the right, and a port model that defines the shape of the left upper arm and the left armpit according to a plurality of second model parameters; Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison eyelid models, each shape of the right upper eyelid and right lower eyelid represented by the right comparison eyelid model, and the photographing means Therefore, the right upper eyelid likelihood indicating the degree of coincidence between the shape of the right upper eyelid and the right lower eyelid of the captured image, and the left upper eyelid and the lower left left represented by the left comparative eyelid model Third computing means for computing a left eyelid likelihood indicating a degree of matching between each shape of the eyelid and each shape of the left upper eyelid and the left lower eyelid of the image, the detected face orientation angle, The distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear, the distance from the right eye to the right eye and the distance from the left eye to the left eye The right contrast of the right eye area and the contrast of the left eye area, and the edge intensity of the right eye area and the edge intensity of the left eye area calculated according to at least one of the calculated right eye area contrast and the left eye area. Right including heel and right lower heel The size corresponding to the heel likelihood of the heel farther from the position where the image was photographed by the photographing means out of the left heel including the heel, the left upper heel, and the left lower heel The maximum right heel likelihood calculated by the third calculating means is set to a weight corresponding to the right wing among weights corresponding to each of the left and right wings, which is determined to be smaller than a size corresponding to the likelihood. Of the weights corresponding to the left and right eyelids, and the weights corresponding to the left eyelids are weighted to the maximum left eyelid likelihood computed by the third computing means. Of these, a selection means for selecting the larger value and a fourth calculation means for calculating the value selected by the selection means as the likelihood of the selected eyelid are included.

本発明の瞼尤度演算装置によれば、撮影手段、例えばステレオカメラ等によって撮影された画像に含まれる顔の画像が横を向いている場合(すなわち、画像に含まれる撮影対象の顔の画像が横を向いている場合)であっても、画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、最大の右の瞼尤度に重み付けた値、及び左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、最大の左の瞼尤度に重み付けた値のうち大きい方の値を選択し、選択された値を、この選択された方の瞼の瞼尤度として演算する。すなわち、本発明の瞼尤度演算装置は、重み付けた値のうち大きい方の値を選択して、選択された値を、この選択された方の瞼の瞼尤度として演算するので、より良好な精度で瞼尤度を演算することができる。   According to the eyelid likelihood calculation apparatus of the present invention, when a face image included in an image captured by an imaging unit, such as a stereo camera, is facing sideways (that is, an image of a face to be captured included in the image). Even when the image is taken sideways), the size corresponding to the eyelid likelihood of the eyelid farther from the position where the image was taken is smaller than the size corresponding to the eyelid likelihood of the near eyelid. The weight corresponding to the right eyelid among the weights corresponding to each of the left and right eyelids determined as above, the value weighted to the maximum right eyelid likelihood, and the left of the weights corresponding to the left and right eyelids A larger value is selected from values obtained by weighting the weight corresponding to the heel to the maximum left heel likelihood, and the selected value is calculated as the heel likelihood of the selected heel. That is, the heel likelihood calculating device of the present invention selects a larger value among the weighted values, and calculates the selected value as the heel likelihood of the selected heel, which is better. The heel likelihood can be calculated with high accuracy.

また、本発明の瞼尤度演算装置は、前記右の瞼に対応する重みを前記最大の前記右の瞼尤度に重み付けた値、及び前記左の瞼に対応する重みを前記最大の前記左の瞼尤度に重み付けた値が共に所定の基準値以上である場合に、該最大の右の瞼尤度の右の比較瞼モデルが表す右瞼の瞼開度及び該最大の左の瞼尤度の左の比較瞼モデルが表す左瞼の瞼開度を検出し、検出された右瞼の瞼開度及び左瞼の瞼開度の比率を演算する第5の演算手段と、前記第4の演算手段によって演算された瞼尤度の比較瞼モデルが表す瞼の瞼開度を検出すると共に、該検出された瞼開度及び前記比率に基づいて、瞼開度が検出されていない方の瞼の瞼開度を演算することにより、瞼尤度が低い方の瞼の瞼開度を検出する第5の検出手段とを更に含むようにしてもよい。これにより、右の比較瞼モデル及び左の比較瞼モデルのどちらか一方のみ信頼性が高い場合に、信頼性の低いほうの瞼の瞼開度を精度良く検出することができる。   In addition, the heel likelihood calculating apparatus according to the present invention provides a value obtained by weighting a weight corresponding to the right heel to the maximum right heel likelihood, and a weight corresponding to the left heel is the maximum left When the weighted values of the heel likelihood are both equal to or greater than a predetermined reference value, the right heel opening represented by the right comparison heel model of the maximum right heel likelihood and the maximum left heel likelihood A fifth computing means for detecting a port side opening degree of the port side represented by the left comparison side model of the degree and calculating a ratio of the detected starboard side opening degree and the left side eyelid opening degree; The heel opening degree of the heel represented by the comparison heel model of the heel likelihood calculated by the computing means is detected, and the heel opening degree is not detected based on the detected heel opening degree and the ratio. A fifth detection means for detecting the eyelid opening degree of the eyelid having the lower eyelid likelihood by calculating the eyelid opening degree of the eyelid may be further included.Accordingly, when only one of the right comparative eyelid model and the left comparative eyelid model is highly reliable, the eyelid opening degree of the lower reliability eyelid can be accurately detected.

また、上記の目的を達成するために、本発明の第6の瞼尤度演算装置は、顔の画像を含む画像を撮影して画像データを出力する撮影手段と、前記画像データに基づいて前記顔の顔向き角度を検出する第1の検出手段、前記画像データに基づいて前記顔の右目までの距離及び左目までの距離を検出する第2の検出手段、前記画像データに基づいて前記顔の右耳までの距離及び左耳までの距離を検出する第3の検出手段、前記画像データに基づいて前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する第4の検出手段、前記画像データに基づいて前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラストを演算する第1の演算手段、並びに前記画像データに基づいて前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第2の演算手段の少なくとも1つの手段を備えた処理手段と、複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、前記画像データに基づいて、前記顔の画像に含まれる右目の目領域の画像である右目領域画像の画素数に対する所定の輝度以上の画素数の割合である第1の割合、及び前記顔の画像に含まれる左目の目領域の画像である左目領域画像の画素数に対する所定の輝度以上の画素数の割合である第2の割合を演算する第3の演算手段と、前記第3の演算手段によって演算された前記第1の割合が所定値以下の場合にのみ前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度を演算すると共に、前記第3の演算手段によって演算された前記第2の割合が所定値以下の場合にのみ前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第4の演算手段と、検出された顔向き角度、前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離、演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、並びに前記右目領域のエッジ強度及び前記左目領域のエッジ強度の少なくとも1つに応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち、前記第1の割合が所定値以下でありかつ前記第2の割合が所定値以下である場合には、右の瞼に対応する重みを前記第4の演算手段によって演算された最大の前記右の瞼尤度に重み付けた値、及び前記左右の瞼の各々に対応する重みのうち、左の瞼に対応する重みを前記第4の演算手段によって演算された最大の前記左の瞼尤度に重み付けた値のうち大きいほうの値を選択すると共に、前記第1の割合及び前記第2の割合の一方の割合のみが所定値以下である場合には、前記第4の演算手段によって演算された前記第1の割合または前記第2の割合が所定値以下となる方の瞼の最大の瞼尤度に、該瞼に対応する重みを重み付けた値を選択する選択手段と、前記選択手段によって選択された値を、該選択された方の瞼の瞼尤度として演算する第5の演算手段とを含んで構成されている。   In order to achieve the above object, a sixth heel likelihood computing device of the present invention includes a photographing means for photographing an image including a face image and outputting image data, and the image data based on the image data. First detection means for detecting a face orientation angle of the face, second detection means for detecting a distance to the right eye and a distance to the left eye of the face based on the image data, and the face of the face based on the image data Third detection means for detecting a distance to the right ear and a distance to the left ear, a distance from the right eye to the right eye based on the image data, and a distance from the left eye to the left eye Fourth detection means for detecting a distance, first calculation means for calculating the contrast of the right eye region of the face image and the contrast of the left eye region of the face image based on the image data, and based on the image data Processing means comprising at least one means of second computing means for computing the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image; and a right by a plurality of first model parameters Storage means for storing a starboard model that defines the shape of the upper arm and the lower arm of the right, and a port model that defines the shape of the left upper arm and the left armpit according to a plurality of second model parameters; Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparative eyelid models, and a right eye area that is an image of an eye area of the right eye included in the face image based on the image data; A first ratio that is a ratio of the number of pixels equal to or higher than a predetermined luminance to the number of pixels of the image, and a pixel that is equal to or higher than a predetermined luminance relative to the number of pixels of the left eye region image that is an image of the left eye region included in the face image A third calculation means for calculating a second ratio, which is a ratio of numbers, and the right comparison kit model only when the first ratio calculated by the third calculation means is less than or equal to a predetermined value. The right upper eyelid and the right lower eyelid are calculated and the right upper eyelid likelihood indicating the degree to which the shapes of the right upper eyelid and the right lower eyelid of the image photographed by the photographing means coincide with each other is calculated. And the shape of the left upper eyelid and the left lower eyelid represented by the left comparative eyelid model only when the second ratio calculated by the third calculating means is less than or equal to a predetermined value, Degree of matching of the shape of the upper left heel and left lower heel of the image A fourth calculation means for calculating the left eyelid likelihood indicating the detected face orientation angle, the distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear, The distance from the right eye eye to the right eye eye and the distance from the left eye eye to the left eye eye, the calculated contrast of the right eye region and the left eye region, and the edge strength of the right eye region and the According to at least one of the edge intensities of the left eye region, a starboard including a right upper eyelid and a right lower eyelid and a left upper eyelid and a left lower eyelid of the image photographed by the photographing means. Of the left and right sides, the size corresponding to the heel likelihood of the farther heel is smaller than the size corresponding to the heel likelihood of the closer heel Each pair When the first ratio is less than or equal to a predetermined value and the second ratio is less than or equal to the predetermined value, the weight corresponding to the right eyelid is calculated by the fourth calculation means Of the values weighted to the maximum right heel likelihood and the weights corresponding to each of the left and right heels, the weight corresponding to the left heel is the maximum of the left If the larger value of the values weighted to the likelihood is selected and only one of the first ratio and the second ratio is less than or equal to a predetermined value, the fourth computing means Selection means for selecting a value obtained by weighting the maximum heel likelihood of the cocoon having the first ratio or the second ratio calculated by the formula (1) or less being a predetermined value or less with a weight corresponding to the cocoon; The value selected by the selection means is set to the likelihood of the selected one. It is configured to include a fifth computing means for computing a.

本発明の瞼尤度演算装置は、第1の割合(右目領域の高輝度画素領域面積比)及び第2の割合(左目領域の高輝度画素領域面積比)を演算し、第1の割合が所定値以下の場合にのみ右の瞼尤度を演算すると共に、第2の割合が所定値以下の場合にのみ左の瞼尤度を演算する。そして、本発明の瞼尤度演算装置は、左右の瞼の各々に対応する重みのうち、第1の割合が所定値以下でありかつ第2の割合が所定値以下である場合には、右の瞼に対応する重みを右の瞼尤度に重み付けた値、及び左の瞼に対応する重みを左の瞼尤度に重み付けた値のうち大きいほうの値を選択すると共に、第1の割合及び第2の割合の一方の割合のみが所定値以下である場合には、割合が所定値以下の方の瞼の最大の瞼尤度(最大の右の瞼尤度または最大の左の瞼尤度)に、この瞼に対応する重みを重み付けた値を選択する。これにより、精度良く瞼尤度を演算することができないほうの瞼の瞼尤度を複雑な演算によって演算することなく、より簡易に瞼尤度を演算することができる。   The eyelid likelihood calculation apparatus according to the present invention calculates a first ratio (a high luminance pixel area area ratio of the right eye region) and a second ratio (a high luminance pixel area area ratio of the left eye region), and the first ratio is The right heel likelihood is calculated only when the value is equal to or less than the predetermined value, and the left heel likelihood is calculated only when the second ratio is equal to or less than the predetermined value. Then, the heel likelihood calculating apparatus according to the present invention, when the first ratio is equal to or less than a predetermined value and the second ratio is equal to or less than the predetermined value among the weights corresponding to the left and right heels, The value corresponding to the right heel likelihood is weighted to the right heel likelihood, and the weight corresponding to the left heel is weighted to the left heel likelihood and the larger value is selected, and the first ratio When only one of the second ratios is less than or equal to a predetermined value, the maximum likelihood of the heel whose ratio is less than or equal to the predetermined value (the maximum right likelihood or the maximum left likelihood) Degree), a value obtained by weighting the weight corresponding to this wrinkle is selected. As a result, it is possible to calculate the heel likelihood more easily without calculating the heel likelihood of the heel that cannot calculate the heel likelihood with high accuracy by a complicated operation.

また、本発明の瞼尤度演算装置によれば、重み付けた値のうち大きい方の値を選択して、選択された値を、この選択された方の瞼の瞼尤度として演算するので、より良好な精度で瞼尤度を演算することができる。   Further, according to the heel likelihood calculating device of the present invention, the larger value among the weighted values is selected, and the selected value is calculated as the heel likelihood of the selected heel. The heel likelihood can be calculated with better accuracy.

また、上記の目的を達成するために、本発明の第7の瞼尤度演算装置は、顔の画像を含む画像を撮影して画像データを出力する撮影手段と、前記画像データに基づいて前記顔の顔向き角度を検出する第1の検出手段、前記画像データに基づいて前記顔の右目までの距離及び左目までの距離を検出する第2の検出手段、前記画像データに基づいて前記顔の右耳までの距離及び左耳までの距離を検出する第3の検出手段、前記画像データに基づいて前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する第4の検出手段、前記画像データに基づいて前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラストを演算する第1の演算手段、並びに前記画像データに基づいて前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第2の演算手段の少なくとも1つの手段を備えた処理手段と、複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、前記画像データに基づいて、前記顔の画像に含まれる右目の目領域の画像である右目領域画像の画素数に対する所定の輝度以上の画素数の割合である第1の割合、及び前記顔の画像に含まれる左目の目領域の画像である左目領域画像の画素数に対する所定の輝度以上の画素数の割合である第2の割合を演算する第3の演算手段と、前記第3の演算手段によって演算された前記第1の割合が所定値以下の場合に前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度を演算すると共に前記第1の割合が所定値より大きい場合に、所定の第1の値を右の瞼尤度とすることにより該右の瞼尤度を演算し、かつ前記第3の演算手段によって演算された前記第2の割合が所定値以下の場合に前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算すると共に前記第2の割合が所定値より大きい場合に、所定の第1の値を左の瞼尤度とすることにより該左の瞼尤度を演算する第4の演算手段と、検出された顔向き角度、前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離、演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、並びに前記右目領域のエッジ強度及び前記左目領域のエッジ強度の少なくとも1つに応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち、右の瞼に対応する重みを前記第4の演算手段によって演算された最大の前記右の瞼尤度に重み付けた値、及び前記左右の瞼の各々に対応する重みのうち、左の瞼に対応する重みを前記第4の演算手段によって演算された最大の前記左の瞼尤度に重み付けた値のうち大きいほうの値を選択する選択手段と、前記選択手段によって選択された値を、該選択された方の瞼の瞼尤度として演算する第5の演算手段とを含んで構成されている。   In order to achieve the above object, a seventh heel likelihood calculating apparatus according to the present invention includes a photographing unit that captures an image including a face image and outputs image data, and the image data based on the image data. First detection means for detecting a face orientation angle of the face, second detection means for detecting a distance to the right eye and a distance to the left eye of the face based on the image data, and the face of the face based on the image data Third detection means for detecting a distance to the right ear and a distance to the left ear, a distance from the right eye to the right eye based on the image data, and a distance from the left eye to the left eye Fourth detection means for detecting a distance, first calculation means for calculating the contrast of the right eye region of the face image and the contrast of the left eye region of the face image based on the image data, and based on the image data Processing means comprising at least one means of second computing means for computing the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image; and a right by a plurality of first model parameters Storage means for storing a starboard model that defines the shape of the upper arm and the lower arm of the right, and a port model that defines the shape of the left upper arm and the left armpit according to a plurality of second model parameters; Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparative eyelid models, and a right eye area that is an image of an eye area of the right eye included in the face image based on the image data; A first ratio that is a ratio of the number of pixels equal to or higher than a predetermined luminance to the number of pixels of the image, and a pixel that is equal to or higher than a predetermined luminance relative to the number of pixels of the left eye region image that is an image of the left eye region included in the face image A third calculating means for calculating a second ratio, which is a ratio of numbers, and the right comparison model when the first ratio calculated by the third calculating means is a predetermined value or less. The right upper eyelid and the right lower eyelid, and the right upper eyelid likelihood indicating the degree of coincidence between the right upper eyelid and the right lower eyelid shape of the image photographed by the photographing means is calculated. When the first ratio is larger than a predetermined value, the right heel likelihood is calculated by setting the predetermined first value as the right heel likelihood, and is calculated by the third calculation means. When the second ratio is less than or equal to a predetermined value, Therefore, the left upper eyelid and left lower eyelid shapes represented by the left upper eyelid and left lower eyelid shapes of the image are calculated, and the left eyelid likelihood is calculated. A fourth computing means for computing the left eyelid likelihood by setting the predetermined first value as the left eyelid likelihood when the ratio of 2 is larger than a predetermined value; and a detected face orientation angle; The distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear, the distance from the right eye to the right eye, and the left eye to the left eye According to at least one of the distance, the calculated contrast of the right eye region and the contrast of the left eye region, and the edge strength of the right eye region and the edge strength of the left eye region, the right side of the image photographed by the photographing unit Starboard including upper arm and lower arm The size corresponding to the likelihood of the eyelid farther from the position where the image was taken by the photographing means among the left eyelid including the left upper eyelid and the left lower eyelid is the likelihood of the closer eyelid Among the weights corresponding to each of the left and right eyelids so as to be smaller than the size corresponding to the degree, the weight corresponding to the right eyelid is the maximum right eyelid likelihood calculated by the fourth arithmetic means. Of the weights corresponding to the left and right eyelids, the weight corresponding to the left eyelid is weighted to the maximum left eyelid likelihood computed by the fourth computing means. Selection means for selecting the larger one of the values, and fifth calculation means for calculating the value selected by the selection means as the 瞼 likelihood of the selected eyelid .

本発明の瞼尤度演算装置によれば、第1の割合が所定値より大きい場合には、所定の第1の値(例えば0)を右の瞼尤度として演算し、また、第2の割合が所定値より大きい場合には、所定の第1の値(例えば0)を左の瞼尤度として演算する。これにより、精度良く瞼尤度を演算することができないほうの瞼の瞼尤度を複雑な演算によって演算することなく、所定の第1の値としているので、より簡易に左右の瞼尤度を演算することができる。   According to the heel likelihood calculating apparatus of the present invention, when the first ratio is larger than the predetermined value, the predetermined first value (for example, 0) is calculated as the right heel likelihood, and the second When the ratio is larger than a predetermined value, a predetermined first value (for example, 0) is calculated as the left eyelid likelihood. As a result, the heel likelihood of the moth that cannot accurately calculate the heel likelihood is set to the predetermined first value without being calculated by a complicated operation. It can be calculated.

また、本発明の瞼尤度演算装置によれば、重み付けた値のうち大きい方の値を選択して、選択された値を、この選択された方の瞼の瞼尤度として演算するので、より良好な精度で瞼尤度を演算することができる。   Further, according to the heel likelihood calculating device of the present invention, the larger value among the weighted values is selected, and the selected value is calculated as the heel likelihood of the selected heel. The heel likelihood can be calculated with better accuracy.

また、上記の目的を達成するために、本発明の第1のプログラムは、コンピュータを、本発明の第1の瞼尤度演算装置または第2の瞼尤度演算装置における前記検出手段、前記作成手段、前記第1の演算手段、前記第2の演算手段、及び前記第3の演算手段として機能させる。従って、本発明のプログラムによれば、全体の瞼尤度に対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度をより良好な精度で演算することができる。   In order to achieve the above object, the first program of the present invention includes a computer, the detection means in the first 瞼 likelihood calculation device or the second 瞼 likelihood calculation device of the present invention, the creation Means, first computing means, second computing means, and third computing means. Therefore, according to the program of the present invention, the ratio of the heel likelihood of the heel having a lower accuracy with respect to the overall heel likelihood becomes smaller, and thereby the overall heel likelihood can be calculated with better accuracy. it can.

また、上記の目的を達成するために、本発明の第2のプログラムは、コンピュータを、本発明の第3の瞼尤度演算装置における前記第1の演算手段、前記作成手段、前記第2の演算手段、前記第3の演算手段、及び前記第4の演算手段として機能させる。従って、本発明のプログラムによれば、全体の瞼尤度に対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度をより良好な精度で演算することができる。   In order to achieve the above object, the second program of the present invention causes a computer to execute the first computing means, the creating means, the second computing device in the third 瞼 likelihood computing device of the present invention. It functions as a calculation means, the third calculation means, and the fourth calculation means. Therefore, according to the program of the present invention, the ratio of the heel likelihood of the heel having a lower accuracy with respect to the overall heel likelihood becomes smaller, and thereby the overall heel likelihood can be calculated with better accuracy. it can.

また、上記の目的を達成するために、本発明の第3のプログラムは、コンピュータを、本発明の第4の瞼尤度演算装置における前記処理手段、前記作成手段、前記第3の演算手段、前記第4の演算手段、及び前記第5の演算手段として機能させる。従って、本発明のプログラムによれば、全体の瞼尤度に対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度をより良好な精度で演算することができる。   In order to achieve the above object, a third program of the present invention comprises a computer, the processing means, the creating means, the third computing means in the fourth 瞼 likelihood calculating device of the present invention, It functions as the fourth calculation means and the fifth calculation means. Therefore, according to the program of the present invention, the ratio of the heel likelihood of the heel having a lower accuracy with respect to the overall heel likelihood becomes smaller, and thereby the overall heel likelihood can be calculated with better accuracy. it can.

また、上記の目的を達成するために、本発明の第4のプログラムは、コンピュータを、本発明の第5の瞼尤度演算装置における前記処理手段、前記作成手段、前記第3の演算手段、前記選択手段、及び前記第4の演算手段として機能させる。従って、本発明のプログラムによれば、重み付けた値のうち大きい方の値を選択して、選択された値を、この選択された方の瞼の瞼尤度として演算するので、より良好な精度で瞼尤度を演算することができる。   In order to achieve the above object, a fourth program of the present invention comprises a computer, the processing means, the creating means, the third calculating means in the fifth に お け る likelihood calculating device of the present invention, It functions as the selection means and the fourth calculation means. Therefore, according to the program of the present invention, the larger one of the weighted values is selected, and the selected value is calculated as the likelihood of the selected moth. Can be used to calculate the likelihood.

また、本発明のプログラムを、更に、前記右の瞼に対応する重みを前記最大の前記右の瞼尤度に重み付けた値、及び前記左の瞼に対応する重みを前記最大の前記左の瞼尤度に重み付けた値が共に所定の基準値以上である場合に、該最大の右の瞼尤度の右の比較瞼モデルが表す右瞼の瞼開度及び該最大の左の瞼尤度の左の比較瞼モデルが表す左瞼の瞼開度を検出し、検出された右瞼の瞼開度及び左瞼の瞼開度の比率を演算する第5の演算手段、及び前記第4の演算手段によって演算された瞼尤度の比較瞼モデルが表す瞼の瞼開度を検出すると共に、該検出された瞼開度及び前記比率に基づいて、瞼開度が検出されていない方の瞼の瞼開度を演算することにより、瞼尤度が低い方の瞼の瞼開度を検出する第5の検出手段としてコンピュータを機能させるようにしてもよい。これにより、右の比較瞼モデル及び左の比較瞼モデルのどちらか一方のみ信頼性が高い場合に、信頼性の低いほうの瞼の瞼開度を精度良く検出することができる。   Further, the program of the present invention further includes a value obtained by weighting a weight corresponding to the right eyelid to the maximum right eyelid likelihood, and a weight corresponding to the left eyelid being the maximum left eyelid. When both weighted values of likelihood are equal to or greater than a predetermined reference value, the right eyelid opening degree represented by the right comparison eyelid model of the maximum right eyelid likelihood and the maximum left eyelid likelihood A fifth computing means for detecting a port opening of the port represented by the left comparison rod model and calculating a ratio between the detected port opening of the starboard and the port opening of the port; and the fourth operation The heel opening degree of the heel represented by the comparison heel model of the heel likelihood calculated by the means is detected, and based on the detected heel opening degree and the ratio, The computer functions as a fifth detecting means for detecting the eyelid opening degree of the eyelid having the lower eyelid likelihood by calculating the eyelid opening degree. It may be allowed. Accordingly, when only one of the right comparative eyelid model and the left comparative eyelid model is highly reliable, the eyelid opening degree of the lower reliability eyelid can be accurately detected.

また、上記の目的を達成するために、本発明の第5のプログラムは、コンピュータを、本発明の第6または第7の瞼尤度演算装置における前記処理手段、前記作成手段、前記第3の演算手段、前記第4の演算手段、前記選択手段、及び前記第5の演算手段として機能させる。従って、本発明のプログラムによれば、重み付けた値のうち大きい方の値を選択して、選択された値を、この選択された方の瞼の瞼尤度として演算するので、より良好な精度で瞼尤度を演算することができる。また、より簡易に左右の瞼尤度を演算することができる。   In order to achieve the above object, a fifth program of the present invention causes a computer to execute the processing means, the creating means, the third means in the sixth or seventh likelihood likelihood arithmetic apparatus of the present invention. The calculation means, the fourth calculation means, the selection means, and the fifth calculation means are caused to function. Therefore, according to the program of the present invention, the larger one of the weighted values is selected, and the selected value is calculated as the likelihood of the selected moth. Can be used to calculate the likelihood. Also, the left and right eyelid likelihood can be calculated more easily.

以上説明したように、本発明の瞼尤度演算装置及びプログラムによれば、画像に含まれる撮影対象の顔の画像が横を向いている場合であっても、瞼尤度をより良好な精度で演算することができる、という効果が得られる。   As described above, according to the eyelid likelihood calculation apparatus and program of the present invention, even when the face image included in the image is facing sideways, the eyelid likelihood is improved with better accuracy. It is possible to obtain the effect of being able to calculate with

以下、図面を参照して、本発明の瞼尤度演算装置の各実施の形態を詳細に説明する。   Hereinafter, with reference to the drawings, embodiments of the heel likelihood computing device of the present invention will be described in detail.

[第1の実施の形態]
まず、第1の実施の形態について説明する。図1に示すように、本実施の形態に係る瞼尤度演算装置10は、撮影の対象となる対象物を撮影する撮影手段としてのカメラ12、及びコンピュータ14を備えている。なお、撮影の対象となる対象物としては、例えば、全体の瞼尤度を演算しようとする人物の顔が考えられる。
[First Embodiment]
First, the first embodiment will be described. As shown in FIG. 1, the heel likelihood calculating apparatus 10 according to the present embodiment includes a camera 12 and a computer 14 as photographing means for photographing an object to be photographed. Note that, as an object to be photographed, for example, the face of a person who is to calculate the overall likelihood of wrinkles can be considered.

カメラ12は、顔の画像を含む画像を撮影して、図2に示すような右の上瞼60及び右の下瞼62からなる右瞼64及び左の上瞼66及び左の下瞼68からなる左瞼70を含む顔の画像72を含む画像データを出力することができる。   The camera 12 captures an image including an image of a face, and from a right heel 64, a left upper heel 66, and a left lower heel 68 comprising a right upper eyelid 60 and a right lower eyelid 62 as shown in FIG. The image data including the face image 72 including the left port 70 can be output.

コンピュータ14は、I/O(入出力)ポート14a、ROM(Read Only Memory)14b、HDD(Hard Disk Drive)14c、CPU(Central Processing Unit)14d、RAM(Random Access Memory)14e、並びにこれらI/Oポート14a、ROM14b、HDD14c、CPU14d、及びRAM14eを互いに接続するバス14fを含んで構成されている。   The computer 14 includes an I / O (input / output) port 14a, a ROM (Read Only Memory) 14b, an HDD (Hard Disk Drive) 14c, a CPU (Central Processing Unit) 14d, a RAM (Random Access Memory) 14e, and these I / Os. The bus 14f connects the O port 14a, the ROM 14b, the HDD 14c, the CPU 14d, and the RAM 14e to each other.

記憶媒体としてのROM14bには、OS等の基本プログラムが記憶されている。   A basic program such as an OS is stored in the ROM 14b as a storage medium.

記憶媒体としてのHDD14cには、詳細を以下で説明する瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されている。   The HDD 14c serving as a storage medium stores a program for executing a processing routine of a heel likelihood calculation process, which will be described in detail below.

また、HDD14cには、例えば、「アイモデルを用いたCondensationによる黒目追跡」(北川洋介、加藤丈和、呉海元、和田俊和著)に記載されているような公知技術を用いて黒目の半径r、眼球の半径r、及び両眼球の中心間の距離d等に基づいて定まる、図3に示すような、右目の目じりに対応する点P(=(x,y,z))、右目の目頭に対応する点P(=(x,y,z))、右目の上瞼における目頭と目じりとの間に対応する点P(=(x,y,z))、及び右目の下瞼における目頭と目じりとの間に対応する点P(=(x,y,z))の各々を右瞼の制御点として、これらの複数の右瞼の制御点の各々を適宜定めて、右の上瞼の三次元の形状及び右の下瞼の三次元の形状(すなわち、右瞼の三次元の形状)をベジエ曲線によって定め、定められた右瞼の三次元の形状を画像座標に投影して得られた2次元の所定の右瞼の瞼モデルが記憶されている。なお、所定の右瞼の瞼モデルを形成するために用いた上記の右瞼の制御点の各々を定める座標は、第1のモデルパラメータに対応する。 In addition, the HDD 14c uses, for example, a known technique such as “Kurome tracking by Condensation using an eye model” (written by Yosuke Kitagawa, Takekazu Kato, Gen Wu, and Toshikazu Wada). The point P 1 (= (x 1 , y 1 , z) corresponding to the right eye's eye contact as shown in FIG. 3 is determined based on r b , the radius r w of the eyeball, and the distance d between the centers of both eyes. 1 )), a point P 3 (= (x 3 , y 3 , z 3 )) corresponding to the right eye, and a point P 2 (= (x 2 , y 2 , z 2 )) and the point P 4 (= (x 4 , y 4 , z 4 )) corresponding to the lower eyelid of the right eye, Each of the plurality of starboard control points is appropriately determined, and the right upper three-dimensional shape and the right lower three-dimensional The shape (that is, the starboard three-dimensional shape) is determined by a Bezier curve, and a predetermined two-dimensional starboard model obtained by projecting the determined starboard three-dimensional shape onto the image coordinates is stored. Has been. The coordinates that define each starboard control point used to form a predetermined starboard kite model correspond to the first model parameter.

また、HDD14cには、同様に上記の公知技術を用いて黒目の半径r、眼球の半径r、及び両眼球の中心間の距離d等に基づいて定まる、左目の目頭に対応する点P(=(x,y,z))、左目の目じりに対応する点P(=(x,y,z))、左目の上瞼における目頭と目じりとの間に対応する点P(=(x,y,z))、及び左目の下瞼における目頭と目じりとの間に対応する点P(=(x,y,z))の各々を左瞼の制御点として、これらの複数の左瞼の制御点の各々を適宜定めて、左の上瞼の三次元の形状及び左の下瞼の三次元の形状(すなわち、左瞼の三次元の形状)をベジエ曲線によって定め、定められた左瞼の三次元の形状を画像座標に投影して得られた2次元の所定の左瞼の瞼モデルが記憶されている。なお、所定の左瞼の瞼モデルを形成するために用いた上記の左瞼の制御点の各々を定める座標は、第2のモデルパラメータに対応する。 Similarly, the HDD 14c uses the above-described known technique to determine the point P corresponding to the eye of the left eye, which is determined based on the radius r b of the black eye, the radius r w of the eyeball, the distance d between the centers of both eyes, and the like. 5 (= (x 5 , y 5 , z 5 )), a point P 7 (= (x 7 , y 7 , z 7 )) corresponding to the left eye's eyelid, between the head and the eyelid in the upper eyelid of the left eye Of the corresponding point P 6 (= (x 6 , y 6 , z 6 )) and the corresponding point P 8 (= (x 8 , y 8 , z 8 )) between the eyes and the eyelid in the lower eyelid of the left eye Each of these plurality of port control points is appropriately determined with each as a port control point, and the left upper 3D shape and the left lower 3D shape (ie, (3D shape) is defined by a Bezier curve, and a quadratic obtained by projecting the determined port 3D shape onto image coordinates The eyelid model given left eyelid is stored. Note that the coordinates that define each of the above-mentioned port control points used to form a predetermined port model are corresponding to the second model parameter.

CPU14dは、プログラムをROM14b及びHDD14cから読み出して実行する。また、RAM14eには、各種データが一時的に記憶される。   The CPU 14d reads the program from the ROM 14b and the HDD 14c and executes it. Various data are temporarily stored in the RAM 14e.

I/Oポート14aには、カメラ12が接続されている。   The camera 12 is connected to the I / O port 14a.

次に、コンピュータ14のCPU14dが実行する瞼尤度演算処理の処理ルーチンについて図4を用いて説明する。なお、本実施の形態において、瞼尤度演算処理は、瞼尤度演算装置10のスイッチ(図示せず)がオンされた時点から所定時間間隔(例えば、数10msec)毎に実行される。   Next, a processing routine for the wrinkle likelihood calculation process executed by the CPU 14d of the computer 14 will be described with reference to FIG. In the present embodiment, the heel likelihood calculation process is executed every predetermined time interval (for example, several tens of milliseconds) from the time when a switch (not shown) of the heel likelihood calculation device 10 is turned on.

まず、ステップ100で、カメラ12で撮影された画像の画像データを取り込む。   First, in step 100, image data of an image taken by the camera 12 is captured.

次のステップ102では、上記ステップ100で取り込んだ画像データが表す画像から、顔の領域である顔領域を抽出することにより顔領域の画像データを取得する。ステップ102で顔領域を抽出する方法としては、例えば、テンプレートマッチング法による画像処理により画像データが表す画像の中から顔領域を検索する方法を用いてもよいし、あるいは、操作者がキーボード(図示せず)、マウス(図示せず)、電子ペン(図示せず)またはライトペン(図示せず)等の顔領域を選択するための顔領域選択手段により画像の上で顔領域を選択することにより顔領域を抽出する方法を用いてもよい。   In the next step 102, face area image data is obtained by extracting a face area, which is a face area, from the image represented by the image data captured in step 100. As a method of extracting the face area in step 102, for example, a method of searching for a face area from an image represented by image data by image processing by a template matching method may be used, or the operator may use a keyboard (FIG. Selecting a face area on the image by face area selection means for selecting a face area such as a mouse (not shown), a mouse (not shown), an electronic pen (not shown), or a light pen (not shown). A method of extracting a face region by using may be used.

次のステップ104では、上記ステップ102で抽出した顔領域の画像データから、瞼及び虹彩を含む目の領域である目領域を抽出することにより目領域の画像データを取得する。ステップ104で目領域を抽出する方法としては、例えば、テンプレートマッチング法による画像処理により画像データが表す画像の中から目領域を検索する方法を用いてもよいし、あるいは、操作者がキーボード(図示せず)、マウス(図示せず)、電子ペン(図示せず)またはライトペン(図示せず)等の目領域を選択するための目領域選択手段により画像の上で目領域を選択することにより目領域を抽出する方法を用いてもよい。   In the next step 104, the eye region image data is obtained by extracting the eye region, which is the eye region including the eyelids and irises, from the face region image data extracted in step 102. As a method of extracting the eye region in step 104, for example, a method of searching the eye region from an image represented by the image data by image processing by a template matching method may be used, or the operator may use a keyboard (see FIG. Selecting an eye area on the image by an eye area selecting means for selecting an eye area such as a mouse (not shown), a mouse (not shown), an electronic pen (not shown) or a light pen (not shown). A method of extracting an eye region may be used.

次のステップ106では、上記ステップ102で取得した顔領域の画像データに基づいて、画像データが表す顔の顔向き角度θを検出する。ステップ106で顔向き角度θを検出する方法としては、例えば、テンプレートマッチング法による画像処理により画像データが表す顔の顔向き角度θを検出する方法を用いてもよいし、あるいは、「適応的拡散制御を伴うパーティクルフィルタを用いた頭部姿勢推定」(岡兼司、佐藤洋一、中西泰人、小池英樹著)に記載されているような公知技術を用いて頭部姿勢推定を行うことにより顔向き角度θを検出する方法を用いてもよい。   In the next step 106, the face orientation angle θ of the face represented by the image data is detected based on the image data of the face area acquired in step 102. As a method of detecting the face orientation angle θ in step 106, for example, a method of detecting the face orientation angle θ of the face represented by the image data by image processing by the template matching method may be used, or “adaptive diffusion” may be used. Face orientation using known techniques such as those described in “Head Posture Estimation Using Controlled Particle Filter” (written by Kenji Oka, Yoichi Sato, Yasuto Nakanishi, Hideki Koike) A method of detecting the angle θ may be used.

次のステップ108では、第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって、複数の右の比較瞼モデルを作成すると共に、第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって、複数の左の比較瞼モデルを作成するための比較モデル作成処理を実行する。ここで、ステップ108の比較モデル作成処理の処理ルーチンの詳細について図5を参照して説明する。   In the next step 108, at least one model parameter of the first model parameter is changed a plurality of times to create a plurality of right comparison models and a plurality of at least one model parameter of the second model parameter are set. The comparison model creation process for creating a plurality of the left comparison eyelid models is executed by changing the number of times. Here, the details of the processing routine of the comparison model creation process in step 108 will be described with reference to FIG.

まず、ステップ200では、HDD14cからモデルパラメータが初期値に設定された右瞼の瞼モデル及び左瞼の瞼モデルを読み込んで、読み込んだ右瞼の瞼モデルを初期の右の比較瞼モデルとすると共に、読み込んだ左瞼の瞼モデルを初期の左の比較瞼モデルとし、これら左右の比較瞼モデルをRAM14eに記憶させることにより、右の比較瞼モデル及び左の比較瞼モデルを作成する。   First, in step 200, a starboard heel model and a port heel model whose model parameters are set to initial values are read from the HDD 14c, and the read starboard heel model is set as an initial right comparison heel model. The read left eyelid model is used as an initial left comparison eyelid model, and the left and right comparison eyelid models are stored in the RAM 14e, thereby creating a right comparison eyelid model and a left comparison eyelid model.

ここで、右の比較瞼モデルは、後述する右の瞼尤度を演算する際の演算処理において、上記ステップ104で抽出した目領域の画像に含まれる右の上瞼及び右の下瞼の各形状と比較される瞼モデルである。また、左の比較瞼モデルは、後述する左の瞼尤度を演算する際の演算処理において、上記ステップ104で抽出した目領域の画像に含まれる左の上瞼及び左の下瞼の各形状と比較される瞼モデルである。   Here, each of the right upper eyelid and the lower right eyelid included in the image of the eye area extracted in step 104 in the calculation process when calculating the right eyelid likelihood described later is performed on the right comparative eyelid model. It is a cocoon model compared with a shape. Further, the left comparative eyelid model is a shape of each of the left upper eyelid and the left lower eyelid included in the image of the eye region extracted in step 104 in the calculation process when calculating the left eyelid likelihood described later. It is a cocoon model compared with.

次のステップ202では、上記ステップ200で作成された右の比較瞼モデルの右目の上瞼における目頭と目じりとの間に対応する点P(=(x,y,z))、及び右目の下瞼における目頭と目じりとの間に対応する点P(=(x,y,z))の組み合わせについて、点P及び点Pの各々毎に予め定められた複数の右の比較瞼モデルを作成するための複数の座標のパターンの中から、現時点の点P及び点Pの座標の組み合わせの場合において未だ選択されていない点P及び点Pの座標の組み合わせを1つ選択する。また、同様に、上記ステップ200で作成された左の比較瞼モデルの左目の上瞼における目頭と目じりとの間に対応する点P(=(x,y,z))、及び左目の下瞼における目頭と目じりとの間に対応する点P(=(x,y,z))の組み合わせについて、点P及び点Pの各々毎に予め定められた複数の左の比較瞼モデルを作成するための複数の座標のパターンの中から、現時点の点P及び点Pの座標の組み合わせの場合において未だ選択されていない点P及び点Pの座標の組み合わせを1つ選択する。 In the next step 202, a point P 2 (= (x 2 , y 2 , z 2 )) corresponding to the distance between the head and the eyelid in the upper eyelid of the right comparative eyelid model created in step 200 above, And a combination of points P 4 (= (x 4 , y 4 , z 4 )) corresponding to the distance between the head and the eyelid in the lower eyelid of the right eye, a plurality of points determined in advance for each of the points P 2 and P 4 The coordinates of the point P 2 and the point P 4 that have not yet been selected in the case of the combination of the coordinates of the current point P 1 and the point P 3 from the plurality of coordinate patterns for creating the right comparison model Select one of the combinations. Similarly, a point P 6 (= (x 6 , y 6 , z 6 )) corresponding to the distance between the eyelid and the eyelid in the upper eyelid of the left eye of the left comparative eyelid model created in step 200 above, and For a combination of points P 8 (= (x 8 , y 8 , z 8 )) corresponding to the distance between the head and the eyelid in the lower eyelid of the left eye, a plurality of predetermined points are set for each of the points P 6 and P 8 . from a pattern of a plurality of coordinates for creating left comparison eyelid model, the coordinates of P 6 and the point P 8 that has not been selected in the case of a combination of the coordinates of the point P 5 and the point P 7 of moment Select one combination.

次のステップ204では、現時点の点P及び点Pの座標を、上記ステップ202で選択された点P及び点Pの座標に変更し、変更後の点P及び点Pの座標を含む第1のモデルパラメータ(点P〜点Pの各々の座標)を用いて右の上瞼の三次元の形状及び右の下瞼の三次元の形状(すなわち、右瞼の三次元の形状)をベジエ曲線によって定め、定められた右瞼の三次元の形状を画像座標に投影して得られた2次元の瞼モデルを、新たな右の比較瞼モデルとする。また、同様に、現時点の点P及び点Pの座標を、上記ステップ202で選択された点P及び点Pの座標に変更し、変更後の点P及び点Pの座標を含む第2のモデルパラメータ(点P〜点Pの各々の座標)を用いて左の上瞼の三次元の形状及び左の下瞼の三次元の形状(すなわち、左瞼の三次元の形状)をベジエ曲線によって定め、定められた左瞼の三次元の形状を画像座標に投影して得られた2次元の瞼モデルを、新たな左の比較瞼モデルとする。そして、新たな右の比較瞼モデル及び左の比較瞼モデルをRAM14eに記憶させることにより、新たな右の比較瞼モデル及び左の比較瞼モデルを作成する。 In the next step 204, the coordinates of P 2 and the point P 4 terms of time, to change the coordinate of P 2 and the point P 4 points selected in step 202, a point after the change P 2 and the point P 4 Using the first model parameters including the coordinates (the coordinates of each of the points P 1 to P 4 ), the three-dimensional shape of the right upper eyelid and the three-dimensional shape of the lower right eyelid (that is, the third order of the starboard) The original shape) is defined by a Bezier curve, and a two-dimensional eyelid model obtained by projecting the determined starboard three-dimensional shape onto image coordinates is defined as a new right comparison eyelid model. Similarly, the coordinates of P 6 and the point P 8 point time, change the coordinates of P 6 and the point P 8 points selected in step 202, the coordinates of P 6 and the point P 8 points after change Using the second model parameters (the coordinates of each of the points P 5 to P 8 ), the left upper three-dimensional shape and the left lower three-dimensional shape (ie, the left three-dimensional ) Is defined by a Bezier curve, and a two-dimensional wrinkle model obtained by projecting the determined port three-dimensional shape onto image coordinates is defined as a new left comparison wrinkle model. Then, the new right comparison kite model and the left comparison kite model are stored in the RAM 14e, thereby creating a new right comparison kite model and a left comparison kite model.

次のステップ206では、上記ステップ202で、現時点の点P及び点Pの座標の組み合わせの場合において、点P及び点Pの座標の組み合わせを全てのパターンについて選択したか否かを判定すると共に、現時点の点P及び点Pの座標の組み合わせの場合において、点P及び点Pの座標の組み合わせを全てのパターンについて選択したか否かを判定する。 In the next step 206, at step 202, in the case of a combination of the coordinates of the point P 1 and the point P 3 of the current, whether selected for all pattern combinations coordinates of the point P 2 and the point P 4 In addition, in the case of the combination of the coordinates of the current point P 5 and the point P 7 , it is determined whether or not the combination of the coordinates of the point P 6 and the point P 8 has been selected for all patterns.

ステップ206で、点P及び点Pの座標の組み合わせ並びに点P及び点Pの座標の組み合わせの少なくとも1方の組み合わせにおいて全てのパターンについて選択していないと判定された場合には、上記のステップ202に戻り、全てのパターンについて選択されていないと判定された組み合わせの座標に対応する処理を上記と同様に行う。 If it is determined in step 206 that all patterns are not selected in at least one of the combination of the coordinates of the points P 2 and P 4 and the combination of the coordinates of the points P 6 and P 8 , Returning to step 202 above, the processing corresponding to the coordinates of the combination determined not to be selected for all patterns is performed in the same manner as described above.

一方、ステップ206で、点P及び点Pの座標の組み合わせを全てのパターンについて選択したと判定され、かつ点P及び点Pの座標の組み合わせを全てのパターンについて選択したと判定された場合には、次のステップ208に進む。 On the other hand, in step 206, it is determined that the combination of the coordinates of the point P 2 and the point P 4 is determined to be selected for all the patterns, and to select for all patterns combinations coordinates of the point P 6 and the point P 8 If YES, go to the next step 208.

次のステップ208では、下記で詳細を説明するステップ210において点P及び点Pの座標の組み合わせを全てのパターンについて選択したか否かを判定すると共に、点P及び点Pの座標の組み合わせを全てのパターンについて選択したか否かを判定する。 In the next step 208, the determining whether to select for all patterns combinations coordinates of the point P 1 and the point P 3 in step 210 whose details are described below, the coordinates of the point P 5 and the point P 7 It is determined whether or not the combination is selected for all patterns.

ステップ208で、点P及び点Pの座標の組み合わせ並びに点P及び点Pの座標の組み合わせの少なくとも1方の組み合わせにおいて全てのパターンについて選択していないと判定された場合には、次のステップ210に進む。 If it is determined in step 208 that not all patterns have been selected in at least one of the combination of the coordinates of the points P 1 and P 3 and the combination of the coordinates of the points P 5 and P 7 , Proceed to the next step 210.

ステップ210では、点P及び点Pの各々毎に予め定められた複数の右の比較瞼モデルを作成するための複数の座標のパターンの中から、未だ選択されていない点P及び点Pの座標の組み合わせを1つ選択する。また、同様に、点P及び点Pの各々毎に予め定められた複数の左の比較瞼モデルを作成するための複数の座標のパターンの中から、未だ選択されていない点P及び点Pの座標の組み合わせを1つ選択する。そして、ステップ204に戻る。なお、ステップ210からステップ204にもどった場合には、ステップ204では、点P及び点Pの各々毎に予め定められた複数の比較瞼モデルを作成するための複数の座標のパターンの中から、直近の上記ステップ210で選択された点P及び点Pの座標の組み合わせの場合において未だ選択されていない点P及び点Pの座標の組み合わせを1つ選択する。そして、現時点の点P及び点Pの座標を、直近の上記ステップ210で選択された点P及び点Pの座標に変更すると共に、現時点の点P及び点Pの座標を、直近の上記ステップ202で選択された点P及び点Pの座標に変更し、変更後の点P、点P、点P及び点Pの座標を含む第1のモデルパラメータ(点P〜点Pの各々の座標)を用いて右の上瞼の三次元の形状及び右の下瞼の三次元の形状(すなわち、右瞼の三次元の形状)をベジエ曲線によって定め、定められた右瞼の三次元の形状を画像座標に投影して得られた2次元の瞼モデルを、新たな右の比較瞼モデルとする。また、ステップ204では、同様に、点P及び点Pの各々毎に予め定められた複数の左の比較瞼モデルを作成するための複数の座標のパターンの中から、直近の上記ステップ210で選択された点P及び点Pの座標の組み合わせの場合において未だ選択されていない点P及び点Pの座標の組み合わせを1つ選択する。そして、現時点の点P及び点Pの座標を、直近の上記ステップ210において選択された点P及び点Pの座標に変更すると共に、現時点の点P及び点Pの座標を、直近の当該ステップ204で選択された点P及び点Pの座標に変更し、変更後の点P、点P、点P及び点Pの座標を含む第1のパラメータ(点P〜点Pの各々の座標)を用いて左目の上瞼の三次元の形状及び左目の下瞼の三次元の形状(すなわち、左の瞼の三次元の形状)をベジエ曲線によって定め、定められた左の瞼の三次元の形状を画像座標に投影して得られた2次元の瞼モデルを、新たな左目の比較瞼モデルとする。そして、新たな右目の比較瞼モデル及び左目の比較瞼モデルを新たな比較瞼モデルとしてRAM16eに記憶させることにより、新たな比較瞼モデルを作成する。 In step 210, from a pattern of a plurality of coordinates for creating each plurality of right comparison eyelid model predetermined for each of the points P 1 and the point P 3, yet selected a point not P 1 and point the combination of the coordinates of P 3 1 single select. Similarly, from a pattern of a plurality of coordinates for creating each plurality of left comparison eyelid model predetermined for each of the point P 5 and the point P 7, yet selected a point not P 5 and It selects one combination of the coordinates of the point P 7. Then, the process returns to step 204. In the case where back from step 210 to step 204, in step 204, in the pattern of a plurality of coordinates for creating each multiple comparison eyelid model predetermined for each of the points P 2 and the point P 4 from selects one combination of yet selected a point not coordinate of P 2 and the point P 4 in the case of a combination of selected points the coordinates of P 1 and the point P 3 in the most recent step 210. Then, the coordinates of P 1 and the point P 3 point current, the change in the immediate vicinity of the coordinates of P 1 and the point P 3 points selected in step 210, the coordinates of P 2 and the point P 4 terms of current The first model parameters including the coordinates of the point P 1 , the point P 2 , the point P 3, and the point P 4 are changed to the coordinates of the point P 2 and the point P 4 selected in the most recent step 202. The three-dimensional shape of the right upper eyelid and the three-dimensional shape of the lower right eyelid (that is, the three-dimensional shape of the right starboard) are expressed by a Bezier curve using (the coordinates of each of the points P 1 to P 4 ). A two-dimensional eyelid model obtained by projecting the determined three-dimensional starboard shape onto the image coordinates is set as a new right comparison eyelid model. In step 204, similarly, from the pattern of a plurality of coordinates for creating each plurality of left comparison eyelid model predetermined for each of the points P 6 and the point P 8, the most recent step 210 selects one combination of yet selected a point not coordinates of P 6 and the point P 8 in the in the case of a combination of selected points the coordinates of P 5 and the point P 7. Then, the coordinates of P 5 and the point P 7 point current, the change in the immediate vicinity of the coordinates of P 5 and the point P 7 selected points in step 210, the coordinates of P 6 and the point P 8 points the current The first parameter (including the coordinates of the point P 5 , the point P 6 , the point P 7, and the point P 8 after the change is changed to the coordinates of the point P 6 and the point P 8 selected in the latest step 204. three-dimensional shape of the three-dimensional shape and left under eye eyelid upper eyelid of the left eye using each of the coordinates) of the point P 5 ~ point P 8 (i.e., defined by the three-dimensional shape) of the Bezier curve of the left eyelid The two-dimensional eyelid model obtained by projecting the determined three-dimensional shape of the left eyelid onto the image coordinates is used as a new eye eye comparison eyelid model. Then, a new comparison eyelid model and a left eye comparison eyelid model are stored in the RAM 16e as new comparison eyelid models, thereby creating a new comparison eyelid model.

一方、ステップ208で、点P及び点Pの座標の組み合わせを全てのパターンについて選択したと判定され、かつ点P及び点Pの座標の組み合わせを全てのパターンについて選択したと判定された場合には、比較モデル作成処理を終了する。 On the other hand, in step 208, it is determined that the combination of the coordinates of the point P 1 and point P 3 is determined to be selected for all the patterns, and to select for all patterns combinations coordinates of the point P 5 and the point P 7 If it is found, the comparison model creation process is terminated.

以上説明したように、比較モデル作成処理によって、複数の右の比較瞼モデル及び複数の左の比較瞼モデルが作成される。   As described above, a plurality of right comparison eyelid models and a plurality of left comparison eyelid models are created by the comparison model creation processing.

次のステップ110では、上記ステップ108で作成された複数の右の比較瞼モデルのうち、本ステップ110で未だ選択されていない右の比較瞼モデルを1つ選択する。   In the next step 110, one right comparison kite model that has not yet been selected in this step 110 is selected from the plurality of right comparison kit models created in step 108.

次のステップ112では、上記ステップ110で選択された右の比較瞼モデルによって表される上瞼及び下瞼の各形状と、上記ステップ104で抽出した目領域の画像に含まれる右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度λr_eyelidを演算し、演算した右の瞼尤度λr_eyelidをRAM14eに記憶する。 In the next step 112, the upper and lower eyelid shapes represented by the right comparative eyelid model selected in step 110 and the right upper eyelid and the right eyelid included in the image of the eye area extracted in step 104 are described. The right eyelid likelihood λr_eyelid indicating the degree of matching with each shape of the right lower eyelid is calculated, and the calculated right eyelid likelihood λr_eyelid is stored in the RAM 14e.

なお、右の瞼尤度λr_eyelidは、瞼部分に影ができ、この影から肌の方向への輝度勾配が生じることから、上記の「アイモデルを用いたCondensationによる黒目追跡」(北川洋介、加藤丈和、呉海元、和田俊和著)に記載されているような公知技術を用いて、法線ベクトルと輝度勾配ベクトルの向きを考慮して演算することができる。 Note that the right eyelid likelihood λ r_eyelid has a shadow on the eyelid part, and a luminance gradient from the shadow to the skin direction is generated. Therefore, the above-mentioned “black eye tracking by condensation using an eye model” (Yosuke Kitagawa, The calculation can be performed in consideration of the direction of the normal vector and the luminance gradient vector by using a known technique as described in Takekazu Kato, Wu Kaimoto and Toshikazu Wada.

次のステップ114では、上記ステップ110で全ての右の比較瞼モデルを選択したか否かを判定する。   In the next step 114, it is determined whether or not all the right comparison eyelid models have been selected in step 110.

ステップ114で、全ての右の比較瞼モデルを選択していないと判定された場合には、ステップ110に戻る。   If it is determined in step 114 that all the right comparison eyelid models have not been selected, the process returns to step 110.

一方、ステップ114で、全ての右の比較瞼モデルを選択したと判定された場合には、次のステップ116へ進む。   On the other hand, if it is determined in step 114 that all right comparison eyelid models have been selected, the process proceeds to the next step 116.

なお、ステップ110からステップ114の処理が繰り返されることによって、ステップ108で作成された複数の右の比較瞼モデルの各々の右の瞼尤度λr_eyelidが演算される。 Note that, by repeating the processing from step 110 to step 114, the right heel likelihood λ r_eyelid of each of the plurality of right comparative heel models created in step 108 is calculated.

次のステップ116では、上記ステップ108で作成された複数の左の比較瞼モデルのうち、本ステップ116で未だ選択されていない左の比較瞼モデルを1つ選択する。   In the next step 116, one of the left comparative eyelid models that has not yet been selected in this step 116 is selected from the plurality of left comparative eyelid models created in step 108.

次のステップ118では、上記ステップ116で選択された左の比較瞼モデルによって表される上瞼及び下瞼の各形状と、上記ステップ104で抽出した目領域の画像に含まれる左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度λl_eyelidを演算し、演算した左の瞼尤度λl_eyelidをRAM14eに記憶する。 In the next step 118, the upper and lower eyelid shapes represented by the left comparative eyelid model selected in the above step 116, the left upper eyelid and the left eyelid included in the image of the eye area extracted in the above step 104, and the like. The left heel likelihood λ l_eyelid indicating the degree of matching with each shape of the left lower eyelid is calculated, and the calculated left heel likelihood λ l_eyelid is stored in the RAM 14e.

なお、左の瞼尤度λl_eyelidは、瞼部分に影ができ、この影から肌の方向への輝度勾配が生じることから、上記の右の上記の瞼尤度λr_eyelidと同様に、「アイモデルを用いたCondensationによる黒目追跡」(北川洋介、加藤丈和、呉海元、和田俊和著)に記載されているような公知技術を用いて、法線ベクトルと輝度勾配ベクトルの向きを考慮して演算することができる。 Note that the left eyelid likelihood λ l_eyelid has a shadow on the eyelid portion, and a luminance gradient from the shadow to the skin direction is generated. Therefore, like the above right eyelid likelihood λ r_eyelid , Using known techniques, such as those described in “Kurome Tracking by Condensation Using Models” (written by Yosuke Kitagawa, Takekazu Kato, Toshikazu Wu, and Toshikazu Wada), the orientation of normal vectors and luminance gradient vectors is considered. Can be calculated.

次のステップ120では、上記ステップ116で全ての左の比較瞼モデルを選択したか否かを判定する。   In the next step 120, it is determined whether or not all the left comparative eyelid models have been selected in step 116.

ステップ120で、全ての左の比較瞼モデルを選択していないと判定された場合には、ステップ116に戻る。   If it is determined in step 120 that all the left comparison eyelid models have not been selected, the process returns to step 116.

一方、ステップ120で、全ての左の比較瞼モデルを選択したと判定された場合には、次のステップ122へ進む。   On the other hand, if it is determined in step 120 that all the left comparison eyelid models have been selected, the process proceeds to the next step 122.

なお、ステップ116からステップ120の処理が繰り返されることによって、ステップ108で作成された複数の左の比較瞼モデルの各々の左の瞼尤度λl_eyelidが演算される。 Note that, by repeating the processing from step 116 to step 120, the left heel likelihood λ l_eyelid of each of the plurality of left comparative heel models created in step 108 is calculated.

ステップ122では、ステップ108で作成された複数の右の比較瞼モデル及び複数の左の比較瞼モデルのうち、瞼開度が同じ右の比較瞼モデル及び左の比較瞼モデルの組み合わせを1つ選択する。なお、ステップ108では、瞼開度がほぼ同じ右の比較瞼モデル及び左の比較瞼モデルの組み合わせを1つ選択するようにしてもよい。ここで、「瞼開度がほぼ同じ」とは、例えば、右の比較瞼モデル及び左の比較瞼モデルの各瞼開度が同一とみなせる場合の各瞼開度の差の最大値を予め実験的に求めておき、右の比較瞼モデル及び左の比較瞼モデルの各瞼尤度の差が、予め求められた上記最大値以内になる場合のことを指す。   In step 122, one of the combination of the right comparative kite model and the left comparative kite model having the same kite opening degree is selected from the plurality of right comparative kite models and the plurality of left comparative kite models created in step 108. To do. In step 108, one combination of the right comparative eyelid model and the left comparative eyelid model with substantially the same eyelid opening degree may be selected. Here, “having almost the same opening degree” means, for example, that the maximum value of the difference between the opening degrees when the right comparison opening model and the left comparison opening model can be regarded as the same. In other words, it refers to a case where the difference between the likelihoods of the right comparative eyelid model and the left comparative eyelid model is within the above-described maximum value.

次のステップ124では、上記ステップ106で検出された顔向き角度θに応じて、上記ステップ102で抽出された顔領域を含む画像の画像データが表す顔の画像に含まれる右瞼及び左瞼のうち、顔の画像を含む画像がカメラ12によって撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近い方の瞼の瞼尤度に対応する大きさより小さくなるように定めた重みwright及びwleft、直近の上記ステップ122で選択された組み合わせの右の比較瞼モデルの右の瞼尤度λr_eyelid、並びに直近の上記ステップ122で選択された組み合わせの左の比較瞼モデルの左の瞼尤度λl_eyelidに基づいて、下記の式(1)に示すように、重みwrightが付けられた右の瞼尤度λr_eyelidと、重みwleftが付けられた左の瞼尤度λl_eyelidとの和((wright・λr_eyelid+wleft・λl_eyelid)/(wright+wleft))を両瞼(左右の瞼)の瞼尤度λeyelidとして演算する。 In the next step 124, in accordance with the face orientation angle θ detected in step 106, the starboard and port side included in the face image represented by the image data including the face area extracted in step 102 is displayed. Among them, the size corresponding to the eyelid likelihood of the eyelid farther to the position where the image including the face image was photographed by the camera 12 is determined to be smaller than the size corresponding to the eyelid likelihood of the near eyelid. Weights w right and w left , right likelihood λ r — eyelid of the right comparison heel model of the combination selected in the most recent step 122, and left comparison heel model of the combination selected in the most recent step 122 Based on the left heel likelihood λ l_eyelid , the right heel likelihood λ r_eyelid with the weight w right and the weight as shown in the following equation (1): Mabutayudo of the sum of the eyelids likelihood λ l_eyelid of left w left is attached ((w right · λ r_eyelid + w left · λ l_eyelid) / (w right + w left)) the Ryomabuta (left and right of the eyelids) λ Calculate as eyelid .

ここで、図6を参照して、ステップ124において、上記ステップ106で検出された顔向き角度θに応じて、重みwright及び重みwleftを定める方法の一例について説明する。 Here, with reference to FIG. 6, an example of a method for determining the weight w right and the weight w left in step 124 in accordance with the face orientation angle θ detected in step 106 will be described.

図6は、顔向き角度θと右の瞼尤度λr_eyelidに対応する重みwrightの大きさとの関係、及び顔向き角度θと左の瞼尤度λl_eyelidに対応する重みwleftの大きさとの関係を表す図である。 6, the size of the weights w left corresponding to the face direction angle θ and the relationship between the magnitude of the weights w. Right corresponding to the right of the eyelid likelihood lambda R_eyelid, and face angle θ and left eyelids likelihood lambda L_eyelid It is a figure showing these relationships.

顔向き角度θが正の値である場合(本実施の形態では、右の方向を向いている場合にはθは正の値をとり、左の方向を向いている場合には負の値をとる)には右瞼からカメラ12までの距離が、左瞼からカメラ12までの距離より大きいと考えることができるので、このような場合には、右の瞼尤度λr_eyelidの精度は、左の瞼尤度λl_eyelidの精度より悪いと考えることができる。同様に、顔向き角度θが負の値である場合には左瞼からカメラ12までの距離が、右瞼からカメラ12までの距離より大きいと考えることができるので、左の瞼尤度λl_eyelidの精度は、右の瞼尤度λr_eyelidの精度より悪いと考えることができる。そして、顔向き角度θが大きくなればなるほど、右の瞼尤度λr_eyelidの精度が悪くなると考えられ、顔向き角度θが小さくなればなるほど、左の瞼尤度λl_eyelidの精度が悪くなると考えられる。 When the face angle θ is a positive value (in this embodiment, θ takes a positive value when facing the right direction, and a negative value when facing the left direction. Since the distance from the starboard to the camera 12 can be considered to be greater than the distance from the starboard to the camera 12, the accuracy of the right eyelid likelihood λr_eyelid is Can be considered to be worse than the accuracy of the 瞼 likelihood λ l_eyelid of. Similarly, when the face orientation angle θ is a negative value, it can be considered that the distance from the starboard to the camera 12 is larger than the distance from the starboard to the camera 12, so the left eyelid likelihood λ l_eyelid Can be considered to be worse than the accuracy of the right heel likelihood λ r — eyelid. Then, it is considered that the accuracy of the right eye likelihood λ r_eyelid decreases as the face orientation angle θ increases, and the accuracy of the left eye likelihood λ l_eyelid decreases as the face orientation angle θ decreases. It is done.

本実施の形態では、これらのことを考慮して、顔向き角度θに応じて、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In the present embodiment, in consideration of these points , the accuracy for the overall 瞼 likelihood λ eyelid_all is low by reducing the weight of the 瞼 likelihood that has worse accuracy in accordance with the face orientation angle θ. The ratio of 瞼 likelihood of the (bad) moth is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ124では、例えば、図6に示すように、ステップ106で検出した顔向き角度θが15度(図6の例では、顔がカメラ12に対して正面を向いたときの顔向き角度θを0度として、右方向の顔向き角度θを正の値とし、左方向の顔向き角度θを負の値で表している。)である場合には、重みwrightとして0.25、及び重みwleftとして0.75を定める。そして、下記の式(2)に示すように、重み0.25が付けられた右の瞼尤度λr_eyelidと、重み0.75が付けられた左の瞼尤度λl_eyelidとの和λeyelidを演算する。なお、図6の例では、重みwrightと、重みwleftとの和は1.0となる。 In step 124, for example, as shown in FIG. 6, the face orientation angle θ detected in step 106 is 15 degrees (in the example of FIG. 6, the face orientation angle θ when the face faces the front with respect to the camera 12 is 0 degree, the right face direction angle θ is a positive value, and the left face direction angle θ is a negative value.), The weight w right is 0.25, and the weight 0.75 is defined as w left . Then, as shown in the following formula (2), the sum of the right eyelid likelihood lambda R_eyelid the weight 0.25 is given, the eyelid likelihood lambda L_eyelid the left weight 0.75 is assigned lambda eyelid Is calculated. In the example of FIG. 6, the sum of the weight w right and the weight w left is 1.0.

次のステップ126では、上記ステップ122で全ての組み合わせが選択されたか否かを判定する。ステップ126で全ての組み合わせが選択されていないと判定された場合には、ステップ122に戻り、選択されていない組み合わせを1つ選択する。一方、ステップ126で全ての組み合わせが選択されたと判定された場合には、次のステップ128へ進む。なお、ステップ122からステップ126の処理が繰り返されることによって、瞼開度が同じ左右の比較瞼モデルの組み合わせにおける両瞼の瞼尤度λeyelidが複数演算される。 In the next step 126, it is determined whether or not all combinations have been selected in step 122. If it is determined in step 126 that not all combinations have been selected, the process returns to step 122 and one unselected combination is selected. On the other hand, if it is determined in step 126 that all combinations have been selected, the process proceeds to the next step 128. Note that, by repeating the processing from step 122 to step 126, a plurality of heel likelihoods λ eyelid of both eyelids in a combination of left and right comparative eyelid models having the same eyelid opening degree are calculated.

ステップ128では、上記ステップ124で演算された複数の両瞼の瞼尤度λeyelidのうち、最も値が高い(最も大きい)両瞼の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとすることにより、全体の瞼尤度λeyelid_allを演算する。そして、瞼尤度演算処理を終了する。 In step 128, a plurality of the eyelid likelihood lambda eyelid of both eyelids calculated in step 124, the highest value is high (the largest) of the entire eyelid likelihood lambda Eyelid_max both eyelids Mabutayudo lambda Eyelid_all As a result, the overall heel likelihood λ eyelid_all is calculated. Then, the wrinkle likelihood calculation process ends.

以上、説明したように、本実施形態に係る瞼尤度演算装置10は、顔の画像を含む画像を撮影して画像データを出力する撮影手段としてのカメラ12と、複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段としてのHDD14cを含んで構成されており、画像データに基づいて、顔の顔向き角度θを検出し、第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成し、右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状とカメラ12によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度λr_eyelid、及び左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状とカメラ12によって撮影された画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度λl_eyelidを演算する。そして、本実施形態に係る瞼尤度演算装置10は、検出された顔向き角度θに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright及びwleftのうち右の瞼に対応する重みwrightを、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright・λr_eyelid)と、左の瞼に対応する重みwleftを、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft・λl_eyelid)との和((wright・λr_eyelid+wleft・λl_eyelid)/(wright+wleft))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算する。そして、本実施形態に係る瞼尤度演算装置10は、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算する。 As described above, the eyelid likelihood calculation device 10 according to the present embodiment includes the camera 12 as an imaging unit that captures an image including a face image and outputs image data, and a plurality of first model parameters. Means for storing a starboard model in which the shapes of the right upper arm and the right lower arm are defined by the left and a port model in which the shapes of the left upper arm and the left lower arm are defined by a plurality of second model parameters The HDD 14c is configured to detect the face orientation angle θ based on the image data, and a plurality of right comparisons by changing at least one model parameter of the first model parameter a plurality of times. A plurality of left comparison models are created by creating a model and changing at least one model parameter of the second model parameter a plurality of times. The right upper eyelid and the right lower eyelid shape represented by the right upper eyelid and the right lower eyelid shape indicating the degree to which the shapes of the right upper eyelid and the right lower eyelid of the image taken by the camera 12 match. The shapes of the left upper eyelid and the left lower eyelid represented by λ r_eyelid and the left comparative eyelid model coincide with the shapes of the left upper eyelid and the left lower eyelid of the image taken by the camera 12. The left heel likelihood λ l_eyelid indicating the degree is calculated. Then, the wrinkle likelihood calculation device 10 according to the present embodiment is a position where the image is shot by the camera 12 among the starboard and the port side of the image shot by the camera 12 according to the detected face orientation angle θ. The weights w right and w left corresponding to each of the left and right wings are determined such that the size corresponding to the heel likelihood of the farther heel is smaller than the size corresponding to the heel likelihood of the closer heel. The weight w right corresponding to the right eyelid is weighted to the right eyelid likelihood λ r_eyelid of the right comparison eyelid model in the combination of the right eyelid opening model and the left eyelid eyelid model having the same eyelid opening degree. value as the (w right · λ r_eyelid), the weights w left corresponding to the left of the eyelids, weighted values to the left of the eyelids likelihood λ l_eyelid of the left comparison eyelids model of (w left · λ l_ey multiple operations for each combination lid) and the sum of the ((w right · λ r_eyelid + w left · λ l_eyelid) / (w right + w left)) as eyelid likelihood lambda eyelid of the left and right in this combination. The eyelids likelihood calculation unit 10 according to the present embodiment, among the left and right eyelid likelihood lambda eyelid of each combination in which a plurality calculation, the largest right and left eyelids likelihood lambda Eyelid_max the overall Mabutayudo lambda Eyelid_all Calculate.

本実施形態に係る瞼尤度演算装置10によれば、撮影手段(本実施の形態ではカメラ12)によって撮影された画像に含まれる顔の画像が横を向いている場合(すなわち、画像に含まれる撮影対象の顔の画像が横を向いている場合)であっても、画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright及びwleftのうち右の瞼に対応する重みwrightを右の瞼尤度λr_eyelidに重み付けた値(wright・λr_eyelid)と、左の瞼に対応する重みwleftを左の瞼尤度λl_eyelidに重み付けた値(wleft・λl_eyelid)との和((wright・λr_eyelid+wleft・λl_eyelid)/(wright+wleft))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算し、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算するので、全体の瞼尤度λeyelid_allに対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 According to the eyelid likelihood calculation apparatus 10 according to the present embodiment, when the face image included in the image captured by the imaging unit (the camera 12 in the present embodiment) is facing sideways (that is, included in the image). Even if the image of the face to be photographed faces sideways), the size corresponding to the eyelid likelihood of the eyelid farther from the position where the image was taken is The weight w right corresponding to the right eye among the weights w right and w left corresponding to each of the left and right eyelids, which is determined to be smaller than the size corresponding to the right eye weight likelihood λ r_eylid ( and w right · λ r_eyelid), the sum of the weights w left the was weighted to the left of the eyelids likelihood λ l_eyelid value corresponding to the left of the eyelids (w left · λ l_eyelid) ( (w right · λ r_ yelid + w left · λ l_eyelid) / (w right + w left)) a plurality of operation for each combination as left and right eyelid likelihood lambda eyelid in this combination, of the right and left eyelids likelihood lambda eyelid of each combination in which a plurality arithmetic since calculates the largest right and left eyelids likelihood lambda Eyelid_max the overall Mabutayudo lambda Eyelid_all, the proportion of eyelid likelihood of eyelid rather low accuracy for the entire Mabutayudo lambda Eyelid_all becomes smaller, thereby The overall likelihood λ eyelid_all can be calculated with better accuracy.

なお、本実施の形態の瞼尤度演算装置10によって演算された全体の瞼尤度λeyelid_allは、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、瞼開度を検出することができる。 Note that the overall heel likelihood λ eyelid_all calculated by the heel likelihood calculating device 10 of the present embodiment can be used as a likelihood when estimating the shape of the heel , for example. In addition, for example, the eyelid opening degree can be detected from the shape of the eyelid estimated in this way.

また、本実施の形態の瞼尤度演算装置10を、演算された全体の瞼尤度λeyelid_allに基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置10は、瞼開度検出装置として用いることが可能である。 In addition, the heel likelihood calculating apparatus 10 of the present embodiment estimates a heel model based on the calculated total heel likelihood λ eyelid_all, and the 瞼 of the heel represented by the heel model is estimated from the estimated heel model. It is good also as a structure provided with the eaves opening degree detection function which detects an opening degree. In this case, the heel likelihood calculating device 10 of the present embodiment can be used as a heel opening degree detecting device.

[第2の実施の形態]
次に第2の実施の形態について説明する。なお、第1の実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。
[Second Embodiment]
Next, a second embodiment will be described. In addition, about the structure similar to 1st Embodiment, and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted.

本実施の形態において、第1の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図8に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されており、CPU14dがこの図8に示す瞼尤度演算処理を実行する点である。同図に図示されるように、ステップ104の次にステップ300が実行され、ステップ122の次にステップ302が実行される。なお、本実施の形態では、カメラ12として、撮影した対象物までの距離を検出可能な撮影手段、例えば、ステレオカメラが用いられる。   In this embodiment, the difference from the first embodiment is that a program for executing the processing routine of the 瞼 likelihood calculation process shown in FIG. 8 is stored in the HDD 14c of the 瞼 likelihood calculation device according to this embodiment. Is stored, and the CPU 14d executes the heel likelihood calculation process shown in FIG. As shown in the figure, step 300 is executed after step 104, and step 302 is executed after step 122. In the present embodiment, as the camera 12, an imaging means capable of detecting the distance to the captured object, for example, a stereo camera is used.

まず、ステップ300での処理について説明する。ステップ300では、上記ステップ104で抽出した目領域の画像データに画像処理を行って、上記ステップ104で抽出した右の目領域の所定部分(例えば、上瞼の中心)までの距離drightを検出することにより、カメラ12から右目までの距離drightを検出すると共に、上記ステップ104で抽出した左の目領域の所定部分(例えば、上瞼の中心)までの距離dleftを検出することにより、カメラ12から左目までの距離dleftを検出する。 First, the process in step 300 will be described. In step 300, the image data of the eye region extracted in step 104 is subjected to image processing, and a distance d right to a predetermined portion (for example, the center of the upper eyelid) of the right eye region extracted in step 104 is detected. By detecting the distance d right from the camera 12 to the right eye, and detecting the distance d left to a predetermined part (for example, the center of the upper eyelid) of the left eye region extracted in step 104 above, A distance d left from the camera 12 to the left eye is detected.

次に、ステップ302での処理について説明する。ステップ302では、上記ステップ106で検出された右目までの距離dright及び左目までの距離dleftに応じて、上記ステップ102で抽出された顔領域を含む画像の画像データが表す顔の画像に含まれる右瞼及び左瞼のうち、顔の画像を含む画像がカメラ12によって撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近い方の瞼の瞼尤度に対応する大きさより小さくなるように定めた重みwright_2及びwleft_2、直近の上記ステップ122で選択された組み合わせの右の比較瞼モデルの右の瞼尤度λr_eyelid、並びに直近の上記ステップ122で選択された組み合わせの左の比較瞼モデルの左の瞼尤度λl_eyelidに基づいて、下記の式(3)に示すように、重みwright_2が付けられた右の瞼尤度λr_eyelidと、重みwleft_2が付けられた左の瞼尤度λl_eyelidとの和((wright_2・λr_eyelid+wleft_2・λl_eyelid)/(wright_2+wleft_2))を両瞼(左右の瞼)の瞼尤度λeyelidとして演算する。 Next, the process in step 302 will be described. In step 302, the image is included in the face image represented by the image data of the image including the face area extracted in step 102 according to the distance d right to the right eye and the distance d left to the left eye detected in step 106. The size corresponding to the eyelid likelihood of the eyelid farther from the position where the image including the face image is captured by the camera 12 among the starboard and the left eyelid corresponds to the eyelid likelihood of the near eyelid. The weights w right — 2 and w left — 2 determined to be smaller than the size, the right wrinkle likelihood λ r — eyelid of the right comparison wrinkle model of the combination selected in the most recent step 122, and the most recent step 122 Based on the left heel likelihood λ l_eyelid of the left comparison heel model of the combination, as shown in the following equation (3), the weight w right _2 and right eyelid likelihood λ r_eyelid that has been marked with the sum of the eyelids likelihood λ l_eyelid left the weight w left_2 is attached ((w right_2 · λ r_eyelid + w left_2 · λ l_eyelid) / (w right_2 + w left_2 )) Is calculated as the 瞼 likelihood λ eyelid of both heels (left and right heels).

ここで、図9を参照して、ステップ302において、上記ステップ300で検出された右目までの距離dright及び左目までの距離dleftに応じて、重みwright_2及び重みwleft_2を定める方法の一例について説明する。 Referring now to FIG. 9, in step 302, an example of a method in accordance with the distance d left Distance to d. Right and left to right, which is detected in step 300, determine the weights w Right_2 and weights w Left_2 Will be described.

図9は、(dleft−dright)と右の瞼尤度λr_eyelidに対応する重みwright_2の大きさとの関係、及び(dleft−dright)と左の瞼尤度λl_eyelidに対応する重みwleft_2の大きさとの関係を表す図である。 Figure 9 corresponds to (d left -d right) and the relationship between the magnitude of the weights w Right_2 corresponding to the right of the eyelid likelihood lambda R_eyelid, and (d left -d right) and left eyelid likelihood lambda L_eyelid It is a figure showing the relationship with the magnitude | size of weight wleft_2 .

ここで、右瞼からカメラ12までの距離drightと、左瞼からカメラ12までの距離dleftとが同一である場合には、右の瞼尤度λr_eyelidの精度(信頼性)と左の瞼尤度λl_eyelidの精度とは同一であると考えることができる。 Here, when the distance d right from the starboard to the camera 12 and the distance d left from the starboard to the camera 12 are the same, the accuracy (reliability) of the right eye likelihood λ r_eyelid and the left It can be considered that the accuracy of the likelihood λ l_eyelid is the same.

一方、右瞼からカメラ12までの距離drightが、左瞼からカメラ12までの距離dleftより大きい場合には、右の瞼尤度λr_eyelidの精度は、左の瞼尤度λl_eyelidの精度より悪いと考えることができる。同様に、左瞼からカメラ12までの距離dleftが、右瞼からカメラ12までの距離drightより大きい場合には、左の瞼尤度λl_eyelidの精度は、右の瞼尤度λr_eyelidの精度より悪いと考えることができる。そして、距離drightと距離dleftとの差が大きくなればなるほど、精度の差が大きくなると考えられる。 On the other hand, when the distance d right from the starboard to the camera 12 is greater than the distance d left from the starboard to the camera 12, the accuracy of the right eye likelihood λ r_eyelid is the accuracy of the left eye likelihood λ l_eyelid . Can be considered worse. Similarly, when the distance d left from the starboard to the camera 12 is larger than the distance d right from the starboard to the camera 12, the accuracy of the left eye likelihood λ l_eyelid is equal to that of the right eye likelihood λ r_eyelid . It can be considered worse than accuracy. Then, it is considered that the difference in accuracy increases as the difference between the distance d right and the distance d left increases.

本実施の形態では、これらのことを考慮して、距離drightと距離dleftとの差が大きくなればなるほど、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In the present embodiment, in consideration of these points, the larger the difference between the distance d right and the distance d left , the smaller the weight of the 瞼 likelihood that the accuracy becomes worse, thereby reducing the overall 瞼The ratio of the heel likelihood of the heel having the lower (bad) accuracy to the likelihood λ eyelid_all is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ302では、例えば、図9に示すように、ステップ300で検出した右目までの距離dright及び左目までの距離dleftの差(dleft−dright)が2.5cm(図9の例では、dleft>drightの場合を正の値とし、dleft<drightの場合を負の値で表している。)である場合には、重みwright_2として0.75、及び重みwleft_2として0.25を定める。そして、下記の式(4)に示すように、重み0.75が付けられた右の瞼尤度λr_eyelidと、重み0.25が付けられた左の瞼尤度λl_eyelidとの和λeyelidを演算する。なお、図9の例では、重みwright_2と、重みwleft_2との和は1.0となる。 In step 302, for example, as shown in FIG. 9, the difference between the distance d right to the right eye detected in step 300 and the distance d left to the left eye (d left −d right ) is 2.5 cm (in the example of FIG. 9, , D left > d right is a positive value, and d left <d right is a negative value.) If weight w right — 2 is 0.75, and weight w left — 2 is Set 0.25. Then, as shown in the following formula (4), the sum of the right eyelid likelihood lambda R_eyelid the weight 0.75 is given, the eyelid likelihood lambda L_eyelid the left weight 0.25 is assigned lambda eyelid Is calculated. In the example of FIG. 9, the sum of the weight w right — 2 and the weight w left — 2 is 1.0.

以上、説明したように、本実施形態に係る瞼尤度演算装置は、検出された右目までの距離dright及び左目までの距離dleftに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影されたときのカメラ12の位置(撮影位置)に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_2及びwleft_2のうち右の瞼に対応する重みwright_2を、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright_2・λr_eyelid)と、左の瞼に対応する重みwleft_2を、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft_2・λl_eyelid)との和((wright_2・λr_eyelid+wleft_2・λl_eyelid)/(wright_2+wleft_2))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算する。そして、本実施形態に係る瞼尤度演算装置は、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算する。 As described above, the eyelid likelihood calculating apparatus according to the present embodiment performs the starboard and image staring of the image captured by the camera 12 according to the detected distance d right to the right eye and the distance d left to the left eye. The size corresponding to the likelihood of the eyelid farther to the position of the camera 12 when the image is taken by the camera 12 (photographing position) of the left eyelid is the size corresponding to the likelihood of the eyelid closer to the eyelid determined to be less than is the weight w Right_2 corresponding to the right of the eyelid of the weights w Right_2 and w Left_2 corresponding to each of the right and left eyelid, the right eyelid opening is the same comparative eyelid model and left A value (w right — 2 · λ r — eyelid) weighted to the right eye likelihood λ r_eyelid of the right comparison eye model in the combination of the comparison eye models and a weight corresponding to the left eyelid the w left_2, the sum of the left eyelid likelihood λ value was weighted to l_eyelid of the left comparison eyelids model of (w left_2 · λ l_eyelid) ( (w right_2 · λ r_eyelid + w left_2 · λ l_eyelid) / (w right_2 + w left_2 )) Is calculated for each combination as left and right wing likelihood λ eyelid in this combination. The eyelids likelihood computation device according to the present embodiment, among the left and right eyelid likelihood lambda eyelid of each combination in which a plurality computation, calculates the largest right and left eyelids likelihood lambda Eyelid_max the overall Mabutayudo lambda Eyelid_all To do.

本実施形態に係る瞼尤度演算装置によれば、撮影手段(本実施の形態ではステレオカメラ)によって撮影された画像に含まれる顔の画像が横を向いている場合(すなわち、画像に含まれる撮影対象の顔の画像が横を向いている場合)であっても、画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_2及びwleft_2のうち右の瞼に対応する重みwright_2を右の瞼尤度λr_eyelidに重み付けた値(wright_2・λr_eyelid)と、左の瞼に対応する重みwleft_2を左の瞼尤度λl_eyelidに重み付けた値(wleft_2・λl_eyelid)との和((wright_2・λr_eyelid+wleft_2・λl_eyelid)/(wright_2+wleft_2))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算し、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算するので、全体の瞼尤度λeyelid_allに対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 According to the eyelid likelihood calculation apparatus according to the present embodiment, when the face image included in the image captured by the imaging unit (stereo camera in the present embodiment) is facing sideways (that is, included in the image). Even if the image of the face to be photographed is facing sideways), the size corresponding to the eyelid likelihood of the eyelid farther to the position where the image was taken is the eyelid likelihood of the near eyelid corresponding determined to be smaller than the size, the weight w Right_2 and weighted values of the weights w Right_2 corresponding to the right of the eyelid to the right of the eyelid likelihood lambda R_eyelid of w Left_2 corresponding to each of the right and left eyelids (w the sum of the right_2 · λ r_eyelid), and the value of the weights w left_2 was weighted to the left of the eyelids likelihood λ l_eyelid corresponding to the left of the eyelids (w left_2 · λ l_eyelid) (W right_2 · λ r_eyelid + w left_2 · λ l_eyelid) / (w right_2 + w left_2)) a plurality of operation for each combination as left and right eyelid likelihood lambda eyelid in this combination, Mabutayu of the left and right for each combination of a plurality of operation among degrees lambda eyelid, so calculates the largest right and left eyelids likelihood lambda Eyelid_max the overall Mabutayudo λ eyelid_all, more the proportion of eyelids likelihood of eyelid rather low accuracy for the entire Mabutayudo lambda Eyelid_all As a result, the overall 瞼 likelihood λ eyelid_all can be calculated with better accuracy.

なお、本実施の形態の瞼尤度演算装置によって演算された全体の瞼尤度λeyelid_allは、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、瞼開度を検出することができる。 Note that the overall heel likelihood λ eyelid_all calculated by the heel likelihood calculating device of the present embodiment can be used as a likelihood when estimating the shape of the heel , for example. In addition, for example, the eyelid opening degree can be detected from the shape of the eyelid estimated in this way.

また、本実施の形態の瞼尤度演算装置を、演算された全体の瞼尤度λeyelid_allに基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。 In addition, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated total heel likelihood λ eyelid_all , and from the estimated heel model, cleaves the heel represented by the heel model. It is good also as a structure provided with the eaves opening degree detection function which detects a degree. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

[第3の実施の形態]
次に第3の実施の形態について説明する。なお、第2の実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。
[Third Embodiment]
Next, a third embodiment will be described. In addition, about the structure similar to 2nd Embodiment, and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted.

本実施の形態において、第2の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図10に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されており、CPU14dがこの図10に示す瞼尤度演算処理を実行する点である。同図に図示されるように、ステップ102の次にステップ304が実行され、ステップ304の次にステップ306が実行され、ステップ122の次にステップ308が実行される。なお、本実施の形態では、第2の実施の形態と同様に、カメラ12として、撮影した対象物までの距離を検出可能な撮影手段、例えば、ステレオカメラが用いられる。   In this embodiment, the difference from the second embodiment is that a program for executing the processing routine of the 瞼 likelihood calculation process shown in FIG. 10 is stored in the HDD 14c of the 瞼 likelihood calculation device according to this embodiment. Is stored, and the CPU 14d executes the heel likelihood calculation process shown in FIG. As shown in the figure, step 304 is executed after step 102, step 306 is executed after step 304, and step 308 is executed after step 122. In the present embodiment, as in the second embodiment, as the camera 12, an imaging means capable of detecting the distance to the captured object, for example, a stereo camera is used.

まず、ステップ304での処理について説明する。ステップ304では、上記ステップ102で取得した画像データが表す画像から、第1の実施の形態や第2の実施の形態と同様に、瞼及び虹彩を含む目の領域である目領域を抽出することにより目領域の画像データを取得する。更に、本実施の形態では、ステップ304で、右耳及び左耳を含む耳の領域(耳領域)を抽出することにより、耳領域の画像データを取得する。ステップ304で耳領域を抽出する方法としては、例えば、テンプレートマッチング法による画像処理により画像データが表す画像の中から右耳を含む領域及び左耳を含む領域を検索する方法を用いてもよいし、あるいは、操作者がキーボード(図示せず)、マウス(図示せず)、電子ペン(図示せず)またはライトペン(図示せず)等の耳領域を選択するための耳領域選択手段により画像の上で耳領域を選択することにより耳領域を抽出する方法を用いてもよい。   First, the process in step 304 will be described. In step 304, an eye region, which is an eye region including eyelids and irises, is extracted from the image represented by the image data acquired in step 102, as in the first and second embodiments. Thus, the image data of the eye area is acquired. Furthermore, in the present embodiment, in step 304, the ear region image data including the right ear and the left ear is extracted, thereby acquiring the ear region image data. As a method of extracting the ear region in step 304, for example, a method of searching a region including the right ear and a region including the left ear from the image represented by the image data by image processing by the template matching method may be used. Alternatively, the image is obtained by an ear region selection means for the operator to select an ear region such as a keyboard (not shown), a mouse (not shown), an electronic pen (not shown), or a light pen (not shown). A method of extracting the ear region by selecting the ear region on the screen may be used.

次に、ステップ306での処理について説明する。ステップ306では、上記ステップ304で抽出した耳領域の画像データに画像処理を行って、上記ステップ304で抽出した右の耳領域の所定部分(例えば、右耳の中心)までの距離dright_2を検出することにより、カメラ12から右耳までの距離dright_2を検出すると共に、上記ステップ304で抽出した左の耳領域の所定部分(例えば、左耳の中心)までの距離dleft_2を検出することにより、カメラ12から左耳までの距離dleft_2を検出する。 Next, the process at step 306 will be described. In step 306, the image data of the ear region extracted in step 304 is subjected to image processing, and a distance d right_2 to a predetermined portion (for example, the center of the right ear) extracted in step 304 is detected. by detects a distance d Right_2 from the camera 12 to the right ear, a predetermined portion of the ear regions of the left extracted in step 304 (e.g., the center of the left ear) by detecting the distance d Left_2 to , to detect the distance d left_2 from the camera 12 to the left ear.

次に、ステップ308での処理について説明する。ステップ308では、上記ステップ306で検出された右耳までの距離dright_2及び左耳までの距離dleft_2に応じて、上記ステップ102で抽出された顔領域を含む画像の画像データが表す顔の画像に含まれる右瞼及び左瞼のうち、顔の画像を含む画像がカメラ12によって撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近い方の瞼の瞼尤度に対応する大きさより小さくなるように定めた重みwright_3及びwleft_3、直近の上記ステップ122で選択された組み合わせの右の比較瞼モデルの右の瞼尤度λr_eyelid、並びに直近の上記ステップ122で選択された組み合わせの左の比較瞼モデルの左の瞼尤度λl_eyelidに基づいて、下記の式(5)に示すように、重みwright_3が付けられた右の瞼尤度λr_eyelidと、重みwleft_3が付けられた左の瞼尤度λl_eyelidとの和((wright_3・λr_eyelid+wleft_3・λl_eyelid)/(wright_3+wleft_3))を両瞼(左右の瞼)の瞼尤度λeyelidとして演算する。 Next, the process at step 308 will be described. At step 308, depending on the distance d Left_2 Distance to d Right_2 and left ear to the detected right ear in step 306, the image of the image data represents a face image including a face region extracted in step 102 The size corresponding to the heel likelihood of the heel farther from the position where the image including the face image is captured by the camera 12 among the starboard and portside included in the The weights w right — 3 and w left — 3 determined to be smaller than the corresponding size, the right likelihood λ r — eyelid of the right comparison model of the combination selected in the most recent step 122, and the selection in the most recent step 122 Based on the left heel likelihood λ l_eyelid of the left comparison heel model of the combination, the weight w r as shown in the following equation (5) ight_3 and right eyelid likelihood λ r_eyelid that has been marked with the sum of the eyelids likelihood λ l_eyelid left the weight w left_3 is attached ((w right_3 · λ r_eyelid + w left_3 · λ l_eyelid) / (w right_3 + w left_3 )) Is calculated as the 瞼 likelihood λ eyelid of both heels (left and right heels).

ここで、図11を参照して、ステップ308において、上記ステップ306で検出された右耳までの距離dright_2及び左耳までの距離dleft_2に応じて、重みwright_3及び重みwleft_3を定める方法の一例について説明する。 Here, the method with reference to FIG. 11, in step 308, in accordance with the distance d Left_2 Distance to d Right_2 and left ear to the detected right ear at step 306, determine the weights w Right_3 and weights w Left_3 An example will be described.

図11は、(dleft_2−dright_2)と右の瞼尤度λr_eyelidに対応する重みwright_3の大きさとの関係、及び(dleft_2−dright_2)と左の瞼尤度λl_eyelidに対応する重みwleft_3の大きさとの関係を表す図である。 Figure 11 corresponds to (d left_2 -d right_2) and the relationship between the magnitude of the weights w Right_3 corresponding to the right of the eyelid likelihood lambda R_eyelid, and (d left_2 -d right_2) and left eyelid likelihood lambda L_eyelid It is a figure showing the relationship with the magnitude | size of weight wleft_3 .

ここで、右耳からカメラ12までの距離dright_2と、左耳からカメラ12までの距離dleft_2とが同一である場合には、右の瞼尤度λr_eyelidの精度(信頼性)と左の瞼尤度λl_eyelidの精度とは同一であると考えることができる。 Here, the distance d Right_2 from the right ear to the camera 12, when the distance d Left_2 from the left ear to the camera 12 are the same, the right eyelid likelihood lambda R_eyelid accuracy (reliability) and left It can be considered that the accuracy of the likelihood λ l_eyelid is the same.

一方、右耳からカメラ12までの距離dright_2が、左耳からカメラ12までの距離dleft_2より大きい場合には、右の瞼尤度λr_eyelidの精度は、左の瞼尤度λl_eyelidの精度より悪いと考えることができる。同様に、左耳からカメラ12までの距離dleft_2が、右耳からカメラ12までの距離dright_2より大きい場合には、左の瞼尤度λl_eyelidの精度は、右の瞼尤度λr_eyelidの精度より悪いと考えることができる。そして、距離dright_2と距離dleft_2との差が大きくなればなるほど、精度の差が大きくなると考えられる。 On the other hand, the distance d Right_2 from the right ear to the camera 12, is greater than the distance d Left_2 from the left ear to the camera 12, the accuracy of the right eyelid likelihood lambda R_eyelid the left eyelid likelihood lambda L_eyelid accuracy Can be considered worse. Similarly, the distance d Left_2 from the left ear to the camera 12, is greater than the distance d Right_2 from the right ear to the camera 12, the left eyelid likelihood lambda L_eyelid accuracy, the right eyelid likelihood lambda R_eyelid It can be considered worse than accuracy. Then, it is considered that the difference in accuracy increases as the difference between the distance d right — 2 and the distance d left — 2 increases.

本実施の形態では、これらのことを考慮して、距離dright_2と距離dleft_2との差が大きくなればなるほど、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In this embodiment, in consideration of these points, the larger the difference between the distance d right — 2 and the distance d left — 2 , the smaller the weight of the likelihood that the accuracy is worsened. The ratio of the heel likelihood of the heel having the lower (bad) accuracy to the likelihood λ eyelid_all is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ308では、例えば、図11に示すように、ステップ306で検出した右耳までの距離dright_2及び左耳までの距離dleft_2の差(dleft_2−dright_2)が2.5cm(図11の例では、dleft_2>dright_2の場合を正の値とし、dleft_2<dright_2の場合を負の値で表している。)である場合には、重みwright_3として0.75、及び重みwleft_3として0.25を定める。そして、下記の式(6)に示すように、重み0.75が付けられた右の瞼尤度λr_eyelidと、重み0.25が付けられた左の瞼尤度λl_eyelidとの和λeyelidを演算する。なお、図11の例では、重みwright_2と、重みwleft_2との和は1.0となる。 In step 308, for example, as shown in FIG. 11, the difference between the distance d right_2 to the right ear detected in step 306 and the distance d left_2 to the left ear (d left_2 −d right_2 ) is 2.5 cm (in FIG. 11). In the example, a case where d left — 2 > d right — 2 is a positive value, and a case where d left — 2 <d right — 2 is expressed as a negative value.) When the weight w right — 3 is 0.75, and a weight w 0.25 is determined as left_3 . Then, as shown in the following formula (6), the sum of the right eyelid likelihood lambda R_eyelid the weight 0.75 is given, the eyelid likelihood lambda L_eyelid the left weight 0.25 is assigned lambda eyelid Is calculated. In the example of FIG. 11, the sum of the weight w right — 2 and the weight w left — 2 is 1.0.

以上、説明したように、本実施形態に係る瞼尤度演算装置は、検出された右耳までの距離dright_2及び左耳までの距離dleft_2に応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影されたときのカメラ12の位置(撮影位置)に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_3及びwleft_3のうち右の瞼に対応する重みwright_3を、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright_3・λr_eyelid)と、左の瞼に対応する重みwleft_3を、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft_3・λl_eyelid)との和((wright_3・λr_eyelid+wleft_3・λl_eyelid)/(wright_3+wleft_3))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算する。そして、本実施形態に係る瞼尤度演算装置は、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算する。 As described above, the eyelid likelihood computation device according to this embodiment, depending on the distance d Left_2 Distance to d Right_2 and left ear to the detected right ear, the right image captured by the camera 12 The size corresponding to the eyelid likelihood of the eyelid farther from the position of the camera 12 (photographing position) when the image is taken by the camera 12 among the eyelids and the left eyelid corresponds to the eyelid likelihood of the near eyelid. determined to be smaller than the size of the weight w Right_3 corresponding to the right of the eyelid of the weights w Right_3 and w Left_3 corresponding to each of the right and left eyelids, right comparison eyelid models and eyelid opening is the same Corresponds to a value weighted to the right eyelid likelihood λ r_eyelid of the right comparative eyelid model in the combination of the left eyelid model (w right3 · λ r_eyelid ) and the left eyelid The sum of the weights w left_3, and left eyelid likelihood λ value was weighted to l_eyelid of the left comparison eyelids model of (w left_3 · λ l_eyelid) to ((w right_3 · λ r_eyelid + w left_3 · λ l_eyelid) / (w right_3 + W left — 3 )) is calculated for each combination as left and right heel likelihood λ eyelid in this combination. The eyelids likelihood computation device according to the present embodiment, among the left and right eyelid likelihood lambda eyelid of each combination in which a plurality computation, calculates the largest right and left eyelids likelihood lambda Eyelid_max the overall Mabutayudo lambda Eyelid_all To do.

本実施形態に係る瞼尤度演算装置によれば、第1の実施の形態及び第2の実施の形態と同様に、全体の瞼尤度λeyelid_allに対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 According to the heel likelihood calculating apparatus according to the present embodiment, as in the first embodiment and the second embodiment, the heel likelihood of the heel having a lower accuracy with respect to the overall heel likelihood λ eyelid_all . The ratio becomes smaller, which makes it possible to calculate the overall 瞼 likelihood λ eyelid_all with better accuracy.

なお、本実施の形態の瞼尤度演算装置によって演算された全体の瞼尤度λeyelid_allは、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、瞼開度を検出することができる。 Note that the overall heel likelihood λ eyelid_all calculated by the heel likelihood calculating device of the present embodiment can be used as a likelihood when estimating the shape of the heel , for example. In addition, for example, the eyelid opening degree can be detected from the shape of the eyelid estimated in this way.

また、本実施の形態の瞼尤度演算装置を、演算された全体の瞼尤度λeyelid_allに基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。 In addition, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated total heel likelihood λ eyelid_all , and from the estimated heel model, cleaves the heel represented by the heel model. It is good also as a structure provided with the eaves opening degree detection function which detects a degree. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

[第4の実施の形態]
次に第4の実施の形態について説明する。なお、第1の実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment will be described. In addition, about the structure similar to 1st Embodiment, and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted.

本実施の形態において、第1の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図12に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されており、CPU14dが図12に示す瞼尤度演算処理を実行する点である。同図に図示されるように、ステップ104の次にステップ310が実行され、ステップ122の次にステップ312が実行される。   In this embodiment, the difference from the first embodiment is that a program for executing the processing routine of the 瞼 likelihood calculation process shown in FIG. 12 is stored in the HDD 14c of the 瞼 likelihood calculation device according to this embodiment. Is stored, and the CPU 14d executes the likelihood likelihood calculation process shown in FIG. As shown in the figure, step 310 is executed after step 104, and step 312 is executed after step 122.

まず、ステップ310での処理について説明する。ステップ310では、右目の目領域のコントラスト及び左目の目領域のコントラストを演算するための目領域コントラスト演算処理を実行する。   First, the process in step 310 will be described. In step 310, an eye region contrast calculation process for calculating the contrast of the right eye region and the contrast of the left eye region is executed.

この目領域コントラスト演算処理について、図13を参照して説明すると、まずステップ400で、上記ステップ104で抽出した目領域のうち、右目の目領域(右目領域)の全ての画素の濃度値(画素値:本実施の形態では、例えば0〜255の何れかの値)を検出する。   The eye area contrast calculation process will be described with reference to FIG. 13. First, in step 400, among the eye areas extracted in step 104, the density values (pixels) of all the pixels in the right eye area (right eye area). Value: In this embodiment, for example, any value of 0 to 255) is detected.

次のステップ402では、まず、図14(A)に示すように、上記ステップ400で検出した各画素の濃度値に基づいて、横軸を濃度値、縦軸を画素の数とするヒストグラムを作成する。そして、同図に図示されるように、画素の数が所定の閾値Ithrightより多い場合の濃度値の最大と最小との差Iwrightを演算することにより、右目の目領域のコントラストIwrightを演算する。 In the next step 402, first, as shown in FIG. 14A, a histogram with the horizontal axis representing the density value and the vertical axis representing the number of pixels is created based on the density value of each pixel detected in step 400 above. To do. Then, as shown in the figure, by calculating the difference Iw right between the maximum and minimum density values when the number of pixels is larger than a predetermined threshold value Ith right , the contrast Iw right of the right eye region is calculated. Calculate.

次のステップ404では、上記ステップ104で抽出した目領域のうち、左目の目領域(左目領域)の全ての画素の濃度値を検出する。   In the next step 404, the density values of all the pixels in the left eye region (left eye region) among the eye regions extracted in step 104 are detected.

次のステップ406では、まず、図14(B)に示すように、上記ステップ404で検出した各画素の濃度値に基づいて、横軸を濃度値、縦軸を画素の数とするヒストグラムを作成する。そして、同図に図示されるように、画素の数が所定の閾値Ithleftより多い場合の濃度値の最大と最小との差Iwleftを演算することにより、左目の目領域のコントラストIwleftを演算する。そして、目領域コントラスト演算処理を終了する。以上、説明しように、ステップ310での目領域コントラスト演算処理によって、左右の目領域の各コントラストが演算される。 In the next step 406, first, as shown in FIG. 14B, based on the density value of each pixel detected in the above step 404, a histogram is created with the horizontal axis representing the density value and the vertical axis representing the number of pixels. To do. Then, as shown in the figure, by calculating the difference Iw left between the maximum and minimum density values when the number of pixels is larger than a predetermined threshold value Ith left , the contrast Iw left of the left eye area is calculated. Calculate. Then, the eye area contrast calculation process ends. As described above, the contrasts of the left and right eye regions are calculated by the eye region contrast calculation process in step 310.

ここで、コントラストが低い(小さい)ほどぼやけた画像となることから、コントラストが低いほどカメラ12とその撮影対象物(撮影対象箇所)との距離が遠いと考えることができる。同様に、コントラストが高い(大きい)ほどはっきりとした画像となることから、コントラストが高いほどカメラ12とその撮影対象物(撮影対象箇所)との距離が近いと考えることができる。   Here, the lower the contrast (smaller), the more blurred the image. Therefore, the lower the contrast, the farther the distance between the camera 12 and its subject (shooting target location) can be considered. Similarly, the higher the contrast (higher), the clearer the image. Therefore, the higher the contrast, the closer the distance between the camera 12 and the subject to be photographed (photographing target location).

次に、ステップ312での処理について説明する。ステップ312では、上記ステップ310で演算された右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleftに応じて、上記ステップ102で抽出された顔領域を含む画像の画像データが表す顔の画像に含まれる右瞼及び左瞼のうち、コントラストが小さい方(顔の画像を含む画像がカメラ12によって撮影された位置に遠いほう)の瞼の瞼尤度に対応する大きさが、コントラストが大きい方(近い方)の瞼の瞼尤度に対応する大きさより小さくなるように定めた重みwright_4及びwleft_4、直近の上記ステップ122で選択された組み合わせの右の比較瞼モデルの右の瞼尤度λr_eyelid、並びに直近の上記ステップ122で選択された組み合わせの左の比較瞼モデルの左の瞼尤度λl_eyelidに基づいて、下記の式(7)に示すように、重みwright_4が付けられた右の瞼尤度λr_eyelidと、重みwleft_4が付けられた左の瞼尤度λl_eyelidとの和((wright_4・λr_eyelid+wleft_4・λl_eyelid)/(wright_4+wleft_4))を両瞼(左右の瞼)の瞼尤度λeyelidとして演算する。 Next, the process at step 312 will be described. In step 312, the face represented by the image data of the image including the face region extracted in step 102 according to the contrast Iw right of the right eye region and the contrast Iw left of the left eye region calculated in step 310. The size corresponding to the eyelid likelihood of the eyelid having the smaller contrast (the one farther from the position where the image including the face image was taken by the camera 12) of the starboard and the left eyed included in the image of The weights w right — 4 and w left — 4 determined to be smaller than the size corresponding to the heel likelihood of the larger (closer) wing , the right of the right comparison wing model of the combination selected in the previous step 122 Mabutayudo λ r_eyelid, and combination selected in the last step 122 the left comparison eyelid model left of Based on the likelihood lambda L_eyelid, as shown in the following formula (7), and right eyelid likelihood lambda R_eyelid a weight w Right_4 is attached, and eyelids likelihood lambda L_eyelid the left weights w Left_4 is attached The sum of (( wright_4 · λr_eyelid + wleft_4 · λl_eyelid ) / ( wright_4 + wleft_4 )) is calculated as the 瞼 likelihood λ eyelid of both wings (left and right wings ).

ここで、図15を参照して、ステップ312において、上記ステップ310で演算された右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleftに応じて、重みwright_4及び重みwleft_4を定める方法の一例について説明する。なお、本実施の形態では、Iwright及びIwleftの大小関係によって重みwright_4及び重みwleft_4を定める方法が以下に示すように異なる。 Referring now to FIG. 15, in step 312, in response to the contrast Iw left contrast Iw. Right and left eye of the eye region of the right eye of the eye region which is calculated in step 310, the weights w Right_4 and weights w Left_4 An example of the determining method will be described. In the present embodiment, the method for determining the weight w right — 4 and the weight w left — 4 differs depending on the magnitude relationship between Iw right and Iw left as shown below.

図15(A)は、Iwleft<Iwrightの場合におけるIwleftをIwrightで割った(除算した)値である比(Iwleft/Iwright)と右の瞼尤度λr_eyelidに対応する重みwright_4の大きさとの関係、及び比(Iwleft/Iwright)と左の瞼尤度λl_eyelidに対応する重みwleft_4の大きさとの関係を表す図である。 FIG. 15A shows a ratio (Iw left / Iw right ) that is a value obtained by dividing (dividing) Iw left by Iw right in the case of Iw left <Iw right and a weight corresponding to the right heel likelihood λ r_eylid. relationship between the size of w right_4, and a graph showing the relation between the size of the weights w Left_4 the ratio and (Iw left / Iw right) corresponding to the left eyelid likelihood λ l_eyelid.

ここで、比(Iwleft/Iwright)が1である場合には、右の瞼尤度λr_eyelidの精度(信頼性)と左の瞼尤度λl_eyelidの精度とは同一であると考えることができる。 Here, when the ratio (Iw left / Iw right ) is 1, it is considered that the accuracy (reliability) of the right heel likelihood λ r_eyelid and the accuracy of the left heel likelihood λ l_eyelid are the same. Can do.

一方、比(Iwleft/Iwright)が1より小さい場合には、左の瞼尤度λl_eyelidの精度は、右の瞼尤度λr_eyelidの精度より悪いと考えることができる。そして、比(Iwleft/Iwright)が1より小さくなればなるほど、左の瞼尤度λl_eyelidの精度が、右の瞼尤度λr_eyelidの精度より悪くなると考えられる。 On the other hand, when the ratio (Iw left / Iw right) is smaller than 1, the accuracy of the left eyelid likelihood lambda L_eyelid can be considered worse than the precision of the right eyelid likelihood λ r_eyelid. Then, it is considered that the accuracy of the left heel likelihood λ l_eyelid is worse than the accuracy of the right heel likelihood λ r_eyelid as the ratio (Iw left / Iw right ) becomes smaller than 1.

本実施の形態では、これらのことを考慮して、比(Iwleft/Iwright)が1より小さくなればなるほど、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In the present embodiment, in consideration of these, the weight of the overall likelihood is reduced by reducing the weight of the likelihood that the accuracy becomes worse as the ratio (Iw left / Iw right ) becomes smaller than 1. The ratio of the heel likelihood of the heel having the lower (bad) accuracy to the likelihood λ eyelid_all is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ312では、Iwleft<Iwrightである場合には、図15(A)に示すように、左目の目領域のコントラストIwleftを、右目の目領域のコントラストIwrightで割った値である比(Iwleft/Iwright)を演算して対応する重みwright_4及び重みwleft_4を定める。より具体的には、例えば、Iwleft<Iwrightである場合における比(Iwleft/Iwright)が、0.75であるときには、重みwright_4として0.75、及び重みwleft_4として0.25を定める。そして、下記の式(8)に示すように、重み0.75が付けられた右の瞼尤度λr_eyelidと、重み0.25が付けられた左の瞼尤度λl_eyelidとの和λeyelidを演算する。なお、図15(A)の例では、重みwright_4と、重みwleft_4との和は1.0となる。 In step 312, if Iw left <Iw right , as shown in FIG. 15A, the ratio that is a value obtained by dividing the contrast Iw left of the left eye region by the contrast Iw right of the right eye region. (Iw left / Iw right ) is calculated to determine the corresponding weight w right — 4 and weight w left — 4 . More specifically, for example, when the ratio (Iw left / Iw right ) in the case of Iw left <Iw right is 0.75, the weight w right — 4 is 0.75, and the weight w left — 4 is 0.25. Determine. Then, as shown in the following equation (8), the sum of the right eyelid likelihood lambda R_eyelid the weight 0.75 is given, the eyelid likelihood lambda L_eyelid the left weight 0.25 is assigned lambda eyelid Is calculated. In the example of FIG. 15A , the sum of the weight w right — 4 and the weight w left — 4 is 1.0.

また、図15(B)は、Iwleft≧Iwrightの場合におけるIwrightをIwleftで割った(除算した)値である比(Iwright/Iwleft)と右の瞼尤度λr_eyelidに対応する重みwright_4の大きさとの関係、及び比(Iwright/Iwleft)と左の瞼尤度λl_eyelidに対応する重みwleft_4の大きさとの関係を表す図である。 FIG. 15B corresponds to the ratio (Iw right / Iw left ), which is a value obtained by dividing (dividing) Iw right by Iw left in the case of Iw left ≧ Iw right and the right likelihood λ r_eylid relationship between the magnitude of the weights w Right_4 to, and a graph showing the relation between the size of the weights w Left_4 the ratio and (Iw right / Iw left) correspond to the left eyelid likelihood λ l_eyelid.

ここで、比(Iwright/Iwleft)が1である場合には、右の瞼尤度λr_eyelidの精度(信頼性)と左の瞼尤度λl_eyelidの精度とは同一であると考えることができる。 Here, when the ratio (Iw right / Iw left ) is 1, it is considered that the accuracy (reliability) of the right heel likelihood λ r_eyelid and the accuracy of the left heel likelihood λ l_eyelid are the same. Can do.

一方、比(Iwright/Iwleft)が1より小さい場合には、右の瞼尤度λr_eyelidの精度は、左の瞼尤度λl_eyelidの精度より悪いと考えることができる。そして、比(Iwright/Iwleft)が1より小さくなればなるほど、右の瞼尤度λr_eyelidの精度が、左の瞼尤度λl_eyelidの精度より悪くなると考えられる。 On the other hand, when the ratio (Iw right / Iw left) is smaller than 1, the accuracy of the right eyelid likelihood lambda R_eyelid can be considered worse than the precision of the left eyelid likelihood λ l_eyelid. Then, it is considered that the accuracy of the right heel likelihood λ r_eyelid becomes worse than the accuracy of the left heel likelihood λ l_eyelid as the ratio (Iw right / Iw left ) becomes smaller than 1.

本実施の形態では、これらのことを考慮して、比(Iwright/Iwleft)が1より小さくなればなるほど、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In this embodiment, in consideration of the above, the smaller than the ratio (Iw right / Iw left) is 1, by reducing the weight of the eyelid likelihood of better precision is deteriorated, the entire eyelid The ratio of the heel likelihood of the heel having the lower (bad) accuracy to the likelihood λ eyelid_all is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ312では、Iwleft≧Iwrightである場合には、図15(B)に示すように、右目の目領域のコントラストIwrightを、左目の目領域のコントラストIwleftで割った値である比(Iwright/Iwleft)を演算して対応する重みwright_4及び重みwleft_4を定める。より具体的には、例えば、Iwleft≧Iwrightである場合における比(Iwright/Iwleft)が、0.75であるときには、重みwright_4として0.25、及び重みwleft_4として0.75を定める。そして、上記と同様に、和λeyelidを演算する。なお、図15(B)の例においても、重みwright_4と、重みwleft_4との和は1.0となる。 In step 312, if Iw left ≧ Iw right , as shown in FIG. 15B, the ratio that is the value obtained by dividing the contrast Iw right of the right eye region by the contrast Iw left of the left eye region determine the weights w Right_4 and weights w Left_4 corresponding by calculating (Iw right / Iw left). More specifically, for example, when the ratio (Iw right / Iw left ) in the case of Iw left ≧ Iw right is 0.75, the weight w right — 4 is 0.25, and the weight w left — 4 is 0.75. Determine. Then, the sum λ eyelid is calculated as described above. In the example of FIG. 15B , the sum of the weight w right — 4 and the weight w left — 4 is 1.0.

以上、説明したように、本実施形態に係る瞼尤度演算装置は、演算された右目領域のコントラストIwright及び左目領域のコントラストIwleftに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうち、コントラストが小さい方(カメラ12によって画像が撮影されたときのカメラ12の位置(撮影位置)に遠いほう)の瞼の瞼尤度に対応する大きさが、コントラストが大きい方(近いほう)の瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_4及びwleft_4のうち右の瞼に対応する重みwright_4を、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright_4・λr_eyelid)と、左の瞼に対応する重みwleft_4を、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft_4・λl_eyelid)との和((wright_4・λr_eyelid+wleft_4・λl_eyelid)/(wright_4+wleft_4))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算する。そして、本実施形態に係る瞼尤度演算装置は、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算する。 As described above, the eyelid likelihood calculating apparatus according to the present embodiment performs the starfish and image staring of the image photographed by the camera 12 according to the calculated contrast Iw right of the right eye region and the contrast Iw left of the left eye region. The size corresponding to the likelihood of the eyelid of the left eyelid having the smaller contrast (the one farther from the position of the camera 12 (photographing position) when the image is taken by the camera 12) is the one having the larger contrast ( Nearby more) it was determined to be smaller than a size corresponding to the eyelid likelihood of eyelid of the weight w Right_4 corresponding to the right of the eyelid of the weights w Right_4 and w Left_4 corresponding to each of the right and left eyelid, eyelid open heavy degrees to the right of the eyelid likelihood lambda R_eyelid right comparison eyelid model in combination right comparison eyelid model and left comparison eyelid models are identical The sum of the assigned value (w right_4 · λ r_eyelid), the weights w left_4 corresponding to the left of the eyelids, and the left of the eyelids likelihood λ value was weighted to l_eyelid of the left comparison eyelids model of (w left_4 · λ l_eyelid) ((W right4 · λ reyelid + w left4 • λ l — eyelid ) / (w right — 4 + w left — 4 )) is calculated for each combination as a plurality of right and left likelihoods λ eyelid . The eyelids likelihood computation device according to the present embodiment, among the left and right eyelid likelihood lambda eyelid of each combination in which a plurality computation, calculates the largest right and left eyelids likelihood lambda Eyelid_max the overall Mabutayudo lambda Eyelid_all To do.

本実施形態に係る瞼尤度演算装置によれば、第1〜3の各実施の形態と同様に、全体の瞼尤度λeyelid_allに対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 According to the heel likelihood calculating apparatus according to the present embodiment, as in the first to third embodiments, the ratio of the heel likelihood of the heel having a lower accuracy with respect to the overall heel likelihood λ eyelid_all is smaller. Thus, the overall heel likelihood λ eyelid_all can be calculated with better accuracy.

なお、本実施の形態の瞼尤度演算装置によって演算された全体の瞼尤度λeyelid_allは、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、瞼開度を検出することができる。 Note that the overall heel likelihood λ eyelid_all calculated by the heel likelihood calculating device of the present embodiment can be used as a likelihood when estimating the shape of the heel , for example. In addition, for example, the eyelid opening degree can be detected from the shape of the eyelid estimated in this way.

また、本実施の形態の瞼尤度演算装置を、演算された全体の瞼尤度λeyelid_allに基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。 In addition, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated total heel likelihood λ eyelid_all , and from the estimated heel model, cleaves the heel represented by the heel model. It is good also as a structure provided with the eaves opening degree detection function which detects a degree. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

[第5の実施の形態]
次に第5の実施の形態について説明する。なお、第1〜4の各実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。
[Fifth Embodiment]
Next, a fifth embodiment will be described. In addition, about the structure similar to each 1st-4th embodiment and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted.

本実施の形態において、第4の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図16に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されており、CPU14dが図16に示す瞼尤度演算処理を実行する点である。同図に図示されるように、ステップ104の次にステップ314が実行され、ステップ122の次にステップ316が実行される。   In the present embodiment, the difference from the fourth embodiment is that a program for executing the processing routine of the 瞼 likelihood calculation process shown in FIG. 16 is stored in the HDD 14c of the 瞼 likelihood calculation device according to this embodiment. Is stored, and the CPU 14d executes the likelihood likelihood calculation process shown in FIG. As shown in the figure, step 314 is executed after step 104, and step 316 is executed after step 122.

まず、ステップ314での処理について説明する。ステップ314では、右目の目領域のエッジ強度及び左目の目領域のエッジ強度を演算するための目領域エッジ強度演算処理を実行する。   First, the process in step 314 will be described. In step 314, an eye region edge strength calculation process for calculating the edge strength of the right eye region and the edge strength of the left eye region is executed.

この目領域エッジ強度演算処理について、図17を参照して説明すると、まずステップ500で、上記ステップ104で抽出した目領域のうち、右目の目領域(右目領域)の全ての画素のエッジ強度を検出する。ここで、エッジ強度について説明する。エッジ強度とは、隣り合う画素の画素値の変化度合いを示すもので、画像の鮮鋭感の指標となるものである。例えば、対象物が鮮明に映し出される画像(鮮明画像)とその対象物がぼやけて映し出される画像(不鮮明画像)とを比較すると、対象物とその周辺とを分ける境界線の鮮鋭感(エッジの強さ)は、不鮮明画像よりも鮮明画像の方が大きくなる。ゆえに、エッジ強度は、画像の鮮鋭感の指標となる。   This eye region edge strength calculation processing will be described with reference to FIG. 17. First, in step 500, among the eye regions extracted in step 104, the edge strengths of all the pixels in the right eye region (right eye region) are calculated. To detect. Here, the edge strength will be described. The edge strength indicates the degree of change in the pixel value of adjacent pixels, and serves as an index of image sharpness. For example, when an image in which an object is clearly displayed (clear image) is compared with an image in which the object is blurred (unclear image), the sharpness of the boundary line that separates the object from its surroundings (strong edge) The sharp image is larger than the unclear image. Therefore, the edge strength is an index of image sharpness.

次のステップ502では、まず、図18(A)に示すように、上記ステップ500で検出した各画素のエッジ強度に基づいて、横軸をエッジ強度、縦軸を画素の数とするヒストグラムを作成する。そして、同図に図示されるように、画素の数が所定の閾値Ethrightより多い場合のエッジ強度の最大と最小との差Ewrightを演算することにより、右目の目領域のエッジ強度Ewrightを演算する。 In the next step 502, first, as shown in FIG. 18A, based on the edge intensity of each pixel detected in step 500, a histogram is created with the horizontal axis representing the edge intensity and the vertical axis representing the number of pixels. To do. Then, as illustrated in the figure, by the number of pixels for calculating the difference between Ew. Right between the maximum and minimum of the edge intensities in the case greater than the predetermined threshold Eth. Right, edge intensity of the right eye of the eye region Ew. Right Is calculated.

次のステップ504では、上記ステップ104で抽出した目領域のうち、左目の目領域(左目領域)の全ての画素のエッジ強度を検出する。   In the next step 504, edge strengths of all pixels in the left eye region (left eye region) among the eye regions extracted in step 104 are detected.

次のステップ506では、まず、図18(B)に示すように、上記ステップ504で検出した各画素のエッジ強度に基づいて、横軸をエッジ強度、縦軸を画素の数とするヒストグラムを作成する。そして、同図に図示されるように、画素の数が所定の閾値Ethleftより多い場合のエッジ強度の最大と最小との差Ewleftを演算することにより、左目の目領域のエッジ強度Ewleftを演算する。そして、目領域エッジ強度演算処理を終了する。以上、説明しように、ステップ314での目領域エッジ強度演算処理によって、左右の目領域の各エッジ強度が演算される。 In the next step 506, first, as shown in FIG. 18B, based on the edge intensity of each pixel detected in step 504, a histogram is created with the horizontal axis representing the edge intensity and the vertical axis representing the number of pixels. To do. Then, as illustrated in the figure, by the number of pixels for calculating the difference between Ew left between the maximum and minimum of the edge intensities in the case greater than the predetermined threshold value Eth left, edge intensity of the left eye of the eye region Ew left Is calculated. Then, the eye region edge strength calculation process is terminated. As described above, the edge strengths of the left and right eye regions are calculated by the eye region edge strength calculation processing in step 314.

ここで、エッジ強度が低い(小さい)ほどぼやけた画像となることから、エッジ強度が低いほどカメラ12とその撮影対象物(撮影対象箇所)との距離が遠くなることが分かる。同様に、エッジ強度が高い(大きい)ほどはっきりとした画像となることから、エッジ強度が高いほどカメラ12とその撮影対象物(撮影対象箇所)との距離が近くなることが分かる。   Here, since the image becomes blurred as the edge strength is low (small), it can be seen that the distance between the camera 12 and the subject to be photographed (photographing target location) becomes farther as the edge strength is low. Similarly, since the image becomes clearer as the edge strength is higher (larger), it can be seen that the higher the edge strength is, the closer the distance between the camera 12 and the subject to be photographed (photographing target location) is.

次に、ステップ316での処理について説明する。ステップ316では、上記ステップ314で演算された右目の目領域のエッジ強度Ewright及び左目の目領域のエッジ強度Ewleftに応じて、上記ステップ102で抽出された顔領域を含む画像の画像データが表す顔の画像に含まれる右瞼及び左瞼のうち、エッジ強度が小さい方(顔の画像を含む画像がカメラ12によって撮影された位置に遠いほう)の瞼の瞼尤度に対応する大きさが、エッジ強度が大きい方(近い方)の瞼の瞼尤度に対応する大きさより小さくなるように定めた重みwright_5及びwleft_5、直近の上記ステップ122で選択された組み合わせの右の比較瞼モデルの右の瞼尤度λr_eyelid、並びに直近の上記ステップ122で選択された組み合わせの左の比較瞼モデルの左の瞼尤度λl_eyelidに基づいて、下記の式(9)に示すように、重みwright_5が付けられた右の瞼尤度λr_eyelidと、重みwleft_5が付けられた左の瞼尤度λl_eyelidとの和((wright_5・λr_eyelid+wleft_5・λl_eyelid)/(wright_5+wleft_5))を両瞼(左右の瞼)の瞼尤度λeyelidとして演算する。 Next, the process at step 316 will be described. In step 316, the image data of the image including the face area extracted in step 102 is obtained in accordance with the edge intensity E right of the right eye area and the edge intensity E left of the left eye area calculated in step 314. The size corresponding to the likelihood of the eyelid having the smaller edge strength (the one farther from the position where the image containing the face image was photographed by the camera 12) of the starboard and the left eyed included in the face image to be represented , The weights w right — 5 and w left — 5 determined to be smaller than the size corresponding to the wrinkle likelihood of the wrinkle having the larger edge strength (the closer one), the right comparison wrinkle of the combination selected in step 122 above. model of the right eyelid likelihood λ r_eyelid, and eyelids likelihood of left immediate left comparison eyelid model combination selected in step 122 lambda Based on _Eyelid, as shown in equation (9) below, the sum of the right eyelid likelihood lambda R_eyelid a weight w Right_5 is attached, the eyelid likelihood lambda L_eyelid the left weights w Left_5 is attached ( (W right5 · λ reyelid + w left5 • λ l — eyelid ) / (w right — 5 + w left — 5 )) is calculated as the likelihood λ eyelid of both wings (left and right wings ).

ここで、図19を参照して、ステップ316において、上記ステップ314で演算された右目の目領域のエッジ強度Ewright及び左目の目領域のエッジ強度Ewleftに応じて、重みwright_5及び重みwleft_5を定める方法の一例について説明する。なお、本実施の形態では、Ewright及びEwleftの大小関係によって重みwright_5及び重みwleft_5を定める方法が以下に示すように異なる。 Here, referring to FIG. 19, in step 316, the weight w right — 5 and the weight w according to the edge strength E right of the right eye region and the edge strength E left of the left eye region calculated in step 314 above. An example of a method for determining left_5 will be described. In the present embodiment, the method for determining the weight w right — 5 and the weight w left — 5 differs depending on the magnitude relationship between E w right and E w left as shown below.

図19(A)は、Ewleft<Ewrightの場合におけるEwleftをEwrightで割った(除算した)値である比(Ewleft/Ewright)と右の瞼尤度λr_eyelidに対応する重みwright_5の大きさとの関係、及び比(Ewleft/Ewright)と左の瞼尤度λl_eyelidに対応する重みwleft_5の大きさとの関係を表す図である。 19 (A) is the weight corresponding to Ew left <ratios are Ew left was divided by Ew. Right (divided) value in the case of Ew right (Ew left / Ew right ) and right eyelid likelihood lambda R_eyelid relationship between the size of w right_5, and a graph showing the relation between the size of the ratio (Ew left / Ew right) and the weight w Left_5 corresponding to the left eyelid likelihood λ l_eyelid.

ここで、比(Ewleft/Ewright)が1である場合には、右の瞼尤度λr_eyelidの精度(信頼性)と左の瞼尤度λl_eyelidの精度とは同一であると考えることができる。 Here, when the ratio (Ew left / Ew right ) is 1, it is considered that the accuracy (reliability) of the right heel likelihood λ r_eyelid and the accuracy of the left heel likelihood λ l_eyelid are the same. Can do.

一方、比(Ewleft/Ewright)が1より小さい場合には、左の瞼尤度λl_eyelidの精度は、右の瞼尤度λr_eyelidの精度より悪いと考えることができる。そして、比(Ewleft/Ewright)が1より小さくなればなるほど、左の瞼尤度λl_eyelidの精度が、右の瞼尤度λr_eyelidの精度より悪くなると考えられる。 On the other hand, when the ratio (Ew left / Ew right) is smaller than 1, the accuracy of the left eyelid likelihood lambda L_eyelid can be considered worse than the precision of the right eyelid likelihood λ r_eyelid. Then, it is considered that the accuracy of the left heel likelihood λ l_eyelid is worse than the accuracy of the right heel likelihood λ r_eyelid as the ratio (Ew left / Ew right ) is smaller than 1.

本実施の形態では、これらのことを考慮して、比(Ewleft/Ewright)が1より小さくなればなるほど、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In the present embodiment, in consideration of these, the weight of the overall likelihood is reduced by reducing the weight of the likelihood that the accuracy becomes worse as the ratio (Ew left / Ew right ) becomes smaller than 1. The ratio of the heel likelihood of the heel having the lower (bad) accuracy to the likelihood λ eyelid_all is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ316では、Ewleft<Ewrightである場合には、図19(A)に示すように、左目の目領域のエッジ強度Ewleftを、右目の目領域のエッジ強度Ewrightで割った値である比(Ewleft/Ewright)を演算して対応する重みwright_5及び重みwleft_5を定める。より具体的には、例えば、Ewleft<Ewrightである場合における比(Ewleft/Ewright)が、0.75であるときには、重みwright_5として0.75、及び重みwleft_5として0.25を定める。そして、下記の式(10)に示すように、重み0.75が付けられた右の瞼尤度λr_eyelidと、重み0.25が付けられた左の瞼尤度λl_eyelidとの和λeyelidを演算する。なお、図19(A)の例では、重みwright_5と、重みwleft_5との和は1.0となる。 In step 316, when Ew left <Ew right , as shown in FIG. 19A, the edge intensity E left of the left eye area is divided by the edge intensity E wright of the right eye area. A certain ratio (Ew left / Ew right ) is calculated to determine the corresponding weight w right — 5 and weight w left — 5 . More specifically, for example, when the ratio (Ew left / Ew right ) in the case of Ew left <Ew right is 0.75, the weight w right — 5 is 0.75, and the weight w left — 5 is 0.25. Determine. Then, as shown in the following formula (10), the sum of the right eyelid likelihood lambda R_eyelid the weight 0.75 is given, the eyelid likelihood lambda L_eyelid the left weight 0.25 is assigned lambda eyelid Is calculated. In the example of FIG. 19A , the sum of the weight w right — 5 and the weight w left — 5 is 1.0.

また、図19(B)は、Ewleft≧Ewrightの場合におけるEwrightをEwleftで割った(除算した)値である比(Ewright/Ewleft)と右の瞼尤度λr_eyelidに対応する重みwright_5の大きさとの関係、及び比(Ewright/Ewleft)と左の瞼尤度λl_eyelidに対応する重みwleft_5の大きさとの関係を表す図である。 Further, FIG. 19 (B) corresponds to Ew leftEw ratio is Ew. Right was divided by Ew left (divided) value in the case of right (Ew right / Ew left) and right eyelid likelihood lambda R_eyelid relationship between the magnitude of the weights w Right_5 to, and a graph showing the relation between the size of the ratio (Ew right / Ew left) and the weight w Left_5 corresponding to the left eyelid likelihood λ l_eyelid.

ここで、比(Ewright/Ewleft)が1である場合には、右の瞼尤度λr_eyelidの精度(信頼性)と左の瞼尤度λl_eyelidの精度とは同一であると考えることができる。 The ratio in the case of (Ew right / Ew left) is 1, be considered to be identical to the right of the eyelid likelihood lambda R_eyelid accuracy (reliability) and left eyelid likelihood lambda L_eyelid accuracy Can do.

一方、比(Ewright/Ewleft)が1より小さい場合には、右の瞼尤度λr_eyelidの精度は、左の瞼尤度λl_eyelidの精度より悪いと考えることができる。そして、比(Ewright/Ewleft)が1より小さくなればなるほど、右の瞼尤度λr_eyelidの精度が、左の瞼尤度λl_eyelidの精度より悪くなると考えられる。 On the other hand, when the ratio (Ew right / Ew left) is smaller than 1, the accuracy of the right eyelid likelihood lambda R_eyelid can be considered worse than the precision of the left eyelid likelihood λ l_eyelid. Then, it is considered that the accuracy of the right eye likelihood λ r_eyelid is worse than the accuracy of the left eye likelihood λ l_eyelid as the ratio (Ew right / Ew left ) becomes smaller than 1.

本実施の形態では、これらのことを考慮して、比(Ewright/Ewleft)が1より小さくなればなるほど、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In this embodiment, in consideration of the above, the ratio (Ew right / Ew left) is the smaller than 1, by reducing the weight of the eyelid likelihood of better precision is deteriorated, the entire eyelid The ratio of the heel likelihood of the heel having the lower (bad) accuracy to the likelihood λ eyelid_all is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ316では、Ewleft≧Ewrightである場合には、図19(B)に示すように、右目の目領域のエッジ強度Ewrightを、左目の目領域のエッジ強度Ewleftで割った値である比(Ewright/Ewleft)を演算して対応する重みwright_5及び重みwleft_5を定める。より具体的には、例えば、Ewleft≧Ewrightである場合における比(Ewright/Ewleft)が、0.75であるときには、重みwright_5として0.25、及び重みwleft_5として0.75を定める。そして、上記と同様に、和λeyelidを演算する。なお、図19(B)の例においても、重みwright_5と、重みwleft_5との和は1.0となる。 In step 316, when Ew left ≧ Ew right , as shown in FIG. 19B, the edge intensity E right of the right eye area is divided by the edge intensity E left of the left eye area. determine the weights w Right_5 and weights w Left_5 corresponding calculates a certain ratio (Ew right / Ew left). More specifically, for example, the ratio in the case of the Ew left ≧ Ew right (Ew right / Ew left) is, when it is 0.75, as the weight w right_5 0.25, and as the weight w Left_5 0.75 Determine. Then, the sum λ eyelid is calculated as described above. Also in the example of FIG. 19B , the sum of the weight w right — 5 and the weight w left — 5 is 1.0.

以上、説明したように、本実施形態に係る瞼尤度演算装置は、演算された右目領域のエッジ強度Ewright及び左目領域のエッジ強度Ewleftに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうち、エッジ強度が小さい方(カメラ12によって画像が撮影されたときのカメラ12の位置(撮影位置)に遠いほう)の瞼の瞼尤度に対応する大きさが、エッジ強度が大きい方(近いほう)の瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_5及びwleft_5のうち右の瞼に対応する重みwright_5を、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright_5・λr_eyelid)と、左の瞼に対応する重みwleft_5を、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft_5・λl_eyelid)との和((wright_5・λr_eyelid+wleft_5・λl_eyelid)/(wright_5+wleft_5))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算する。そして、本実施形態に係る瞼尤度演算装置は、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算する。 As described above, the eyelid likelihood calculation apparatus according to the present embodiment performs the right operation on the image captured by the camera 12 in accordance with the calculated edge intensity Ewright of the right eye region and the edge intensity Ewleft of the left eye region. The size corresponding to the likelihood of the eyelid of the eyelid or the left eyelid having the smaller edge strength (the one farther from the position of the camera 12 when the image is taken by the camera 12) is the edge strength. weights w Right_5 which is larger determined to be smaller than the size corresponding to the eyelid eyelids likelihood of (near better), corresponding to the right of the eyelid of the weights w Right_5 and w Left_5 corresponding to each of the right and left eyelid the eyelid opening was weighted to the right of the eyelid likelihood lambda R_eyelid right comparison eyelid model in combination right comparison eyelid model and left comparison eyelid models are identical And (w right_5 · λ r_eyelid), the sum of the weights w left_5 corresponding to the left of the eyelids, and the left of the eyelids likelihood λ value was weighted to l_eyelid of the left comparison eyelids model of (w left_5 · λ l_eyelid) ( (w right_5 · λ r_eyelid + w left5 · λ l_eyelid ) / (w right — 5 + w left — 5 )) is calculated for each combination as a plurality of right and left likelihoods λ eyelid . The eyelids likelihood computation device according to the present embodiment, among the left and right eyelid likelihood lambda eyelid of each combination in which a plurality computation, calculates the largest right and left eyelids likelihood lambda Eyelid_max the overall Mabutayudo lambda Eyelid_all To do.

本実施形態に係る瞼尤度演算装置によれば、第1〜4の各実施の形態と同様に、全体の瞼尤度λeyelid_allに対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 According to the heel likelihood calculating apparatus according to the present embodiment, as in the first to fourth embodiments, the ratio of the heel likelihood of the heel having a lower accuracy with respect to the overall heel likelihood λ eyelid_all is smaller. Thus, the overall heel likelihood λ eyelid_all can be calculated with better accuracy.

なお、本実施の形態の瞼尤度演算装置によって演算された全体の瞼尤度λeyelid_allは、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、瞼開度を検出することができる。 Note that the overall heel likelihood λ eyelid_all calculated by the heel likelihood calculating device of the present embodiment can be used as a likelihood when estimating the shape of the heel , for example. In addition, for example, the eyelid opening degree can be detected from the shape of the eyelid estimated in this way.

また、本実施の形態の瞼尤度演算装置を、演算された全体の瞼尤度λeyelid_allに基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。 In addition, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated total heel likelihood λ eyelid_all , and from the estimated heel model, cleaves the heel represented by the heel model. It is good also as a structure provided with the eaves opening degree detection function which detects a degree. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

[第6の実施の形態]
次に第6の実施の形態について説明する。なお、第1〜5の各実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。
[Sixth Embodiment]
Next, a sixth embodiment will be described. In addition, about the structure similar to each 1st-5th embodiment and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted.

本実施の形態において、第4の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図20に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されており、CPU14dが図20に示す瞼尤度演算処理を実行する点である。同図に図示されるように、ステップ104の次にステップ318が実行され、ステップ122の次にステップ320が実行される。   In this embodiment, the difference from the fourth embodiment is that a program for executing the processing routine of the 瞼 likelihood calculation process shown in FIG. 20 is stored in the HDD 14c of the 瞼 likelihood calculation device according to this embodiment. Is stored, and the CPU 14d executes the wrinkle likelihood calculation process shown in FIG. As shown in the figure, step 318 is executed after step 104, and step 320 is executed after step 122.

まず、ステップ318での処理について説明する。ステップ318では、上記ステップ104で抽出した目領域のうち、右目の目領域(右目領域)の画像データから、右目の目頭と目じりとの距離dright_3を検出すると共に、左目の目領域(左目領域)の画像データから、左目の目頭と目じりとの距離dleft_3を検出する。例えば、ステップ318では、非特許文献「C. Harris and M. Stephens, “A combined corner and edge detector”, Proc. Alvey Vision Conf., pp. 147-151, 1988.」に記載の公知技術を用いて、右目の目頭の位置及び右目の目じりの位置、並びに左目の目頭の位置及び左目の目じりの位置を検出し、検出した各位置から、右目の目頭と右目の目じりとの距離dright_3及び左目の目頭と左目の目じりとの距離dleft_3を検出することができる。 First, the process at step 318 will be described. In step 318, the right eye eye-to-eye distance d right — 3 is detected from the image data of the right eye region (right eye region) among the eye regions extracted in step 104, and the left eye region (left eye region) is detected. ) To detect the distance d left — 3 between the head of the left eye and the eyelid . For example, in step 318, a known technique described in a non-patent document “C. Harris and M. Stephens,“ A combined corner and edge detector ”, Proc. Alvey Vision Conf., Pp. 147-151, 1988.” is used. Then, the position of the right eye's eyes and the position of the right eye's eyes, and the position of the left eye's eyes and the position of the left eye's eyes are detected, and from each of the detected positions, the distance d right — 3 and the left eye's eyes the distance d Left_3 the inner corner and the left eye of crow's feet can be detected.

ここで、距離dright_3とdleft_3とを比較することにより、目頭と目じりとの距離が短いほうの瞼は、目頭と目じりとの距離が長いほうの瞼に比べて、カメラ12までの距離が大きい(カメラ12からの位置が遠い)と判断することができる。 Here, by comparing the distances d right — 3 and d left — 3 , the eyelid with the shorter distance between the eyes and the eyes has a shorter distance to the camera 12 than the eyelash with the longer distance between the eyes and the eyes. It can be determined that the position is large (the position from the camera 12 is far).

次に、ステップ320での処理について説明する。ステップ320では、上記ステップ318で検出された右目の目頭と目じりとの距離dright_3及び左目の目頭と目じりとの距離dleft_3に応じて、上記ステップ102で抽出された顔領域を含む画像の画像データが表す顔の画像に含まれる右瞼及び左瞼のうち、顔の画像を含む画像がカメラ12によって撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近い方の瞼の瞼尤度に対応する大きさより小さくなるように定めた重みwright_6及びwleft_6、直近の上記ステップ122で選択された組み合わせの右の比較瞼モデルの右の瞼尤度λr_eyelid、並びに直近の上記ステップ122で選択された組み合わせの左の比較瞼モデルの左の瞼尤度λl_eyelidに基づいて、下記の式(11)に示すように、重みwright_6が付けられた右の瞼尤度λr_eyelidと、重みwleft_6が付けられた左の瞼尤度λl_eyelidとの和((wright_6・λr_eyelid+wleft_6・λl_eyelid)/(wright_6+wleft_6))を両瞼(左右の瞼)の瞼尤度λeyelidとして演算する。 Next, the process at step 320 will be described. At step 320, depending on the distance d Left_3 between the distance d Right_3 and left eye inner canthus and crow's feet and the detected right eye inner canthus and eye corner in step 318, images of the image containing the face region extracted in step 102 Of the starboard and the starboard included in the face image represented by the data, the size corresponding to the eyelid likelihood of the eyelid farther from the position where the image including the face image was captured by the camera 12 is the closer Weights w right — 6 and w left — 6 determined to be smaller than the size corresponding to the likelihood of , the right likelihood λ r_eyelid of the right comparison model of the combination selected in the most recent step 122, and the latest based on the left of the left comparison eyelid model combination selected in step 122 of the eyelid likelihood λ l_eyelid, the following equation (1 As shown in), and the right of the eyelids likelihood λ r_eyelid the weight w right_6 is attached, the sum of the eyelids likelihood λ l_eyelid left the weight w left_6 is attached ((w right_6 · λ r_eyelid + w left_6 · λ l_eyelid ) / ( wright_6 + wleft_6 )) is calculated as the 瞼 likelihood λ eyelid of both wings (left and right wings ).

ここで、図21を参照して、ステップ320において、上記ステップ318で検出された右目の目頭と目じりとの距離dright_3及び左目の目頭と目じりとの距離dleft_3に応じて、重みwright_6及び重みwleft_6を定める方法の一例について説明する。なお、本実施の形態では、dright_3及びdleft_3の大小関係によって重みwright_6及び重みwleft_6を定める方法が以下に示すように異なる。 Referring now to FIG. 21, in step 320, depending on the distance d Left_3 between the distance d Right_3 and left eye inner canthus and crow's feet and the detected right eye inner canthus and eye corner in step 318, the weights w Right_6 and An example of a method for determining the weight w left — 6 will be described. In the present embodiment, the method of determining the weight w right — 6 and the weight w left — 6 is different depending on the magnitude relationship between d right — 3 and d left — 3 as shown below.

図21(A)は、dleft_3<dright_3の場合におけるdleft_3をdright_3で割った(除算した)値である比(dleft_3/dright_3)と右の瞼尤度λr_eyelidに対応する重みwright_6の大きさとの関係、及び比(dleft_3/dright_3)と左の瞼尤度λl_eyelidに対応する重みwleft_6の大きさとの関係を表す図である。 FIG. 21A shows a ratio (d left — 3 / d right — 3 ) that is a value obtained by dividing (dividing) d left — 3 by d right — 3 in the case of d left — 3 <d right — 3, and a weight corresponding to the right likelihood λ r — eyelid It is a figure showing the relationship with the magnitude | size of wright_6 , and the relationship between ratio ( dleft_3 / dright_3 ) and the magnitude | size of the weight wleft_6 corresponding to the left eyelid likelihood (lambda) l_eyelid .

ここで、比(dleft_3/dright_3)が1である場合には、右の瞼尤度λr_eyelidの精度(信頼性)と左の瞼尤度λl_eyelidの精度とは同一であると考えることができる。 Here, when the ratio (d left — 3 / d right — 3 ) is 1, it is considered that the accuracy (reliability) of the right heel likelihood λ r_eyelid is the same as the accuracy of the left heel likelihood λ l_eyelid. Can do.

一方、比(dleft_3/dright_3)が1より小さい場合には、左の瞼尤度λl_eyelidの精度は、右の瞼尤度λr_eyelidの精度より悪いと考えることができる。そして、比(dleft_3/dright_3)が1より小さくなればなるほど、左の瞼尤度λl_eyelidの精度が、右の瞼尤度λr_eyelidの精度より悪くなると考えられる。 On the other hand, when the ratio (d left_3 / d right_3) is smaller than 1, the accuracy of the left eyelid likelihood lambda L_eyelid can be considered worse than the precision of the right eyelid likelihood λ r_eyelid. It is considered that the accuracy of the left heel likelihood λ l_eyelid is worse than the accuracy of the right heel likelihood λ r_eyelid as the ratio (d left — 3 / d right — 3 ) is smaller than 1.

本実施の形態では、これらのことを考慮して、比(dleft_3/dright_3)が1より小さくなればなるほど、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In the present embodiment, in consideration of these points , the weight of the overall likelihood is reduced by reducing the weight of the likelihood that the accuracy becomes worse as the ratio (d left — 3 / d right — 3 ) becomes smaller than 1. The ratio of the heel likelihood of the heel having the lower (bad) accuracy to the likelihood λ eyelid_all is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ320では、dleft_3<dright_3である場合には、図21(A)に示すように、左目の目頭と目じりとの距離dleft_3を、右目の目頭と目じりとの距離dright_3で割った値である比(dleft_3/dright_3)を演算して対応する重みwright_6及び重みwleft_6を定める。より具体的には、例えば、dleft_3<dright_3である場合における比(dleft_3/dright_3)が、0.75であるときには、重みwright_6として0.75、及び重みwleft_6として0.25を定める。そして、下記の式(12)に示すように、重み0.75が付けられた右の瞼尤度λr_eyelidと、重み0.25が付けられた左の瞼尤度λl_eyelidとの和λeyelidを演算する。なお、図21(A)の例では、重みwright_6と、重みwleft_6との和は1.0となる。 In step 320, if it is d left_3 <d right_3, as shown in FIG. 21 (A), the distance d Left_3 the inner corner and the corner of the eye of the eye, divided by the distance d Right_3 the right eye inner corner and corner of the eye A ratio (d left — 3 / d right — 3 ), which is a value, is calculated to determine the corresponding weight w right — 6 and weight w left — 6 . More specifically, for example, when the ratio (d left — 3 / d right — 3 ) in the case of d left — 3 <d right — 3 is 0.75, the weight w right — 6 is 0.75, and the weight w left — 6 is 0.25. Determine. Then, as shown in the following formula (12), the sum of the right eyelid likelihood lambda R_eyelid the weight 0.75 is given, the eyelid likelihood lambda L_eyelid the left weight 0.25 is assigned lambda eyelid Is calculated. In the example of FIG. 21A , the sum of the weight w right — 6 and the weight w left — 6 is 1.0.

また、図21(B)は、dleft_3≧dright_3の場合におけるdright_3をdleft_3で割った(除算した)値である比(dright_3/dleft_3)と右の瞼尤度λr_eyelidに対応する重みwright_6の大きさとの関係、及び比(dright_3/dleft_3)と左の瞼尤度λl_eyelidに対応する重みwleft_6の大きさとの関係を表す図である。 FIG. 21B corresponds to a ratio ( dright_3 / dleft_3 ) that is a value obtained by dividing (dividing) dright_3 by dleft_3 in the case of dleft_3dright_3 and the right likelihood λ r_eylid It is a figure showing the relationship with the magnitude | size of weight wright_6 to perform , and the relationship between ratio ( dright_3 / dleft_3 ) and the magnitude | size of the weight wleft_6 corresponding to the left eyelid likelihood (lambda) l_eyelid .

ここで、比(dright_3/dleft_3)が1である場合には、右の瞼尤度λr_eyelidの精度(信頼性)と左の瞼尤度λl_eyelidの精度とは同一であると考えることができる。 Here, when the ratio (d right — 3 / d left — 3 ) is 1, it is considered that the accuracy (reliability) of the right hail likelihood λ r — eyelid is the same as the accuracy of the left hail likelihood λ l — eyelid. Can do.

一方、比(dright_3/dleft_3)が1より小さい場合には、右の瞼尤度λr_eyelidの精度は、左の瞼尤度λl_eyelidの精度より悪いと考えることができる。そして、比(dright_3/dleft_3)が1より小さくなればなるほど、右の瞼尤度λr_eyelidの精度が、左の瞼尤度λl_eyelidの精度より悪くなると考えられる。 On the other hand, when the ratio (d right_3 / d left_3) is smaller than 1, the accuracy of the right eyelid likelihood lambda R_eyelid can be considered worse than the precision of the left eyelid likelihood λ l_eyelid. Then, it is considered that the accuracy of the right eye likelihood λ r_eyelid becomes worse than the accuracy of the left eye likelihood λ l_eyelid as the ratio (d right — 3 / d left — 3 ) becomes smaller than 1.

本実施の形態では、これらのことを考慮して、比(dright_3/dleft_3)が1より小さくなればなるほど、精度が悪くなるほうの瞼尤度の重みを小さくすることにより、全体の瞼尤度λeyelid_allに対する精度が低い(悪い)ほうの瞼の瞼尤度の割合をより小さくするようにしている。これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 In the present embodiment, in consideration of these points , the weight of the overall likelihood is reduced by reducing the weight of the likelihood that the accuracy becomes worse as the ratio ( dright_3 / dleft_3 ) becomes smaller than 1. The ratio of the heel likelihood of the heel having the lower (bad) accuracy to the likelihood λ eyelid_all is made smaller. As a result, the overall likelihood λ eyelid_all can be calculated with better accuracy.

ステップ320では、dleft_3≧dright_3である場合には、図21(B)に示すように、右目の目頭と目じりとの距離dright_3を、左目の目頭と目じりとの距離dleft_3で割った値である比(dright_3/dleft_3)を演算して対応する重みwright_6及び重みwleft_6を定める。より具体的には、例えば、dleft_3≧dright_3である場合における比(dright_3/dleft_3)が、0.75であるときには、重みwright_6として0.25、及び重みwleft_6として0.75を定める。そして、上記と同様に、和λeyelidを演算する。なお、図21(B)の例においても、重みwright_6と、重みwleft_6との和は1.0となる。 In step 320, if it is d left_3d right_3, as shown in FIG. 21 (B), the distance d Right_3 the inner corner and the corner of the eye of the right eye, divided by the distance d Left_3 the left eye inside corner and corner of the eye A ratio (d right — 3 / d left — 3 ), which is a value, is calculated to determine the corresponding weight w right — 6 and weight w left — 6 . More specifically, for example, when the ratio ( dright_3 / dleft_3 ) in the case of dleft_3dright_3 is 0.75, the weight wright_6 is 0.25, and the weight wleft_6 is 0.75. Determine. Then, the sum λ eyelid is calculated as described above. In the example of FIG. 21B as well, the sum of the weight w right — 6 and the weight w left — 6 is 1.0.

以上、説明したように、本実施形態に係る瞼尤度演算装置は、検出された右目の目頭と目じりとの距離dright_3及び左目の目頭と目じりとの距離dleft_3に応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_6及びwleft_6のうち右の瞼に対応する重みwright_6を、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright_6・λr_eyelid)と、左の瞼に対応する重みwleft_6を、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft_6・λl_eyelid)との和((wright_6・λr_eyelid+wleft_6・λl_eyelid)/(wright_6+wleft_6))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算する。そして、本実施形態に係る瞼尤度演算装置は、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算する。 As described above, the eyelid likelihood computation device according to this embodiment, depending on the distance d Left_3 between the distance d Right_3 and left eye inner canthus and crow's feet and the detected right eye inner canthus and eye corner, by the camera 12 The size corresponding to the likelihood of the eyelid farther to the position where the image was photographed by the camera 12 among the starboard and the left eyelid of the captured image is larger than the size corresponding to the eye likelihood of the closer eyelid. determined to be smaller, the weight w Right_6 corresponding to the right of the eyelid of the weights w Right_6 and w Left_6 corresponding to each of the right and left eyelids, right comparison eyelid models and comparison of the left eyelid opening is the same The right comparison model in the combination of models The right likelihood λ r_eyelid of the model is weighted (w right6 · λ r_eylid ) and the weight corresponding to the left heel Only w left_6, the sum of the left eyelid likelihood λ value was weighted to l_eyelid of the left comparison eyelids model of (w left_6 · λ l_eyelid) ( (w right_6 · λ r_eyelid + w left_6 · λ l_eyelid) / (w right_6 + w Left_6 ))) is calculated for each combination as left and right heel likelihood λ eyelid in this combination. The eyelids likelihood computation device according to the present embodiment, among the left and right eyelid likelihood lambda eyelid of each combination in which a plurality computation, calculates the largest right and left eyelids likelihood lambda Eyelid_max the overall Mabutayudo lambda Eyelid_all To do.

本実施形態に係る瞼尤度演算装置によれば、第1〜5の各実施の形態と同様に、全体の瞼尤度λeyelid_allに対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 According to the heel likelihood calculating apparatus according to the present embodiment, as in the first to fifth embodiments, the ratio of the heel likelihood of the heel having a lower accuracy with respect to the overall heel likelihood λ eyelid_all is smaller. Thus, the overall heel likelihood λ eyelid_all can be calculated with better accuracy.

なお、本実施の形態の瞼尤度演算装置によって演算された全体の瞼尤度λeyelid_allは、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、瞼開度を検出することができる。 Note that the overall heel likelihood λ eyelid_all calculated by the heel likelihood calculating device of the present embodiment can be used as a likelihood when estimating the shape of the heel , for example. In addition, for example, the eyelid opening degree can be detected from the shape of the eyelid estimated in this way.

また、本実施の形態の瞼尤度演算装置を、演算された全体の瞼尤度λeyelid_allに基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。 In addition, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated total heel likelihood λ eyelid_all , and from the estimated heel model, cleaves the heel represented by the heel model. It is good also as a structure provided with the eaves opening degree detection function which detects a degree. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

[第7の実施の形態]
次に第7の実施の形態について説明する。なお、第1〜6の各実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。
[Seventh Embodiment]
Next, a seventh embodiment will be described. In addition, about the structure similar to each 1st-6th embodiment and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted.

本実施の形態では、まず、上記で詳細を説明した第1〜6の各実施の形態と同様にして、重みwright及び重みwleftの組、重みwright_2及び重みwleft_2の組、重みwright_3及び重みwleft_3の組、重みwright_4及び重みwleft_4の組、重みwright_5及び重みwleft_5の組、並びに重みwright_6及び重みwleft_6の組の少なくとも1つ以上の組を定める。 In this embodiment, first, similarly to the first to sixth embodiments described in detail above, a set of weight w right and weight w left, a set of weight w right_2 and weight w left_2 , and weight w A set of right_3 and weight w left — 3, a set of weight w right — 4 and weight w left — 4, a set of weight w right — 5 and weight w left — 5, and a set of weight w right — 6 and weight w left — 6 are defined.

以下、右の瞼に対応する重みwright、wright_2〜wright_6、及び左の瞼に対応する重みwleft、wleft_2〜wleft_6を定める場合(すなわち、上記の第1〜6の実施の形態の全ての重み(6組の重み)を定める場合)を例に挙げて説明する。この場合には、本実施の形態の瞼尤度演算装置は、第1の実施の形態と同様にして顔の顔向き角度θを検出する検出手段(第1の検出手段)、第2の実施の形態と同様にして右目までの距離dright及び左目までの距離dleftを検出する検出手段(第2の検出手段)、第3の実施の形態と同様にして右耳までの距離dright_2及び左耳までの距離dleft_2を検出する検出手段(第3の検出手段)、第6の実施の形態と同様にして右目の目頭と右目の目じりとの距離dright_3及び左目の目頭と左目の目じりとの距離dleft_3を検出する検出手段(第4の検出手段)、第4の実施の形態と同様にして右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleftを演算する演算手段(第1の演算手段)、及び第5の実施の形態と同様にして右目領域のエッジ強度Ewright及び左目領域のエッジ強度Ewleftを演算する演算手段(第2の演算手段)を備えた処理手段を含んで構成されている。 Hereinafter, the weight w. Right corresponding to the right of the eyelid, w right_2 ~w right_6, and weights w left corresponding to the left eyelid, w Left_2 when determining the ~w left_6 (i.e., first to sixth embodiments described above The case where all the weights (6 sets of weights) are determined) will be described as an example. In this case, the wrinkle likelihood calculation apparatus according to the present embodiment performs detection means (first detection means) for detecting the face orientation angle θ of the face in the same manner as in the first embodiment, and the second implementation. form and in the same manner as detection means for detecting a distance d left distance to d. right and left to right (second detection means), a third to distance d Right_2 and to the right ear as in the embodiments It detects the distance d Left_2 to the left ear detecting means (third detection unit), a sixth embodiment similar manner the distance d Right_3 and left the corner of the eye of the right eye of the inner corner of the eye and right eye and the inner corner and the left eye corner of the eye Starring for calculating a contrast Iw left detecting means (the fourth detection means), the contrast Iw. right and left eye of the eye region of the fourth right-eye of the eye region in the same manner as the embodiment of detecting the distance d Left_3 the A calculation means (first calculation means) and a calculation means (second calculation means) for calculating the edge intensity E w right of the right eye region and the edge intensity E w left of the left eye region in the same manner as the fifth embodiment. It is comprised including the processing means.

次に、6組の重みを演算した場合には、以下の式(13)に示すように、本実施の形態において、右の瞼尤度λr_eyelidに重み付けするための重みwright_7を定める。 Then, when calculating the weight of 6 pairs, as shown in the following equation (13), in this embodiment, define the weights w Right_7 for weighting the right eyelid likelihood λ r_eyelid.

ただし、
sum:a・wright×a・wright_2×a・wright_3×a・wright_4×a・wright_5×a・wright_6+a・wleft×a・wleft_2×a・wleft_3×a・wleft_4×a・wleft_5×a・wleft_6
である。
However,
sum: a 1 · w right × a 2 · w right_2 × a 3 · w right_3 × a 4 · w right_4 × a 5 · w right_5 × a 6 · w right_6 + a 1 · w left × a 2 · w left_2 × a 3・ w left_3 × a 4・ w left_4 × a 5・ w left_5 × a 6・ w left_6
It is.

ここで、重み係数a〜aについて説明する。6組の重みを定めた場合には、a+a+a+a+a+a=1という条件を設定し、重み係数a〜aを様々に変えたときに瞼開度検出性能が最大になる値を選択する。なお、瞼開度検出性能が最大とは、例えば、瞼開度誤差平均が最小になる場合などをいう。例えば、上記では、6組の重みを定めた場合について説明したが、2組の重みのみを定めた場合(例えば、重みwright、wright_2、及び重みwleft、wleft_2を定めた場合)には、例えば、a+a=1という条件を設定する。この場合における重み係数aの値と、瞼開度誤差平均との関係は、図22に示すような関係となる。なお、図22の例では、重み係数a=0.6のときに瞼開度誤差平均が最小になるので、重み係数a=0.6、a=0.4となる。6組の重みが定められた場合には、同様の原理で、重み係数a〜aの各値について選択する。 It will now be described weighting factor a 1 ~a 6. When six sets of weights are defined, the condition of a 1 + a 2 + a 3 + a 4 + a 5 + a 6 = 1 is set, and when the weighting factors a 1 to a 6 are changed variously, the lid opening degree detection performance Select the value that maximizes. Note that the maximum lid opening detection performance means, for example, a case where the average lid opening error average is minimized. For example, in the above description, the case where six sets of weights are defined has been described, but when only two sets of weights are defined (for example, when the weights w right , w right_2 , and the weights w left , w left — 2 are defined). For example, the condition of a 1 + a 2 = 1 is set. The value of the weighting factor a 1 in this case, the relationship between the eyelid opening error average becomes the relationship shown in FIG. 22. In the example of FIG. 22, since MabutaHiraki degree average error at the time of the weighting factor a 1 = 0.6 is minimized, the weight coefficient a 1 = 0.6, a 1 = 0.4. When six sets of weights are defined, selection is made for each value of the weight coefficients a 1 to a 6 on the same principle.

次に、6組の重みが定められた場合には、以下の式(14)に示すように、本実施の形態において、左の瞼尤度λl_eyelidに重み付けするための重みwleft_7を定める。 Then, when the weight of 6 pairs have been established, as shown in the following equation (14), in this embodiment, define the weights w Left_7 for weighting the left eyelid likelihood λ l_eyelid.

ただし、sum及び重み係数a〜aについては上記で説明したものと同様である。 However, sum and weighting factors a 1 to a 6 are the same as those described above.

このようにして定められた重みwright_7及びwleft_7は、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みである。 The weights w right — 7 and w left — 7 determined in this way correspond to the likelihood of the farther farther to the position where the image was captured by the camera 12, of the starboard and port side of the image captured by the camera 12. The weight corresponding to each of the left and right eyelids is determined so that the size to be smaller than the size corresponding to the eyelid likelihood of the near eyelid.

そして、右の瞼に対応する重みwright_7を、上記の第1〜6の各実施形態と同様に、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright_7・λr_eyelid)と、左の瞼に対応する重みwleft_7を、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft_7・λl_eyelid)との和((wright_7・λr_eyelid+wleft_7・λl_eyelid)/(wright_7+wleft_7))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算する。 Then, the weight w Right_7 corresponding to the right of the eyelid, similar to the first to sixth embodiments described above, the right in the combination of the right comparison eyelid model and left comparison eyelid model eyelid opening is the same a comparison eyelids model of the right of the eyelids likelihood λ r_eyelid to the weighting was value (w right_7 · λ r_eyelid), the weights w left_7 corresponding to the left of the eyelids, weighted to the left of the eyelids likelihood λ l_eyelid of the left comparison eyelids model of value (w left_7 · λ l_eyelid) the sum of the ((w right_7 · λ r_eyelid + w left_7 · λ l_eyelid) / (w right_7 + w left_7)) multiple operations for each combination as eyelid likelihood lambda eyelid of the left and right in this combination To do.

すなわち、検出された顔向き角度θ、右目までの距離dright及び左目までの距離dleft、右耳までの距離dright_2及び左耳までの距離dleft_2、右目の目頭と右目の目じりとの距離dright_3及び左目の目頭と左目の目じりとの距離dleft_3、演算された右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleft、並びに右目領域のエッジ強度Ewright及び左目領域のエッジ強度Ewleftに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_7及びwleft_7のうち、右の瞼に対応する重みwright_7を、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright_7・λr_eyelid)と、左の瞼に対応する重みwleft_7を、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft_7・λl_eyelid)との和((wright_7・λr_eyelid+wleft_7・λl_eyelid)/(wright_7+wleft_7))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算する。 In other words, the distance between the detected face direction angle theta, the distance to the distance d. Right and left to right d left, the distance to the distance d Right_2 and left ear to the right ear d Left_2, the right inner corner and the right corner of the eye the distance between d Right_3 and left eye inner canthus and left in eye corner d Left_3, computed right eye of the eye region in contrast Iw. right and contrast Iw left of the left eye of the eye region, and the right eye region of the edge strength Ew. right and the edge of the left eye area Depending on the intensity E w left , the size corresponding to the likelihood of the eyelid farther from the position where the image was photographed by the camera 12 out of the starboard and portside of the image photographed by the camera 12 is closer. Weights corresponding to each of the left and right wings, determined to be smaller than the size corresponding to the wing likelihood of the heel Among w right — 7 and w left — 7 , the weight w right — 7 corresponding to the right eyelid is set to the right eyelid likelihood of the right comparison eyelid model in the combination of the right eyelid opening model and the left eyelid eyelid model having the same eyelid opening degree. the degree λ r_eyelid to the weighting was value (w right_7 · λ r_eyelid), the weights w left_7 corresponding to the left of the eyelids, weighted values to the left of the eyelids likelihood λ l_eyelid of the left comparison eyelids model of (w left_7 · λ l_eyelid ) ((W right7 · λ reyelid + w left7 • λ l — eyelid ) / (w right7 + w left — 7 )) is calculated for each combination as a plurality of left and right likelihoods λ eyelid .

そして、上記の第1〜6の各実施形態と同様に、本実施形態に係る瞼尤度演算装置は、複数演算された組み合わせ毎の左右の瞼尤度λeyelidのうち、最も大きい左右の瞼尤度λeyelid_maxを全体の瞼尤度λeyelid_allとして演算する。 Similarly to the first to sixth embodiments described above, the heel likelihood calculating apparatus according to the present embodiment has the largest left and right heel likelihoods among the left and right heel likelihoods λ eyelid for each of a plurality of combinations. calculating a likelihood lambda Eyelid_max the overall Mabutayudo λ eyelid_all.

本実施形態に係る瞼尤度演算装置によれば、第1〜6の各実施の形態と同様に、全体の瞼尤度λeyelid_allに対する精度が低いほうの瞼の瞼尤度の割合がより小さくなり、これにより全体の瞼尤度λeyelid_allをより良好な精度で演算することができる。 According to the heel likelihood calculating apparatus according to the present embodiment, as in the first to sixth embodiments, the ratio of the heel likelihood of the cocoon having the lower accuracy with respect to the overall heel likelihood λ eyelid_all is smaller. Thus, the overall heel likelihood λ eyelid_all can be calculated with better accuracy.

なお、本実施の形態では6組の重みを演算する例について説明したが、本実施の形態の瞼尤度演算装置を以下で説明するような構成とすることで、少なくとも1組の重みを演算するようにしてもよい。すなわち、本実施の形態の瞼尤度演算装置を、上記第1の検出手段、上記第2の検出手段、上記第3の検出手段、上記第4の検出手段、上記第1の演算手段、及び上記第2の演算手段の少なくとも1つの手段を備えた処理手段を含んで構成して、検出された顔向き角度θ、右目までの距離dright及び左目までの距離dleft、右耳までの距離dright_2及び左耳までの距離dleft_2、右目の目頭と右目の目じりとの距離dright_3及び左目の目頭と左目の目じりとの距離dleft_3、演算された右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleft、並びに右目領域のエッジ強度Ewright及び左目領域のエッジ強度Ewleftの少なくとも1つに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_7及びwleft_7のうち、右の瞼に対応する重みwright_7を、瞼開度が同一である右の比較瞼モデル及び左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの右の瞼尤度λr_eyelidに重み付けた値(wright_7・λr_eyelid)と、左の瞼に対応する重みwleft_7を、左の比較瞼モデルの左の瞼尤度λl_eyelidに重み付けた値(wleft_7・λl_eyelid)との和((wright_7・λr_eyelid+wleft_7・λl_eyelid)/(wright_7+wleft_7))をこの組み合わせにおける左右の瞼尤度λeyelidとして組み合わせ毎に複数演算するようにしてもよい。 In the present embodiment, an example of calculating six sets of weights has been described. However, by configuring the 瞼 likelihood calculation device of the present embodiment as described below, at least one set of weights is calculated. You may make it do. That is, the heel likelihood calculating apparatus of the present embodiment includes the first detecting means, the second detecting means, the third detecting means, the fourth detecting means, the first calculating means, and The processing means including at least one means of the second calculation means includes a detected face orientation angle θ, a distance d right to the right eye, a distance d left to the left eye, and a distance to the right ear. d Right_2 and distance to the left ear d left_2, the distance between the distance d Right_3 and left eye inner canthus and left of crow's feet and crow's feet right eye inner canthus and right d left_3, contrast Iw. right and left of the computed right eye area contrast Iw left in the eye region, and in response to at least one of the edge intensities Ew left edge intensity Ew. right and left regions of the right eye area The size corresponding to the likelihood of the eyelid farther from the position where the image was taken by the camera 12 among the starboard and the left eyelid of the image taken by the camera 12 is the eye likelihood of the closer eyelid. determined to be smaller than the corresponding size, of the weights w Right_7 and w Left_7 corresponding to each of the right and left eyelids, the weights w Right_7 corresponding to the right of the eyelid, the right comparison eyelid eyelid opening is the same The right comparison likelihood model λ r_eyelid with the weight (w right7 · λ r — eyelid) and the weight w left — 7 corresponding to the left eye in the combination of the model and the left comparison eye model with the left comparison the sum of the weighted values to the left of the eyelids likelihood λ l_eyelid of the eyelid model (w left_7 · λ l_eyelid) ( (w right_7 · λ r_ey lid + w left_7 · λ l_eyelid) / (w right_7 + w left_7)) may be more operations to each combination as left and right eyelid likelihood lambda eyelid in this combination.

なお、n(n≧1)組の重みを演算する場合には、a+・・・+a=1という条件を設定して、上記と同様の原理で重み係数a〜aの各々を決定する。このとき、「sum」は、「a・wright×・・・×a・wright_n+a・wleft×・・・×a・wleft_n」となる。 In the case of calculating the weight of the n (n ≧ 1) sets, set a condition that a 1 + ··· + a n = 1, each of the weight coefficients a 1 ~a n similar to the above principle To decide. At this time, the "sum" is "a 1 · w right × ··· × a n · w right_n + a 1 · w left × ··· × a n · w left_n ".

なお、本実施の形態の瞼尤度演算装置によって演算された全体の瞼尤度λeyelid_allは、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、瞼開度を検出することができる。 Note that the overall heel likelihood λ eyelid_all calculated by the heel likelihood calculating device of the present embodiment can be used as a likelihood when estimating the shape of the heel , for example. In addition, for example, the eyelid opening degree can be detected from the shape of the eyelid estimated in this way.

また、本実施の形態の瞼尤度演算装置を、演算された全体の瞼尤度λeyelid_allに基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。 In addition, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated total heel likelihood λ eyelid_all , and from the estimated heel model, cleaves the heel represented by the heel model. It is good also as a structure provided with the eaves opening degree detection function which detects a degree. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

[第8の実施の形態]
次に第8の実施の形態について説明する。なお、第1〜7の各実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。
[Eighth Embodiment]
Next, an eighth embodiment will be described. In addition, about the structure similar to each 1st-7th embodiment and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted.

本実施の形態において、第1の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図23に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されており、CPU14dが図23に示す瞼尤度演算処理を実行する点である。同図に図示されるように、ステップ120で肯定判定された場合に、ステップ322が実行され、ステップ322の次にステップ324が実行され、ステップ324の次にステップ326が実行される。   In the present embodiment, the difference from the first embodiment is that a program for executing the processing routine of the 瞼 likelihood calculation process shown in FIG. 23 is stored in the HDD 14c of the 瞼 likelihood calculation device according to this embodiment. Is stored, and the CPU 14d executes the wrinkle likelihood calculation process shown in FIG. As shown in the figure, when an affirmative determination is made in step 120, step 322 is executed, step 322 is executed after step 322, and step 326 is executed after step 324.

まず、ステップ322での処理について説明する。ステップ322では、上記ステップ112で複数演算された右の瞼尤度λr_eyelidのうち、最大の値の右の瞼尤度λr_eyelid_maxを選択すると共に、上記ステップ118で複数演算された左の瞼尤度λl_eyelidのうち、最大の値の左の瞼尤度λl_eyelid_maxを選択する。 First, the process at step 322 will be described. In step 322, the right likelihood λ r_eyelid_max having the maximum value is selected from the right likelihoods λ r_eyelid calculated in step 112 and the left likelihood calculated in steps 118 is selected. Among the degrees λ l_eyelid , the left maximum likelihood λ l_eyelid_max is selected.

次にステップ324での処理について説明する。ステップ324では、第1の実施の形態と同様に、重みwright及び重みwleftを定めて、重みwrightを右の瞼尤度λr_eyelid_maxに重み付けた値(wright・λr_eyelid_max)、及び重みwleftを左の瞼尤度λl_eyelid_maxに重み付けた値(wleft・λl_eyelid_max)を比較して、大きい方の値を選択する。 Next, the process at step 324 will be described. In step 324, as in the first embodiment, the weight w right and the weight w left are determined, and the weight w right is weighted to the right heel likelihood λ r_eyelid_max (w right · λ r_eyelid_max ), and the weight A value obtained by weighting w left to the left eyelid likelihood λ l_eyelid_max (w left · λ l_eyelid_max ) is compared, and the larger value is selected.

次にステップ326での処理について説明する。ステップ326では、上記ステップ324で選択された値を、選択された方の瞼(右の瞼あるいは左の瞼)の瞼尤度とすることにより、選択された方の瞼の瞼尤度を演算する。   Next, the process at step 326 will be described. In step 326, the value selected in step 324 is used as the 瞼 likelihood of the selected heel (right heel or left heel), thereby calculating the heel likelihood of the selected heel. To do.

本実施形態に係る瞼尤度演算装置によれば、精度が高いほうの瞼の瞼尤度のみを演算するので、より良好な精度で瞼尤度を演算することができる。   According to the heel likelihood calculating apparatus according to the present embodiment, only the heel likelihood of the cocoon with higher accuracy is calculated, so that the heel likelihood can be calculated with better accuracy.

なお、本実施の形態では、第1の実施の形態と同様に重みwright及び重みwleftを定める例について説明したが、第2の実施の形態と同様に重みwright_2及び重みwleft_2を定めるようにしてもよい。同様に、第3〜7の各実施の形態のうち、何れかの実施の形態と同様に左右の各瞼(瞼尤度)に対応する重みを定めるようにしてもよい。例えば、本実施の形態の瞼尤度演算装置を、以下で説明するような構成とするようにしてもよい。すなわち、本実施の形態の瞼尤度演算装置を、上記第1の検出手段、上記第2の検出手段、上記第3の検出手段、上記第4の検出手段、上記第1の演算手段、及び上記第2の演算手段の少なくとも1つの手段を備えた処理手段を含んで構成して、検出された顔向き角度θ、右目までの距離dright及び左目までの距離dleft、右耳までの距離dright_2及び左耳までの距離dleft_2、右目の目頭と右目の目じりとの距離dright_3及び左目の目頭と左目の目じりとの距離dleft_3、演算された右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleft、並びに右目領域のエッジ強度Ewright及び左目領域のエッジ強度Ewleftの少なくとも1つに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_7及びwleft_7のうち、重みwright_7を右の瞼尤度λr_eyelid_maxに重み付けた値(wright_7・λr_eyelid_max)、及び重みwleft_7を左の瞼尤度λl_eyelid_maxに重み付けた値(wleft_7・λl_eyelid_max)を比較して、大きい方の値を選択し、選択された値を、選択された方の瞼(右の瞼あるいは左の瞼)の瞼尤度とすることにより、選択された方の瞼の瞼尤度を演算するようにしてもよい。 In this embodiment, an example has been described for determining the first weight w. Right and weights w left similarly to the embodiment, similarly to the second embodiment defines the weights w Right_2 and weights w Left_2 You may do it. Similarly, among the third to seventh embodiments, weights corresponding to the left and right wings (瞼 likelihood) may be determined in the same manner as any one of the embodiments. For example, the heel likelihood calculation device of the present embodiment may be configured as described below. That is, the heel likelihood calculating apparatus of the present embodiment includes the first detecting means, the second detecting means, the third detecting means, the fourth detecting means, the first calculating means, and The processing means including at least one means of the second calculation means includes a detected face orientation angle θ, a distance d right to the right eye, a distance d left to the left eye, and a distance to the right ear. d Right_2 and distance to the left ear d left_2, the distance between the distance d Right_3 and left eye inner canthus and left of crow's feet and crow's feet right eye inner canthus and right d left_3, contrast Iw. right and left of the computed right eye area According to at least one of the contrast Iw left of the eye region, the edge strength Ew right of the right eye region, and the edge strength Ew left of the left eye region The size corresponding to the likelihood of the eyelid farther from the position where the image was taken by the camera 12 among the starboard and the left eyelid of the image taken by the camera 12 is the eye likelihood of the closer eyelid. determined to be smaller than the corresponding size, of the weights w Right_7 and w Left_7 corresponding to each of the right and left eyelids, weighted values of weights w Right_7 the right eyelid likelihood λ r_eyelid_max (w right_7 · λ r_eyelid_max ) , And the weight w left — 7 weighted to the left heel likelihood λ l_eyelid_max (w left7 · λ l_eylid_max ), the larger value is selected, and the selected value is compared with the selected ( Calculate the likelihood of the selected heel by taking the heel likelihood of the right heel or the left heel) Unishi may be.

このようにして演算された精度が高い方の瞼の瞼尤度は、例えば、精度が高い方の瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、精度が高い瞼開度を検出することができる。   The cocoon likelihood of the cocoon with higher accuracy calculated in this way can be used, for example, as the likelihood when estimating the shape of the cocoon with higher accuracy. Further, for example, it is possible to detect the eyelid opening with high accuracy from the shape of the eyelid thus estimated.

また、本実施の形態の瞼尤度演算装置を、演算された瞼尤度に基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。   Further, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated heel likelihood, and detects the heel opening degree of the heel represented by the heel model from the estimated heel model. It is good also as a structure provided with the eaves opening degree detection function. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

[第9の実施の形態]
次に第9の実施の形態について説明する。なお、第1〜8の各実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。本実施の形態の瞼尤度演算装置は、瞼開度を検出する瞼開度検出機能を備えており、瞼開度検出装置として用いることが可能である。
[Ninth Embodiment]
Next, a ninth embodiment will be described. In addition, about the structure similar to each 1st-8th embodiment and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted. The heel likelihood calculating device of the present embodiment has a heel opening degree detecting function for detecting the heel opening degree, and can be used as a heel opening degree detecting device.

本実施の形態において、第8の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図23に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されると共に、図24に示す瞼開度決定処理の処理ルーチンを実行するためのプログラムが記憶されており、本実施の形態に係る瞼尤度演算装置のCPU14dが、図23に示す瞼尤度演算処理を実行すると共に図24に示す瞼開度決定処理を実行する点である。   In the present embodiment, the difference from the eighth embodiment is that a program for executing the processing routine of the 瞼 likelihood calculation process shown in FIG. 23 is stored in the HDD 14c of the 瞼 likelihood calculation device according to this embodiment. Is stored, and a program for executing the processing routine of the eyelid opening degree determination process shown in FIG. 24 is stored, and the CPU 14d of the eyelid likelihood calculating device according to the present embodiment performs the operation shown in FIG. This is the point at which the likelihood calculation process is executed and the heel opening determination process shown in FIG. 24 is executed.

図24を参照して、瞼開度決定処理について説明する。まず、ステップ600で、瞼尤度演算処理の上記ステップ106で検出した顔向き角度θが、0度(正面を向いているときの角度を0度とする)、または、(0±β)度の範囲内であるか否かを判定する。これにより、顔が正面(θ=0度の場合)、または、顔がほぼ正面(θが0±β度の範囲内の場合)を向いているか否かを判定することができる。   With reference to FIG. 24, the lid opening degree determination process will be described. First, in step 600, the face orientation angle θ detected in step 106 of the heel likelihood calculation process is 0 degrees (the angle when facing the front is 0 degrees) or (0 ± β) degrees. It is determined whether it is within the range. Thereby, it can be determined whether or not the face is facing the front (when θ = 0 degrees) or the face is almost facing the front (when θ is in the range of 0 ± β degrees).

ステップ600で、顔向き角度θが0度である(または、0±β度の範囲内である)と判定された場合には、次のステップ606に進む。   If it is determined in step 600 that the face angle θ is 0 degrees (or in the range of 0 ± β degrees), the process proceeds to the next step 606.

一方、ステップ600で、顔向き角度θが0度でない(または、0±β度の範囲内でない)と判定された場合には、次のステップ602へ進む。   On the other hand, if it is determined in step 600 that the face angle θ is not 0 degree (or not within the range of 0 ± β degrees), the process proceeds to the next step 602.

なお、ステップ600は省略可能であり、瞼開度決定処理は、次のステップ602から処理を開始するようにしてもよい。   Step 600 may be omitted, and the eyelid opening determination process may be started from the next step 602.

次のステップ602では、目尤度演算処理(図23参照)の上記ステップ324において重み付けられた値(wright・λr_eyelid_max)が所定の基準値α以上であり、かつ上記ステップ324において重み付けられた値(wleft・λl_eyelid_max)が所定の基準値α以上であるか否かを判定する。このように判定することで、重み付けが行われた(すなわち補正後の)右瞼の尤度及び左瞼の尤度の各々に対応する(比較)瞼モデルが信頼できるものであるか否かを判断することができる。 In the next step 602, it is Meyudo processing the weighted value in step 324 (w right · λ r_eyelid_max) (see FIG. 23) is greater than a predetermined reference value alpha, and was weighted at step 324 It is determined whether or not the value (w left · λ 1_eyelid_max ) is equal to or greater than a predetermined reference value α. By determining in this way, it is determined whether or not the (comparison) wing model corresponding to each of the weighted (ie, corrected) starboard likelihood and portside likelihood is reliable. Judgment can be made.

ステップ602で、(wright・λr_eyelid_max)が所定の基準値α以上であり、かつ(wleft・λl_eyelid_max)が所定の基準値α以上であると判定された場合には、対応する両瞼の各比較瞼モデルが信頼できるものであると判断して、次のステップ604へ進む。 If it is determined in step 602 that (w right · λ r_eyelid_max ) is greater than or equal to the predetermined reference value α and (w left · λ l_eyelid_max ) is greater than or equal to the predetermined reference value α, the corresponding both It is determined that each comparison model is reliable, and the process proceeds to the next step 604.

ステップ604では、所定の基準値α以上であると判定された、重み付けされた右の瞼尤度(wright・λr_eyelid_max)に対応する右瞼の比較瞼モデルから、この比較瞼モデルの瞼開度(右瞼の瞼開度)orightを検出する。また、同様に、所定の基準値α以上であると判定された、重み付けされた左の瞼尤度(wleft・λl_eyelid_max)に対応する左瞼の比較瞼モデルから、この比較瞼モデルの瞼開度(左瞼の瞼開度)oleftを検出する。そして、検出した右瞼の瞼開度oright及び左瞼の瞼開度oleftの比率(例えば、oright/oleft)を演算する。そして、演算された比率をRAM14eまたはHDD14cに記憶させる。これにより、左右両方の瞼モデルが信頼性の高い場合に検出した左右の瞼開度の比を演算することができる。この左右の瞼開度の比は、例えば、後述するように、右瞼の瞼モデル及び左瞼の瞼モデルのどちらか一方のみ信頼性が高い場合に、信頼性の低い瞼モデルの瞼開度を精度良く検出したいときに用いることができる。より具体的には、信頼性が高いとされたほうの瞼モデルからこの瞼モデルが表す瞼の瞼開度を検出して、この検出された瞼開度及び比率から、信頼性が低いとされたほうの瞼の瞼開度を演算することにより、精度良く信頼性の低い瞼モデルに対応する瞼の瞼開度を検出することができる。 In step 604, the comparison model is cleaved from the starboard comparison model corresponding to the weighted right model likelihood ( wright · λr_eyelid_max ) determined to be equal to or greater than the predetermined reference value α. Degree (opening degree of starboard) o right is detected. Similarly, from the left comparison model corresponding to the weighted left heel likelihood (w left · λ l_eyelid_max ) determined to be equal to or greater than the predetermined reference value α, the comparison model Opening degree (left side opening degree) o left is detected. Then, it calculates the eyelid opening o. Right and eyelid opening o left of the ratio of Hidarimabuta of the detected right eyelid (e.g., o right / o left). The calculated ratio is stored in the RAM 14e or the HDD 14c. Thereby, it is possible to calculate the ratio of the left and right eyelid opening detected when both the right and left eyelid models are highly reliable. The ratio of the left and right eyelid opening is, for example, as described later, when only one of the starboard eyelid model and the left eyelid eyelid model is highly reliable, the eyelid opening degree of the unreliable eyelid model Can be used when it is desired to accurately detect. More specifically, the heel opening degree of the heel represented by this heel model is detected from the heel model that is considered to be highly reliable, and the reliability is considered to be low from the detected heel opening degree and ratio. By calculating the eyelid opening of the other eyelid, the eyelid opening degree of the eyelid corresponding to the eyelid model with low reliability can be detected accurately.

次のステップ606では、RAM14eまたはHDD14cに上記比率が記憶されているか否かを判定する。   In the next step 606, it is determined whether or not the ratio is stored in the RAM 14e or the HDD 14c.

ステップ606で上記比率が記憶されていると判定された場合には、次のステップ608へ進む。   If it is determined in step 606 that the ratio is stored, the process proceeds to the next step 608.

ステップ608では、上記比率をRAM14eまたはHDD14cから読み込む。そして、瞼尤度演算処理の上記ステップ326で瞼尤度が演算された方の瞼の瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する。そして、検出された瞼開度及び読み込んだ上記比率から、瞼開度が検出されていない方の瞼の瞼開度を演算することにより、瞼尤度が低い方の瞼の瞼開度を検出する。   In step 608, the ratio is read from the RAM 14e or the HDD 14c. Then, the eyelid opening degree of the eyelid represented by the eyelid model is detected from the eyelid model of the eyelid on which the eyelid likelihood is calculated in step 326 of the eyelid likelihood calculation process. Then, from the detected saddle opening degree and the read ratio, the saddle opening degree of the lower saddle likelihood is detected by calculating the saddle opening degree of the saddle whose side is not detected. To do.

次のステップ610では、上記ステップ608で検出された両瞼の各瞼開度を、図示しない出力装置(例えば、表示装置や音声出力装置など)に出力する。そして、瞼開度検出処理を終了する。これにより、精度が良い両瞼の瞼開度が出力装置から出力される。例えば、出力装置が表示装置である場合には、両瞼の瞼開度が表示され、出力装置が音声出力装置である場合には、両瞼の瞼開度が音声で出力される。   In the next step 610, the opening degree of the both eyelids detected in step 608 is output to an output device (not shown) (for example, a display device or an audio output device). Then, the lid opening degree detection process is terminated. Thereby, the saddle opening degree of both sides with good accuracy is outputted from the output device. For example, when the output device is a display device, the eyelid opening degree of both sides is displayed, and when the output device is an audio output device, the eyelid opening degree of both sides is output by voice.

一方、ステップ606で、上記比率が記憶されていないと判定された場合には、次のステップ612へ進む。   On the other hand, if it is determined in step 606 that the ratio is not stored, the process proceeds to the next step 612.

ステップ612では、瞼尤度演算処理の上記ステップ326で瞼尤度が演算された方の瞼の瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する。そして、検出された瞼開度を、図示しない出力装置(例えば、表示装置や音声出力装置など)に出力する。これにより、出力装置から瞼開度が出力される。そして、瞼開度検出処理を終了する。   In step 612, the eyelid opening degree of the eyelid represented by the eyelid model is detected from the eyelid model of the eyelid on which the eyelid likelihood is calculated in step 326 of the eyelid likelihood calculation process. Then, the detected heel opening is output to an output device (not shown) (for example, a display device or a sound output device). Thereby, the eaves opening degree is output from the output device. Then, the lid opening degree detection process is terminated.

本実施の形態の瞼開度検出機能を有した瞼尤度演算装置は、右の瞼に対応する重みwrightを最大の右の瞼尤度λr_eyelid_maxに重み付けた値(wright・λr_eyelid_max)、及び左の瞼に対応する重みwleftを最大の左の瞼尤度λl_eyelid_maxに重み付けた値(wleft・λl_eyelid_max)が共に所定の基準値以上である場合に、最大の右の瞼尤度λr_eyelid_maxの右の比較瞼モデルが表す右瞼の瞼開度oright及び最大の左の瞼尤度λl_eyelid_maxの左の比較瞼モデルが表す左瞼の瞼開度oleftを検出し、検出された右瞼の瞼開度oright及び左瞼の瞼開度oleftの比率(例えば、oright/oleft)を演算し、上記ステップ326で演算された瞼尤度の比較瞼モデルが表す瞼の瞼開度を検出すると共に、この検出された瞼開度及び比率に基づいて、瞼開度が検出されていない方の瞼の瞼開度を演算することにより、瞼尤度が低い方の瞼の瞼開度を検出する。 The heel likelihood calculating device having the heel opening degree detection function of the present embodiment is a value obtained by weighting the weight w right corresponding to the right heel to the maximum right heel likelihood λ r_eyelid_max (w right · λ r_eyelid_max ) , And the weight w left corresponding to the left heel is weighted to the maximum left heel likelihood λ l_eyelid_max (w left · λ l_eyelid_max ) is equal to or greater than a predetermined reference value, the maximum right heel likelihood Detect and detect starboard heel opening o right represented by right comparison heel model with degree λ r_eylid_max and left heel opening o left represented by left comparison heel model with maximum left heel likelihood λ l_eyelid_max have been the right eyelid eyelid opening o. right and eyelid opening o left in the ratio of Hidarimabuta (e.g., o right / o left) And the heel opening degree of the heel represented by the comparison heel model of the heel likelihood calculated in step 326 is detected, and the heel opening degree is not detected based on the detected heel opening degree and ratio. By calculating the eyelid opening degree of the one eyelid, the eyelid opening degree of the eyelid having the lower eyelid likelihood is detected.

これにより、精度良く信頼性の低い瞼モデルに対応する瞼の瞼開度を検出することができる。   Thereby, the eyelid opening degree of the eyelid corresponding to the eyelid model with high accuracy and low reliability can be detected.

なお、本実施の形態では、第1の実施の形態と同様に重みwright及び重みwleftを定める例について説明したが、第2の実施の形態と同様に重みwright_2及び重みwleft_2を定めるようにしてもよい。同様に、第3〜8の各実施の形態のうち、何れかの実施の形態と同様に左右の各瞼(瞼尤度)に対応する重みを定めるようにしてもよい。例えば、本実施の形態の瞼尤度演算装置を、以下で説明するような構成とするようにしてもよい。すなわち、本実施の形態の瞼尤度演算装置を、上記第1の検出手段、上記第2の検出手段、上記第3の検出手段、上記第4の検出手段、上記第1の演算手段、及び上記第2の演算手段の少なくとも1つの手段を備えた処理手段を含んで構成して、検出された顔向き角度θ、右目までの距離dright及び左目までの距離dleft、右耳までの距離dright_2及び左耳までの距離dleft_2、右目の目頭と右目の目じりとの距離dright_3及び左目の目頭と左目の目じりとの距離dleft_3、演算された右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleft、並びに右目領域のエッジ強度Ewright及び左目領域のエッジ強度Ewleftの少なくとも1つに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_7及びwleft_7のうち、重みwright_7を右の瞼尤度λr_eyelid_maxに重み付けた値(wright_7・λr_eyelid_max)、及び重みwleft_7を左の瞼尤度λl_eyelid_maxに重み付けた値(wleft_7・λl_eyelid_max)を比較して、大きい方の値を選択し、選択された値を、選択された方の瞼(右の瞼あるいは左の瞼)の瞼尤度とすることにより、選択された方の瞼の瞼尤度を演算するようにしてもよい。そして、本実施の形態の瞼尤度演算装置は、右の瞼に対応する重みwright_7を、最大の右の瞼尤度λr_eyelid_maxに重み付けた値(wright_7・λr_eyelid_max)、及び左の瞼に対応する重みwleft_7を、最大の左の瞼尤度λl_eyelid_maxに重み付けた値(wleft_7・λl_eyelid_max)が共に所定の基準値以上である場合に、最大の右の瞼尤度λr_eyelid_maxの右の比較瞼モデルが表す右瞼の瞼開度oright及び最大の左の瞼尤度λl_eyelid_maxの左の比較瞼モデルが表す左瞼の瞼開度oleftを検出し、検出された右瞼の瞼開度oright及び左瞼の瞼開度oleftの比率(例えば、oright/oleft)を演算し、上記ステップ326で演算された瞼尤度の比較瞼モデルが表す瞼の瞼開度を検出すると共に、この検出された瞼開度及び比率に基づいて、瞼開度が検出されていない方の瞼の瞼開度を演算することにより、瞼尤度が低い方の瞼の瞼開度を検出するようにしてもよい。 In this embodiment, an example has been described for determining the first weight w. Right and weights w left similarly to the embodiment, similarly to the second embodiment defines the weights w Right_2 and weights w Left_2 You may do it. Similarly, among the third to eighth embodiments, a weight corresponding to each of the left and right wings (瞼 likelihood) may be determined as in any of the embodiments. For example, the heel likelihood calculation device of the present embodiment may be configured as described below. That is, the heel likelihood calculating apparatus of the present embodiment includes the first detecting means, the second detecting means, the third detecting means, the fourth detecting means, the first calculating means, and The processing means including at least one means of the second calculation means includes a detected face orientation angle θ, a distance d right to the right eye, a distance d left to the left eye, and a distance to the right ear. d Right_2 and distance to the left ear d left_2, the distance between the distance d Right_3 and left eye inner canthus and left of crow's feet and crow's feet right eye inner canthus and right d left_3, contrast Iw. right and left of the computed right eye area According to at least one of the contrast Iw left of the eye region, the edge strength Ew right of the right eye region, and the edge strength Ew left of the left eye region The size corresponding to the likelihood of the eyelid farther from the position where the image was taken by the camera 12 among the starboard and the left eyelid of the image taken by the camera 12 is the eye likelihood of the closer eyelid. determined to be smaller than the corresponding size, of the weights w Right_7 and w Left_7 corresponding to each of the right and left eyelids, weighted values of weights w Right_7 the right eyelid likelihood λ r_eyelid_max (w right_7 · λ r_eyelid_max ) , And the weight w left — 7 weighted to the left heel likelihood λ l_eyelid_max (w left7 · λ l_eylid_max ), the larger value is selected, and the selected value is compared with the selected ( Calculate the likelihood of the selected heel by taking the heel likelihood of the right heel or the left heel) Unishi may be. Then, the likelihood calculation device according to the present embodiment has a weight ( wright_7 · λr_eyelid_max ) obtained by weighting the weight wright_7 corresponding to the right heel to the maximum right heel likelihood λr_eyelid_max , and the left When the value (w left7 · λ l — eyelid_max ) obtained by weighting the weight w left — 7 corresponding to the maximum left eye likelihood λ l_eyelid_max is equal to or greater than a predetermined reference value, the maximum right eye likelihood λ r_eyelid_max The starboard eyelid opening o right indicated by the right comparison eyelid model and the left eyelid opening degree o left indicated by the left eyelid likelihood λ l_eyelid_max of the maximum left eyelid likelihood λ l_eyelid_max are detected, and the detected starboard The ratio of the heel opening degree o right of the heel and the left heel opening degree o left (eg, o right / o left) ) And the heel opening degree of the heel represented by the comparison heel model of the heel likelihood calculated in step 326 is detected, and the heel opening degree is detected based on the detected heel opening degree and ratio. It is also possible to detect the eyelid opening degree of the eyelid with the lower eyelid likelihood by calculating the eyelid opening degree of the eyelid that is not.

[第10の実施の形態]
次に第10の実施の形態について説明する。なお、第1〜9の各実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。本実施の形態の瞼尤度演算装置は、例えば、図25に示すように、カメラ12の撮影対象である人物50が眼鏡52をかけている場合に、この眼鏡52のレンズ54によって光が反射されて、撮影した人物の画像56の目領域の部分の画像58の輝度が高くなることにより、正確に瞼の瞼尤度が演算できないときに、精度良く瞼尤度を演算することができるほうの瞼の瞼尤度のみを演算するようにしたものである。例えば、図25の例では眼鏡52の左側のレンズ54から光が反射されており、左目の目領域の部分の輝度が高くなっている。このような場合に、右瞼の瞼尤度のみを演算するようにしたものである。
[Tenth embodiment]
Next, a tenth embodiment will be described. In addition, about the structure similar to each 1st-9th embodiment and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted. For example, as shown in FIG. 25, when a person 50 who is a subject to be photographed by the camera 12 wears spectacles 52, the heel likelihood calculating apparatus according to the present embodiment reflects light by the lens 54 of the spectacles 52. Thus, when the luminance of the image 58 of the eye region portion of the photographed person image 56 is increased, the heel likelihood can be calculated accurately when the heel likelihood of the heel cannot be calculated accurately. Only the 瞼 likelihood of 瞼 is calculated. For example, in the example of FIG. 25, light is reflected from the lens 54 on the left side of the glasses 52, and the luminance of the left eye region is high. In such a case, only the starboard likelihood likelihood is calculated.

本実施の形態において、第8の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図26に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されており、CPU14dが図26に示す瞼尤度演算処理を実行する点である。同図に図示されるように、ステップ108の次にステップ328が実行され、ステップ328の次にステップ330が実行され、ステップ330で肯定判定がされた場合にステップ110へ進み、ステップ330で否定判定及びステップ114で肯定判定がされた場合にステップ332が実行される。そして、ステップ332で肯定判定がされた場合にはステップ116に進む。一方、ステップ332で否定判定及びステップ120で肯定判定がされた場合にはステップ334が実行される。ステップ334で肯定判定がされた場合には次のステップ322が実行される。一方、ステップ334で否定判定がされた場合にはステップ336が実行される。ステップ336で肯定判定がされた場合には、次にステップ338が実行され、ステップ338の次にステップ340が実行され、そして、ステップ326に進む。一方、ステップ336で否定判定がされた場合には、次にステップ342が実行され、ステップ342で肯定判定がされた場合には、次にステップ344が実行され、ステップ344の次にステップ346が実行され、そして、ステップ326に進む。また、ステップ342で否定判定がされた場合には、瞼尤度演算処理を終了する。   In this embodiment, the difference from the eighth embodiment is that a program for executing the processing routine of the 瞼 likelihood calculation process shown in FIG. 26 is stored in the HDD 14c of the 瞼 likelihood calculation device according to this embodiment. Is stored, and the CPU 14d executes the likelihood likelihood calculation process shown in FIG. As shown in the figure, step 328 is executed after step 108, step 330 is executed after step 328, and if an affirmative determination is made in step 330, the process proceeds to step 110, and negative in step 330. If the determination and affirmative determination is made in step 114, step 332 is executed. If an affirmative determination is made in step 332, the process proceeds to step 116. On the other hand, if a negative determination is made in step 332 and an affirmative determination is made in step 120, step 334 is executed. If an affirmative determination is made in step 334, the next step 322 is executed. On the other hand, if a negative determination is made in step 334, step 336 is executed. If an affirmative determination is made in step 336, then step 338 is executed, step 338 is followed by step 340, and the process proceeds to step 326. On the other hand, when a negative determination is made in step 336, step 342 is executed next. When an affirmative determination is made in step 342, step 344 is executed next, and after step 344, step 346 is executed. And proceed to step 326. If a negative determination is made in step 342, the heel likelihood calculation process ends.

まず、ステップ328での処理について説明する。ステップ328では、高輝度画素領域面積比演算処理を実行する。   First, the process at step 328 will be described. In step 328, high brightness pixel region area ratio calculation processing is executed.

図27を参照して高輝度画素領域面積比演算処理について説明する。まず、ステップ700では、瞼尤度演算処理(図26参照)の上記ステップ104で抽出された目領域のうち右目の目領域の画素数を特定する。   With reference to FIG. 27, the high-luminance pixel region area ratio calculation process will be described. First, in step 700, the number of pixels in the right eye region among the eye regions extracted in step 104 of the heel likelihood calculation process (see FIG. 26) is specified.

次のステップ702では、図28に示すように、上記ステップ104で抽出された目領域のうち、右目の目領域の画像58の画像データに対して、所定の閾値K(例えばK=200)より大きい画素値を有する画素の画素値を255と設定すると共に、所定の閾値K以下の画素値を有する画素の画素値を0と設定する二値化処理を実行する。これにより、右目領域の画像58の各画素が、黒画素(画素値が255の画素)と、白画素(画素値が0の画素)とになる。   In the next step 702, as shown in FIG. 28, for the image data of the image 58 of the right eye region among the eye regions extracted in step 104, a predetermined threshold value K (for example, K = 200) is used. A binarization process is performed in which the pixel value of a pixel having a large pixel value is set to 255, and the pixel value of a pixel having a pixel value equal to or less than a predetermined threshold K is set to 0. As a result, each pixel of the image 58 in the right eye region becomes a black pixel (pixel having a pixel value of 255) and a white pixel (pixel having a pixel value of 0).

次のステップ704では、上記ステップ700で特定された右目の目領域の画素数に対する上記ステップ702での二値化処理によって得られた白画素の数の割合を第1の割合(右目領域の高輝度画素領域面積比)Rrightとして演算することにより、右目領域の画素数に対する所定の輝度(すなわち閾値K)以上の画素数の割合である第1の割合(右目領域の高輝度画素領域面積比)Rrightを演算する。なお、図28の例では、右目領域の高輝度画素領域面積比Rrightとして0(0%)が演算される。 In the next step 704, the ratio of the number of white pixels obtained by the binarization process in step 702 to the number of pixels in the right eye area specified in step 700 is set to a first ratio (the right eye area height). (Luminance pixel area area ratio) Rright is calculated as a first ratio (ratio of high-luminance pixel area area of the right eye area) that is a ratio of the number of pixels equal to or higher than a predetermined luminance (that is, threshold value K) to the number of pixels of the right eye area. ) Calculate R right . In the example of FIG. 28, 0 (0%) is calculated as the high luminance pixel region area ratio R right of the right eye region.

次のステップ706では、上記ステップ104で抽出された目領域のうち左目の目領域の画素数を特定する。   In the next step 706, the number of pixels of the left eye region among the eye regions extracted in step 104 is specified.

次のステップ708では、上記ステップ104で抽出された目領域のうち、左目の目領域の画像58の画像データに対して、所定の閾値K(例えばK=200)より大きい画素値を有する画素の画素値を255と設定すると共に、所定の閾値K以下の画素値を有する画素の画素値を0と設定する二値化処理を実行する。これにより、左目領域の画像58が、黒画素(画素値が255の画素)と、白画素(画素値が0の画素)とになる。   In the next step 708, among the eye regions extracted in step 104, the pixel data having a pixel value larger than a predetermined threshold K (for example, K = 200) with respect to the image data of the image 58 of the left eye region. A binarization process is performed in which the pixel value is set to 255 and the pixel value of a pixel having a pixel value equal to or less than a predetermined threshold K is set to 0. As a result, the image 58 in the left eye region becomes a black pixel (pixel having a pixel value of 255) and a white pixel (pixel having a pixel value of 0).

次のステップ710では、上記ステップ706で特定された左目の目領域の画素数に対する上記ステップ708での二値化処理によって得られた白画素の数の割合を第2の割合(左目領域の高輝度画素領域面積比)Rleftとして演算することにより、左目領域の画素数に対する所定の輝度(すなわち閾値K)以上の画素数の割合である第2の割合(左目領域の高輝度画素領域面積比)Rleftを演算する。なお、図28の例では、左目領域の高輝度画素領域面積比Rleftとして0.54(54%)が演算される。そして、高輝度画素領域面積比演算処理を終了する。 In the next step 710, the ratio of the number of white pixels obtained by the binarization process in step 708 to the number of pixels in the left eye area specified in step 706 is set to a second ratio (the left eye area height). (Luminance pixel area area ratio) R left , by calculating the second ratio (high luminance pixel area area ratio of the left eye region), which is a ratio of the number of pixels equal to or higher than a predetermined luminance (that is, threshold value K) to the number of pixels of the left eye region ) Calculate R left . In the example of FIG. 28, 0.54 (54%) is calculated as the high luminance pixel region area ratio R left of the left eye region. Then, the high luminance pixel region area ratio calculation process is terminated.

以上、ステップ328で実行する高輝度画素領域面積比演算処理について説明した。   The high brightness pixel region area ratio calculation process executed in step 328 has been described above.

次のステップ330では、上記ステップ704で演算された右目領域の高輝度画素領域面積比Rrightと所定値γ(例えば0.4(40%))とを比較して、右目領域の高輝度画素領域面積比Rrightが所定値γ以下であるか否かを判定する。なお、右目領域の高輝度画素領域面積比Rrightが所定値γ以下であると判定された場合には、右目領域の画像58から精度良く瞼尤度を演算することが可能であると判断できる。一方、右目領域の高輝度画素領域面積比Rrightが所定値γより大きいと判定された場合には、右目領域の画像58から精度良く瞼尤度を演算することが可能でないと判断できる。 In the next step 330, the high luminance pixel region area ratio R right of the right eye region calculated in step 704 is compared with a predetermined value γ (eg, 0.4 (40%)), and the high luminance pixel of the right eye region is compared. It is determined whether or not the area ratio R right is equal to or less than a predetermined value γ. If it is determined that the high-luminance pixel region area ratio R right of the right eye region is equal to or less than the predetermined value γ, it can be determined that the heel likelihood can be accurately calculated from the image 58 of the right eye region. . On the other hand, if it is determined that the high-luminance pixel region area ratio R right of the right eye region is larger than the predetermined value γ, it can be determined that it is impossible to calculate the wrinkle likelihood with accuracy from the image 58 of the right eye region.

ステップ330で、右目領域の高輝度画素領域面積比Rrightが所定値γ以下であると判定された場合には、ステップ110へ進む。一方、ステップ330で、右目領域の高輝度画素領域面積比Rrightが所定値γより大きいと判定された場合には、ステップ332へ進む。ステップ332へ進むことにより、ステップ110〜114の処理を実行せずに省略することができる。 If it is determined in step 330 that the high luminance pixel region area ratio R right of the right eye region is equal to or smaller than the predetermined value γ, the process proceeds to step 110. On the other hand, if it is determined in step 330 that the high-luminance pixel region area ratio R right of the right eye region is larger than the predetermined value γ, the process proceeds to step 332. By proceeding to step 332, the processing of steps 110 to 114 can be omitted without executing.

ステップ332では、上記ステップ710で演算された左目領域の高輝度画素領域面積比Rleftと所定値γ(例えば0.4(40%))とを比較して、左目領域の高輝度画素領域面積比Rleftが所定値γ以下であるか否かを判定する。左目領域の高輝度画素領域面積比Rleftが所定値γ以下であると判定された場合には、左目領域の画像58から精度良く瞼尤度を演算することが可能であると判断できる。一方、左目領域の高輝度画素領域面積比Rleftが所定値γより大きいと判定された場合には、左目領域の画像58から精度良く瞼尤度を演算することが可能でないと判断できる。 In step 332, by comparing the high-brightness pixel region area ratio of the computed eye region in Step 710 R left and the predetermined value gamma (e.g. 0.4 (40%)), high-brightness pixel region area of the left eye area It is determined whether the ratio R left is less than or equal to a predetermined value γ. If the high-brightness pixel region area ratio R left in the eye region is determined to be equal to or less than the predetermined value γ, it can be determined from the image 58 of the left eye region and it is possible to calculate accurately Mabutayu degree. On the other hand, when a high-luminance pixel region area ratio R left in the eye region is determined to be greater than the predetermined value γ, it can be determined that it is not possible to computed accurately Mabutayu degree from the image 58 of the eye region.

ステップ332で、左目領域の高輝度画素領域面積比Rleftが所定値γ以下であると判定された場合には、ステップ116へ進む。一方、ステップ332で、左目領域の高輝度画素領域面積比Rleftが所定値γより大きいと判定された場合には、ステップ334へ進む。ステップ334へ進むことにより、ステップ116〜120の処理を実行せずに省略することができる。 In step 332, if the high-brightness pixel region area ratio R left in the eye region is determined to be equal to or less than the predetermined value γ, the routine proceeds to step 116. On the other hand, if it is determined in step 332 that the high-luminance pixel region area ratio R leftt of the left eye region is greater than the predetermined value γ, the process proceeds to step 334. By proceeding to step 334, the processing of steps 116 to 120 can be omitted without executing.

ステップ334では、右目領域の高輝度画素領域面積比Rrightが所定値γ以下であり、かつ左目領域の高輝度画素領域面積比Rleftが所定値γ以下であるか否かを判定する。 In step 334, it is determined whether or not the high-luminance pixel region area ratio R right of the right eye region is less than or equal to a predetermined value γ and the high-luminance pixel region area ratio R left of the left eye region is less than or equal to a predetermined value γ.

ステップ334で、右目領域の高輝度画素領域面積比Rrightが所定値γ以下であり、かつ左目領域の高輝度画素領域面積比Rleftが所定値γ以下であると判定された場合には、ステップ322へ進む。 If it is determined in step 334 that the high-brightness pixel region area ratio R right of the right eye region is equal to or less than the predetermined value γ and the high-brightness pixel region area ratio R leftt of the left eye region is equal to or less than the predetermined value γ, Proceed to step 322.

一方、ステップ334で、右目領域の高輝度画素領域面積比Rrightが所定値γ以下であり、かつ左目領域の高輝度画素領域面積比Rleftが所定値γ以下でないと判定された場合には、ステップ336へ進む。 On the other hand, if it is determined in step 334 that the high luminance pixel area area ratio R right of the right eye area is not more than the predetermined value γ and the high luminance pixel area area ratio R left of the left eye area is not less than the predetermined value γ. Go to step 336.

ステップ336では、右目領域の高輝度画素領域面積比Rrightが所定値γ以下であるか否かを判定する。ステップ336で、右目領域の高輝度画素領域面積比Rrightが所定値γ以下であると判定された場合には、ステップ338へ進む。 In step 336, it is determined whether or not the high-luminance pixel region area ratio R right of the right eye region is equal to or less than a predetermined value γ. If it is determined in step 336 that the high-luminance pixel region area ratio R right of the right eye region is equal to or smaller than the predetermined value γ, the process proceeds to step 338.

ステップ338では、上記ステップ112で複数演算された右の瞼尤度λr_eyelidのうち、最大の値の右の瞼尤度λr_eyelid_maxを選択する。 In step 338, among the plurality computed right eyelid likelihood lambda R_eyelid in step 112, it selects the right eyelid likelihood lambda R_eyelid_max maximum value.

次のステップ340では、第8(1)の実施の形態と同様に、重みwrightを定めて、重みwrightを右の瞼尤度λr_eyelid_maxに重み付けた値(wright・λr_eyelid_max)を選択する。そしてステップ326へ進む。 In the next step 340, as in the eighth embodiment (1), the weight w right is determined, and the value (w right · λ r_eylid_max ) obtained by weighting the weight w right to the right _ likelihood λ r_eyelid_max is selected. To do. Then, the process proceeds to step 326.

一方、ステップ336で、右目領域の高輝度画素領域面積比Rrightが所定値γより大きいと判定された場合には、ステップ342へ進む。 On the other hand, if it is determined in step 336 that the high-luminance pixel region area ratio R right of the right eye region is greater than the predetermined value γ, the process proceeds to step 342.

ステップ342では、左目領域の高輝度画素領域面積比Rleftが所定値γ以下であるか否かを判定する。ステップ342で、左目領域の高輝度画素領域面積比Rleftが所定値γ以下であると判定された場合には、ステップ344へ進む。 In step 342, it is determined whether or not the high-luminance pixel region area ratio R left of the left eye region is equal to or less than a predetermined value γ. If it is determined in step 342 that the high-luminance pixel region area ratio R leftt of the left eye region is equal to or smaller than the predetermined value γ, the process proceeds to step 344.

ステップ344では、上記ステップ118で複数演算された左の瞼尤度λl_eyelidのうち、最大の値の左の瞼尤度λl_eyelid_maxを選択する。 In step 344, among the eyelid likelihood lambda L_eyelid left in which a plurality calculated at step 118, selects the left eyelid likelihood lambda L_eyelid_max maximum value.

次のステップ346では、第8(1)の実施の形態と同様に、重みwleftを定めて、重みwleftを左の瞼尤度λl_eyelid_maxに重み付けた値(wleft・λl_eyelid_max)を選択する。そしてステップ326へ進む。 In the next step 346, as in the eighth embodiment (1), the weight w left is determined, and the value obtained by weighting the weight w left to the left heel likelihood λ l_eyelid_max (w left · λ l_eyelid_max ) is selected. To do. Then, the process proceeds to step 326.

一方、ステップ342で、左目領域の高輝度画素領域面積比Rleftが所定値γより大きいと判定された場合には、瞼尤度演算処理を終了する。 On the other hand, in step 342, if the high-brightness pixel region area ratio R left in the eye region is determined to be greater than the predetermined value γ it ends the Mabutayudo processing.

以上、説明したように、本実施の形態の瞼尤度演算装置は、第1の割合(右目領域の高輝度画素領域面積比)Rright及び第2の割合(左目領域の高輝度画素領域面積比Rleft)を演算し、第1の割合が所定値γ以下の場合にのみ右の瞼尤度λr_eyelidを演算すると共に、第2の割合が所定値γ以下の場合にのみ左の瞼尤度λl_eyelidを演算する。そして、本実施の形態の瞼尤度演算装置は、顔向き角度θに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright及びwleftのうち、第1の割合が所定値γ以下でありかつ第2の割合が所定値γ以下である場合には、右の瞼に対応する重みwrightを右の瞼尤度λr_eyelid_maxに重み付けた値(wright・λr_eyelid_max)、及び左の瞼に対応する重みwleftを左の瞼尤度λl_eyelid_maxに重み付けた値(wleft・λl_eyelid_max)のうち大きいほうの値を選択すると共に、第1の割合及び第2の割合の一方の割合のみが所定値γ以下である場合には、瞼尤度が演算された方の瞼(第1の割合または第2の割合が所定値以下となる方の瞼)の最大の瞼尤度(右の瞼尤度λr_eyelid_maxまたは左の瞼尤度λl_eyelid_max)に、この瞼に対応する重み(重みwrightまたは重みwleft)を重み付けた値((wright・λr_eyelid_max)または(wleft・λl_eyelid_max))を選択する。これにより、精度良く瞼尤度を演算することができないほうの瞼の瞼尤度を複雑な演算によって演算することなく、より簡易に瞼尤度を演算することができる。 As described above, the eyelid likelihood calculation device of this embodiment, (high-brightness pixel region area ratio of the right eye region) first rate high-brightness pixel area of the region R. Right and a second fraction (left eye area The ratio R left ) is calculated, and the right heel likelihood λ r_eyelid is calculated only when the first ratio is less than or equal to the predetermined value γ, and the left heel likelihood only when the second ratio is less than or equal to the predetermined value γ. The degree λ l_eyelid is calculated. Then, the heel likelihood calculation device according to the present embodiment is the farther to the position where the image is captured by the camera 12 among the starboard and port side of the image captured by the camera 12 according to the face orientation angle θ. magnitude corresponding to the eyelid likelihood of eyelid, was determined to be smaller than the size corresponding to the eyelid likelihood of eyelid closer, among the weights w. right and w left corresponding to each of the left and right eyelid, the When the ratio of 1 is less than or equal to the predetermined value γ and the second ratio is less than or equal to the predetermined value γ, the weight w right corresponding to the right eyelid is weighted to the right eyelid likelihood λ r_eyelid_max (w right) · λ r_eyelid_max), and the magnitude of the weights w left and was weighted to the left of the eyelid likelihood lambda L_eyelid_max value corresponding to the left eyelid (w left · λ l_eyelid_max) When only one of the first ratio and the second ratio is equal to or less than the predetermined value γ, the 瞼 (first ratio or first ratio) for which the 瞼 likelihood is calculated is selected. The maximum likelihood (right likelihood λ r_eyelid_max or left likelihood λ l_eyelid_max ) of the な る whose ratio of 2 is less than or equal to a predetermined value is assigned a weight (weight w right or weight) corresponding to this A value obtained by weighting w left ) ((w right · λ r_eyelid_max ) or (w left · λ l_eyelid_max )) is selected. As a result, it is possible to calculate the heel likelihood more easily without calculating the heel likelihood of the heel that cannot calculate the heel likelihood with high accuracy by a complicated operation.

なお、本実施の形態では、第1の実施の形態と同様に重みwright及び重みwleftを定める例について説明したが、第2の実施の形態と同様に重みwright_2及び重みwleft_2を定めるようにしてもよい。同様に、第3〜8の各実施の形態のうち、何れかの実施の形態と同様に左右の各瞼(瞼尤度)に対応する重みを定めるようにしてもよい。例えば、本実施の形態の瞼尤度演算装置を、以下で説明するような構成とするようにしてもよい。すなわち、本実施の形態の瞼尤度演算装置を、上記第1の検出手段、上記第2の検出手段、上記第3の検出手段、上記第4の検出手段、上記第1の演算手段、及び上記第2の演算手段の少なくとも1つの手段を備えた処理手段を含んで構成して、検出された顔向き角度θ、右目までの距離dright及び左目までの距離dleft、右耳までの距離dright_2及び左耳までの距離dleft_2、右目の目頭と右目の目じりとの距離dright_3及び左目の目頭と左目の目じりとの距離dleft_3、演算された右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleft、並びに右目領域のエッジ強度Ewright及び左目領域のエッジ強度Ewleftの少なくとも1つに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_7及びwleft_7のうち、第1の割合が所定値γ以下でありかつ第2の割合が所定値γ以下である場合には、右の瞼に対応する重みwright_7を右の瞼尤度λr_eyelid_maxに重み付けた値(wright_7・λr_eyelid_max)、及び左の瞼に対応する重みwleft_7を左の瞼尤度λl_eyelid_maxに重み付けた値(wleft_7・λl_eyelid_max)のうち大きいほうの値を選択すると共に、第1の割合及び第2の割合の一方の割合のみが所定値γ以下である場合には、瞼尤度が演算された方の瞼(第1の割合または第2の割合が所定値以下となる方の瞼)の最大の瞼尤度(右の瞼尤度λr_eyelid_maxまたは左の瞼尤度λl_eyelid_max)に、この瞼に対応する重み(重みwright_7または重みwleft_7)を重み付けた値((wright_7・λr_eyelid_max)または(wleft_7・λl_eyelid_max))を選択するようにしてもよい。 In this embodiment, an example has been described for determining the first weight w. Right and weights w left similarly to the embodiment, similarly to the second embodiment defines the weights w Right_2 and weights w Left_2 You may do it. Similarly, among the third to eighth embodiments, a weight corresponding to each of the left and right wings (瞼 likelihood) may be determined as in any of the embodiments. For example, the heel likelihood calculation device of the present embodiment may be configured as described below. That is, the heel likelihood calculating device of the present embodiment includes the first detecting means, the second detecting means, the third detecting means, the fourth detecting means, the first calculating means, and The processing means including at least one means of the second calculation means includes the detected face orientation angle θ, the distance d right to the right eye, the distance d left to the left eye, and the distance to the right ear. d Right_2 and distance to the left ear d left_2, the distance between the distance d Right_3 and left eye inner canthus and left of crow's feet and crow's feet right eye inner canthus and right d left_3, contrast Iw. right and left of the computed right eye area According to at least one of the contrast Iw left of the eye region, the edge strength Ew right of the right eye region, and the edge strength Ew left of the left eye region The size corresponding to the likelihood of the eyelid farther to the position where the image was imaged by the camera 12 out of the starboard and portside of the image taken by the camera 12 is the eye likelihood of the closer eyelid. Of the weights w right — 7 and w left — 7 corresponding to each of the left and right eyelids that are determined to be smaller than the corresponding size, the first ratio is equal to or less than the predetermined value γ and the second ratio is equal to or less than the predetermined value γ. In some cases, the weight w right — 7 corresponding to the right eyelid is weighted to the right eye likelihood λ r_eyelid_max (w right7 · λ r_eyelid_max ), and the weight w left — 7 corresponding to the left eyelid is set to the left eye likelihood. along with selecting the value of the larger one of the weighting was value (w left_7 · λ l_eyelid_max) to λ l_eyelid_max, the first split When only one ratio of the second ratio and the second ratio is less than or equal to the predetermined value γ, the one for which the likelihood is calculated (the first ratio or the second ratio that is less than the predetermined value) ) Of the maximum heel likelihood (right heel likelihood λ r_eyelid_max or left heel likelihood λ l_eyelid_max ) with a weight (weight w right — 7 or weight w left — 7 ) corresponding to this heel ((w right7 · (λ r_eylid_max ) or (w left7 · λ l_eyelid_max )) may be selected.

また、本実施の形態においてステップ326で演算された精度が高い瞼尤度は、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、精度が高い瞼開度を検出することができる。   In addition, the high likelihood accuracy calculated in step 326 in the present embodiment can be used, for example, as the likelihood when estimating the shape of the eyelid. Further, for example, it is possible to detect the eyelid opening with high accuracy from the shape of the eyelid thus estimated.

また、本実施の形態の瞼尤度演算装置を、演算された瞼尤度に基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。   Further, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated heel likelihood, and detects the heel opening degree of the heel represented by the heel model from the estimated heel model. It is good also as a structure provided with the eaves opening degree detection function. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

[第11の実施の形態]
次に第11の実施の形態について説明する。なお、第1〜10の各実施の形態と同様の構成及び同様の処理については、同一符号を付して、説明を省略する。本実施の形態の瞼尤度演算装置は、例えば、図25に示すように、カメラ12の撮影対象である人物50が眼鏡52をかけている場合に、この眼鏡52のレンズ54によって光が反射されて、撮影した人物の画像56の目領域の部分の画像58の輝度が高くなることにより、正確に瞼の瞼尤度が演算できない場合に、精度良く瞼尤度を演算することができないほうの瞼の瞼尤度を、所定の第1の値(例えば0)とすることにより、左右の瞼尤度を演算するようにしたものである。例えば、図25の例では眼鏡52の左側のレンズ54から光が反射されており、左目の目領域の部分の輝度が高くなっている。このような場合に、例えば、左瞼の瞼尤度を所定の第1の値とすることにより、左瞼の瞼尤度を演算するようにしたものである。
[Eleventh embodiment]
Next, an eleventh embodiment will be described. In addition, about the structure similar to each 1st-10th embodiment and the same process, the same code | symbol is attached | subjected and description is abbreviate | omitted. For example, as shown in FIG. 25, when a person 50 who is a subject to be photographed by the camera 12 wears spectacles 52, the heel likelihood calculating apparatus according to the present embodiment reflects light by the lens 54 of the spectacles 52. If the brightness of the image 58 in the eye region of the photographed person image 56 is increased, the eyelid likelihood cannot be calculated accurately when the eyelid likelihood cannot be accurately calculated. The left and right wrinkle likelihoods are calculated by setting the wrinkle likelihood of the wrinkles to a predetermined first value (for example, 0). For example, in the example of FIG. 25, light is reflected from the lens 54 on the left side of the glasses 52, and the luminance of the left eye region is high. In such a case, for example, the port heel likelihood is calculated by setting the port heel likelihood to a predetermined first value.

本実施の形態において、第10の実施の形態と異なる点は、本実施の形態に係る瞼尤度演算装置のHDD14cには図29に示す瞼尤度演算処理の処理ルーチンを実行するためのプログラムが記憶されており、CPU14dが図29に示す瞼尤度演算処理を実行する点である。同図に図示されるように、ステップ330で否定判定がされた場合には、ステップ348が実行され、ステップ348の次、及びステップ114で肯定判定された場合にステップ332が実行される。また、ステップ332で否定判定がされた場合には、ステップ350が実行され、ステップ350の次、及びステップ120で肯定判定された場合にステップ352が実行され、ステップ352の次にステップ324が実行される。   The present embodiment is different from the tenth embodiment in that a program for executing the processing routine of the heel likelihood calculation process shown in FIG. 29 is stored in the HDD 14c of the heel likelihood calculation apparatus according to the present embodiment. Is stored, and the CPU 14d executes the heel likelihood calculation process shown in FIG. As shown in the figure, when a negative determination is made at step 330, step 348 is executed, and after step 348 and when an affirmative determination is made at step 114, step 332 is executed. When a negative determination is made at step 332, step 350 is executed, after step 350 and when an affirmative determination is made at step 120, step 352 is executed, and step 324 is executed next to step 352. Is done.

まず、ステップ348の処理について説明する。ステップ348では、所定の第1の値(例えば0)を、右の瞼尤度λr_eyelidとすることにより、右の瞼尤度λr_eyelidを演算する。この所定の第1の値は、0に限られないが、ステップ326で選択されにくくなるような値が好ましい。 First, the process of step 348 will be described. In step 348, a predetermined first value (e.g. 0), by a right eyelid likelihood lambda R_eyelid, calculates the right eyelid likelihood λ r_eyelid. The predetermined first value is not limited to 0, but is preferably a value that makes it difficult to select in step 326.

次に、ステップ350の処理について説明する。ステップ350では、所定の第1の値(例えば0)を、左の瞼尤度λl_eyelidとすることにより、左の瞼尤度λl_eyelidを演算する。この所定の第1の値は、上記と同様に、0に限られないが、ステップ326で選択されにくくなるような値が好ましい。 Next, the process of step 350 will be described. In step 350, a predetermined first value (e.g. 0), by the left eyelid likelihood lambda L_eyelid, calculates the left eyelid likelihood λ l_eyelid. The predetermined first value is not limited to 0 as described above, but is preferably a value that is difficult to be selected in step 326.

次に、ステップ352の処理について説明する。ステップ352では、演算された右の瞼尤度λr_eyelidのうち、最大の右の瞼尤度λr_eyelid_maxを選択すると共に、演算された左の瞼尤度λl_eyelidのうち、最大の左の瞼尤度λl_eyelid_maxを選択する。 Next, the process of step 352 will be described. In step 352, among the computed right eyelid likelihood lambda R_eyelid, while selecting the maximum right eyelid likelihood lambda R_eyelid_max, among eyelid likelihood lambda L_eyelid of the computed left, up left Mabutayu Select the degree λ l_eyelid_max .

以上説明したように、本実施の形態の瞼尤度演算装置は、第1の割合(右目領域の高輝度画素領域面積比)Rright及び第2の割合(左目領域の高輝度画素領域面積比)Rleftを演算し、第1の割合が所定値γより大きい場合に、所定の第1の値を右の瞼尤度λr_eyelidとすることにより、右の瞼尤度λr_eyelidを演算すると共に、第2の割合が所定値γより大きい場合に、所定の第1の値を左の瞼尤度λl_eyelidとすることにより、左の瞼尤度λl_eyelidを演算する。そして、本実施の形態の瞼尤度演算装置は、顔向き角度θに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright及びwleftのうち、右の瞼に対応する重みwrightを右の瞼尤度λr_eyelid_maxに重み付けた値(wright・λr_eyelid_max)、及び左の瞼に対応する重みwleftを左の瞼尤度λl_eyelid_maxに重み付けた値(wleft・λl_eyelid_max)のうち大きいほうの値を選択する。これにより、精度良く瞼尤度を演算することができないほうの瞼の瞼尤度を複雑な演算によって演算することなく、所定の第1の値としているので、より簡易に瞼尤度を演算することができる。 As described above, the eyelid likelihood calculation apparatus according to the present embodiment uses the first ratio (the high luminance pixel area area ratio of the right eye region) R right and the second ratio (the high luminance pixel area area ratio of the left eye region). ) calculates the R left, when a first rate is greater than a predetermined value gamma, by the right eyelid likelihood lambda R_eyelid a predetermined first value, while calculating the right eyelid likelihood lambda R_eyelid second ratio of is larger than a predetermined value gamma, by a predetermined first value and the left eyelid likelihood lambda L_eyelid, calculates the left eyelid likelihood λ l_eyelid. Then, the heel likelihood calculation device according to the present embodiment is the farther to the position where the image is captured by the camera 12 among the starboard and port side of the image captured by the camera 12 according to the face orientation angle θ. Of the weights w right and w left corresponding to each of the left and right wings, the right corresponding to the heel likelihood of the heel is set to be smaller than the size corresponding to the heel likelihood of the near heel. A value obtained by weighting the weight w right corresponding to of the right weight (w right · λ r_eyelid_max ) to the right heel likelihood λ r_eyelid_max, and a value weighting the weight w left corresponding to the left heel to the left heel likelihood λ l_eyelid_max The larger value of (w left · λ l_eylid_max ) is selected. As a result, the heel likelihood of the moth that cannot accurately calculate the heel likelihood is set to the predetermined first value without being calculated by a complicated operation, so that the heel likelihood can be calculated more easily. be able to.

なお、本実施の形態では、第1の実施の形態と同様に重みwright及び重みwleftを定める例について説明したが、第2の実施の形態と同様に重みwright_2及び重みwleft_2を定めるようにしてもよい。同様に、第3〜8の各実施の形態のうち、何れかの実施の形態と同様に左右の各瞼(瞼尤度)に対応する重みを定めるようにしてもよい。例えば、本実施の形態の瞼尤度演算装置を、以下で説明するような構成とするようにしてもよい。すなわち、本実施の形態の瞼尤度演算装置を、上記第1の検出手段、上記第2の検出手段、上記第3の検出手段、上記第4の検出手段、上記第1の演算手段、及び上記第2の演算手段の少なくとも1つの手段を備えた処理手段を含んで構成して、検出された顔向き角度θ、右目までの距離dright及び左目までの距離dleft、右耳までの距離dright_2及び左耳までの距離dleft_2、右目の目頭と右目の目じりとの距離dright_3及び左目の目頭と左目の目じりとの距離dleft_3、演算された右目の目領域のコントラストIwright及び左目の目領域のコントラストIwleft、並びに右目領域のエッジ強度Ewright及び左目領域のエッジ強度Ewleftの少なくとも1つに応じて、カメラ12によって撮影された画像の右瞼及び左瞼のうちカメラ12によって画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みwright_7及びwleft_7のうち、右の瞼に対応する重みwright_7を右の瞼尤度λr_eyelid_maxに重み付けた値(wright_7・λr_eyelid_max)、及び左の瞼に対応する重みwleft_7を左の瞼尤度λl_eyelid_maxに重み付けた値(wleft_7・λl_eyelid_max)のうち大きいほうの値を選択するようにしてもよい。 In this embodiment, an example has been described for determining the first weight w. Right and weights w left similarly to the embodiment, similarly to the second embodiment defines the weights w Right_2 and weights w Left_2 You may do it. Similarly, among the third to eighth embodiments, a weight corresponding to each of the left and right wings (瞼 likelihood) may be determined as in any of the embodiments. For example, the heel likelihood calculation device of the present embodiment may be configured as described below. That is, the heel likelihood calculating apparatus of the present embodiment includes the first detecting means, the second detecting means, the third detecting means, the fourth detecting means, the first calculating means, and The processing means including at least one means of the second calculation means includes a detected face orientation angle θ, a distance d right to the right eye, a distance d left to the left eye, and a distance to the right ear. d Right_2 and distance to the left ear d left_2, the distance between the distance d Right_3 and left eye inner canthus and left of crow's feet and crow's feet right eye inner canthus and right d left_3, contrast Iw. right and left of the computed right eye area According to at least one of the contrast Iw left of the eye region, the edge strength Ew right of the right eye region, and the edge strength Ew left of the left eye region The size corresponding to the likelihood of the eyelid farther from the position where the image was taken by the camera 12 among the starboard and the left eyelid of the image taken by the camera 12 is the eye likelihood of the closer eyelid. Of weights w right — 7 and w left — 7 corresponding to each of the left and right eyelids that are determined to be smaller than the corresponding size, a value obtained by weighting the weight w right — 7 corresponding to the right eyelid to the right eyelid likelihood λ r_eyelid_max ( wright_7 · λ r_eyelid_max ) and a value obtained by weighting the weight w left_7 corresponding to the left eyelid to the left eyelid likelihood λ l_eyelid_max (w left7 · λ l_eyelid_max ) may be selected. .

また、本実施の形態においてステップ326で演算された精度が高い瞼尤度は、例えば、瞼の形状を推定する際の尤度として用いることができる。また、例えば、このようにして推定された瞼の形状から、精度が高い瞼開度を検出することができる。   In addition, the high likelihood accuracy calculated in step 326 in the present embodiment can be used, for example, as the likelihood when estimating the shape of the eyelid. Further, for example, it is possible to detect the eyelid opening with high accuracy from the shape of the eyelid thus estimated.

また、本実施の形態の瞼尤度演算装置を、演算された瞼尤度に基づいて、瞼モデルを推定し、推定された瞼モデルから、この瞼モデルが表す瞼の瞼開度を検出する瞼開度検出機能を備える構成としてもよい。この場合には、本実施の形態の瞼尤度演算装置は、瞼開度検出装置として用いることが可能である。   Further, the heel likelihood calculating apparatus according to the present embodiment estimates a heel model based on the calculated heel likelihood, and detects the heel opening degree of the heel represented by the heel model from the estimated heel model. It is good also as a structure provided with the eaves opening degree detection function. In this case, the heel likelihood calculation device of the present embodiment can be used as a heel opening degree detection device.

本発明の第1の実施の形態に係る瞼尤度演算装置の構成を示す概略図である。It is the schematic which shows the structure of the heel likelihood calculating apparatus which concerns on the 1st Embodiment of this invention. 第1の実施の形態に係る顔領域を説明するための図である。It is a figure for demonstrating the face area | region which concerns on 1st Embodiment. 第1の実施の形態に係る瞼モデルを説明するための図である。It is a figure for demonstrating the eyelid model which concerns on 1st Embodiment. 第1の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the process routine of the heel likelihood calculation process which the heel likelihood calculation apparatus which concerns on 1st Embodiment performs. 第1の実施の形態に係る瞼尤度演算装置が実行する比較モデル作成処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the process routine of the comparison model creation process which the hail likelihood calculating apparatus which concerns on 1st Embodiment performs. 第1の実施の形態に係る重みを説明するための図である。It is a figure for demonstrating the weight which concerns on 1st Embodiment. 本発明が解決しようとする課題を説明するための図である。It is a figure for demonstrating the subject which this invention tends to solve. 第2の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the processing routine of the wrinkle likelihood calculation process which the wrinkle likelihood calculation apparatus which concerns on 2nd Embodiment performs. 第2の実施の形態に係る重みを説明するための図である。It is a figure for demonstrating the weight which concerns on 2nd Embodiment. 第3の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the processing routine of the wrinkle likelihood calculation process which the wrinkle likelihood calculation apparatus which concerns on 3rd Embodiment performs. 第3の実施の形態に係る重みを説明するための図である。It is a figure for demonstrating the weight which concerns on 3rd Embodiment. 第4の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the process routine of the heel likelihood calculation process which the heel likelihood calculation apparatus which concerns on 4th Embodiment performs. 第4の実施の形態に係る瞼尤度演算装置が実行する目領域コントラスト演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the process routine of the eye area | region contrast calculation process which the eyelid likelihood calculating apparatus which concerns on 4th Embodiment performs. 目領域コントラスト演算処理について説明するための図である。It is a figure for demonstrating eye area contrast calculation processing. 第4の実施の形態に係る重みを説明するための図である。It is a figure for demonstrating the weight which concerns on 4th Embodiment. 第5の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the processing routine of the wrinkle likelihood calculation process which the wrinkle likelihood calculation apparatus which concerns on 5th Embodiment performs. 第5の実施の形態に係る瞼尤度演算装置が実行する目領域エッジ強度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the process routine of the eye area | region edge intensity | strength calculation process which the eyelid likelihood calculating apparatus which concerns on 5th Embodiment performs. 目領域エッジ強度演算処理について説明するための図である。It is a figure for demonstrating eye area | region edge intensity | strength calculation processing. 第5の実施の形態に係る重みを説明するための図である。It is a figure for demonstrating the weight which concerns on 5th Embodiment. 第6の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the process routine of the heel likelihood calculation process which the heel likelihood calculating apparatus which concerns on 6th Embodiment performs. 第6の実施の形態に係る重みを説明するための図である。It is a figure for demonstrating the weight which concerns on 6th Embodiment. 重み係数の値と、瞼開度誤差平均との関係を示す図である。It is a figure which shows the relationship between the value of a weighting coefficient, and the eyelid opening degree error average. 第8の実施の形態及び第9の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the processing routine of the wrinkle likelihood calculation process which the wrinkle likelihood calculation apparatus which concerns on 8th Embodiment and 9th Embodiment performs. 第9の実施の形態に係る瞼尤度演算装置が実行する瞼開度決定処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the processing routine of the wrinkle opening degree determination process which the wrinkle likelihood calculating apparatus which concerns on 9th Embodiment performs. カメラの撮影対象である人物が眼鏡をかけている場合に、この眼鏡のレンズによって光が反射されて、撮影した人物の画像の目領域の部分の画像の輝度が高くなることにより、正確に瞼の瞼尤度が演算できないことを説明するための図である。When a person to be photographed by the camera wears glasses, light is reflected by the lens of the glasses, and the brightness of the image of the eye area portion of the photographed person's image is increased, so It is a figure for demonstrating that the likelihood of 瞼 cannot be calculated. 第10の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the processing routine of the wrinkle likelihood calculation process which the wrinkle likelihood calculation apparatus which concerns on 10th Embodiment performs. 第10の実施の形態に係る瞼尤度演算装置が実行する高輝度画素領域面積比演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the process routine of the high-intensity pixel area area ratio calculation process which the haze likelihood calculating apparatus which concerns on 10th Embodiment performs. 高輝度画素領域面積比演算処理を説明するための図である。It is a figure for demonstrating a high-intensity pixel area area ratio calculation process. 第11の実施の形態に係る瞼尤度演算装置が実行する瞼尤度演算処理の処理ルーチンのフローチャートを示す図である。It is a figure which shows the flowchart of the process routine of the heel likelihood calculation process which the heel likelihood calculation apparatus which concerns on 11th Embodiment performs.

符号の説明Explanation of symbols

10 瞼尤度演算装置
12 カメラ
14 表示装置
14 コンピュータ
14c HDD
14d CPU
10 瞼 Likelihood Calculation Device 12 Camera 14 Display Device 14 Computer 14c HDD
14d CPU

Claims (14)

顔の画像を含む画像を撮影して画像データを出力する撮影手段と、
前記画像データに基づいて、前記顔の顔向き角度を検出する検出手段と、
複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、
前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、
前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第1の演算手段と、
前記検出手段によって検出された顔向き角度に応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である前記右の比較瞼モデル及び前記左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの前記右の瞼尤度に重み付けた値と、前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの前記左の瞼尤度に重み付けた値との和を該組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算する第2の演算手段と、
前記第2の演算手段によって複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算する第3の演算手段と、
を含む瞼尤度演算装置。
Photographing means for photographing an image including a face image and outputting image data;
Detecting means for detecting a face orientation angle of the face based on the image data;
A starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left in which the shapes of the left upper eyelid and the left lower eyelid are defined by a plurality of second model parameters Storage means for storing the heel model;
Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison models,
The degree to which the shapes of the right upper eyelid and right lower eyelid represented by the right comparative eyelid model match the shapes of the right upper eyelid and right lower eyelid of the image photographed by the photographing means. The left heel likelihood and the left lower heel shape represented by the left comparative heel model and the left upper heel shape and the left lower heel shape of the image coincide with each other. First computing means for computing a left heel likelihood indicating a degree;
A starboard including a right upper eyelid and a right upper eyelid and a left upper eyelid and a left lower eyelid of the image photographed by the photographing means according to the face orientation angle detected by the detecting means. Left and right, the size corresponding to the heel likelihood of the heel farther to the position where the image was taken by the photographing means is smaller than the size corresponding to the heel likelihood of the closer heel The weight corresponding to the right eyelid among the weights corresponding to each of the eyelids of the right, the right comparison eyelid model in the combination of the right comparison eyelid model and the left comparison eyelid model having the same eyelid opening degree Of the weight corresponding to the left eyelid likelihood and the value corresponding to the left eyelid likelihood of the left comparative eyelid model among the weights corresponding to the left and right eyelids. For each combination as the left and right heel likelihood in the combination. A second computing means for computing,
Third computing means for computing the largest right and left eyelid likelihood as the overall eyelid likelihood among the left and right eyelid likelihoods for each combination calculated by the second computing means;
瞼 Likelihood calculation device.
顔の画像を含む画像を撮影して画像データを出力する撮影手段と、
前記画像データに基づいて、前記顔の右目までの距離及び左目までの距離、前記顔の右耳までの距離及び左耳までの距離、または前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する検出手段と、
複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、
前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、
前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第1の演算手段と、
前記検出手段によって検出された前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、または前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離に応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である前記右の比較瞼モデル及び前記左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの前記右の瞼尤度に重み付けた値と、前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの前記左の瞼尤度に重み付けた値との和を該組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算する第2の演算手段と、
前記第2の演算手段によって複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算する第3の演算手段と、
を含む瞼尤度演算装置。
Photographing means for photographing an image including a face image and outputting image data;
Based on the image data, the distance to the right eye and the left eye of the face, the distance to the right ear of the face and the distance to the left ear, or the distance from the right eye to the right eye and the right eye Detection means for detecting a distance from the left eye to the left eye;
A starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left in which the shapes of the left upper eyelid and the left lower eyelid are defined by a plurality of second model parameters Storage means for storing the heel model;
Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison models,
The degree to which the shapes of the right upper eyelid and right lower eyelid represented by the right comparative eyelid model match the shapes of the right upper eyelid and right lower eyelid of the image photographed by the photographing means. The left heel likelihood and the left lower heel shape represented by the left comparative heel model and the left upper heel shape and the left lower heel shape of the image coincide with each other. First computing means for computing a left heel likelihood indicating a degree;
The distance to the right eye and the distance to the left eye detected by the detection means, the distance to the right ear and the distance to the left ear, or the distance from the right eye to the right eye and the left eye According to the distance from the top of the eye to the center of the left eye, the starboard including the right upper eyelid and the right lower eyelid and the left upper eyelid and the left lower eyelid of the image photographed by the photographing means Of the left and right sides, the size corresponding to the heel likelihood of the farther heel is smaller than the size corresponding to the heel likelihood of the closer heel Among the weights corresponding to each of the heels, the weight corresponding to the right heel is set to the right comparison heel model in the combination of the right comparison heel model and the left comparison heel model having the same heel opening.値 Likelihood weighted value and previous Of the weights corresponding to the left and right eyelids, the weight corresponding to the left eyelid is combined with the value obtained by weighting the left eyelid likelihood of the left comparison eyelid model as the left and right eyelid likelihood in the combination. A second computing means for performing a plurality of computations for each;
Third computing means for computing the largest right and left eyelid likelihood as the overall eyelid likelihood among the left and right eyelid likelihoods for each combination calculated by the second computing means;
瞼 Likelihood calculation device.
顔の画像を含む画像を撮影して画像データを出力する撮影手段と、
前記画像データに基づいて、前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラスト、または前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第1の演算手段と、
複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、
前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、
前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第2の演算手段と、
前記第1の演算手段によって演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、または前記右目領域のエッジ強度及び前記左目領域のエッジ強度に応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち、コントラストまたはエッジ強度が小さいほうの瞼の瞼尤度に対応する大きさが、コントラストまたはエッジ強度が大きいほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である前記右の比較瞼モデル及び前記左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの前記右の瞼尤度に重み付けた値と、前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの前記左の瞼尤度に重み付けた値との和を該組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算する第3の演算手段と、
前記第3の演算手段によって複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算する第4の演算手段と、
を含む瞼尤度演算装置。
Photographing means for photographing an image including a face image and outputting image data;
Based on the image data, the contrast of the right eye region of the facial image and the contrast of the left eye region of the facial image, or the edge strength of the right eye region of the facial image and the edge strength of the left eye region of the facial image. First computing means for computing;
A starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left in which the shapes of the left upper eyelid and the left lower eyelid are defined by a plurality of second model parameters Storage means for storing the heel model;
Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison models,
The degree to which the shapes of the right upper eyelid and right lower eyelid represented by the right comparative eyelid model match the shapes of the right upper eyelid and right lower eyelid of the image photographed by the photographing means. The left heel likelihood and the left lower heel shape represented by the left comparative heel model and the left upper heel shape and the left lower heel shape of the image coincide with each other. Second computing means for computing the left heel likelihood indicating the degree;
Depending on the contrast of the right eye region and the contrast of the left eye region calculated by the first calculating unit, or the edge strength of the right eye region and the edge strength of the left eye region, the right of the image photographed by the photographing unit The size corresponding to the likelihood of the heel with the smaller contrast or edge strength of the left heel and the left heel including the upper heel and the lower heel Or, the weight corresponding to the right eyelid among the weights corresponding to each of the left and right eyelids is set to be smaller than the size corresponding to the eyelid likelihood of the eyelid with the larger edge strength, and the eyelid opening degree is the same. A value weighted to the right heel likelihood of the right comparative heel model in a combination of the right comparative heel model and the left comparative heel model, and a weight corresponding to each of the left and right heel models The weights corresponding to the eyelid, and a third calculating means for a plurality calculating the sum of the value the was weighted to the left of the eyelid likelihood comparison eyelid model left for each combination as an eyelid likelihood of the right and left in the combination,
A fourth computing means for computing the largest left and right heel likelihood as the overall heel likelihood among the left and right heel likelihoods for each combination calculated by the third computing means;
瞼 Likelihood calculation device.
顔の画像を含む画像を撮影して画像データを出力する撮影手段と、
前記画像データに基づいて前記顔の顔向き角度を検出する第1の検出手段、前記画像データに基づいて前記顔の右目までの距離及び左目までの距離を検出する第2の検出手段、前記画像データに基づいて前記顔の右耳までの距離及び左耳までの距離を検出する第3の検出手段、前記画像データに基づいて前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する第4の検出手段、前記画像データに基づいて前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラストを演算する第1の演算手段、並びに前記画像データに基づいて前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第2の演算手段の少なくとも1つの手段を備えた処理手段と、
複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、
前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、
前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第3の演算手段と、
検出された顔向き角度、前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離、演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、並びに前記右目領域のエッジ強度及び前記左目領域のエッジ強度の少なくとも1つに応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを、瞼開度が同一である前記右の比較瞼モデル及び前記左の比較瞼モデルの組み合わせにおける右の比較瞼モデルの前記右の瞼尤度に重み付けた値と、前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを、左の比較瞼モデルの前記左の瞼尤度に重み付けた値との和を該組み合わせにおける左右の瞼尤度として組み合わせ毎に複数演算する第4の演算手段と、
前記第4の演算手段によって複数演算された組み合わせ毎の左右の瞼尤度のうち、最も大きい左右の瞼尤度を全体の瞼尤度として演算する第5の演算手段と、
を含む瞼尤度演算装置。
Photographing means for photographing an image including a face image and outputting image data;
First detection means for detecting a face orientation angle of the face based on the image data; second detection means for detecting a distance to the right eye and a distance to the left eye of the face based on the image data; Third detection means for detecting the distance to the right ear and the left ear of the face based on the data; the distance from the right eye to the right eye based on the image data; and the left eye Fourth detection means for detecting a distance from the eye to the eye of the left eye, and first calculation means for calculating the contrast of the right eye region of the face image and the contrast of the left eye region of the face image based on the image data , And at least one means for calculating the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image based on the image data. And processing means,
A starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left in which the shapes of the left upper eyelid and the left lower eyelid are defined by a plurality of second model parameters Storage means for storing the heel model;
Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison models,
The degree to which the shapes of the right upper eyelid and right lower eyelid represented by the right comparative eyelid model match the shapes of the right upper eyelid and right lower eyelid of the image photographed by the photographing means. The left heel likelihood and the left lower heel shape represented by the left comparative heel model and the left upper heel shape and the left lower heel shape of the image coincide with each other. Third computing means for computing the left heel likelihood indicating the degree;
The detected face orientation angle, the distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear, the distance from the right eye to the right eye, and the left eye Depending on at least one of the distance from the left eye to the center of the left eye, the calculated contrast of the right eye region and the contrast of the left eye region, and the edge strength of the right eye region and the edge strength of the left eye region. Of the captured image, the right farther including the right upper arm and the right lower arm, and the left upper arm and the left corridor including the left lower arm, the farther farther from the position where the image was captured by the imaging means. The weight corresponding to the right eyelid among the weights corresponding to the left and right eyelids is determined such that the size corresponding to the eyelid likelihood of the near eyelid is smaller than the magnitude corresponding to the eyelid likelihood of the near eyelid. , Cleavage A value weighted to the right heel likelihood of the right comparison heel model in the combination of the right comparison heel model and the left comparison heel model, and the weights corresponding to each of the left and right heels A fourth computing means for performing a plurality of computations for each combination as a right and left eyelid likelihood in the combination of a weight corresponding to the left eyelid and a value obtained by weighting the left eyelid likelihood of the left comparative eyelid model ,
A fifth computing means for computing the largest left and right eyelid likelihood as the overall eyelid likelihood among the left and right eyelid likelihoods for each combination calculated by the fourth computing means;
瞼 Likelihood calculation device.
顔の画像を含む画像を撮影して画像データを出力する撮影手段と、
前記画像データに基づいて前記顔の顔向き角度を検出する第1の検出手段、前記画像データに基づいて前記顔の右目までの距離及び左目までの距離を検出する第2の検出手段、前記画像データに基づいて前記顔の右耳までの距離及び左耳までの距離を検出する第3の検出手段、前記画像データに基づいて前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する第4の検出手段、前記画像データに基づいて前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラストを演算する第1の演算手段、並びに前記画像データに基づいて前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第2の演算手段の少なくとも1つの手段を備えた処理手段と、
複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、
前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、
前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度、及び前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第3の演算手段と、
検出された顔向き角度、前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離、演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、並びに前記右目領域のエッジ強度及び前記左目領域のエッジ強度の少なくとも1つに応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち右の瞼に対応する重みを前記第3の演算手段によって演算された最大の前記右の瞼尤度に重み付けた値、及び前記左右の瞼の各々に対応する重みのうち左の瞼に対応する重みを前記第3の演算手段によって演算された最大の前記左の瞼尤度に重み付けた値のうち大きい方の値を選択する選択手段と、
前記選択手段によって選択された値を、該選択された方の瞼の瞼尤度として演算する第4の演算手段と、
を含む瞼尤度演算装置。
Photographing means for photographing an image including a face image and outputting image data;
First detection means for detecting a face orientation angle of the face based on the image data; second detection means for detecting a distance to the right eye and a distance to the left eye of the face based on the image data; Third detection means for detecting the distance to the right ear and the left ear of the face based on the data; the distance from the right eye to the right eye based on the image data; and the left eye Fourth detection means for detecting a distance from the eye to the eye of the left eye, and first calculation means for calculating the contrast of the right eye region of the face image and the contrast of the left eye region of the face image based on the image data , And at least one means for calculating the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image based on the image data. And processing means,
A starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left in which the shapes of the left upper eyelid and the left lower eyelid are defined by a plurality of second model parameters Storage means for storing the heel model;
Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison models,
The degree to which the shapes of the right upper eyelid and right lower eyelid represented by the right comparative eyelid model match the shapes of the right upper eyelid and right lower eyelid of the image photographed by the photographing means. The left heel likelihood and the left lower heel shape represented by the left comparative heel model and the left upper heel shape and the left lower heel shape of the image coincide with each other. Third computing means for computing the left heel likelihood indicating the degree;
The detected face orientation angle, the distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear, the distance from the right eye to the right eye, and the left eye Depending on at least one of the distance from the left eye to the center of the left eye, the calculated contrast of the right eye region and the contrast of the left eye region, and the edge strength of the right eye region and the edge strength of the left eye region. Of the captured image, the right farther including the right upper arm and the right lower arm, and the left upper arm and the left corridor including the left lower arm, the farther farther from the position where the image was captured by the imaging means. The weight corresponding to the right eyelid among the weights corresponding to the left and right eyelids is determined such that the size corresponding to the eyelid likelihood of the near eyelid is smaller than the magnitude corresponding to the eyelid likelihood of the near eyelid. Said The third computing means computes a value weighted to the maximum right likelihood of the right computed by the computing means and a weight corresponding to the left heel among the weights corresponding to each of the left and right heels. Selecting means for selecting the larger value among the values weighted to the maximum likelihood of the left heel,
Fourth calculating means for calculating the value selected by the selecting means as the likelihood of the selected eyelid;
瞼 Likelihood calculation device.
前記右の瞼に対応する重みを前記最大の前記右の瞼尤度に重み付けた値、及び前記左の瞼に対応する重みを前記最大の前記左の瞼尤度に重み付けた値が共に所定の基準値以上である場合に、該最大の右の瞼尤度の右の比較瞼モデルが表す右瞼の瞼開度及び該最大の左の瞼尤度の左の比較瞼モデルが表す左瞼の瞼開度を検出し、検出された右瞼の瞼開度及び左瞼の瞼開度の比率を演算する第5の演算手段と、
前記第4の演算手段によって演算された瞼尤度の比較瞼モデルが表す瞼の瞼開度を検出すると共に、該検出された瞼開度及び前記比率に基づいて、瞼開度が検出されていない方の瞼の瞼開度を演算することにより、瞼尤度が低い方の瞼の瞼開度を検出する第5の検出手段と、
を更に含む請求項5記載の瞼尤度演算装置。
A value obtained by weighting the weight corresponding to the right heel to the maximum right heel likelihood and a value weighting the weight corresponding to the left heel to the maximum left heel likelihood are both predetermined. If it is greater than or equal to a reference value, the right eyelid opening degree represented by the right comparison eyelid model of the maximum right eyelid likelihood and the left eyelid likelihood model represented by the left eyelid likelihood model represented by the maximum left eyelid likelihood A fifth computing means for detecting a saddle opening and calculating a ratio between the detected starboard saddle opening and the left saddle saddle opening;
The heel opening degree of the heel represented by the comparative heel model of the heel likelihood calculated by the fourth computing means is detected, and the heel opening degree is detected based on the detected heel opening degree and the ratio. A fifth detecting means for detecting the eyelid opening degree of the eyelid having the lower eyelid likelihood by calculating the eyelid opening degree of the eyelid not having one;
The heel likelihood calculating apparatus according to claim 5, further comprising:
顔の画像を含む画像を撮影して画像データを出力する撮影手段と、
前記画像データに基づいて前記顔の顔向き角度を検出する第1の検出手段、前記画像データに基づいて前記顔の右目までの距離及び左目までの距離を検出する第2の検出手段、前記画像データに基づいて前記顔の右耳までの距離及び左耳までの距離を検出する第3の検出手段、前記画像データに基づいて前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する第4の検出手段、前記画像データに基づいて前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラストを演算する第1の演算手段、並びに前記画像データに基づいて前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第2の演算手段の少なくとも1つの手段を備えた処理手段と、
複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、
前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、
前記画像データに基づいて、前記顔の画像に含まれる右目の目領域の画像である右目領域画像の画素数に対する所定の輝度以上の画素数の割合である第1の割合、及び前記顔の画像に含まれる左目の目領域の画像である左目領域画像の画素数に対する所定の輝度以上の画素数の割合である第2の割合を演算する第3の演算手段と、
前記第3の演算手段によって演算された前記第1の割合が所定値以下の場合にのみ前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度を演算すると共に、前記第3の演算手段によって演算された前記第2の割合が所定値以下の場合にのみ前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算する第4の演算手段と、
検出された顔向き角度、前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離、演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、並びに前記右目領域のエッジ強度及び前記左目領域のエッジ強度の少なくとも1つに応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち、前記第1の割合が所定値以下でありかつ前記第2の割合が所定値以下である場合には、右の瞼に対応する重みを前記第4の演算手段によって演算された最大の前記右の瞼尤度に重み付けた値、及び前記左右の瞼の各々に対応する重みのうち、左の瞼に対応する重みを前記第4の演算手段によって演算された最大の前記左の瞼尤度に重み付けた値のうち大きいほうの値を選択すると共に、前記第1の割合及び前記第2の割合の一方の割合のみが所定値以下である場合には、前記第4の演算手段によって演算された前記第1の割合または前記第2の割合が所定値以下となる方の瞼の最大の瞼尤度に、該瞼に対応する重みを重み付けた値を選択する選択手段と、
前記選択手段によって選択された値を、該選択された方の瞼の瞼尤度として演算する第5の演算手段と、
を含む瞼尤度演算装置。
Photographing means for photographing an image including a face image and outputting image data;
First detection means for detecting a face orientation angle of the face based on the image data; second detection means for detecting a distance to the right eye and a distance to the left eye of the face based on the image data; Third detection means for detecting the distance to the right ear and the left ear of the face based on the data; the distance from the right eye to the right eye based on the image data; and the left eye Fourth detection means for detecting a distance from the eye to the eye of the left eye, and first calculation means for calculating the contrast of the right eye region of the face image and the contrast of the left eye region of the face image based on the image data , And at least one means for calculating the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image based on the image data. And processing means,
A starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left in which the shapes of the left upper eyelid and the left lower eyelid are defined by a plurality of second model parameters Storage means for storing the heel model;
Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison models,
Based on the image data, a first ratio that is a ratio of the number of pixels equal to or higher than a predetermined luminance to the number of pixels of a right-eye area image that is an image of a right-eye area included in the face image, and the face image Third calculating means for calculating a second ratio that is a ratio of the number of pixels equal to or higher than a predetermined luminance to the number of pixels of the left eye area image that is an image of the left eye eye area included in
Only when the first ratio calculated by the third calculating means is less than or equal to a predetermined value, the shapes of the right upper eyelid and the right lower eyelid represented by the right comparative eyelid model and the photographing means The right eyelid likelihood indicating the degree to which the shapes of the right upper eyelid and the right lower eyelid of the captured image coincide with each other is calculated, and the second ratio calculated by the third calculating means is The degree to which the shapes of the left upper eyelid and left lower eyelid represented by the left comparative eyelid model only match the shapes of the left upper eyelid and left lower eyelid of the image only when they are equal to or less than a predetermined value A fourth computing means for computing the left heel likelihood indicating
The detected face orientation angle, the distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear, the distance from the right eye to the right eye, and the left eye Depending on at least one of the distance from the left eye to the center of the left eye, the calculated contrast of the right eye region and the contrast of the left eye region, and the edge strength of the right eye region and the edge strength of the left eye region. Of the captured image, the right farther including the right upper arm and the right lower arm, and the left upper arm and the left corridor including the left lower arm, the farther farther from the position where the image was captured by the imaging means. The weight corresponding to each of the left and right wings is determined so that the size corresponding to the heel likelihood of the near heel is smaller than the size corresponding to the heel likelihood of the near heel, and the first ratio is predetermined. Below value And if the second ratio is less than or equal to a predetermined value, the weight corresponding to the right heel is weighted to the maximum right heel likelihood computed by the fourth computing means, and Of the weights corresponding to the left and right eyelids, the larger one of the values obtained by weighting the weight corresponding to the left eyelid to the maximum left eyelid likelihood calculated by the fourth arithmetic means is selected. In addition, when only one of the first ratio and the second ratio is less than or equal to a predetermined value, the first ratio or the second ratio calculated by the fourth calculation means Selection means for selecting a value obtained by weighting the maximum heel likelihood of the cocoon having a value equal to or less than a predetermined value with a weight corresponding to the cocoon;
Fifth calculating means for calculating the value selected by the selecting means as the likelihood of the selected eyelid;
瞼 Likelihood calculation device.
顔の画像を含む画像を撮影して画像データを出力する撮影手段と、
前記画像データに基づいて前記顔の顔向き角度を検出する第1の検出手段、前記画像データに基づいて前記顔の右目までの距離及び左目までの距離を検出する第2の検出手段、前記画像データに基づいて前記顔の右耳までの距離及び左耳までの距離を検出する第3の検出手段、前記画像データに基づいて前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離を検出する第4の検出手段、前記画像データに基づいて前記顔の画像の右目領域のコントラスト及び前記顔の画像の左目領域のコントラストを演算する第1の演算手段、並びに前記画像データに基づいて前記顔の画像の右目領域のエッジ強度及び前記顔の画像の左目領域のエッジ強度を演算する第2の演算手段の少なくとも1つの手段を備えた処理手段と、
複数の第1のモデルパラメータによって右の上瞼及び右の下瞼の形状を定めた右瞼モデル、及び複数の第2のモデルパラメータによって左の上瞼及び左の下瞼の形状を定めた左瞼モデルを記憶した記憶手段と、
前記第1のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の右の比較瞼モデルを作成すると共に、前記第2のモデルパラメータの少なくとも1つのモデルパラメータを複数回変更することによって複数の左の比較瞼モデルを作成する作成手段と、
前記画像データに基づいて、前記顔の画像に含まれる右目の目領域の画像である右目領域画像の画素数に対する所定の輝度以上の画素数の割合である第1の割合、及び前記顔の画像に含まれる左目の目領域の画像である左目領域画像の画素数に対する所定の輝度以上の画素数の割合である第2の割合を演算する第3の演算手段と、
前記第3の演算手段によって演算された前記第1の割合が所定値以下の場合に前記右の比較瞼モデルによって表される右の上瞼及び右の下瞼の各形状と前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼の各形状とが一致する度合いを示す右の瞼尤度を演算すると共に前記第1の割合が所定値より大きい場合に、所定の第1の値を右の瞼尤度とすることにより該右の瞼尤度を演算し、かつ前記第3の演算手段によって演算された前記第2の割合が所定値以下の場合に前記左の比較瞼モデルによって表される左の上瞼及び左の下瞼の各形状と該画像の左の上瞼及び左の下瞼の各形状とが一致する度合いを示す左の瞼尤度を演算すると共に前記第2の割合が所定値より大きい場合に、所定の第1の値を左の瞼尤度とすることにより該左の瞼尤度を演算する第4の演算手段と、
検出された顔向き角度、前記右目までの距離及び前記左目までの距離、前記右耳までの距離及び前記左耳までの距離、前記右目の目頭から該右目の目じりまでの距離及び前記左目の目頭から該左目の目じりまでの距離、演算された前記右目領域のコントラスト及び前記左目領域のコントラスト、並びに前記右目領域のエッジ強度及び前記左目領域のエッジ強度の少なくとも1つに応じて、前記撮影手段によって撮影された画像の右の上瞼及び右の下瞼を含む右瞼及び左の上瞼及び左の下瞼を含む左瞼のうち前記撮影手段によって前記画像が撮影された位置に遠いほうの瞼の瞼尤度に対応する大きさが、近いほうの瞼の瞼尤度に対応する大きさより小さくなるように定めた、左右の瞼の各々に対応する重みのうち、右の瞼に対応する重みを前記第4の演算手段によって演算された最大の前記右の瞼尤度に重み付けた値、及び前記左右の瞼の各々に対応する重みのうち、左の瞼に対応する重みを前記第4の演算手段によって演算された最大の前記左の瞼尤度に重み付けた値のうち大きいほうの値を選択する選択手段と、
前記選択手段によって選択された値を、該選択された方の瞼の瞼尤度として演算する第5の演算手段と、
を含む瞼尤度演算装置。
Photographing means for photographing an image including a face image and outputting image data;
First detection means for detecting a face orientation angle of the face based on the image data; second detection means for detecting a distance to the right eye and a distance to the left eye of the face based on the image data; Third detection means for detecting the distance to the right ear and the left ear of the face based on the data; the distance from the right eye to the right eye based on the image data; and the left eye Fourth detection means for detecting a distance from the eye to the eye of the left eye, and first calculation means for calculating the contrast of the right eye region of the face image and the contrast of the left eye region of the face image based on the image data , And at least one means for calculating the edge strength of the right eye region of the face image and the edge strength of the left eye region of the face image based on the image data. And processing means,
A starboard model in which the shapes of the right upper eyelid and the right lower eyelid are defined by a plurality of first model parameters, and a left in which the shapes of the left upper eyelid and the left lower eyelid are defined by a plurality of second model parameters Storage means for storing the heel model;
Creating a plurality of right comparison models by changing at least one model parameter of the first model parameter a plurality of times, and changing at least one model parameter of the second model parameter a plurality of times Creating means for creating a plurality of left comparison models,
Based on the image data, a first ratio that is a ratio of the number of pixels equal to or higher than a predetermined luminance to the number of pixels of a right-eye area image that is an image of a right-eye area included in the face image, and the face image Third calculating means for calculating a second ratio that is a ratio of the number of pixels equal to or higher than a predetermined luminance to the number of pixels of the left eye area image that is an image of the left eye eye area included in
When the first ratio calculated by the third calculating means is less than or equal to a predetermined value, the shape of the right upper eyelid and the right lower eyelet represented by the right comparative eyelid model and the image taking means A right heel likelihood indicating a degree of matching between the shape of the right upper eyelid and the right lower eyelid of the obtained image, and when the first ratio is greater than a predetermined value, a predetermined first When the right heel likelihood is calculated by setting the value as the right heel likelihood and the second ratio calculated by the third calculation means is equal to or less than a predetermined value, the left comparative heel model The left upper eyelid and left lower eyelid shapes represented by the left upper eyelid and left lower eyelid shapes represented by When the ratio of 2 is greater than a predetermined value, the left first A fourth calculating means for calculating a Mabutayudo,
The detected face orientation angle, the distance to the right eye and the distance to the left eye, the distance to the right ear and the distance to the left ear, the distance from the right eye to the right eye, and the left eye Depending on at least one of the distance from the left eye to the center of the left eye, the calculated contrast of the right eye region and the contrast of the left eye region, and the edge strength of the right eye region and the edge strength of the left eye region. Of the captured image, the right farther including the right upper arm and the right lower arm, and the left upper arm and the left corridor including the left lower arm, the farther farther from the position where the image was captured by the imaging means. The weight corresponding to the right eyelid among the weights corresponding to the left and right eyelids, so that the size corresponding to the eyelid likelihood of the near eyelid is smaller than the size corresponding to the eyelid likelihood of the near eyelid The above Among the weights corresponding to each of the left and right eyelids, the weight corresponding to the left eyelid among the values weighted to the maximum right eyelid likelihood computed by the operation means 4 and the fourth computing means. A selection means for selecting a larger value among the weighted values of the calculated maximum left likelihood of the left,
Fifth calculating means for calculating the value selected by the selecting means as the likelihood of the selected eyelid;
瞼 Likelihood calculation device.
コンピュータを、請求項1または請求項2記載の瞼尤度演算装置における前記検出手段、前記作成手段、前記第1の演算手段、前記第2の演算手段、及び前記第3の演算手段として機能させるためのプログラム。   A computer is caused to function as the detection means, the creation means, the first calculation means, the second calculation means, and the third calculation means in the heel likelihood calculation device according to claim 1 or 2. Program for. コンピュータを、請求項3記載の瞼尤度演算装置における前記第1の演算手段、前記作成手段、前記第2の演算手段、前記第3の演算手段、及び前記第4の演算手段として機能させるためのプログラム。   A computer is caused to function as the first calculation means, the creation means, the second calculation means, the third calculation means, and the fourth calculation means in the heel likelihood calculation device according to claim 3. Program. コンピュータを、請求項4記載の瞼尤度演算装置における前記処理手段、前記作成手段、前記第3の演算手段、前記第4の演算手段、及び前記第5の演算手段として機能させるためのプログラム。   A program for causing a computer to function as the processing means, the creation means, the third calculation means, the fourth calculation means, and the fifth calculation means in the heel likelihood calculation device according to claim 4. コンピュータを、請求項5記載の瞼尤度演算装置における前記処理手段、前記作成手段、前記第3の演算手段、前記選択手段、及び前記第4の演算手段として機能させるためのプログラム。   A program for causing a computer to function as the processing means, the creation means, the third calculation means, the selection means, and the fourth calculation means in the heel likelihood calculation device according to claim 5. コンピュータを、請求項6記載の瞼尤度演算装置における前記第5の演算手段、及び前記第5の検出手段として更に機能させるための請求項11記載のプログラム。   The program according to claim 11 for causing a computer to further function as the fifth calculation means and the fifth detection means in the heel likelihood calculation device according to claim 6. コンピュータを、請求項7または請求項8記載の瞼尤度演算装置における前記処理手段、前記作成手段、前記第3の演算手段、前記第4の演算手段、前記選択手段、及び前記第5の演算手段として機能させるためのプログラム。   9. The computer according to claim 7 or claim 8, wherein said processing means, said creating means, said third computing means, said fourth computing means, said selecting means, and said fifth computation. Program to function as a means.
JP2008260065A 2008-10-06 2008-10-06 瞼 Likelihood calculation device and program Active JP5111321B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008260065A JP5111321B2 (en) 2008-10-06 2008-10-06 瞼 Likelihood calculation device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008260065A JP5111321B2 (en) 2008-10-06 2008-10-06 瞼 Likelihood calculation device and program

Publications (2)

Publication Number Publication Date
JP2010092180A true JP2010092180A (en) 2010-04-22
JP5111321B2 JP5111321B2 (en) 2013-01-09

Family

ID=42254843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008260065A Active JP5111321B2 (en) 2008-10-06 2008-10-06 瞼 Likelihood calculation device and program

Country Status (1)

Country Link
JP (1) JP5111321B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118927A (en) * 2010-12-03 2012-06-21 Fujitsu Ltd Image processing program and image processing device
JP2016207174A (en) * 2015-04-28 2016-12-08 いすゞ自動車株式会社 Vehicle safe driving promotion method and vehicle safe driving promotion device
JP2017111682A (en) * 2015-12-17 2017-06-22 株式会社デンソー Object detection device, object detection method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110501704B (en) * 2019-07-16 2021-05-07 中国科学院电子学研究所 Polarization decomposition method and device for full polarization image and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132693A (en) * 1998-10-27 2000-05-12 Sony Corp Device and method for processing picture, and providing medium
JP2005078311A (en) * 2003-08-29 2005-03-24 Fujitsu Ltd Device for tracing face site, device for deciding status of eyes and computer program
JP2006163871A (en) * 2004-12-08 2006-06-22 Sony Corp Image processor and processing method, and program
JP2007128262A (en) * 2005-11-02 2007-05-24 Omron Corp Face collation device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000132693A (en) * 1998-10-27 2000-05-12 Sony Corp Device and method for processing picture, and providing medium
JP2005078311A (en) * 2003-08-29 2005-03-24 Fujitsu Ltd Device for tracing face site, device for deciding status of eyes and computer program
JP2006163871A (en) * 2004-12-08 2006-06-22 Sony Corp Image processor and processing method, and program
JP2007128262A (en) * 2005-11-02 2007-05-24 Omron Corp Face collation device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012118927A (en) * 2010-12-03 2012-06-21 Fujitsu Ltd Image processing program and image processing device
JP2016207174A (en) * 2015-04-28 2016-12-08 いすゞ自動車株式会社 Vehicle safe driving promotion method and vehicle safe driving promotion device
JP2017111682A (en) * 2015-12-17 2017-06-22 株式会社デンソー Object detection device, object detection method
US10960877B2 (en) 2015-12-17 2021-03-30 Denso Corporation Object detection device and object detection method

Also Published As

Publication number Publication date
JP5111321B2 (en) 2013-01-09

Similar Documents

Publication Publication Date Title
KR101169533B1 (en) Face posture estimating device, face posture estimating method, and computer readable recording medium recording face posture estimating program
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
US7986813B2 (en) Object pose estimation and comparison system using image sharpness differences, object pose estimation and comparison method using image sharpness differences, and program therefor
US8705868B2 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
JP4445454B2 (en) Face center position detection device, face center position detection method, and program
KR20120138627A (en) A face tracking method and device
US20120120073A1 (en) Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose
JP4699298B2 (en) Human body region extraction method, apparatus, and program
JP2004094491A (en) Face orientation estimation device and method and its program
US8625898B2 (en) Computer-readable storage medium, image recognition apparatus, image recognition system, and image recognition method
JP2007042072A (en) Tracking apparatus
JP4130820B2 (en) Face center position detection apparatus and method, and program
US9256800B2 (en) Target line detection device and method
US20190066311A1 (en) Object tracking
KR20140045873A (en) Apparatus and method for eye tracking
US20120219179A1 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
JP7345664B2 (en) Image processing system and method for landmark position estimation with uncertainty
US8718325B2 (en) Computer-readable storage medium, image processing apparatus, image processing system, and image processing method
JP2006343859A (en) Image processing system and image processing method
CN113850865A (en) Human body posture positioning method and system based on binocular vision and storage medium
JP5111321B2 (en) 瞼 Likelihood calculation device and program
US20130329964A1 (en) Image-processing device and image-processing program
JP6272071B2 (en) Image processing apparatus, image processing method, and program
CN110622210A (en) Method and apparatus for processing 360 degree images
CN110826495A (en) Body left and right limb consistency tracking and distinguishing method and system based on face orientation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120911

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121009

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5111321

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250