JP5359266B2 - Face recognition device, face recognition method, and face recognition program - Google Patents

Face recognition device, face recognition method, and face recognition program Download PDF

Info

Publication number
JP5359266B2
JP5359266B2 JP2008334665A JP2008334665A JP5359266B2 JP 5359266 B2 JP5359266 B2 JP 5359266B2 JP 2008334665 A JP2008334665 A JP 2008334665A JP 2008334665 A JP2008334665 A JP 2008334665A JP 5359266 B2 JP5359266 B2 JP 5359266B2
Authority
JP
Japan
Prior art keywords
area
region
eye
nose
face recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008334665A
Other languages
Japanese (ja)
Other versions
JP2010157073A (en
Inventor
明義 田福
幸三 馬場
寿雄 伊藤
卓 片桐
浄 丹治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2008334665A priority Critical patent/JP5359266B2/en
Publication of JP2010157073A publication Critical patent/JP2010157073A/en
Application granted granted Critical
Publication of JP5359266B2 publication Critical patent/JP5359266B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a face recognition device for improving the precision of face recognition by specifying a shielded face site by detecting the shielded object of the face site. <P>SOLUTION: In the face recognition device 10, a nose region detection means 2 detects a nose region from a pickup image by an image pickup means 100, and a mask wearing determination means 3 determines mask wearing from the luminance value of the pickup image when the nose region is not detected, and a mask region detection means 31 detects a mask region, and an in-mask nose region detection means 32 detects the nose region from the mask region, and a face recognition means 5 detects an eye region from the detected nose region to perform face recognition. Thus, the precision of face recognition is improved by performing face recognition based on the nose region by detecting and using the mask region. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、撮影された画像に基づいて人物の顔を認識する顔認識装置に関して、特に顔部位隠蔽物を検出することにより、顔認識の精度を向上させる顔認識装置に関する。   The present invention relates to a face recognition device that recognizes a person's face based on a photographed image, and more particularly to a face recognition device that improves face recognition accuracy by detecting a facial part concealment.

顔認識装置は、撮影された画像から人物の顔を認識して特定することにより、人物の認証や状況把握ができるため、人物を特定する個人認証装置や顔の位置状況から安全状況を確認する安全確認装置をはじめとする広い分野で利用されている。一般的に、顔認識装置は、顔領域、眼位置、鼻位置、口位置を含む顔部位を各々検出し、当該顔部位の状況から顔向きの判定や眼の開閉判定をはじめとする人物の顔の認識を行っている。しかし、顔認識装置は、顔部位が隠蔽物により隠蔽される場合には、当該隠蔽物により顔部位を誤認識する虞がある。
従来の顔認識装置は、利用者により選択された顔部位の特徴部分を重視して顔認識を行うものがある(例えば、特許文献1参照)。
特開2007−257221号公報
The face recognition device recognizes the person's face from the captured image and identifies it, so that the person can be authenticated and the situation can be ascertained. It is used in a wide range of fields including safety confirmation devices. In general, a face recognition device detects each face part including a face region, an eye position, a nose position, and a mouth position, and determines the face orientation and eye opening / closing judgment from the situation of the face part. Face recognition is performed. However, when the face part is concealed by the concealment object, the face recognition device may erroneously recognize the face part by the concealment object.
Some conventional face recognition apparatuses perform face recognition with emphasis on the characteristic part of the face part selected by the user (see, for example, Patent Document 1).
JP 2007-257221 A

しかし、従来の顔認識装置は、利用者が顔部位の特徴部分を都度選択するために手間がかかるという課題を有する。また、従来の顔認識装置は、隠蔽物を検知した場合であっても、隠蔽された顔部位を利用せずに他の顔部位を利用するために、隠蔽物がある場合には顔認識の精度が低下してしまうという課題を有する。   However, the conventional face recognition device has a problem that it takes time and effort for the user to select the characteristic part of the facial part each time. In addition, even if a conventional face recognition device detects a concealed object, it uses other face parts without using the concealed face part. There is a problem that accuracy is lowered.

本発明は前記課題を解消するためになされたもので、顔部位の隠蔽物を検出することにより隠蔽されている顔部位を特定し、顔認識の精度を向上させる顔認識装置の提供を目的とする。   The present invention has been made to solve the above-described problems, and it is an object of the present invention to provide a face recognition device that identifies a concealed face part by detecting a concealment object of the face part and improves the accuracy of face recognition. To do.

本願に開示する顔認識装置は、一観点によれば、撮像画像から鼻領域を検出し、鼻領域の未検出時には撮像画像の輝度値からマスク着用によるマスク領域を検出してマスク領域から鼻領域を検出し、検出された鼻領域から眼領域を検出して顔認識を行うものである。   According to one aspect, the face recognition device disclosed in the present application detects a nose region from a captured image, and detects a mask region by wearing a mask from a luminance value of the captured image when the nose region is not detected, thereby detecting the nose region from the mask region. , And an eye region is detected from the detected nose region to perform face recognition.

このように、本願に開示する顔認識装置は、マスク領域を検出することによりマスク領域をも利用して鼻領域に基づいて顔認識を行うこととなり、顔認識の精度を向上させることができる。   Thus, the face recognition apparatus disclosed in the present application performs face recognition based on the nose region using the mask region by detecting the mask region, and can improve the accuracy of face recognition.

(本発明の第1の実施形態)
以下、本発明の第1の実施形態に係る顔認識装置を、図1から図13に基づいて説明する。図1は本発明の第1の実施形態に係る顔認識装置の構成を示すブロック図、図2はこの図1に記載された顔認識装置の全体構成図、図3はこの図1に記載された顔認識装置の全体フローチャートを示す。図4はこの図1に記載された顔認識装置の顔領域及び顔部位検出のフローチャート、図5はこの図1に記載された顔認識装置の鼻領域検出のフローチャートを示す。図6はこの図1に記載された顔認識装置の送信データ受信のマスク検出のフローチャート、図7はこの図1に記載された顔認識装置の眼鏡ブリッジ領域検出のフローチャートを示す。図8はこの図1に記載された顔認識装置の眼鏡フレーム領域検出のフローチャート、図9はこの図1に記載された顔認識装置のサングラス領域検出のフローチャート、図10はこの図1に記載された顔認識装置のサングラス領域総合判定のフローチャートを示す。図11はこの図1に記載された顔認識装置の眼領域の位置検出のフローチャート、図12はこの図1に記載された顔認識装置の眼帯領域検出のフローチャート、図13はこの図1に記載された顔認識装置の顔向き検出の説明図を示す。
(First embodiment of the present invention)
Hereinafter, a face recognition device according to a first embodiment of the present invention will be described with reference to FIGS. 1 is a block diagram showing a configuration of a face recognition apparatus according to a first embodiment of the present invention, FIG. 2 is an overall configuration diagram of the face recognition apparatus described in FIG. 1, and FIG. 3 is described in FIG. 2 shows an overall flowchart of the face recognition apparatus. FIG. 4 shows a flowchart of face area and face part detection of the face recognition apparatus shown in FIG. 1, and FIG. 5 shows a flowchart of nose area detection of the face recognition apparatus shown in FIG. FIG. 6 is a flowchart of mask detection for transmission data reception of the face recognition device shown in FIG. 1, and FIG. 7 is a flowchart of eyeglass bridge region detection of the face recognition device shown in FIG. 8 is a flowchart of eyeglass frame region detection of the face recognition device described in FIG. 1, FIG. 9 is a flowchart of sunglasses region detection of the face recognition device described in FIG. 1, and FIG. 10 is described in FIG. 6 shows a flowchart of the sunglasses region comprehensive determination of the face recognition device. 11 is a flowchart for detecting the position of the eye region of the face recognition apparatus shown in FIG. 1, FIG. 12 is a flowchart for detecting the eye patch region of the face recognition device shown in FIG. 1, and FIG. 13 is shown in FIG. Explanatory drawing of the face direction detection of the made face recognition apparatus is shown.

図1において、本実施形態に係る顔認識装置10は、顔領域検出手段1と、鼻領域検出手段2と、マスク着用判断手段3と、マスク領域検出手段31と、マスク内鼻領域検出手段32と、眼領域検出手段4と、顔認識手段5と、顔情報蓄積手段5aとを備える。また、本顔認識装置は、眼鏡フレーム領域検出手段41と、サングラス判断手段42と、眼帯判断手段43と、眼帯領域検出手段44と、顔認識予測手段6と、特徴判断手段7と、警報手段8とを備える。   In FIG. 1, the face recognition device 10 according to the present embodiment includes a face region detection unit 1, a nose region detection unit 2, a mask wearing determination unit 3, a mask region detection unit 31, and an in-mask nose region detection unit 32. And an eye area detecting means 4, a face recognizing means 5, and a face information accumulating means 5a. In addition, the face recognition apparatus includes a spectacle frame region detection unit 41, a sunglasses determination unit 42, an eyepatch determination unit 43, an eyepatch region detection unit 44, a face recognition prediction unit 6, a feature determination unit 7, and an alarm unit. 8.

この顔領域検出手段1は、撮影手段100により撮影された撮像画像から人物の顔の存在領域としての顔領域を検出する。また、この鼻領域検出手段2は、人物の鼻の存在領域としての鼻領域を検出し、この顔情報蓄積手段5aに蓄積記憶する。このマスク着用判断手段3は、この鼻領域検出手段2により鼻領域が検出されなかった場合に、撮像画像100の水平及び垂直方向の輝度値から、人物がマスクを着用しているかを判断する。   The face area detecting means 1 detects a face area as a human face existing area from the captured image taken by the photographing means 100. The nose region detecting means 2 detects a nose region as a human nose existing region, and stores and stores it in the face information accumulating unit 5a. The mask wearing determination unit 3 determines whether a person is wearing a mask from the horizontal and vertical luminance values of the captured image 100 when the nose region detection unit 2 does not detect the nose region.

このマスク領域検出手段31は、このマスク着用判断手段3に基づいて、人物がマスクを着用している場合に、マスクの存在領域としてのマスク領域を検出する。このマスク内鼻領域検出手段32は、マスク領域検出手段により検出されたマスク領域に基づいて、このマスク領域に含まれる鼻領域を特定し、この顔情報蓄積手段5aに蓄積記憶する。   Based on the mask wearing determination means 3, the mask area detecting means 31 detects a mask area as a mask existing area when a person is wearing a mask. The in-mask nose area detecting means 32 specifies the nose area included in the mask area based on the mask area detected by the mask area detecting means, and stores and stores it in the face information accumulating means 5a.

また、この眼領域検出手段4は、この鼻領域検出手段2又はマスク内鼻領域検出手段32により特定された鼻領域に基づいて、人物の眼の存在領域としての眼領域を検出する。また、この顔認識手段5は、この眼領域検出手段4により検出された眼領域の画像情報から眼の開度及び視線方向を認識し、この眼領域及び鼻領域から顔の向きを認識し、この認識した内容をこの顔情報蓄積手段5aに蓄積記憶する。   The eye area detecting means 4 detects an eye area as a human eye existing area based on the nose area specified by the nose area detecting means 2 or the nose area detecting means 32 in the mask. The face recognizing means 5 recognizes the eye opening and the line-of-sight direction from the image information of the eye area detected by the eye area detecting means 4, recognizes the face direction from the eye area and the nose area, The recognized contents are accumulated and stored in the face information accumulating means 5a.

また、この眼鏡フレーム領域検出手段41は、検出された眼領域の画像情報から、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する。また、このサングラス判断手段42は、この眼鏡フレーム検出手段41により検出された眼鏡フレーム領域の輝度分布から、この眼鏡がサングラスかを判断する。   Further, the spectacle frame region detecting means 41 detects a spectacle frame region as an existing region of spectacle frames worn by a person from the image information of the detected eye region. The sunglasses determination means 42 determines whether the glasses are sunglasses from the luminance distribution of the eyeglass frame area detected by the eyeglass frame detection means 41.

また、この眼帯判断手段43は、検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する。また、この眼帯領域検出手段44は、この眼帯判断手段43により眼帯が着用されていると判断された場合には、この眼帯の存在領域としての眼帯領域を検出する。   The eyepatch determination means 43 determines whether a person wears the eyepatch based on the horizontal and vertical luminance values of the image information in the detected eye area. In addition, when the eye patch determination unit 43 determines that the eye patch is worn, the eye patch region detection unit 44 detects the eye patch region as the eye patch existing region.

この顔認識予測手段6は、この蓄積記憶された顔情報蓄積手段5aから、次の時点で認識される顔の状態を予測する。この特徴判断手段7は、この蓄積記憶された顔情報蓄積手段5aから、人物の顔の特徴を判断する。この警報手段8は、この顔認識手段5、この顔認識予測手段6及びこの特徴判断手段7で認識された人物の顔の状態に応じて、現在の人物の状況を推測し、必要時に警報を発生させる。   The face recognition predicting means 6 predicts the state of the face recognized at the next time point from the stored and stored face information storing means 5a. The feature judging means 7 judges the feature of the person's face from the stored and stored face information accumulating means 5a. The alarm means 8 estimates the current person's situation according to the face status of the person recognized by the face recognition means 5, the face recognition prediction means 6 and the feature determination means 7, and issues an alarm when necessary. generate.

本実施形態の全体構成は、図2に示すように、前記顔認識装置10と、自動車200と、この自動車200を運転する運転手300とを備える。また、前記顔認識装置10は、この運転手300の顔300Aを撮影する前記撮影手段100としての車載カメラ100Aと、この運転手300に必要時に警報を発生させる前記警報手段8としての警報装置8Aとを備える。   As shown in FIG. 2, the overall configuration of the present embodiment includes the face recognition device 10, an automobile 200, and a driver 300 that drives the automobile 200. The face recognition device 10 includes an in-vehicle camera 100A as the photographing unit 100 that photographs the face 300A of the driver 300, and an alarm device 8A as the alarm unit 8 that causes the driver 300 to generate an alarm when necessary. With.

以下、前記構成に基づく本実施形態の顔認識装置の動作について説明する。なお、以下、X方向とは顔の水平方向を指し、Y方向とは顔の垂直方向を指すものとする。また、本顔認識装置は、図3に示すように、S1からS9までの処理で生成される画像情報を1つの画像フレームとして、時系列的に画像フレームを順次演算し、前記顔情報蓄積手段5aに蓄積記憶する。   Hereinafter, the operation of the face recognition device of the present embodiment based on the above configuration will be described. Hereinafter, the X direction refers to the horizontal direction of the face, and the Y direction refers to the vertical direction of the face. Further, as shown in FIG. 3, the face recognition apparatus sequentially calculates image frames in time series using the image information generated by the processing from S1 to S9 as one image frame, and the face information storage means Accumulated and stored in 5a.

まず、前記顔認識装置10は、前記車載カメラ100Aにより撮影された画像フレームから、前記運転手300の顔300Aの領域を顔領域として検出する(S2)。
この顔領域の検出に関して、前記顔領域検出手段1は、図4(a)に示すように、まず、この画像フレームの垂直方向に隣接して配列される各画素データの輝度値を順次加算する(S21)。次に、前記顔領域検出手段1は、予め設定された輝度値の閾値を用いて、この順次加算された輝度値の総和がこの閾値よりも大きい場合に、この輝度値を順次加算された範囲の画素データが顔領域に含まれると判断し、顔領域を特定する(S22)。ここで、この顔領域の特定は、顔領域が髪の領域及び背景領域と比較して相対的に明るく撮像される傾向にあることを利用している。
First, the face recognition device 10 detects an area of the face 300A of the driver 300 as a face area from an image frame taken by the in-vehicle camera 100A (S2).
Regarding the detection of the face area, the face area detecting means 1 first sequentially adds the luminance values of the respective pixel data arranged adjacent to each other in the vertical direction of the image frame, as shown in FIG. (S21). Next, the face area detecting means 1 uses a preset threshold value of the brightness value, and when the sum of the sequentially added brightness values is larger than the threshold value, the range in which the brightness values are sequentially added. Is determined to be included in the face area, and the face area is specified (S22). Here, the identification of the face area utilizes the fact that the face area tends to be imaged relatively brightly compared to the hair area and the background area.

前記顔領域検出手段1は、前記S21にて順次加算された輝度値に関して水平方向の変化量を算出し、夫々算出された変化量が大きく変化する位置を、水平方向における顔の輪郭部分と特定し、顔領域を特定する(S23)。ここで、この顔領域の特定は、画像フレームにおける水平方向の輝度値の変化量が、背景の領域と顔領域との境界領域において、他の箇所と比較して相対的に大きく変化する傾向にあることを利用している。   The face area detecting means 1 calculates the amount of change in the horizontal direction with respect to the luminance values sequentially added in S21, and identifies the position where the calculated amount of change greatly changes as the face contour portion in the horizontal direction. Then, the face area is specified (S23). Here, the identification of the face region is such that the amount of change in the luminance value in the horizontal direction in the image frame tends to change relatively greatly in the boundary region between the background region and the face region as compared with other parts. Take advantage of something.

前記顔領域検出手段1は、特定された前記顔300Aに関する顔領域を記憶し、この顔領域の情報を後続の処理に引き継ぐ(S24)。次に、前記顔認識装置10は、図3に示すように、この特定された顔領域から前記顔300Aに含まれる顔部位を検出する(S3)。   The face area detecting means 1 stores the face area related to the specified face 300A, and takes over the information of the face area to subsequent processing (S24). Next, as shown in FIG. 3, the face recognition device 10 detects a face part included in the face 300A from the specified face area (S3).

この顔部位の検出に関して、前記鼻領域検出手段2は、図4(b)に示すように、まず、前記顔300Aに含まれる鼻領域を検出する(S31)。前記鼻領域検出手段2は、図5に示すように、垂直方向に隣接して配列される画素データの輝度値を順次加算する(S311)。前記鼻領域検出手段2は、この順次加算された輝度値における極小値を特定する(S312)。   Regarding the detection of the face part, the nose region detection means 2 first detects the nose region included in the face 300A as shown in FIG. 4B (S31). As shown in FIG. 5, the nose region detecting means 2 sequentially adds luminance values of pixel data arranged adjacent to each other in the vertical direction (S311). The nose region detecting means 2 specifies a minimum value in the sequentially added luminance values (S312).

前記鼻領域検出手段2は、この極小値が複数存在するかを判定する(S313)。前記鼻領域検出手段2は、この極小値が複数存在する場合には、2つの極小値間の水平方向における距離を算出する(S314)。   The nose region detection means 2 determines whether or not there are a plurality of local minimum values (S313). When there are a plurality of local minimum values, the nose region detecting means 2 calculates a horizontal distance between the two local minimum values (S314).

前記領域検出手段2は、この算出された距離が閾値よりも小さいかを判定する(S315)。前記領域検出手段2は、この算出された距離が閾値よりも小さい場合には、この2つの極小値における中央位置を算出する(S316)。前記領域検出手段2は、この算出された中央位置を鼻領域として特定し、前記顔情報蓄積手段5aに記憶する(S317)。   The area detection unit 2 determines whether the calculated distance is smaller than a threshold (S315). When the calculated distance is smaller than the threshold value, the area detecting unit 2 calculates the center position between the two minimum values (S316). The area detecting means 2 identifies the calculated center position as a nose area and stores it in the face information accumulating means 5a (S317).

また、前記鼻領域検出手段2は、前記S313にて前記極小値が複数存在しない場合には、この極小値を鼻領域として特定し、前記顔情報蓄積手段5aに記憶する(S318)。ここで、この鼻領域の特定は、鼻領域が顔領域において相対的に暗く撮像される傾向にあることを利用している。また、前記領域検出手段2は、前記S315にて、この算出された距離が閾値よりも大きい場合には、この鼻領域の検出が不可能であると判断する(S319)。   In addition, when there are not a plurality of the minimum values in S313, the nose region detection unit 2 specifies the minimum value as a nose region and stores it in the face information storage unit 5a (S318). Here, the identification of the nose region utilizes the fact that the nose region tends to be imaged relatively darkly in the face region. Further, if the calculated distance is larger than the threshold value in S315, the area detecting unit 2 determines that the nose area cannot be detected (S319).

次に、前記顔領域検出手段1は、前期S31の鼻領域の検出位置の下方に口存在領域を設定し、その領域の中で垂直エッジの水平方向への連続性から口領域を検出する(S32)。次に、前記顔領域検出手段1は、例えば、画像データにおける水平方向の画素値(輝度値)の和に基づいて眼Y位置を特定する技術を用いる。この技術は、例えば本願出願人により出願された特開2004−234367号公報に記載されており、これらの技術を用いることで眼Y位置を正確に検出することができる(S33)。ここで、この眼Y位置とは、垂直方向における前記運転手300の眼の位置を示す。   Next, the face area detection means 1 sets a mouth presence area below the detection position of the nose area in the previous period S31, and detects the mouth area from the continuity in the horizontal direction of the vertical edge in the area ( S32). Next, the face area detecting means 1 uses a technique for specifying the eye Y position based on, for example, the sum of horizontal pixel values (luminance values) in the image data. This technique is described in, for example, Japanese Patent Application Laid-Open No. 2004-234367 filed by the applicant of the present application, and the eye Y position can be accurately detected by using these techniques (S33). Here, the eye Y position indicates the position of the eye of the driver 300 in the vertical direction.

次に、前記顔領域検出手段1は、前記鼻領域又は口領域が検出できたかを判断する(S34)。前記マスク着用判断手段3は、この判断により前記鼻領域又は口領域が検出できなかった場合には、マスク検出を行う(S35)。   Next, the face area detection means 1 determines whether the nose area or mouth area has been detected (S34). The mask wearing determination means 3 performs mask detection when the nose region or mouth region cannot be detected by this determination (S35).

このマスク検出に関して、前記マスク着用判断手段3は、図6に示すように、マスク検出領域を設定する(S351)。このマスク検出領域の設定に関して、前記マスク着用判断手段3は、マスク検出領域の上端を、直前の画像フレームにて眼領域を取得済みの場合にはこの眼領域における眼位置(Y)を設定する。ここで、眼位置(Y)とは、片眼しか取得できていない場合には片眼の垂直方向であるY位置であり、両眼とも取得できている場合には右眼と左眼のこのY位置の中心を示す。   Regarding this mask detection, the mask wearing determination means 3 sets a mask detection region as shown in FIG. 6 (S351). Regarding the setting of this mask detection area, the mask wearing determination means 3 sets the eye position (Y) in this eye area when the upper end of the mask detection area has already been acquired in the previous image frame. . Here, the eye position (Y) is the Y position in the vertical direction of one eye when only one eye can be acquired, and this is the right eye and left eye when both eyes are acquired. The center of the Y position is shown.

また、前記マスク着用判断手段3は、直前の画像フレームにて眼領域を取得できなかった場合には、前記眼Y位置を示し、前記眼Y位置を取得できなかった場合には撮像された画像フレームの上端を示す。  The mask wearing determination means 3 indicates the eye Y position when the eye area cannot be acquired in the immediately preceding image frame, and the captured image when the eye Y position cannot be acquired. Indicates the top edge of the frame.

次に、前記マスク着用判断手段3は、マスク検出領域の下端を、上端+顔幅×N(Nは閾値)とする。また、前記マスク着用判断手段3は、マスク検出領域の右端を、前記顔領域の右端とする。また、前記マスク着用判断手段3は、マスク検出領域の左端を、前記顔領域の左端とする。   Next, the mask wearing determination means 3 sets the lower end of the mask detection area to upper end + face width × N (N is a threshold value). Moreover, the said mask wearing judgment means 3 makes the right end of a mask detection area the right end of the said face area. Further, the mask wearing determination means 3 sets the left end of the mask detection area as the left end of the face area.

次に、前記マスク着用判断手段3は、この検出されたマスク検出領域内の水平方向を投影し、この投影された輝度値の傾きが最大となる位置を検出する(S352)。ここで、前記マスク着用判断手段3は、この水平方向投影において、投影された輝度値の傾きが急激に上昇する箇所をマスク領域の上端とし、投影された輝度値の傾きが急激に下降する箇所をマスク領域の下端とする。   Next, the mask wearing determination means 3 projects the horizontal direction in the detected mask detection area, and detects a position where the gradient of the projected luminance value is maximum (S352). Here, in the horizontal projection, the mask wearing determination means 3 sets a portion where the gradient of the projected luminance value rapidly increases as the upper end of the mask area, and a portion where the gradient of the projected luminance value rapidly decreases Is the lower end of the mask area.

次に、前記マスク着用判断手段3は、このS352と同様に、この検出されたマスク検出領域内の垂直方向を投影し、この投影された輝度値の傾きが最大となる位置を検出し、マスク領域の右端及び左端を検出する(S353)。   Next, the mask wearing determination means 3 projects the vertical direction in the detected mask detection area, detects the position where the gradient of the projected luminance value is maximum, and masks, similarly to S352. The right end and the left end of the area are detected (S353).

次に、前記マスク着用判断手段3は、この検出されたマスク領域から、マスク領域の縦横比が閾値内の条件を満たすかを判断する(S354)。前記マスク着用判断手段3は、マスク領域の縦横比が閾値内の場合には、この検出されたマスク領域から、マスク幅と顔幅の比が閾値内の条件を満たすかを判断する(S355)。   Next, the mask wearing determination means 3 determines from the detected mask area whether the aspect ratio of the mask area satisfies the condition within the threshold (S354). When the aspect ratio of the mask area is within the threshold value, the mask wearing determination means 3 determines whether the ratio of the mask width and the face width satisfies the condition within the threshold value from the detected mask area (S355). .

前記マスク着用判断手段3は、マスク幅と顔幅の比が閾値内の場合には、この検出されたマスク領域から、マスク高さと顔幅の比が閾値内の条件を満たすかを判断する(S356)。前記マスク着用判断手段3は、マスク高さと顔幅の比が閾値内の場合には、この検出されたマスク領域から、マスク領域の輝度平均値が閾値以上の条件を満たすかを判断する(S357)。   When the ratio between the mask width and the face width is within the threshold, the mask wearing determination means 3 determines whether the ratio between the mask height and the face width satisfies the condition within the threshold from the detected mask region ( S356). When the ratio between the mask height and the face width is within the threshold value, the mask wearing determining means 3 determines whether the average luminance value of the mask region satisfies the condition equal to or greater than the threshold value from the detected mask region (S357). ).

前記マスク着用判断手段3は、マスク領域の輝度平均値が閾値以上の場合には、この検出されたマスク領域から、マスク領域の輝度分散値が閾値未満の条件を満たすかを判断する(S358)。前記マスク着用判断手段3は、マスク領域の輝度分散値が閾値未満の場合には、この検出されたマスク領域にマスクが含まれると判断する(S359)。   When the average brightness value of the mask area is equal to or greater than the threshold value, the mask wearing determination means 3 determines whether or not a condition that the brightness variance value of the mask area is less than the threshold value is satisfied from the detected mask area (S358). . When the luminance dispersion value of the mask area is less than the threshold value, the mask wearing determination means 3 determines that the detected mask area includes a mask (S359).

また、前記マスク着用判断手段3は、このS354からS358の判断にて、各条件のうち1つでも満たさない場合には、この検出されたマスク領域にマスクが含まれないと判断する。前記マスク領域検出手段31は、図4(b)に示すように、この判断に基づいて、この検出されたマスク領域からマスクを検出する(S35)。また、前記マスク内鼻領域検出手段32は、例えば、検出されたマスク領域の中心位置を鼻領域とみなして、鼻領域を検出し、前記顔情報蓄積手段5aに記憶することができる。   The mask wearing determination means 3 determines that the detected mask area does not include a mask if any one of the conditions is not satisfied in the determination from S354 to S358. As shown in FIG. 4B, the mask area detecting means 31 detects a mask from the detected mask area based on this determination (S35). In addition, the mask nose region detecting means 32 can detect, for example, the center position of the detected mask region as a nose region, detect the nose region, and store it in the face information accumulating unit 5a.

次に、前記眼鏡フレーム領域検出手段41は、まず、左右の眼鏡フレーム間に架橋された眼鏡ブリッジの検出を行う(S36)。前記眼鏡フレーム領域検出手段41は、図7に示すように、顔情報蓄積手段5aに基づいて、直前の過去に眼領域が記憶されているかを確認する(S361)。前記眼鏡フレーム領域検出手段41は、直前の過去に眼領域が記憶されている場合には、この眼領域から眼鏡ブリッジの検出処理範囲を算出する(S362)。   Next, the spectacle frame region detecting means 41 first detects a spectacle bridge bridged between the left and right spectacle frames (S36). As shown in FIG. 7, the eyeglass frame area detecting means 41 checks whether or not an eye area has been stored in the past immediately before based on the face information accumulating means 5a (S361). If the eye area has been stored in the previous past, the eyeglass frame area detecting means 41 calculates the eyeglass bridge detection processing range from this eye area (S362).

この検出処理範囲の算出に関しては、水平方向は、前フレームの左右の眼位置(X)の中点、垂直方向は、眼Y位置、もしくは前フレームの左右の眼位置(Y)の中点を基準点とし、この基準点より垂直方向上側にN1画素、下側にN2画素、水平方向両側に各々N3画素の広がりを有する領域をこの検出処理範囲として算出することができる。また、このN1、N2及びN3は、前記運転者300の顔幅に対する固定比によって定められることができる。   Regarding the calculation of this detection processing range, the horizontal direction is the midpoint of the left and right eye positions (X) of the previous frame, and the vertical direction is the eye Y position or the midpoint of the left and right eye positions (Y) of the previous frame. An area having N1 pixels on the upper side in the vertical direction, N2 pixels on the lower side, and N3 pixels on both sides in the horizontal direction can be calculated as the reference point. The N1, N2, and N3 may be determined by a fixed ratio with respect to the driver's 300 face width.

このように、前記眼鏡フレーム領域検出手段41は、この検出処理範囲を顔幅に応じて変動させることにより、前記車載カメラ100と前記運転者300との距離に関わらず適切な検出処理領域を算出することができる。具体的には、前記眼鏡フレーム領域検出手段41は、前記運転者300が前記車載カメラ100に近い場合には、この検出処理範囲を広げ、前記運転者300が前記車載カメラ100から遠い場合には、この検出処理範囲を狭めることができる。   As described above, the spectacle frame region detection unit 41 calculates an appropriate detection processing region regardless of the distance between the in-vehicle camera 100 and the driver 300 by changing the detection processing range according to the face width. can do. Specifically, the spectacle frame region detection means 41 widens this detection processing range when the driver 300 is close to the in-vehicle camera 100, and when the driver 300 is far from the in-vehicle camera 100. This detection processing range can be narrowed.

前記眼鏡フレーム領域検出手段41は、この検出処理範囲において、水平方向に並んだ各画素の輝度値を積算して輝度積算値を算出する(S363)。前記眼鏡フレーム領域検出手段41は、この輝度積算値の上下差分値に基づいて、眼鏡ブリッジの上下位置候補を検出する(S364)。   The spectacle frame region detection means 41 calculates the luminance integrated value by integrating the luminance values of the pixels arranged in the horizontal direction in this detection processing range (S363). The spectacle frame region detection means 41 detects the spectacle bridge vertical position candidate based on the vertical difference value of the luminance integrated value (S364).

ここで、この上下差分値は、例えば、上下差分値=M1(y+一定画素)−M1(y)により算出することができる。但し、このyは、水平ラインにおけるY座標の1つを示し、M1(y)はこの水平ラインにおける輝度積算値を示す。   Here, the vertical difference value can be calculated by, for example, vertical difference value = M1 (y + constant pixel) −M1 (y). However, y represents one of the Y coordinates in the horizontal line, and M1 (y) represents the luminance integrated value in the horizontal line.

また、この上下位置候補に関して、前記眼鏡フレーム領域検出手段41は、上下差分値が最大となるY座標を眼鏡ブリッジの上位置候補として検出し、上下差分値が最小となるY座標を眼鏡ブリッジの下位置候補として検出することができる。ここで、この検出に関しては、眼鏡ブリッジが存在している場合では水平方向における眼鏡ブリッジ領域の輝度積算値が他の部分に比べて相対的に低いことを利用している。   Further, with respect to the upper / lower position candidate, the spectacle frame region detecting means 41 detects the Y coordinate having the maximum vertical difference value as the upper position candidate of the spectacle bridge, and the Y coordinate having the minimum vertical difference value is determined by the spectacle bridge. It can be detected as a lower position candidate. Here, regarding this detection, when a spectacles bridge is present, the fact that the luminance integrated value of the spectacles bridge region in the horizontal direction is relatively lower than other parts is used.

前記眼鏡フレーム領域検出手段41は、この検出処理範囲において、垂直方向の輝度値を積算することにより輝度積算値を算出する(S365)。前記眼鏡フレーム領域検出手段41は、この輝度積算値の左右差分値に基づいて、眼鏡ブリッジの左右位置候補を検出する(S366)。   The spectacle frame region detection means 41 calculates a luminance integrated value by integrating the luminance values in the vertical direction in this detection processing range (S365). The spectacle frame region detection means 41 detects the right and left position candidates of the spectacle bridge based on the left-right difference value of the luminance integrated value (S366).

ここで、この左右差分値は、例えば、左右差分値=M2(x+一定画素)−M2(x)により算出することができる。但し、このxは、垂直ラインにおけるY座標の1つを示しており、M2(x)はこの垂直ラインにおける輝度積算値を示している。   Here, the left-right difference value can be calculated by, for example, left-right difference value = M2 (x + constant pixel) −M2 (x). However, x indicates one of the Y coordinates in the vertical line, and M2 (x) indicates the luminance integrated value in the vertical line.

また、前記眼鏡フレーム領域検出手段41は、この左右位置候補に関して、左右差分値が最大となるX座標を眼鏡ブリッジの左位置候補として検出し、左右差分値が最小となるX座標を眼鏡ブリッジの右位置候補として検出することができる。ここで、この検出に関しては、眼鏡ブリッジが存在している場合では垂直方向における眼鏡ブリッジ領域の輝度積算値が他の部分に比べて相対的に低いことを利用している。   Further, the eyeglass frame region detecting means 41 detects the X coordinate having the maximum left-right difference value as the left position candidate of the eyeglass bridge with respect to the left-right position candidate, and determines the X coordinate having the minimum left-right difference value of the eyeglass bridge. It can be detected as a right position candidate. Here, regarding this detection, when the eyeglass bridge is present, the fact that the integrated luminance value of the eyeglass bridge region in the vertical direction is relatively low as compared with other portions is used.

前記眼鏡フレーム領域検出手段41は、この検出された眼鏡ブリッジの左右位置候補及び上下位置候補処理範囲に基づいて、眼鏡ブリッジの存在を判断する(S367)。前記眼鏡フレーム領域検出手段41は、この判断に関して、眼鏡ブリッジの上位置候補の上下差分値の絶対値と、下位置候補の上下差分値の絶対値との和が閾値以上である第1の条件を満たすかを判断する。   The spectacle frame region detection means 41 determines the presence of the spectacle bridge based on the detected spectacle bridge left-right position candidate and vertical position candidate processing range (S367). The eyeglass frame region detecting means 41 has a first condition that the sum of the absolute value of the upper / lower difference value of the upper position candidate of the spectacle bridge and the absolute value of the upper / lower difference value of the lower position candidate is greater than or equal to a threshold value. Judge whether to satisfy.

前記眼鏡フレーム領域検出手段41は、この第1の条件を満たすと判断した場合には、眼鏡ブリッジにおける右位置候補の左右差分値の絶対値と、左位置候補の左右差分値の絶対値との和が閾値以上である第2の条件を満たすかを判断する。さらに、前記眼鏡フレーム領域検出手段41は、この第2の条件を満たすと判断した場合には、眼鏡ブリッジの左位置候補と右位置候補との距離が顔幅に対して閾値範囲内に有る第3の条件を満たす場合に、眼鏡ブリッジ有りと判定する。前記眼鏡フレーム領域検出手段41は、眼鏡ブリッジが存在すると判断した場合には、この眼鏡ブリッジ領域を検出して記憶する(S368)。   If the spectacle frame region detection means 41 determines that the first condition is satisfied, the absolute value of the left / right difference value of the right position candidate and the absolute value of the left / right difference value of the left position candidate are determined. It is determined whether the second condition that the sum is equal to or greater than the threshold value is satisfied. Further, when the spectacle frame region detecting means 41 determines that the second condition is satisfied, the distance between the left position candidate and the right position candidate of the spectacle bridge is within a threshold range with respect to the face width. When the condition 3 is satisfied, it is determined that there is an eyeglass bridge. When it is determined that the eyeglass bridge exists, the eyeglass frame area detecting means 41 detects and stores the eyeglass bridge area (S368).

このように、前記眼鏡フレーム領域検出手段41は、この3つの条件により、自然な位置関係を満たす場合に限り、この眼鏡ブリッジの上下位置候補及び左右位置候補を眼鏡ブリッジとして検出することができる。なお、前記眼鏡フレーム領域検出手段41は、第1の閾値及び第2の閾値を、眼鏡ブリッジの検出結果の学習によって変化させることもできる。また、前記眼鏡フレーム領域検出手段41は、眼鏡ブリッジの取得率に基づいて第1及び第2の閾値を増減させることもでき、この場合には眼鏡の種類に応じた最適な閾値を得ることとなり、正確に眼鏡ブリッジを検出することができる。   As described above, the spectacle frame region detection unit 41 can detect the spectacle bridge upper and lower position candidates and the left and right position candidates as spectacle bridges only when the natural positional relationship is satisfied under these three conditions. The spectacle frame region detecting means 41 can change the first threshold and the second threshold by learning the detection result of the spectacle bridge. The spectacle frame region detection means 41 can also increase or decrease the first and second threshold values based on the spectacle bridge acquisition rate. In this case, an optimum threshold value corresponding to the type of spectacles is obtained. It is possible to accurately detect the eyeglass bridge.

また、前記眼鏡フレーム領域検出手段41は、前記S361にて直前の過去に眼領域が記憶されていない場合には、前記鼻領域から眼鏡ブリッジの検出処理範囲を算出する(S369)。この場合には、前記眼鏡フレーム領域検出手段41は、水平方向における左右の鼻穴の中点から垂直方向上側へN4画素の位置を基準位置とし、前記S362と同様の方法で眼鏡ブリッジの検出処理範囲を算出する。   The eyeglass frame area detecting means 41 calculates the eyeglass bridge detection processing range from the nose area when the eye area is not stored in the previous past in S361 (S369). In this case, the spectacle frame region detection means 41 uses the position of the N4 pixel from the midpoint of the left and right nostrils in the horizontal direction to the upper side in the vertical direction as a reference position, and performs the spectacle bridge detection process in the same manner as in S362. Calculate the range.

また、このN4も、前記運転者300の顔幅に対する固定比によって定められることができる。前記眼鏡フレーム領域検出手段41は、このS369以降には、前記S363から前記S368までと同様の処理を行う。また、前記眼鏡フレーム領域検出手段41は、前記S367にて眼鏡ブリッジが存在しないと判断した場合には、前記S368における眼鏡ブリッジ領域の記憶は行わない。   The N4 can also be determined by a fixed ratio with respect to the driver's 300 face width. The eyeglass frame region detection means 41 performs the same processing from S363 to S368 after S369. Further, when the spectacle frame area detecting means 41 determines in S367 that no spectacle bridge exists, the spectacle bridge area is not stored in S368.

次に、前記眼鏡フレーム領域検出手段41は、図4(b)に示すように、眼鏡フレームを検出する(S37)。前記眼鏡フレーム領域検出手段41は、図8(a)に示すように、眼鏡下フレーム検出に関して、まず、眼鏡下フレームを検出するための検出処理範囲を算出する(S371)。   Next, as shown in FIG. 4B, the spectacle frame region detecting means 41 detects a spectacle frame (S37). As shown in FIG. 8A, the spectacle frame region detection means 41 first calculates a detection processing range for detecting the spectacle lower frame (S371).

この検出処理範囲の水平方向の範囲は、過去に検出された眼位置を中心として左右に顔幅のN9%の範囲である。また、この検出処理範囲の下端は、鼻穴の中点から顔幅のN10%下側の位置である。また、この検出処理範囲の上端は、眼Y位置、もしくは前フレームの眼位置(Y)の中点とする。   The horizontal range of this detection processing range is a range of N9% of the face width on the left and right with the eye position detected in the past as the center. The lower end of the detection processing range is a position N10% below the face width from the midpoint of the nostril. The upper end of this detection processing range is the midpoint of the eye Y position or the eye position (Y) of the previous frame.

前記眼鏡フレーム領域検出手段41は、この検出処理範囲の算出後、この検出処理範囲において微分フィルタを用いて微分フィルタ抽出処理を実行する(S372)。この微分フィルタは、垂直方向において上方から下方へ輝度が高い画像領域、輝度が低い画像領域、輝度が高い画像領域へと変化する下フレーム部分を抽出するフィルタである。   After calculating the detection processing range, the spectacle frame region detection means 41 executes a differential filter extraction process using a differential filter in the detection processing range (S372). This differential filter is a filter that extracts an image region having a high luminance from the top to the bottom in the vertical direction, an image region having a low luminance, and a lower frame portion that changes to an image region having a high luminance.

前記眼鏡フレーム領域検出手段41は、Y方向ラインにおいて検出処理範囲の下方から上方へ順に微分フィルタ値を算出し、最初に閾値以上になった画素を検出する。この微分フィルタの値は、対象画素を中心とした8近傍の8画素にそれぞれ微分フィルタの係数を乗算し、乗算して得た値を加算した数値である。   The spectacle frame region detection means 41 calculates differential filter values in order from the lower side to the upper side of the detection processing range in the Y direction line, and detects pixels that first become equal to or greater than the threshold value. The value of this differential filter is a numerical value obtained by multiplying the 8 pixels near 8 centered on the target pixel by the coefficient of the differential filter and adding the values obtained by multiplication.

なお、前記眼鏡フレーム領域検出手段41は、この微分フィルタ処理中に対象画素より1画素上方の画素、例えば対象画素のY座標をy1としてY座標がy1−1の画素の輝度が第1の輝度以上では、外部光源からの光を眼鏡レンズが反射している部分と判定する。前記眼鏡フレーム領域検出手段41は、この画素を反射部分画素として検出する。第1の輝度としては、例えば255階調で240である。この外部光源としては、顔認識等の各種目的で前記運転者300を照明するために車内に設置されているLED光源を用いることができる。   The spectacle frame region detection means 41 has a luminance of a pixel that is one pixel above the target pixel during the differential filter processing, for example, a pixel whose Y coordinate is y1-1 with the Y coordinate of the target pixel as y1. In the above, it determines with the light from an external light source being the part which the spectacles lens has reflected. The spectacle frame region detection means 41 detects this pixel as a reflection partial pixel. The first luminance is 240, for example, with 255 gradations. As this external light source, an LED light source installed in the vehicle for illuminating the driver 300 for various purposes such as face recognition can be used.

また、前記眼鏡フレーム領域検出手段41は、微分フィルタ処理開始時の対象画素である検出処理範囲の下側部分において、対象画素より1画素上方又は1画素下方の画素の輝度が一方でも第2の輝度以上である場合には、顔全体が明るい傾向にあると判断する。前記眼鏡フレーム領域検出手段41は、この判断により第1の輝度を上げる。   Further, the spectacle frame region detection means 41 has a luminance of a pixel one pixel above or below the target pixel at the second side in the lower part of the detection processing range that is the target pixel at the start of the differential filter processing. If it is higher than the brightness, it is determined that the entire face tends to be bright. The spectacle frame region detection means 41 increases the first luminance based on this determination.

前記眼鏡フレーム領域検出手段41は、例えば、第2の輝度が256階調で210の場合に、第1の輝度を240から250に上昇させる。このように、前記眼鏡フレーム領域検出手段41は、第1の輝度及び第2の輝度を相関的に制御することにより、前記反射部分画素をより正確に検出することができる。   For example, when the second luminance is 210 at 256 gradations, the spectacle frame region detection unit 41 increases the first luminance from 240 to 250. As described above, the spectacle frame region detection unit 41 can detect the reflection partial pixel more accurately by controlling the first luminance and the second luminance in a correlated manner.

前記眼鏡フレーム領域検出手段41は、あるY方向ラインに対してこの検出を終えた場合には、検出処理領域において左側から右側へ他のY方向ラインに対しても同様の処理を順次実行する。なお、前記眼鏡フレーム領域検出手段41は、検出処理範囲の水平方向の幅に応じて、微分フィルタ処理の対象となるY方向ラインを間引き、最大n個の結果を算出することができる。このnは、処理速度及び判定精度の相間関係に応じて設定されることができる。   When the eyeglass frame region detecting means 41 finishes this detection for a certain Y direction line, the same processing is sequentially performed for other Y direction lines from the left side to the right side in the detection processing region. Note that the spectacle frame region detection means 41 can calculate a maximum of n results by thinning out Y-direction lines to be subjected to differential filter processing in accordance with the horizontal width of the detection processing range. This n can be set according to the correlation between the processing speed and the determination accuracy.

前記眼鏡フレーム領域検出手段41は、この微分フィルタ抽出処理を終えた場合には、眼鏡下フレームの下位置を検出する(S373)。前記眼鏡フレーム領域検出手段41は、このS372で複数の画素が検出されている場合には、この眼鏡下フレームの下位置を、検出されたn個の画素に含まれる各画素のY座標の中間値を下位置のY座標とする。また、前記眼鏡フレーム領域検出手段41は、検出処理範囲の水平方向中央部のX座標を、下位置のX座標として記憶する。   The spectacle frame region detection means 41 detects the lower position of the spectacle lower frame when the differential filter extraction processing is completed (S373). When a plurality of pixels are detected in S372, the spectacle frame region detection means 41 sets the lower position of the spectacle lower frame to the middle of the Y coordinate of each pixel included in the detected n pixels. The value is the Y coordinate of the lower position. Further, the spectacle frame region detection means 41 stores the X coordinate of the horizontal central portion of the detection processing range as the X coordinate of the lower position.

前記眼鏡フレーム領域検出手段41は、前記S372で画素が検出されなかった場合には、前記反射部分画素が検出されたか否かを判定する。また、前記反射部分画素が検出されていると判定した場合には、この反射部分画素のY座標を下位置のY座標とする。なお、前記眼鏡フレーム領域検出手段41は、前記反射部分画素が複数ある場合には、最大となる前記反射部分画素のY座標を下位置のY座標とする。   The spectacle frame region detection means 41 determines whether or not the reflection partial pixel is detected when no pixel is detected in S372. When it is determined that the reflection partial pixel is detected, the Y coordinate of the reflection partial pixel is set as the Y coordinate of the lower position. When there are a plurality of the reflection partial pixels, the spectacle frame region detection means 41 sets the maximum Y coordinate of the reflection partial pixel as the Y coordinate of the lower position.

前記眼鏡フレーム領域検出手段41は、下フレームが無い眼鏡の場合には、この下フレームが検出されないが、前記反射部分が検出されている場合には、反射部分に眼鏡が存在していると考えられるため、反射部分の最下端を下位置とする。前記眼鏡フレーム領域検出手段41は、前記S372で画素が検出されず、前記反射部分画素が検出されてない場合には、この眼鏡下フレームが無いと判定する。   The spectacle frame region detecting means 41 does not detect the lower frame when the spectacle has no lower frame, but considers that the spectacle exists in the reflective portion when the reflective portion is detected. Therefore, the lowermost end of the reflection portion is set as the lower position. The spectacle frame region detecting means 41 determines that there is no spectacle lower frame when no pixel is detected in S372 and the reflection partial pixel is not detected.

なお、前記眼鏡フレーム領域検出手段41は、n個検出した画素における微分フィルタ値の平均値を算出し、この眼鏡下フレームスコアとすることができる。前記眼鏡フレーム領域検出手段41は、この眼鏡下フレームスコアにより検出された下位置が眼鏡であるか眼であるかを判定することができる。前記眼鏡フレーム領域検出手段41は、眼鏡下フレームスコアが第1の閾値より大きい場合には、眼鏡であると判定し、眼鏡下フレームスコアが第1の閾値より小さい第2の閾値未満の場合には、眼であると判定することができる。   The spectacle frame region detecting means 41 can calculate the average value of the differential filter values in the n detected pixels and use this as the spectacle lower frame score. The spectacle frame region detection means 41 can determine whether the lower position detected by the spectacle lower frame score is spectacles or eyes. The spectacle frame region detection means 41 determines that the spectacles lower frame score is larger than the first threshold value, and determines that the spectacles frame region score is smaller than the first threshold value. Can be determined to be eyes.

次に、前記眼鏡フレーム領域検出手段41は、図8(a)に示すように、眼鏡上フレーム検出に関して、前記眼鏡下フレームの処理と同様に、検出処理範囲を算出し(S374)、前記微分フィルタを抽出し(S375)、眼鏡上フレームを検出する(S374)。   Next, as shown in FIG. 8A, the spectacle frame region detection means 41 calculates a detection processing range in the same manner as the processing of the spectacle lower frame with respect to the spectacle upper frame detection (S374), and performs the differentiation. The filter is extracted (S375), and the frame on the glasses is detected (S374).

前記眼鏡フレーム領域検出手段41は、図4(b)に示すように、このS37にて眼鏡領域が検出されたかを判断する(S38)。前記サングラス判断手段42は、この眼鏡領域が検出された場合には、サングラス領域の検出を行う(S39)。   As shown in FIG. 4B, the spectacle frame region detecting means 41 determines whether or not the spectacle region is detected in S37 (S38). When the glasses area is detected, the sunglasses determination means 42 detects the sunglasses area (S39).

前記サングラス判断手段42は、図9に示すように、サングラスであるか否かの判定結果を示すサングラスフラグをオフに初期化する(S391)。次に、前記サングラス判断手段42は、サングラス処理範囲内の輝度平均及び輝度の分散値を算出する(S392)。サングラス処理範囲の上下は、前記眼鏡上フレームの上位置及び眼鏡下フレームの下位置であり、サングラス処理範囲の左右は、前記眼鏡下フレームの処理範囲と同様である。   As shown in FIG. 9, the sunglasses determination means 42 initializes the sunglasses flag indicating the result of determination as to whether or not the sunglasses are off (S391). Next, the sunglasses determination means 42 calculates a luminance average and luminance dispersion value within the sunglasses processing range (S392). The upper and lower sides of the sunglasses processing range are the upper position of the glasses upper frame and the lower position of the glasses lower frame, and the left and right of the sunglasses processing range are the same as the processing range of the glasses lower frame.

次に、前記サングラス判断手段42は、この輝度平均値が閾値以下であるか否かを判定する(S393)。前記サングラス判断手段42は、この輝度平均値が閾値以下であると判定した場合には、この輝度値の分散値が閾値以下であるか否かを判定する(S394)。   Next, the sunglasses determination means 42 determines whether or not the average luminance value is equal to or less than a threshold value (S393). If it is determined that the average luminance value is equal to or smaller than the threshold value, the sunglasses determining means 42 determines whether or not the variance value of the luminance value is equal to or smaller than the threshold value (S394).

前記サングラス判断手段42は、この判定において閾値以下の場合には、サングラスフラグをオンにしてサングラスを検出する(S395)。前記眼領域検出手段4は、サングラスが検出された場合には、眼位置をサングラスの中心部とみなして設定する。   If the determination is below the threshold value in this determination, the sunglasses determination means 42 turns on the sunglasses flag and detects sunglasses (S395). The eye area detection means 4 sets the eye position as the center part of the sunglasses when the sunglasses are detected.

このように、サングラスが着用された場合でも、眼位置をサングラスから特定することとなり、顔認識の精度を向上させることができる。次に、前記サングラス判断手段42は、眼鏡の左右両側のサングラス判定を実行したか否かを判定する(S396)。   Thus, even when sunglasses are worn, the eye position is specified from the sunglasses, and the accuracy of face recognition can be improved. Next, the sunglasses determination means 42 determines whether or not the sunglasses determination on both the left and right sides of the glasses has been executed (S396).

前記サングラス判断手段42は、左右両側又はいずれか一方のサングラス判定を実行していないと判定した場合には、前記S391以降の処理を同様に行う。また、前記サングラス判断手段42は、左右両側のサングラス判定を実行したと判定した場合には、サングラス判定に係る処理を終える。   When it is determined that the sunglasses determination means 42 has not performed the left and right side sunglasses determination or any one of the sunglasses determination, the processing after S391 is similarly performed. Further, when it is determined that the sunglasses determination on both the left and right sides has been performed, the sunglasses determination unit 42 ends the process related to the sunglasses determination.

また、前記サングラス判断手段42は、前記S393にて輝度平均値が閾値より大きいと判定した場合には、前記S396のサングラス判定を行い、前記S396以降と同様の処理を行う。また、前記サングラス判断手段42は、前記S394にて分散値が閾値より大きいと判定した場合には、前記S396のサングラス判定を行い、前記S396以降と同様の処理を行う。   Further, when it is determined in S393 that the average luminance value is greater than the threshold value, the sunglasses determination means 42 performs the sunglasses determination in S396 and performs the same processing as in S396 and subsequent steps. Further, when it is determined in S394 that the dispersion value is greater than the threshold value, the sunglasses determination means 42 performs the sunglasses determination in S396 and performs the same processing as in S396 and subsequent steps.

次に、前記サングラス判断手段42は、図10に示すように、過去に記憶されたフレームのサングラスフラグを読み出す(S397)。前記サングラス判断手段42は、閾値以上のフレーム数においてサングラスフラグがオンであるか否かを判定する(S398)。   Next, as shown in FIG. 10, the sunglasses determination means 42 reads the sunglasses flag of the frame stored in the past (S397). The sunglasses determination means 42 determines whether or not the sunglasses flag is on for the number of frames equal to or greater than the threshold (S398).

前記サングラス判断手段42は、閾値以上のフレームでオンであると判定した場合には、サングラスの有無を総合的に判断した結果を示す総合サングラスフラグをオンにする(S399−1)。前記サングラス判断手段42は、前記S398にて閾値未満のフレーム数にてオンであると判定した場合には、総合サングラスフラグをオフにする(S399−2)。   When it is determined that the sunglasses are turned on in a frame equal to or greater than the threshold, the sunglasses determination means 42 turns on a comprehensive sunglasses flag indicating the result of comprehensively determining the presence or absence of sunglasses (S399-1). If it is determined in S398 that the number of frames is less than the threshold value, the sunglasses determination means 42 turns off the general sunglasses flag (S399-2).

このように、前記サングラス判断手段42は、複数フレームでのサングラス判定結果を用いて総合的に判定することにより、サングラスフラグが示す1フレーム結果のみでは発生しがちなサングラスの誤認識を防止することができる。このサングラスの誤認識を発生させる要因としては、例えば、瞬間的な輝度変化、手の進入が挙げられる。   In this way, the sunglasses determination means 42 makes a comprehensive determination using the sunglasses determination results in a plurality of frames, thereby preventing misrecognition of sunglasses that tend to occur only with one frame result indicated by the sunglasses flag. Can do. Factors that cause this misrecognition of sunglasses include, for example, an instantaneous luminance change and hand approach.

次に、前記眼領域検出手段4は、図3に示すように、眼領域の位置を検出する(S4)。前記眼領域検出手段4は、図11に示すように、この眼領域の位置検出に関して、まず、サングラス領域が存在し、かつこのサングラス領域のレンズ領域が暗い状態かという条件を満たすかを判断する(S41)。前記眼領域検出手段4は、このレンズ領域の輝度平均値が閾値未満であるかによりこの条件に対する判断を行うことができる。   Next, the eye area detecting means 4 detects the position of the eye area as shown in FIG. 3 (S4). As shown in FIG. 11, the eye area detecting means 4 first determines whether or not the condition of the position of the eye area satisfies the condition that the sunglasses area exists and the lens area of the sunglasses area is dark. (S41). The eye area detecting means 4 can make a judgment on this condition depending on whether the average luminance value of the lens area is less than a threshold value.

前記眼領域検出手段4は、このS41の条件を満たさない場合には、右眼と左眼の各々に対して後続処理を適用するためのループ処理を開始する(S42)。このループ処理において、まず、前記眼帯領域検出手段44は、眼帯領域を検出する(S43)。
この眼帯領域の検出に関して、前記眼帯判断手段43は、図12(a)に示すように、眼帯領域の検出領域である眼帯検出領域を設定する(S431)。前記眼帯判断手段43は、同図(b)に示すように、この眼帯検出領域の設定に関して、まず、X方向の鼻位置である鼻位置(X)と顔領域の一端である顔端と平行する中心線を算出する。
When the condition of S41 is not satisfied, the eye area detection unit 4 starts a loop process for applying the subsequent process to each of the right eye and the left eye (S42). In this loop process, first, the eye patch region detecting means 44 detects the eye patch region (S43).
Regarding the detection of the eye patch area, the eye patch determination unit 43 sets an eye patch detection area which is a detection area of the eye patch area as shown in FIG. 12A (S431). As shown in FIG. 2B, the eye patch determining means 43 first sets the eye patch detection area parallel to the nose position (X) which is the nose position in the X direction and the face edge which is one end of the face area. The center line to be calculated is calculated.

前記眼帯判断手段43は、この中心線からX方向の左側に顔幅のN3%に収まる範囲及びこの中心線からX方向の右側に顔幅のN4%に収まる範囲をこの眼帯検出領域のX方向の幅とする。また、前記眼帯判断手段43は、前記眼Y位置から上向きのY方向に沿って顔幅のN1%となる位置を、この眼帯検出領域のY方向の上位置とし、前記眼Y位置から下向きのY方向に沿って顔幅のN2%となる位置を、この眼帯検出領域のY方向の下位置とする。また、前記眼帯判断手段43は、前記眼Y位置が存在しない場合には、前回フレームでの眼位置(Y)を前記眼Y位置の代替とすることができる。   The eye patch determining means 43 determines a range that falls within N3% of the face width on the left side in the X direction from the center line and a range that fits within N4% of the face width on the right side in the X direction from the center line in the X direction. The width of Further, the eye patch judging means 43 sets the position that becomes N1% of the face width along the Y direction upward from the eye Y position as the upper position in the Y direction of the eye patch detection region, and faces downward from the eye Y position. A position that is N2% of the face width along the Y direction is set as a lower position in the Y direction of the eyeband detection region. Further, when the eye Y position does not exist, the eye patch determination unit 43 can substitute the eye position (Y) in the previous frame as the eye Y position.

次に、前記眼帯判断手段43は、同図(a)に示すように、検出された眼帯検出領域に基づいて、眼帯の存在を判定する(S432)。前記眼帯判断手段43は、この眼帯検出領域の輝度分散値が閾値N未満であり、かつ顔領域の輝度平均値に占める眼帯検出領域の輝度平均値が閾値M以上の場合に、眼帯が存在すると判断する。なお、前記眼帯判断手段43は、この眼帯の位置及びサイズを前記眼帯検出領域と同じとすることができる。   Next, the eye patch determining means 43 determines the presence of the eye patch based on the detected eye patch detection region as shown in FIG. The eye patch determination means 43 determines that an eye patch is present when the brightness variance value of the eye patch detection area is less than the threshold value N and the brightness average value of the eye patch detection area occupying the brightness average value of the face area is greater than or equal to the threshold value M. to decide. The eye patch determining means 43 can make the position and size of the eye patch the same as the eye patch detection region.

次に、前記眼帯判断手段43は、図11に示すように、眼帯領域が検出されたかを判断する(S44)。前記眼帯判断手段43は、眼帯領域が検出されていない場合には、眼位置を検出する(S45)。   Next, as shown in FIG. 11, the eye patch determining means 43 determines whether an eye patch area has been detected (S44). If the eye patch area is not detected, the eye patch determining means 43 detects the eye position (S45).

この眼位置の検出に関して、前記眼領域検出手段4は、図13(a)に示すように、検出した鼻位置に基づいて、眼位置を検出することができる。また、前記眼帯判断手段43は、同図(b)に示すように、マスクが存在する場合でも、検出したマスク領域の中心位置を鼻の代替位置とみなして、同様に眼位置を検出することができる。このように、前記眼帯判断手段43は、鼻位置に基づいて眼位置を算出することから、眼位置を高精度に検出することができる。   Regarding the detection of the eye position, the eye region detection means 4 can detect the eye position based on the detected nose position as shown in FIG. Further, as shown in FIG. 4B, the eye patch judging means 43 regards the center position of the detected mask area as the alternative position of the nose and similarly detects the eye position even when a mask is present. Can do. As described above, the eye patch determining unit 43 calculates the eye position based on the nose position, so that the eye position can be detected with high accuracy.

また、前記眼帯判断手段43は、例えば、2値化処理を利用した検出方法を併用してこの眼位置を検出することができる。具体的には、前記眼帯判断手段43は、取得した画像フレームを1と0の数値により2値化し、得られた画像フレームにおいて、画素データの数値1の画素が集合する領域を検出し、この領域を瞳である可能性の高い領域であると特定することができる。   Further, the eye patch judging means 43 can detect the eye position by using a detection method using binarization processing, for example. Specifically, the eye patch judging means 43 binarizes the acquired image frame with numerical values of 1 and 0, detects an area where pixels with numerical value 1 of the pixel data gather in the obtained image frame, The region can be identified as a region that is highly likely to be a pupil.

また、前記眼領域検出手段4は、図11に示すように、前記S44にて、眼帯領域が検出された場合には、眼位置を眼帯領域の中央部とみなして検出する。このように、眼帯が着用された場合でも、眼位置を眼帯から特定することとなり、顔認識の精度を向上させることができる。   In addition, as shown in FIG. 11, when the eye patch area is detected in S44, the eye area detecting means 4 detects the eye position as the central part of the eye patch area. Thus, even when the eye patch is worn, the eye position is specified from the eye patch, and the accuracy of face recognition can be improved.

また、前記眼領域検出手段4は、このS43からS45までの眼領域に関する処理を、左右の眼に対して行った場合には、前記ループ処理を終了する(S46)。次に、前記眼領域検出手段4は、図3に示すように、検出された眼に対して、眼の形状を抽出する(S5)。   When the eye area detection unit 4 performs the process relating to the eye area from S43 to S45 for the left and right eyes, the loop process is terminated (S46). Next, as shown in FIG. 3, the eye region detection means 4 extracts the eye shape for the detected eye (S5).

次に、前記顔認識手段5は、図3に示すように、検出された顔の各部位の位置関係を利用して顔向きを算出することにより、顔向きを算出する(S6)。具体的には、前記顔認識手段5は、図13(c)に示すように、顔領域の顔幅Aに対する鼻の相対位置Bから顔の左右向き角度を算出することができる。また、前記顔認識手段5は、同図(d)に示すように、マスクが存在する場合にも、顔領域の顔幅Aに対するマスク中央部の鼻の相対位置Bから顔の左右向き角度を算出することができる。   Next, as shown in FIG. 3, the face recognizing means 5 calculates the face orientation by calculating the face orientation using the positional relationship of each part of the detected face (S6). Specifically, as shown in FIG. 13C, the face recognizing means 5 can calculate the lateral angle of the face from the relative position B of the nose with respect to the face width A of the face area. In addition, as shown in FIG. 4D, the face recognition means 5 determines the angle of the face in the horizontal direction from the relative position B of the nose at the center of the mask with respect to the face width A of the face area, even when a mask is present. Can be calculated.

次に、前記眼領域検出手段4は、図3に示すように、眼の開度を算出する(S7)。具体的には、前記眼領域検出手段4は、画像フレーム中の眼の領域を、眼の領域における輝度分布や画素の輝度値平均及び輝度値の標準偏差により特徴データとして算出し、この特徴データの変化量を前後の画像フレームで比較することにより眼の開度を算出することができる。   Next, as shown in FIG. 3, the eye region detection means 4 calculates the eye opening (S7). Specifically, the eye region detection means 4 calculates the eye region in the image frame as feature data based on the luminance distribution in the eye region, the luminance value average of the pixels, and the standard deviation of the luminance values. The eye opening can be calculated by comparing the amount of change in the previous and next image frames.

前記顔認識予測手段6は、次フレームでの顔を予測する(S8)。また、前記特徴判断手段7は、前記運転手300の特徴、例えば、瞬きが多い、首をよく振る、目の開き具合が少ない等の特徴を判断し、この予測に対する情報を提供することができる。   The face recognition prediction means 6 predicts a face in the next frame (S8). In addition, the feature determination means 7 can determine the features of the driver 300, for example, features such as blinking, shaking his / her head, little eye openness, etc., and can provide information on this prediction. .

前記警報手段8は、顔向きや眼の開閉状態に応じて、前記運転手300に対して具体的なアクションを発生させる(S9)。このように、前記顔認識予測手段6は、前後フレームの相間関係を利用して顔の動きを予測することから、前記運転手300が予測の範囲に含まれる動作であるかを判断できることとなり、前記運転手300の異常な動作の検出精度を向上させることができる。   The alarm means 8 generates a specific action for the driver 300 according to the face orientation and the open / closed state of the eyes (S9). As described above, the face recognition prediction unit 6 can determine whether the driver 300 is included in the prediction range because the face motion is predicted using the correlation between the previous and next frames. The detection accuracy of the abnormal operation of the driver 300 can be improved.

前記警報手段8は、例えば、前記運転手300の眼の開き具合から居眠り運転や過労と判断できる場合には、休息の指示アラームを音声により発生させることができる。また、前記警報手段8は、例えば、前記運転手300の顔の向きから脇見運転と判断できる場合には、脇見運転禁止アラームを音声により発生させることができる。   For example, when it is possible to determine that the driver 300 is dozing or overworking based on the degree of opening of the eyes of the driver 300, the warning unit 8 can generate a rest instruction alarm by voice. Further, for example, when the warning means 8 can determine that the driver is looking aside from the direction of the face of the driver 300, the alarm means 8 can generate an alarm for prohibiting the driver to look aside.

前記顔認識予測手段6は、前記S1からS9までの1フレームの処理が終了すると、次フレーム処理を行うかを判断する(S10)。前記顔認識予測手段6は、次フレーム処理を行う場合には、前記S1に戻り、以降前記S1からS9までの1フレームの処理が次フレーム処理として実施される。また、前記顔認識予測手段6は、次フレーム処理を行わない場合、例えば、顔認識装置の動作を外部から停止された場合には、処理を終了する。
また、本実施形態に係る顔認識装置10のハードウエア構成は、CPU、メモリ、記憶装置、赤外線発光装置及び上記各部を接続するバスからなる。
When the processing of one frame from S1 to S9 is completed, the face recognition predicting means 6 determines whether to perform the next frame processing (S10). When the next frame process is performed, the face recognition predicting unit 6 returns to S1, and thereafter, the process of one frame from S1 to S9 is performed as the next frame process. The face recognition prediction unit 6 ends the process when the next frame process is not performed, for example, when the operation of the face recognition apparatus is stopped from the outside.
Further, the hardware configuration of the face recognition device 10 according to the present embodiment includes a CPU, a memory, a storage device, an infrared light emitting device, and a bus connecting the above-described units.

なお、本実施形態では、マスクを顔の遮蔽物の一例として説明したが、この遮蔽物としてはマスクに限定されず、顔を覆う遮蔽物であれば広く適用することができ、例えば、タオルやハンカチの場合でも本実施形態を適用することができる。なお、本実施形態では、顔認識装置10は、車載カメラでの運転手への警告装置を備えて顔認識の結果に応じた警報を行ったが、この利用形態に限定されず、例えば、顔認識の結果の蓄積による監視や、顔認識の結果による本人認証など、顔認識を用いる広い分野に適用することができる。   In this embodiment, the mask has been described as an example of a face shield. However, the shield is not limited to a mask, and can be widely applied as long as it covers a face. Even in the case of a handkerchief, this embodiment can be applied. In the present embodiment, the face recognition device 10 includes a warning device for a driver with an in-vehicle camera and performs a warning according to the result of face recognition. The present invention can be applied to a wide range of fields that use face recognition, such as monitoring based on accumulation of recognition results and identity authentication based on face recognition results.

[付記] 以上の実施例を含む実施形態に関し、更に以下の付記を開示する。
(付記1)撮像された人物の撮像画像に基づいて人物の顔を認識する顔認識装置において、前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出手段と、前記鼻領域検出手段により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断手段と、前記遮蔽物着用判断手段により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出手段と、前記遮蔽物領域検出手段により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出手段と、前記鼻領域検出手段又は遮蔽物内鼻領域検出手段により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出手段とを備える顔認識装置。
[Appendix] The following appendices are further disclosed with respect to the embodiment including the above examples.
(Supplementary Note 1) In a face recognition device that recognizes a person's face based on a captured image of a captured person, a nose that detects a nose region as a region where the captured person's nose exists based on the captured image When the nose region is not detected by the region detection unit and the nose region detection unit, the captured person shields at least a part of the face based on the luminance values in the horizontal and vertical directions of the captured image. A shielding object wearing judging means for judging whether or not the shielding object is worn, and the presence area of the shielding object when the imaged person is judged to be wearing the shielding object by the shielding object wearing judging means. A shielding object region detecting means for detecting the shielding object region, and, based on the shielding object region detected by the shielding object region detection means, the nose region in the shielding object for specifying the nose region included in the shielding object region Inspection And an eye area detecting means for detecting an eye area as a presence area of the captured human eye based on the nose area specified by the nose area detecting means or the nose area detecting means in the shield. Face recognition device.

(付記2)前記眼領域検出手段により検出された眼領域の画像情報に基づいて眼の開度及び/又は視線方向を認識し、前記眼領域及び/又は鼻領域に基づいて顔の向きを認識する顔認識手段を備える付記1記載の顔認識装置。 (Appendix 2) Recognizing the eye opening and / or line-of-sight direction based on the image information of the eye area detected by the eye area detecting means, and recognizing the face direction based on the eye area and / or nose area The face recognition device according to appendix 1, further comprising face recognition means for

(付記3)前記検出された眼領域の画像情報に基づいて、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する眼鏡フレーム領域検出手段と、前記眼鏡フレーム検出手段により検出された眼鏡フレーム領域の輝度分布に基づいて、前記眼鏡がサングラスかを判断するサングラス判断手段とを備え、前記眼領域検出手段が、前記サングラス判断手段により前記眼鏡がサングラスと判断された場合には、当該サングラスにおける前記眼領域を判断して検出する付記1又は付記2記載の顔認識装置。 (Additional remark 3) Based on the image information of the detected eye area | region, the spectacles frame area | region detection means which detects the spectacles frame area | region as an existing area | region of the spectacles frame | wear worn by the person, and the said spectacles frame detection means detect Sunglasses determining means for determining whether the glasses are sunglasses based on the luminance distribution of the spectacle frame area, and when the eye area detecting means determines that the glasses are sunglasses by the sunglasses determining means The face recognition device according to Supplementary Note 1 or Supplementary Note 2, wherein the eye region in the sunglasses is determined and detected.

(付記4)前記検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する眼帯判断手段と、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯の存在領域としての眼帯領域を検出する眼帯領域検出手段とを備え、前記眼領域検出手段が、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯における前記眼領域を判断して検出する付記1ないし付記3に記載の顔認識装置。 (Supplementary Note 4) Based on the horizontal and vertical luminance values of the image information in the detected eye area, eye patch determination means for determining whether a person is wearing the eye patch, and the eye patch is worn by the eye patch determination means If it is determined that the eye patch area is detected, the eye area detection unit detects an eye patch area as an existing area of the eye patch, and the eye area detection unit determines that the eye patch is worn by the eye patch determination unit. If it is, the face recognition device according to appendix 1 to appendix 3, wherein the eye area in the eye patch is determined and detected.

(付記5)前記顔認識手段により認識された結果に基づいて、微小時間後の前記顔認識手段により認識される結果を予測する顔認識予測手段を備える付記1ないし付記4に記載の顔認識装置。 (Supplementary note 5) The face recognition device according to any one of supplementary notes 1 to 4, further comprising face recognition prediction means for predicting a result recognized by the face recognition means after a minute time based on a result recognized by the face recognition means. .

(付記6)撮像された人物の撮像画像に基づいて人物の顔を認識する顔認識方法において、前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出工程と、前記鼻領域検出工程により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断工程と、前記遮蔽物着用判断工程により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出工程と、前記遮蔽物領域検出工程により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出工程と、前記鼻領域検出工程又は遮蔽物内鼻領域検出工程により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出工程とを備える顔認識方法。 (Appendix 6) In a face recognition method for recognizing a person's face based on a captured image of a captured person, a nose for detecting a nose region as an existing region of the captured person's nose based on the captured image When the nose region is not detected by the region detection step and the nose region detection step, the imaged person shields at least a part of the face based on the luminance values in the horizontal and vertical directions of the captured image. An area where the shielding object exists when it is determined by the shielding object wearing determination step that determines whether or not the imaged person is wearing the shielding object by the shielding object wearing determination step. A shielding object region detecting step for detecting a shielding material region as a shielding object region, and a shielding object inner nose region for identifying the nose region included in the shielding material region based on the shielding material region detected by the shielding material region detection step Inspection And an eye region detection step of detecting an eye region as a region where the imaged person's eye is present based on the nose region specified by the nose region detection step or the shield nose region detection step. Face recognition method.

(付記7)前記眼領域検出工程により検出された眼領域の画像情報に基づいて眼の開度及び/又は視線方向を認識し、前記眼領域及び/又は鼻領域に基づいて顔の向きを認識する顔認識工程を備える付記6記載の顔認識方法。 (Appendix 7) Recognizing the eye opening and / or line-of-sight direction based on the image information of the eye area detected by the eye area detection step, and recognizing the face direction based on the eye area and / or nose area The face recognition method according to appendix 6, further comprising a face recognition step.

(付記8)前記検出された眼領域の画像情報に基づいて、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する眼鏡フレーム領域検出工程と、前記眼鏡フレーム検出工程により検出された眼鏡フレーム領域の輝度分布に基づいて、前記眼鏡がサングラスかを判断するサングラス判断工程とを備え、前記眼領域検出工程が、前記サングラス判断工程により前記眼鏡がサングラスと判断された場合には、当該サングラスにおける前記眼領域を判断して検出する付記6又は付記7記載の顔認識方法。 (Additional remark 8) Based on the image information of the detected eye area, a spectacle frame area detecting step for detecting a spectacle frame area as an existing area of a spectacle frame worn by a person, and detection by the spectacle frame detecting step A sunglasses determination step of determining whether the glasses are sunglasses based on the luminance distribution of the spectacle frame region, and when the eye region detection step determines that the glasses are sunglasses by the sunglasses determination step The face recognition method according to appendix 6 or appendix 7, wherein the eye area in the sunglasses is determined and detected.

(付記9)前記検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する眼帯判断工程と、前記眼帯判断工程により眼帯が着用されていると判断された場合には、当該眼帯の存在領域としての眼帯領域を検出する眼帯領域検出工程とを備え、前記眼領域検出工程が、前記眼帯判断工程により眼帯が着用されていると判断された場合には、当該眼帯における前記眼領域を判断して検出する
付記6ないし付記8に記載の顔認識方法。
(Supplementary note 9) An eyepatch determination step for determining whether a person is wearing an eyepatch based on horizontal and vertical luminance values of image information in the detected eye region, and the eyepatch is worn by the eyepatch determination step The eye patch region detecting step of detecting the eye patch region as the region where the eye patch is present, and the eye region detecting step determines that the eye patch is worn by the eye patch determining step. The face recognition method according to any one of appendix 6 to appendix 8, wherein the eye region in the eye patch is determined and detected.

(付記10)前記顔認識工程により認識された結果に基づいて、微小時間後の前記顔認識工程により認識される結果を予測する顔認識予測工程を備える付記6ないし付記9に記載の顔認識方法。 (Additional remark 10) The face recognition method of Additional remark 6 thru | or Additional remark 9 provided with the face recognition prediction process which estimates the result recognized by the said face recognition process of micro time after based on the result recognized by the said face recognition process .

(付記11)撮像された人物の撮像画像に基づいて人物の顔を認識するようにコンピュータを機能させる顔認識プログラムにおいて、前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出手段、前記鼻領域検出手段により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断手段、前記遮蔽物着用判断手段により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出手段、前記遮蔽物領域検出手段により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出手段、前記鼻領域検出手段又は遮蔽物内鼻領域検出手段により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出手段としてコンピュータを機能させる顔認識プログラム。 (Additional remark 11) In the face recognition program which makes a computer function so that a person's face may be recognized based on the captured image of the imaged person, based on the captured image, as a nose existence area of the imaged person A nose region detecting unit for detecting a nose region; and when the nose region detecting unit detects no nose region, the captured person is at least a face based on luminance values in the horizontal and vertical directions of the captured image. Shield wear judging means for judging whether or not a shield covering a part is worn, and when the imaged person is judged to be wearing the shield by the shield wear judging means, the shielding Shielding object area detecting means for detecting a shielding object area as an object existence area, and based on the shielding object area detected by the shielding object area detecting means, the shielding object area includes the shielding object area. Based on the nose area detection means for identifying the area, the nose area detection means or the nose area detection means for the occlusion object, an eye area as the presence area of the captured human eye is determined. A face recognition program that causes a computer to function as eye area detection means for detection.

(付記12)前記眼領域検出手段により検出された眼領域の画像情報に基づいて眼の開度及び/又は視線方向を認識し、前記眼領域及び/又は鼻領域に基づいて顔の向きを認識する顔認識手段としてコンピュータを機能させる付記11記載の顔認識プログラム。 (Appendix 12) Recognizing the eye opening and / or line-of-sight direction based on the image information of the eye area detected by the eye area detecting means, and recognizing the face direction based on the eye area and / or nose area 12. A face recognition program according to appendix 11, which causes a computer to function as face recognition means.

(付記13)前記検出された眼領域の画像情報に基づいて、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する眼鏡フレーム領域検出手段、前記眼鏡フレーム検出手段により検出された眼鏡フレーム領域の輝度分布に基づいて、前記眼鏡がサングラスかを判断するサングラス判断手段としてコンピュータを機能させ、前記眼領域検出手段が、前記サングラス判断手段により前記眼鏡がサングラスと判断された場合には、当該サングラスにおける前記眼領域を判断して検出する付記11又は付記12記載の顔認識プログラム。 (Supplementary note 13) Based on the image information of the detected eye region, a spectacle frame region detecting unit for detecting a spectacle frame region as a region of spectacle frames worn by a person, detected by the spectacle frame detecting unit. When the computer functions as a sunglasses determination unit that determines whether the glasses are sunglasses based on the luminance distribution of the glasses frame region, and the eye region detection unit determines that the glasses are determined to be sunglasses by the sunglasses determination unit Is a face recognition program according to supplementary note 11 or supplementary note 12 for judging and detecting the eye area in the sunglasses.

(付記14)前記検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する眼帯判断手段、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯の存在領域としての眼帯領域を検出する眼帯領域検出手段としてコンピュータを機能させ、前記眼領域検出手段が、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯における前記眼領域を判断して検出する付記11ないし付記13に記載の顔認識プログラム。 (Supplementary note 14) Based on the luminance values in the horizontal and vertical directions of the image information in the detected eye region, eye patch determining means for determining whether a person is wearing the eye patch, and the eye patch is being worn by the eye patch determining means If it is determined that the computer is functioning as eye patch area detecting means for detecting an eye patch area as an area where the eye patch is present, the eye area detecting means is wearing the eye patch by the eye patch determining means. 14. The face recognition program according to appendix 11 to appendix 13, wherein if judged, the eye area in the eye patch is judged and detected.

(付記15)前記顔認識手段により認識された結果に基づいて、微小時間後の前記顔認識手段により認識される結果を予測する顔認識予測手段としてコンピュータを機能させる付記11ないし付記14に記載の顔認識プログラム。 (Supplementary note 15) The supplementary notes 11 to 14, which cause the computer to function as a face recognition prediction unit that predicts a result recognized by the face recognition unit after a minute time based on the result recognized by the face recognition unit. Face recognition program.

本発明の第1の実施形態に係る顔認識装置の構成を示すブロック図The block diagram which shows the structure of the face recognition apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る顔認識装置の全体構成図1 is an overall configuration diagram of a face recognition device according to a first embodiment of the present invention. 本発明の第1の実施形態に係る顔認識装置の全体フローチャートEntire flowchart of face recognition apparatus according to first embodiment of the present invention 本発明の第1の実施形態に係る顔認識装置の顔領域及び顔部位検出のフローチャートFlowchart of face area and face part detection of face recognition device according to first embodiment of the present invention 本発明の第1の実施形態に係る顔認識装置の鼻領域検出のフローチャートFlowchart of nose region detection of face recognition device according to first embodiment of the present invention 本発明の第1の実施形態に係る顔認識装置のマスク検出のフローチャートFlowchart of mask detection of face recognition apparatus according to first embodiment of the present invention 本発明の第1の実施形態に係る顔認識装置の眼鏡ブリッジ領域検出のフローチャートFlowchart of eyeglass bridge area detection of face recognition device according to first embodiment of the present invention 本発明の第1の実施形態に係る顔認識装置の眼鏡フレーム領域検出のフローチャートFlowchart of eyeglass frame region detection of face recognition device according to first embodiment of the present invention 本発明の第1の実施形態に係る顔認識装置のサングラス領域検出のフローチャートFlowchart of sunglasses area detection of face recognition device according to first embodiment of the present invention 本発明の第1の実施形態に係る顔認識装置のサングラス領域総合判定のフローチャートFlowchart of sunglasses region comprehensive determination of face recognition device according to first embodiment of the present invention. 本発明の第1の実施形態に係る顔認識装置の眼領域の位置検出のフローチャートFlowchart for detecting the position of the eye region of the face recognition device according to the first embodiment of the present invention. 本発明の第1の実施形態に係る顔認識装置の眼帯領域検出のフローチャートFlow chart of eye patch region detection of the face recognition device according to the first embodiment of the present invention. 本発明の第1の実施形態に係る顔認識装置の顔向き検出の説明図Explanatory drawing of face direction detection of the face recognition apparatus which concerns on the 1st Embodiment of this invention.

符号の説明Explanation of symbols

1 顔領域検出手段
2 鼻領域検出手段
3 マスク着用判断手段
31 マスク領域検出手段
32 マスク内鼻領域検出手段
4 眼領域検出手段
5 顔認識手段
5a 顔情報蓄積手段
41 眼鏡フレーム領域検出手段
42 サングラス判断手段
43 眼帯判断手段
44 眼帯領域検出手段
6 顔認識予測手段
7 特徴判断手段
8 警報手段
8A 警報装置
10 顔認識装置
100 撮影手段
100A 車載カメラ
200 自動車
300 運転手
300A 顔
DESCRIPTION OF SYMBOLS 1 Face area detection means 2 Nose area detection means 3 Mask wear determination means 31 Mask area detection means 32 In-mask nose area detection means 4 Eye area detection means 5 Face recognition means 5a Face information storage means 41 Eyeglass frame area detection means 42 Sunglasses determination Means 43 Eyepatch judgment means 44 Eyepatch area detection means 6 Face recognition prediction means 7 Feature judgment means 8 Alarm means 8A Alarm device 10 Face recognition apparatus 100 Imaging means 100A Car-mounted camera 200 Car 300 Driver 300A Face

Claims (7)

撮像された人物の撮像画像に基づいて人物の顔を認識する顔認識装置において、
前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出手段と、
前記鼻領域検出手段により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物の鼻を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断手段と、
前記遮蔽物着用判断手段により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出手段と、
前記遮蔽物領域検出手段により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出手段と、
前記鼻領域検出手段又は遮蔽物内鼻領域検出手段により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出手段とを備える
顔認識装置。
In a face recognition device for recognizing a person's face based on a captured image of the person,
Nose region detecting means for detecting a nose region as a nose present region of the imaged person based on the captured image;
When no nose area is detected by the nose area detecting means, it is determined whether or not a shield that shields the nose of the imaged person is worn based on the luminance values in the horizontal and vertical directions of the captured image. Means for determining whether to wear a shield,
When it is determined by the shielding object wearing determination means that the imaged person is wearing a shielding object, a shielding object region detecting unit that detects a shielding object region as the existence region of the shielding object;
On the basis of the shielding object area detected by the shielding object area detection means, the nose area detection means in the shielding object for identifying the nose area included in the shielding object area;
An eye area detecting means for detecting an eye area as an existing area of the person's eye imaged based on the nose area specified by the nose area detecting means or the nose area detecting means in the shield. .
請求項1に記載の顔認識装置において、
前記眼領域検出手段により検出された眼領域の画像情報に基づいて眼の開度及び/又は視線方向を認識し、前記眼領域及び/又は鼻領域に基づいて顔の向きを認識する顔認識手段を備える
顔認識装置。
The face recognition device according to claim 1,
Face recognition means for recognizing the opening degree and / or line-of-sight direction of the eye based on image information of the eye area detected by the eye area detection means, and recognizing the face direction based on the eye area and / or nose area A face recognition device.
請求項1又は請求項2に記載の顔認識装置において、
前記検出された眼領域の画像情報に基づいて、人物に着用された眼鏡のフレームの存在領域としての眼鏡フレーム領域を検出する眼鏡フレーム領域検出手段と、
前記眼鏡フレーム検出手段により検出された眼鏡フレーム領域の輝度分布に基づいて、前記眼鏡がサングラスかを判断するサングラス判断手段とを備え、
前記眼領域検出手段が、前記サングラス判断手段により前記眼鏡がサングラスと判断された場合には、当該サングラスにおける前記眼領域を判断して検出する
顔認識装置。
The face recognition device according to claim 1 or 2,
A spectacle frame region detecting means for detecting a spectacle frame region as an existing region of a spectacle frame worn by a person based on the image information of the detected eye region;
Sunglasses determining means for determining whether the glasses are sunglasses based on the luminance distribution of the glasses frame region detected by the glasses frame detecting means;
A face recognition device that determines and detects the eye area in the sunglasses when the eye area detection means determines that the glasses are sunglasses by the sunglasses determination means.
請求項1ないし請求項3に記載の顔認識装置において、
前記検出された眼領域における画像情報の水平及び垂直方向の輝度値に基づいて、人物が眼帯を着用しているかを判断する眼帯判断手段と、
前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯の存在領域としての眼帯領域を検出する眼帯領域検出手段とを備え、
前記眼領域検出手段が、前記眼帯判断手段により眼帯が着用されていると判断された場合には、当該眼帯における前記眼領域を判断して検出する
顔認識装置。
The face recognition device according to claim 1, wherein
Eye patch determination means for determining whether a person wears an eye patch based on the horizontal and vertical luminance values of the image information in the detected eye region;
When it is determined by the eye patch determining means that the eye patch is worn, the eye patch region detecting means for detecting an eye patch area as an existing area of the eye patch,
A face recognition device that determines and detects the eye region in the eye patch when the eye region detection unit determines that the eye patch is worn by the eye patch determination unit.
請求項1ないし請求項4に記載の顔認識装置において、
前記顔認識手段により認識された結果に基づいて、微小時間後の前記顔認識手段により認識される結果を予測する顔認識予測手段を備える
顔認識装置。
The face recognition apparatus according to claim 1, wherein:
A face recognition apparatus comprising: a face recognition prediction unit that predicts a result recognized by the face recognition unit after a minute time based on a result recognized by the face recognition unit.
撮像された人物の撮像画像に基づいて人物の顔を認識する顔認識方法において、In a face recognition method for recognizing a person's face based on a captured image of a captured person,
前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出工程と、A nose region detecting step of detecting a nose region as a nose present region of the imaged person based on the captured image;
前記鼻領域検出工程により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断工程と、When the nose region is not detected by the nose region detection step, based on the luminance values in the horizontal and vertical directions of the captured image, the captured person wears a shield that shields at least a part of the face. A shield wearing judgment process for judging whether or not
前記遮蔽物着用判断工程により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出工程と、When it is determined that the imaged person is wearing a shield by the shield wear determination step, a shield region detection step of detecting a shield region as the presence region of the shield,
前記遮蔽物領域検出工程により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出工程と、On the basis of the shielding object area detected by the shielding object area detection process, the shielding nose area detection process for identifying the nose area included in the shielding object area;
前記鼻領域検出工程又は遮蔽物内鼻領域検出工程により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出工程とを備えるAn eye area detecting step of detecting an eye area as an existing area of the imaged person's eye based on the nose area specified by the nose area detecting step or the nose area detecting step in the shield.
顔認識方法。Face recognition method.
撮像された人物の撮像画像に基づいて人物の顔を認識するようにコンピュータを機能させる顔認識プログラムにおいて、In a face recognition program for causing a computer to function to recognize a person's face based on a captured image of the person who is imaged,
前記撮像画像に基づいて、前記撮像された人物の鼻の存在領域としての鼻領域を検出する鼻領域検出手段、Nose region detecting means for detecting a nose region as a nose present region of the imaged person based on the captured image;
前記鼻領域検出手段により鼻領域が検出されなかった場合に、前記撮像画像の水平及び垂直方向の輝度値に基づいて、前記撮像された人物が少なくとも顔の一部を遮蔽する遮蔽物を着用しているかを判断する遮蔽物着用判断手段、When the nose region is not detected by the nose region detection means, the captured person wears a shield that shields at least a part of the face based on the horizontal and vertical luminance values of the captured image. Means for judging whether or not the shield is worn,
前記遮蔽物着用判断手段により前記撮像された人物が遮蔽物を着用していると判断された場合に、当該遮蔽物の存在領域としての遮蔽物領域を検出する遮蔽物領域検出手段、A shield area detection means for detecting a shield area as an existence area of the shield when it is determined by the shield wear determination means that the imaged person is wearing a shield;
前記遮蔽物領域検出手段により検出された遮蔽物領域に基づいて、当該遮蔽物領域に含まれる前記鼻領域を特定する遮蔽物内鼻領域検出手段、Based on the shielding object area detected by the shielding object area detection means, the shielding object nose area detection means for specifying the nose area included in the shielding object area,
前記鼻領域検出手段又は遮蔽物内鼻領域検出手段により特定された鼻領域に基づいて、前記撮像された人物の眼の存在領域としての眼領域を検出する眼領域検出手段としてコンピュータを機能させるBased on the nose region specified by the nose region detecting unit or the nose region detecting unit in the shield, the computer functions as an eye region detecting unit that detects an eye region as a region where the captured human eye exists.
顔認識プログラム。Face recognition program.
JP2008334665A 2008-12-26 2008-12-26 Face recognition device, face recognition method, and face recognition program Active JP5359266B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008334665A JP5359266B2 (en) 2008-12-26 2008-12-26 Face recognition device, face recognition method, and face recognition program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008334665A JP5359266B2 (en) 2008-12-26 2008-12-26 Face recognition device, face recognition method, and face recognition program

Publications (2)

Publication Number Publication Date
JP2010157073A JP2010157073A (en) 2010-07-15
JP5359266B2 true JP5359266B2 (en) 2013-12-04

Family

ID=42574971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008334665A Active JP5359266B2 (en) 2008-12-26 2008-12-26 Face recognition device, face recognition method, and face recognition program

Country Status (1)

Country Link
JP (1) JP5359266B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015165365A1 (en) * 2014-04-29 2015-11-05 华为技术有限公司 Facial recognition method and system
KR20230101061A (en) 2021-12-29 2023-07-06 주식회사 리얼타임테크 Method for generating face data set on wearing a mask

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5012690B2 (en) * 2008-06-24 2012-08-29 トヨタ自動車株式会社 Facial cover and facial part identification method
JP5703068B2 (en) * 2011-02-28 2015-04-15 綜合警備保障株式会社 Face detection method, face detection device, and program
US9549118B2 (en) 2014-03-10 2017-01-17 Qualcomm Incorporated Blink and averted gaze avoidance in photographic images
US11347793B2 (en) 2014-09-22 2022-05-31 Interdigital Madison Patent Holdings, Sas Use of depth perception as indicator of search, user interest or preference
KR101956071B1 (en) 2015-01-13 2019-03-08 삼성전자주식회사 Method and apparatus for verifying a user
JP2016189135A (en) * 2015-03-30 2016-11-04 パイオニア株式会社 Recognition device, recognition method, and recognition program
JP6971582B2 (en) * 2017-02-16 2021-11-24 アルパイン株式会社 Status detector, status detection method, and program
KR102359558B1 (en) 2017-03-28 2022-02-09 삼성전자주식회사 Face verifying method and apparatus
CN108664782B (en) 2017-03-28 2023-09-12 三星电子株式会社 Face verification method and device
JP7074432B2 (en) 2017-06-26 2022-05-24 本田技研工業株式会社 Vehicle control systems, vehicle control methods, and vehicle control programs
JP7064720B2 (en) * 2018-02-16 2022-05-11 株式会社ニコン Calculation device, calculation program and calculation method
CN110647955A (en) * 2018-06-26 2020-01-03 义隆电子股份有限公司 Identity authentication method
JP6747493B2 (en) * 2018-11-28 2020-08-26 株式会社デンソー Driver status determination device
JP7354761B2 (en) 2019-10-23 2023-10-03 オムロン株式会社 Distance estimation device, distance estimation method, and distance estimation program
JP2020042842A (en) * 2019-11-22 2020-03-19 パイオニア株式会社 Recognition device, recognition method, and recognition program
CN111428559A (en) * 2020-02-19 2020-07-17 北京三快在线科技有限公司 Method and device for detecting wearing condition of mask, electronic equipment and storage medium
CN111783605A (en) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 Face image recognition method, device, equipment and storage medium
JPWO2022123751A1 (en) 2020-12-10 2022-06-16
CN112912893A (en) * 2021-01-28 2021-06-04 深圳市锐明技术股份有限公司 Detection method and device for wearing mask, terminal equipment and readable storage medium
WO2023242886A1 (en) * 2022-06-13 2023-12-21 三菱電機株式会社 Face orientation estimation device, side glance determination system, and face orientation estimation method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251617A (en) * 2001-02-22 2002-09-06 Toyota Central Res & Dev Lab Inc Device for detecting nose position
JP4501003B2 (en) * 2005-07-15 2010-07-14 国立大学法人静岡大学 Face posture detection system
JP4739870B2 (en) * 2005-09-05 2011-08-03 アイシン精機株式会社 Sunglasses detection device and face center position detection device
JP4895874B2 (en) * 2007-03-15 2012-03-14 アイシン精機株式会社 Eye state determination device, eye state determination method, and eye state determination program
JP4912206B2 (en) * 2007-04-18 2012-04-11 富士通株式会社 Image processing method, image processing apparatus, image processing system, and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015165365A1 (en) * 2014-04-29 2015-11-05 华为技术有限公司 Facial recognition method and system
KR20230101061A (en) 2021-12-29 2023-07-06 주식회사 리얼타임테크 Method for generating face data set on wearing a mask

Also Published As

Publication number Publication date
JP2010157073A (en) 2010-07-15

Similar Documents

Publication Publication Date Title
JP5359266B2 (en) Face recognition device, face recognition method, and face recognition program
JP4845698B2 (en) Eye detection device, eye detection method, and program
US7916904B2 (en) Face region detecting device, method, and computer readable recording medium
JP4826506B2 (en) Gaze estimation device
KR101393717B1 (en) Facial recognition technology
JP2008146356A (en) Visual line direction predicting device and visual line direction predicting method
JP4912206B2 (en) Image processing method, image processing apparatus, image processing system, and computer program
JP3926507B2 (en) Eye position and face position detection device
JP2015075914A (en) Eye part detecting device, method, and program
KR102161908B1 (en) Driver status monitor method and apparatus
US20220292883A1 (en) Judgement method, judgement device, and judgement program
US20160171323A1 (en) Apparatus for recognizing iris and operating method thereof
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
JPWO2013008304A1 (en) 瞼 Detection device
JP2008090452A (en) Detection device, method and program
JPH11105578A (en) Wink detecting facial picture processor using retinal reflected image
JP2007257321A (en) Face portion tracing method and its device
WO2022110917A1 (en) Method for determining driving state of driver, computer storage medium, and electronic device
CN109196517B (en) Comparison device and comparison method
JP4788319B2 (en) Opening and closing eye determination device and method
JP2000067225A (en) Eye position detector
JP2010003232A (en) Eye detection device
JP2008209969A (en) Apparatus for detecting face feature point, method of detecting face feature point, and program
JP4910212B2 (en) Eye position detection apparatus, method and program
JP6698966B2 (en) False detection determination device and false detection determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110907

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121016

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130319

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130819

R150 Certificate of patent or registration of utility model

Ref document number: 5359266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150