JP2021193624A - Recognition device, recognition method and recognition program - Google Patents

Recognition device, recognition method and recognition program Download PDF

Info

Publication number
JP2021193624A
JP2021193624A JP2021156579A JP2021156579A JP2021193624A JP 2021193624 A JP2021193624 A JP 2021193624A JP 2021156579 A JP2021156579 A JP 2021156579A JP 2021156579 A JP2021156579 A JP 2021156579A JP 2021193624 A JP2021193624 A JP 2021193624A
Authority
JP
Japan
Prior art keywords
face
mask
degrees
orientation
center line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021156579A
Other languages
Japanese (ja)
Inventor
良司 野口
Ryoji Noguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2021156579A priority Critical patent/JP2021193624A/en
Publication of JP2021193624A publication Critical patent/JP2021193624A/en
Priority to JP2023083675A priority patent/JP2023103452A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a recognition device or the like capable of accurately recognizing the direction of an object coated with a coating member.SOLUTION: A recognition device 1 includes acquisition means for acquiring an image obtained by photographing an object coated with a coating member in a state where the object is irradiated by irradiation means, detection means for detecting a center line in a front vertical direction of the surface of the object on the basis of the luminance value of a pixel included in the image, and recognition means for recognizing the orientation of the object on the basis of the center line.SELECTED DRAWING: Figure 1

Description

本願は、対象を撮影した画像に基づいて当該対象の向いている方向を認識する認識装置等の技術分野に関する。 The present application relates to a technical field such as a recognition device that recognizes a direction in which an object is facing based on an image of the object.

従来、人物の顔を撮影した画像から人物の顔の向きを認識する技術がある。一般的に顔の向きは顔の各部位の特徴を用いて認識するため、顔の一部がマスクなどの被覆材により被覆されていると認識精度が低下してしまう。 Conventionally, there is a technique of recognizing the direction of a person's face from an image of the person's face. Generally, the orientation of the face is recognized using the characteristics of each part of the face, so if a part of the face is covered with a covering material such as a mask, the recognition accuracy is lowered.

そこで、特許文献1に記載された技術は、マスクが存在する場合に、顔領域の顔幅に対するマスク中央部の鼻の相対位置から顔の左右向き角度を算出している。 Therefore, the technique described in Patent Document 1 calculates the left-right angle of the face from the relative position of the nose in the center of the mask with respect to the face width of the face region when the mask is present.

特許5359266号公報Japanese Patent No. 5359266

しかしながら、特許文献1に記載の技術では、マスク中央部を鼻の位置としているが、マスク中央部は必ずしも実際の鼻の位置ではない場合があり、正確に顔の左右向き角度を算出できない場合がある。 However, in the technique described in Patent Document 1, although the central part of the mask is the position of the nose, the central part of the mask may not always be the actual position of the nose, and the left-right angle of the face may not be calculated accurately. be.

本願発明は、こうした事情に鑑み、被覆部材により被覆された対象の向きを正確に認識することのできる認識装置等を提供することを課題とする。 In view of these circumstances, it is an object of the present invention to provide a recognition device or the like capable of accurately recognizing the orientation of an object covered with a covering member.

請求項1に記載の発明は、被覆部材により被覆された対象を照射手段により光を照射した状態で撮影した画像を取得する取得手段と、前記画像に含まれる画素の輝度値に基づいて、前記対象の表面における正面縦方向の中心線を検出する検出手段と、前記検出手段の検出結果に基づいて、前記対象の向きを認識する認識手段と、を備える。 The invention according to claim 1 is based on an acquisition means for acquiring an image obtained by irradiating an object covered with a covering member with light by an irradiation means and a luminance value of a pixel included in the image. A detection means for detecting the center line in the front vertical direction on the surface of the target and a recognition means for recognizing the direction of the target based on the detection result of the detection means are provided.

請求項6に記載の発明は、認識装置による認識方法であって、被覆部材により被覆された対象を照射手段により光を照射した状態で撮影した画像を取得する取得工程と、前記画像に含まれる画素の輝度値に基づいて、前記対象の表面における正面縦方向の中心線を検出する検出工程と、前記検出工程の検出結果に基づいて、前記対象の向きを認識する認識工程と、を含む。 The invention according to claim 6 is a recognition method using a recognition device, which includes an acquisition step of acquiring an image taken by irradiating an object covered with a covering member with light by an irradiation means, and the image. It includes a detection step of detecting a center line in the front vertical direction on the surface of the target based on the brightness value of the pixel, and a recognition step of recognizing the orientation of the target based on the detection result of the detection step.

請求項7に記載の発明は、コンピュータを、被覆部材により被覆された対象を照射手段により光を照射した状態で撮影した画像を取得する取得手段、前記画像に含まれる画素の輝度値に基づいて、前記対象の表面における正面縦方向の中心線を検出する検出手段、前記検出手段の検出結果に基づいて、前記対象の向きを認識する認識手段、として機能させる。 The invention according to claim 7 is based on an acquisition means for acquiring an image taken by a computer in a state where an object covered with a covering member is irradiated with light by an irradiation means, and a luminance value of a pixel included in the image. , The detection means for detecting the center line in the front vertical direction on the surface of the target, and the recognition means for recognizing the orientation of the target based on the detection result of the detection means.

認識装置1のブロック図である。It is a block diagram of the recognition device 1. 色分け画像の一例である。This is an example of a color-coded image. 色分け画像の一例である。This is an example of a color-coded image. 顔向き認識装置Dのブロック図の一例である。This is an example of a block diagram of the face orientation recognition device D. 顔向き認識装置Dの機能ブロック図の一例である。This is an example of a functional block diagram of the face orientation recognition device D. (A)、(B)、(C)は、顔やマスクの特徴検出方法の一例を説明するための図である。(A), (B), and (C) are diagrams for explaining an example of a method for detecting features of a face or a mask. 様々な顔の向きで撮影した色分け画像の一例である。This is an example of a color-coded image taken with various face orientations. (A)、(B)は、特殊な形状のマスクの一例を示す図である。(A) and (B) are diagrams showing an example of a mask having a special shape. 顔向き認識装置Dによる顔向き判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the face orientation determination processing by a face orientation recognition apparatus D. 顔向き認識装置Dによるマスク着用判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the mask wearing determination processing by a face orientation recognition apparatus D. 顔向き認識装置Dによるヨー角判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the yaw angle determination processing by a face orientation recognition apparatus D. 顔向き認識装置Dによるピッチ角判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the pitch angle determination processing by a face orientation recognition apparatus D. (A)、(B)は、マスク左右端の特徴と顔中心線(マスク上端付近)の特徴の一例を示す図である。(A) and (B) are diagrams showing an example of the features of the left and right edges of the mask and the features of the face center line (near the upper end of the mask). (A)、(B)は、マスク左右端の特徴と顔中心線(マスクにかかる部分)の特徴の一例を示す図である。(A) and (B) are diagrams showing an example of the characteristics of the left and right edges of the mask and the characteristics of the face center line (the portion applied to the mask). カメラCと照射部Lを対象からみて異なる方向に配置した状態で撮影した画像の一例を示す図である。It is a figure which shows an example of the image which took the state that the camera C and the irradiation part L were arranged in different directions with respect to an object.

本願発明を実施するための形態について、図1を用いて説明する。 A mode for carrying out the present invention will be described with reference to FIG.

図1に示すように、認識装置1は取得手段111Aと、検出手段111Bと、認識手段111Cと、記憶制御手段111Dと、記憶手段111Eと、を備えている。なお、記憶手段は、認識装置1の外部に設けてもよい。 As shown in FIG. 1, the recognition device 1 includes acquisition means 111A, detection means 111B, recognition means 111C, storage control means 111D, and storage means 111E. The storage means may be provided outside the recognition device 1.

取得手段111Aは、被覆部材により被覆された対象を照射手段により光を照射した状態で撮影した画像を取得する。被覆部材により被覆された対象とは、例えば、マスクを装着した顔である。照射手段は、一定の方向から対象に光を照射するのが好ましい。 The acquisition means 111A acquires an image taken in a state where the target covered with the covering member is irradiated with light by the irradiation means. The object covered by the covering member is, for example, a face wearing a mask. The irradiation means preferably irradiates the target with light from a certain direction.

検出手段111Bは、取得手段111Aが取得した画像に含まれる画素の輝度値に基づいて、対象の表面における正面縦方向の中心線を検出する。対象の表面における正面縦方向の中心線とは、対象が顔(一般的な顔)である場合には、目の間と、鼻の中心と、口の中心であって顔表面を通る線である。 The detection means 111B detects the center line in the front vertical direction on the surface of the target based on the luminance value of the pixels included in the image acquired by the acquisition means 111A. The front vertical centerline on the surface of the subject is the line between the eyes, the center of the nose, and the center of the mouth that passes through the face surface when the subject is the face (general face). be.

ここで、図2を用いて中心線について説明する。図2は、マスク(「被覆材」の一例)をした顔を、カメラ方向から光を照射した状態で撮影した画像(モデルのプライバシー保護のため、目の部分を黒で塗りつぶす加工を施している。以下、モデルを撮影した画像について同様である)を輝度値に基づいて色分けした色分け画像200である。具体的には、輝度値100未満の部分を符号201で指し示す色で表し、輝度値100以上160未満の部分を符号202で指し示す色で表し、輝度値160以上220未満の部分を符号203で指し示す色で表し、輝度値220以上の部分を符号204で指し示す色で表している。光を照射した場合、肌に比べて、マスク領域の輝度値が大きくなる。図2に示すように、マスク領域は、大きな輝度値(輝度値220以上)となる。マスクを装着した顔は顔中心に対して、左右対称で、顔中心はその他の顔部位に対して、やや突出する傾向にあるので、光をカメラ正面方向から照射した画像に基づき、検出手段111Bはマスクの左端211と、顔(マスク)中心線212(「中心線」の一例)を検出することができる。すなわち、検出手段111Bは、輝度値220以上の領域のマスク左端側(画像では右側)のエッジを、マスクの左端211として検出し、輝度値220以上の領域の顔中心側(マスク左端側と反対側)のエッジを、顔中心線212として検出する。但し、横方向の向き(ヨー角)がカメラ正面に対して一定の角度(50度程度)を超えると、輝度値220以上の領域の顔中心側(マスク左端側と反対側)のエッジが顔中心線212と一致しなくなるので、この場合には、輝度値160以上220未満の領域の顔中心側のエッジを顔中心線212Bとして検出するのが好ましい。 Here, the center line will be described with reference to FIG. Figure 2 shows an image of a masked face (an example of a "covering material") taken with light shining from the direction of the camera (to protect the privacy of the model, the eyes are painted black. The same applies to the image taken by the model below), which is a color-coded image 200 based on the brightness value. Specifically, the portion having a luminance value of less than 100 is represented by the color indicated by the reference numeral 201, the portion having a luminance value of 100 or more and less than 160 is represented by the color indicated by the reference numeral 202, and the portion having a luminance value of 160 or more and less than 220 is indicated by the reference numeral 203. It is represented by a color, and a portion having a luminance value of 220 or more is represented by a color indicated by reference numeral 204. When irradiated with light, the brightness value of the mask area becomes larger than that of the skin. As shown in FIG. 2, the mask region has a large luminance value (luminance value 220 or more). The face wearing the mask is bilaterally symmetrical with respect to the center of the face, and the center of the face tends to protrude slightly with respect to other facial parts. Can detect the left end 211 of the mask and the face (mask) centerline 212 (an example of the "centerline"). That is, the detection means 111B detects the edge on the left end side of the mask (right side in the image) of the region having a luminance value of 220 or more as the left end 211 of the mask, and is opposite to the face center side (opposite to the left end side of the mask) in the region having a luminance value of 220 or more. The edge on the side) is detected as the face center line 212. However, if the lateral orientation (yaw angle) exceeds a certain angle (about 50 degrees) with respect to the front of the camera, the edge on the face center side (opposite to the left end side of the mask) in the region with a brightness value of 220 or more becomes the face. Since it does not match the center line 212, in this case, it is preferable to detect the edge on the face center side in the region having a luminance value of 160 or more and less than 220 as the face center line 212B.

認識手段111Cは、検出手段111Bの検出結果に基づいて、対象の向きを認識する。 The recognition means 111C recognizes the direction of the target based on the detection result of the detection means 111B.

以上説明した通り、実施形態に係る認識装置1の動作によれば、画像に含まれる画素の輝度値に基づく対象の表面における正面縦方向の中心線の検出結果に基づいて対象の向きを認識することから、対象が被覆部材により被覆されている場合であっても対象の向きを正確に認識することができる。 As described above, according to the operation of the recognition device 1 according to the embodiment, the orientation of the target is recognized based on the detection result of the center line in the front vertical direction on the surface of the target based on the luminance value of the pixels included in the image. Therefore, even when the object is covered with the covering member, the direction of the object can be accurately recognized.

また、認識手段111Cは、顔中心線212の傾きに基づいて、対象の縦方向の向き(ピッチ角)を認識する場合がある。顔の縦方向の向きと顔中心線212の傾きには相関関係があることが発明者の調査の結果分かっていることから、顔の縦方向の向き(ピッチ角)毎(例えば、10度毎)に傾きに関する閾値を設けて、顔中心線212の傾きを閾値と比較することにより、顔の縦方向の角度を判定することができる。これにより、対象の縦方向の向きを認識することができる。 Further, the recognition means 111C may recognize the vertical direction (pitch angle) of the target based on the inclination of the face center line 212. Since it is known as a result of the inventor's investigation that there is a correlation between the vertical orientation of the face and the inclination of the face center line 212, each vertical orientation (pitch angle) of the face (pitch angle) (for example, every 10 degrees) ), And the inclination of the face center line 212 is compared with the threshold to determine the vertical angle of the face. This makes it possible to recognize the vertical orientation of the target.

更に、検出手段111Bは、認識手段111Cが対象の縦方向の向きを認識した際の、対象における被覆部材の上側の境界である上境界213を更に検出し、記憶制御手段111Dは、検出手段111Bが検出した上境界213の傾きを、認識手段111Bが認識した対象の縦方向の向きと対応付けて記憶手段111Eに記憶させ、認識手段111Cは、縦方向の向きを認識していない対象の画像が新たに取得された際に、当該画像について検出された被覆部材の上境界213の傾きと略同一の傾きが対応付けられている縦方向の向きを、当該画像に写る対象の縦方向の向きとして認識する場合がある。被覆部材の上境界213の傾きが略同一である場合には対象の縦方向の向きも略同一であることが、発明者の調査の結果、分かっていることから、このような判定が可能となる。これにより、一度、対象の縦方向の向きを認識しておけば、それ以降の画像については、上境界213を検出して、記憶手段に記憶された上境界213と比較することにより、縦方向の向きを認識することができる。すなわち、縦方向の向きを認識するための処理負担が軽減される。 Further, the detection means 111B further detects the upper boundary 213 which is the upper boundary of the covering member in the target when the recognition means 111C recognizes the vertical direction of the target, and the storage control means 111D further detects the upper boundary 213, and the storage control means 111D detects the detection means 111B. Stores the inclination of the upper boundary 213 detected by the storage means 111E in association with the vertical orientation of the target recognized by the recognition means 111B, and the recognition means 111C stores the image of the target whose vertical orientation is not recognized. Is newly acquired, the vertical orientation associated with the tilt of the upper boundary 213 of the covering member detected for the image is substantially the same as the vertical orientation of the object to be reflected in the image. May be recognized as. As a result of the inventor's investigation, it is known that when the inclinations of the upper boundary 213 of the covering member are substantially the same, the orientation of the target in the vertical direction is also substantially the same. Become. As a result, once the vertical orientation of the target is recognized, the upper boundary 213 is detected for the subsequent images and compared with the upper boundary 213 stored in the storage means in the vertical direction. Can recognize the direction of. That is, the processing load for recognizing the vertical orientation is reduced.

更にまた、認識手段111Cは、対象の横幅における、上境界線213と顔中心線212との交点の位置に基づいて、対象の横方向の向き(ヨー角)を認識する場合がある。 Furthermore, the recognition means 111C may recognize the lateral orientation (yaw angle) of the target based on the position of the intersection of the upper boundary line 213 and the face center line 212 in the width of the target.

ここで、図3を用いて対象の横方向の向きを認識する場合の一例について説明する。認識手段111Cは、3本の垂線221−223に基づいて、対象の横方向の向きを認識する。垂線221は左耳端の点を通る垂線である。垂線222は顔中心線212と上境界213の交点を通る垂線である。垂線223は顔中心線212と上境界213の交点から顔奥側へ水平方向に移動し、顔右端に到達した点を通る垂線である。認識手段111Cは、垂線221と垂線222の幅WA(手前側顔幅WA)、垂線222と垂線223の幅WB(奥側顔幅WB)、垂線221と垂線223の幅WCの何れか2つ幅に基づいて、対象の横方向の向きを認識する。顔の横方向の向きと、手前側顔幅WAと奥側顔幅WBの比には相関関係があることが発明者の調査の結果、分かっていることから、顔の横方向の向き(角度)毎(例えば、10度毎)に手前側顔幅WAと奥側顔幅WBの比に関する閾値を設けて、手前側顔幅WAと奥側顔幅WBの比を閾値と比較することにより、顔の横方向の角度を判定することができる。これにより、対象の横方向の向きを認識することができる。 Here, an example in the case of recognizing the lateral orientation of the target using FIG. 3 will be described. The recognition means 111C recognizes the lateral orientation of the object based on the three perpendiculars 221-223. The perpendicular line 221 is a perpendicular line passing through the point at the end of the left ear. The perpendicular line 222 is a perpendicular line passing through the intersection of the face center line 212 and the upper boundary 213. The vertical line 223 is a vertical line that moves horizontally from the intersection of the face center line 212 and the upper boundary 213 toward the back of the face and passes through the point where the right end of the face is reached. The recognition means 111C has any two of the width WA of the vertical line 221 and the vertical line 222 (front side face width WA), the width WB of the vertical line 222 and the vertical line 223 (back side face width WB), and the width WC of the vertical line 221 and the vertical line 223. Recognize the lateral orientation of the object based on its width. As a result of the inventor's investigation, it is known that there is a correlation between the lateral orientation of the face and the ratio of the front side face width WA and the back side face width WB. ) (For example, every 10 degrees), a threshold for the ratio of the front face width WA and the back face width WB is set, and the ratio of the front face width WA and the back face width WB is compared with the threshold. The lateral angle of the face can be determined. This makes it possible to recognize the lateral orientation of the object.

更にまた、検出手段111Bは、被覆部材の左側及び右側の少なくとも一方の境界である左右境界を更に検出し、認識手段111Cは、検出手段111Bが左右境界を検出した場合に、検出手段111Bが検出した左右境界と中心線とに基づいて、対象の横方向の向きを認識する。なお、左右境界は、例えば、マスクの左端211のエッジ(図2参照)で示される左境界、及び、マスクの右端のエッジで示される右境界の少なくとも一方の境界を意味する。すなわち、左右境界は左境界と右境界の総称ともいうことができる。認識手段111Cは、対象が右側を向いていることをマスクの左端211のエッジ(左境界)が検出されたことに基づいて認識し、対象が左側を向いていることをマスクの右端のエッジ(右境界)が検出されたことに基づいて認識する。 Furthermore, the detecting means 111B further detects the left-right boundary which is the boundary of at least one of the left side and the right side of the covering member, and the recognition means 111C detects the left-right boundary when the detecting means 111B detects the left-right boundary. The lateral orientation of the object is recognized based on the left-right boundary and the center line. The left-right boundary means, for example, at least one boundary of the left boundary indicated by the edge of the left end 211 of the mask (see FIG. 2) and the right boundary indicated by the right end edge of the mask. That is, the left-right boundary can be said to be a general term for the left boundary and the right boundary. The recognition means 111C recognizes that the target is facing the right side based on the detection of the edge (left boundary) of the left end 211 of the mask, and recognizes that the target is facing the left side of the mask at the right end edge (left boundary). (Right boundary) is recognized based on the detection.

次に、上述した実施形態に対応する具体的な実施例について説明する。 Next, specific examples corresponding to the above-described embodiments will be described.

図4−図14を用いて実施例について説明する。なお以下に説明する実施例は、本願発明を、顔向き認識装置D(以下、「認識装置D」という場合がある)に適用した場合の実施例である。 Examples will be described with reference to FIGS. 4- and 14. The examples described below are examples when the present invention is applied to the face orientation recognition device D (hereinafter, may be referred to as “recognition device D”).

本実施例の認識装置Dは、LED等の光源である照射部LやカメラCと接続されている。認識装置Dは、マスクMにより被覆された顔Fを照射部Lにより光を照射した状態で撮影した画像に基づいて、顔Fの向きを認識する。 The recognition device D of this embodiment is connected to an irradiation unit L or a camera C which is a light source such as an LED. The recognition device D recognizes the direction of the face F based on an image taken in a state where the face F covered with the mask M is irradiated with light by the irradiation unit L.

具体的には、認識装置Dは、撮影された画像を信号処理することで、顔(または顔特徴)を検出し、マスクの着用判定を行う。マスクを着用していると判定した場合、マスクの特徴(マスク陰影領域、マスクエッジ、マスクエッジ勾配、マスク紐エッジ勾配等)や顔の特徴(顔中心線、顔幅、顔輪郭等)を検出し、これらの抽出された特徴から、顔の向きを認識する。 Specifically, the recognition device D detects a face (or a face feature) by signal processing the captured image, and determines whether or not the mask is worn. When it is determined that the mask is worn, the features of the mask (mask shadow area, mask edge, mask edge gradient, mask string edge gradient, etc.) and facial features (face centerline, face width, face contour, etc.) are detected. Then, from these extracted features, the orientation of the face is recognized.

より具体的には、まず、画像内に顔が写っているかを判定し、マスク着用判定を行う位置(口領域)を決定する。例えば、従来公知の顔検出処理で検出される顔枠において、おおよその口の位置を決定する。なお、顔の各部分の特徴を検出して、マスク着用判定を行う位置を決定してもよい。例えば、目の位置を検出して、その下部にある領域をおおよその口の位置と決定して、マスク着用判定を行ってもよい。次に、マスクを着用しているかを判定する。一般的に、マスクMをした顔Fに光を照射して撮像すると、マスク着用領域では高い輝度値が得られるので、口周辺の領域部の輝度値が高いことからマスクを着用しているかを判定する。なお、マスクの外形情報等からマスクを着用しているかを判定してもよい。マスクが着用されていると判定した場合には、マスクの特徴や顔の特徴を検出し、これらの抽出された特徴から、顔の向きを認識する。また、画像から、顔の特徴やマスクの特徴を検出した際の特徴検出結果から、照射光の強度を調整したり、カメラパラメータを調整したりして、マスクや顔の陰影や輝度勾配等をより顕著に検出する。なお、本実施例では、カメラCと照射部Lが略同じ方向から対象に向いている場合について説明する。カメラCと照射部Lが異なる方向から対象に向いている場合については、後述の変形例で説明する。 More specifically, first, it is determined whether or not the face is reflected in the image, and the position (mouth area) where the mask wearing determination is performed is determined. For example, in a face frame detected by a conventionally known face detection process, an approximate position of the mouth is determined. It should be noted that the position where the mask wearing determination is performed may be determined by detecting the characteristics of each part of the face. For example, the position of the eyes may be detected, the area below the eyes may be determined as the approximate position of the mouth, and the mask wearing determination may be performed. Next, it is determined whether or not the mask is worn. Generally, when the face F with the mask M is irradiated with light to take an image, a high luminance value is obtained in the mask-wearing area. judge. It should be noted that it may be determined whether or not the mask is worn from the external shape information of the mask and the like. When it is determined that the mask is worn, the features of the mask and the features of the face are detected, and the orientation of the face is recognized from these extracted features. In addition, from the feature detection results when the facial features and mask features are detected from the image, the intensity of the irradiation light can be adjusted and the camera parameters can be adjusted to adjust the mask, facial shadows, brightness gradient, etc. Detect more prominently. In this embodiment, a case where the camera C and the irradiation unit L are facing the target from substantially the same direction will be described. The case where the camera C and the irradiation unit L are facing the target from different directions will be described with reference to a modification described later.

[1.認識装置Dの構成]
次に図4を用いて本実施例に係る認識装置Dの構成について説明する。図4に示すように、認識装置Dは、大別して、制御部311、記憶部312、通信部313、表示部314及び操作部315を含んで構成されている。通信部313は、カメラCや照射部Lと接続されている。
[1. Configuration of recognition device D]
Next, the configuration of the recognition device D according to the present embodiment will be described with reference to FIG. As shown in FIG. 4, the recognition device D is roughly classified and includes a control unit 311, a storage unit 312, a communication unit 313, a display unit 314, and an operation unit 315. The communication unit 313 is connected to the camera C and the irradiation unit L.

記憶部312は、例えばハードディスクドライブ等により構成されており、OS(Operating System)、顔の向きを認識するための顔向き認識プログラムを含む各種プログラムを記憶する。また、記憶部312は、カメラにより撮影された画像や顔向き認識プログラムに使用される各種データを記憶する。 The storage unit 312 is configured by, for example, a hard disk drive or the like, and stores various programs including an OS (Operating System) and a face orientation recognition program for recognizing the orientation of the face. In addition, the storage unit 312 stores images taken by the camera and various data used in the face orientation recognition program.

通信部313は、照射部LやカメラCとの通信状態を制御する。 The communication unit 313 controls the communication state with the irradiation unit L and the camera C.

表示部314は、例えば、液晶ディスプレイ等により構成されており、カメラCにより撮影された画像等を表示するようになっている。 The display unit 314 is composed of, for example, a liquid crystal display or the like, and is designed to display an image or the like taken by the camera C.

操作部315は、例えば、キーボード、マウス等により構成されており、オペレータからの操作指示を受け付け、その指示内容を指示信号として制御部311に出力するようになっている。 The operation unit 315 is composed of, for example, a keyboard, a mouse, or the like, and receives an operation instruction from an operator and outputs the instruction content as an instruction signal to the control unit 311.

制御部311は、CPU(Central Processing Unit)、ROM(Read Only Memory)
、RAM(Random Access Memory)等により構成されている。そして、CPUが、ROMや記憶部312に記憶された顔向き認識プログラムを含む各種プログラムを読み出し実行することにより各種機能を実現する。
The control unit 311 has a CPU (Central Processing Unit) and a ROM (Read Only Memory).
, RAM (Random Access Memory), etc. Then, the CPU realizes various functions by reading and executing various programs including the face orientation recognition program stored in the ROM and the storage unit 312.

[2.認識装置Dの機能]
次に図5を用いて本実施例に係る認識装置D(制御部311)の機能について説明する。図5は認識装置Dの機能ブロック図を示す図である。認識装置Dは、画像解析部351、照射光調整部357、カメラ調整部358を含んで構成されている。画像解析部351、照射光調整部357、カメラ調整部358の機能は、制御部311が顔向き認識プログラムを実行することにより実現される。
[2. Function of recognition device D]
Next, the function of the recognition device D (control unit 311) according to the present embodiment will be described with reference to FIG. FIG. 5 is a diagram showing a functional block diagram of the recognition device D. The recognition device D includes an image analysis unit 351, an irradiation light adjustment unit 357, and a camera adjustment unit 358. The functions of the image analysis unit 351 and the irradiation light adjustment unit 357 and the camera adjustment unit 358 are realized by the control unit 311 executing the face orientation recognition program.

画像解析部351は、口領域検出部352、マスク着用判定部353、マスク特徴検出部354、顔特徴検出部355、顔向き方向認識部356を含んで構成されている。 The image analysis unit 351 includes a mouth area detection unit 352, a mask wearing determination unit 353, a mask feature detection unit 354, a face feature detection unit 355, and a face orientation direction recognition unit 356.

口領域検出部352は、例えば、マスクMにより被覆された顔Fを、照射部Lが光を照射した状態でカメラCが撮影した画像に対して、顔検出処理、目検出処理、鼻検出処理、口検出処理を行う。顔検出処理で顔の領域が決定できた場合、顔検出枠の下方領域に口の領域があると判定できる。目検出処理で、目の領域が決定できた場合、目の下部に口の領域があると判定できる。鼻検出処理で、鼻の領域が決定できた場合も、鼻の下部に口の領域があると判定できる。口検出処理で、口の領域が検出できた場合は、その領域が口の領域であると判定する。 The mouth region detection unit 352, for example, has face detection processing, eye detection processing, and nose detection processing for an image taken by the camera C with the face F covered with the mask M irradiated with light by the irradiation unit L. , Performs mouth detection processing. When the face region can be determined by the face detection process, it can be determined that the mouth region is in the lower region of the face detection frame. If the eye area can be determined by the eye detection process, it can be determined that the mouth area is below the eyes. Even if the nose region can be determined by the nose detection process, it can be determined that the mouth region is in the lower part of the nose. If the mouth area can be detected by the mouth detection process, it is determined that the area is the mouth area.

マスク着用判定部353は、口領域検出部352が検出した口領域についてマスクMが着用されているかを判定する。具体的には輝度値に基づいて判定する。例えば、図6(A)に示すように、右目領域401の平均輝度値と口領域402の平均輝度値を算出する。一般的に、顔に向けて光を照射した場合、肌の輝度値に比べて、マスクの輝度値は大きくなる。例えば、右目領域401の平均輝度値と口領域402の平均輝度値を比較して、略同じ値であればマスク未着用と判定し、口領域402の平均輝度値の方が大きければ(閾値を超えるような大きさ)であれば、マスク着用と判定することができる。 The mask wearing determination unit 353 determines whether or not the mask M is worn for the mouth region detected by the mouth region detection unit 352. Specifically, the determination is made based on the brightness value. For example, as shown in FIG. 6A, the average luminance value of the right eye region 401 and the average luminance value of the mouth region 402 are calculated. Generally, when the light is applied to the face, the brightness value of the mask is larger than the brightness value of the skin. For example, the average luminance value of the right eye region 401 and the average luminance value of the mouth region 402 are compared, and if they are substantially the same value, it is determined that the mask is not worn, and if the average luminance value of the mouth region 402 is larger (threshold value is set). If it exceeds the size), it can be determined that the mask is worn.

マスク特徴検出部354は、マスク領域の輝度値に基づいてマスク領域の特徴を検出する。顔特徴検出部355は、顔領域の輝度値に基づいて顔領域の特徴を検出する。具体的には、マスク特徴検出部354及び顔特徴検出部355(まとめて、「特徴検出部」という場合がある)は、図2に示したように、顔を撮影した画像における輝度値を3つの閾値によって4つに切り分けた色分け画像により特徴を検出する。具体的には、(1)マスク領域、(2)肌(明)領域、(3)肌(暗)領域、(4)背景領域に切り分ける。 The mask feature detection unit 354 detects features in the mask region based on the luminance value of the mask region. The face feature detection unit 355 detects features in the face region based on the brightness value of the face region. Specifically, the mask feature detection unit 354 and the face feature detection unit 355 (collectively referred to as "feature detection unit") set the luminance value in the image obtained by photographing the face to 3 as shown in FIG. Features are detected by color-coded images divided into four by one threshold value. Specifically, it is divided into (1) a mask area, (2) a skin (bright) area, (3) a skin (dark) area, and (4) a background area.

ここで、色分け画像の作成例について説明する。まず、特徴検出部は、(1)マスク領域と(2)肌(明)領域の境界を示す第1閾値を、肌領域(例えば、左目領域401)の最大値Ja(画素値には、スパイクノイズ等も含まれうることを考慮して、ここでは、例えば5番目に大きな値を最大値として取り扱う)と、マスクが着用された際の口領域402の平均輝度値Jbに基づいて決定する。例えば、Jaが「219」で、Jbが「246」である場合には、Jaにマージンを加えた値を第1閾値とする。例えば、Jaに「1」を加えた「220」を第1閾値とする(切りのよい値とするために「1」を加えたがその他の値でもよい。以下、第2閾値、第3閾値についても同様)。第1閾値より輝度値が大きい画素で構成される領域をマスク領域として検出することができる。 Here, an example of creating a color-coded image will be described. First, the feature detection unit sets the first threshold value indicating the boundary between (1) the mask region and (2) the skin (bright) region as the maximum value Ja of the skin region (for example, the left eye region 401) (the pixel value is a spike). Considering that noise and the like may be included, here, for example, the fifth largest value is treated as the maximum value), and the determination is made based on the average luminance value Jb of the mouth region 402 when the mask is worn. For example, when Ja is "219" and Jb is "246", the value obtained by adding a margin to Ja is set as the first threshold value. For example, "220", which is obtained by adding "1" to Ja, is set as the first threshold value ("1" is added to obtain a sharp value, but other values may be used. Hereinafter, the second threshold value and the third threshold value may be used. The same applies to). A region composed of pixels having a luminance value larger than the first threshold value can be detected as a mask region.

次に、特徴検出部は、(2)肌(明)領域と(3)肌(暗)領域の境界を示す第2閾値を、肌領域(例えば、図6(B)に示す左目下半分領域403)の平均値Jc(眉や黒目部分は輝度値が小さいので左目下半分領域403としたが、他の部分の平均値でもよい)に基づいて決定する。例えば、Jcが「157」である場合には、Jcからマージンを差し引いた値を第2閾値とする。例えば、Jcから「7」を引いた「150」を第2閾値とする。 Next, the feature detection unit sets a second threshold value indicating the boundary between the (2) skin (bright) region and (3) skin (dark) region as the skin region (for example, the lower left eye half region shown in FIG. 6B). It is determined based on the average value Jc of 403) (the lower half region of the left eye is set to 403 because the brightness value of the eyebrows and the black eye portion is small, but the average value of other portions may be used). For example, when Jc is "157", the value obtained by subtracting the margin from Jc is set as the second threshold value. For example, “150”, which is obtained by subtracting “7” from Jc, is set as the second threshold value.

次に、特徴検出部は、(3)肌(暗)領域と(4)背景領域の境界を示す第3閾値を、肌領域(例えば、図6(C)に示す左目左半分領域404)の最小値Jd(画素値には、スパイクノイズ等も含まれうることを考慮して、ここでは、例えば5番目に小さな値を最小値として取り扱う。ここでは、左目左半分領域404としたが、他の肌部分の最小値でもよい)に基づいて決定する。例えば、Jdが「78」である場合には、Jdからマージンを差し引いた値を第3閾値とする。例えば、Jdから「8」を引いた「70」を第3閾値とする。 Next, the feature detection unit sets a third threshold value indicating the boundary between the (3) skin (dark) region and (4) background region in the skin region (for example, the left eye left half region 404 shown in FIG. 6C). Minimum value Jd (In consideration that the pixel value may include spike noise and the like, for example, the fifth smallest value is treated as the minimum value. Here, the left eye left half area 404 is used, but other It may be the minimum value of the skin part of). For example, when Jd is "78", the value obtained by subtracting the margin from Jd is set as the third threshold value. For example, “70”, which is obtained by subtracting “8” from Jd, is set as the third threshold value.

特徴検出部は、画像を構成する各画素を、当該画素の輝度値と第1閾値、第2閾値及び第3閾値に基づいて、(1)マスク領域、(2)肌(明)領域、(3)肌(暗)領域、(4)背景領域に切り分け、4色で表すことにより色分け画像を作成する。そして、色分け画像に基づいて、マスク領域の特徴、顔領域の特徴を検出する。 The feature detection unit determines each pixel constituting the image into (1) a mask area, (2) a skin (bright) area, and (2) a skin (bright) area, based on the luminance value of the pixel and the first threshold value, the second threshold value, and the third threshold value. A color-coded image is created by dividing into a skin (dark) area and (4) a background area and expressing them in four colors. Then, based on the color-coded image, the feature of the mask region and the feature of the face region are detected.

図7は、顔の縦方向の向き(ピッチ角)と、顔の横方向の向き(ヨー角)と、を10度ずつ変化させて撮影した画像の一例であり、図2の例と同様に、輝度値100未満の部分、輝度値100以上160未満の部分、輝度値160以上220未満の部分、輝度値220以上の部分に分けてそれぞれ異なる色(図2の場合と同様)で表している。光を照射した場合、肌に比べて、マスク領域の輝度値が大きくなる。マスク領域は、大きな輝度値(輝度値220以上)となる。顔向き方向認識部356は、顔が左右方向(ヨー角:20度〜50度)に向いているときは、マスク左右端と肌との境界である左右境界が明瞭に検出でき、顔が左右方向どちらの方向に向いているかを判定することができる。一方、カメラ正面(ヨー角:0度)を向いているときは、マスク左右端と肌との境界(左右境界)が検出できないので、このことにより、正面を向いていると判定することができる。左右方向の顔向き角度を推定するためには、顔の中心と顔の端(輪郭や耳等)、その他、マスク左右端が検出できれば、おおよその顔向き角度を算出することができる。以下、顔向き方向認識部356が顔の縦方向の向き(ピッチ角)と、顔の横方向の向き(ヨー角)を認識する手法について詳細に説明する。 FIG. 7 is an example of an image taken by changing the vertical orientation (pitch angle) of the face and the horizontal orientation (yaw angle) of the face by 10 degrees, and is the same as the example of FIG. , A portion having a luminance value of less than 100, a portion having a luminance value of 100 or more and less than 160, a portion having a luminance value of 160 or more and less than 220, and a portion having a luminance value of 220 or more are represented by different colors (similar to the case of FIG. 2). .. When irradiated with light, the brightness value of the mask area becomes larger than that of the skin. The mask area has a large luminance value (luminance value 220 or more). When the face is oriented in the left-right direction (yaw angle: 20 to 50 degrees), the face orientation recognition unit 356 can clearly detect the left-right boundary, which is the boundary between the left-right edge of the mask and the skin, and the face is left-right. Direction It is possible to determine which direction the user is facing. On the other hand, when facing the front of the camera (yaw angle: 0 degrees), the boundary between the left and right edges of the mask and the skin (left and right boundaries) cannot be detected, so it can be determined that the camera is facing the front. .. In order to estimate the face orientation angle in the left-right direction, if the center of the face, the edge of the face (contour, ears, etc.) and the left and right edges of the mask can be detected, the approximate face orientation angle can be calculated. Hereinafter, a method in which the face orientation recognition unit 356 recognizes the vertical orientation (pitch angle) of the face and the lateral orientation (yaw angle) of the face will be described in detail.

(ピッチ角:0度の場合)
顔向きがカメラ正面(ヨー角:0度、ピッチ角:0度)のときは、口領域の輝度値が大きくなる(肌の領域と比較して)が、マスクの左右端には顕著なマスクエッジ等は検出されない。顔向き左10度(ヨー角:10度、ピッチ角:0度)のときは、口領域の輝度値が大きくなり、また、カメラに対して、顔を左方向に傾けたことにより、マスクの左端に顕著なマスクエッジが検出できるようになる。これは、カメラ正面方向から光を照射しているためである。顔向き左20度(ヨー角:20度)のときは、10度のときと比較すると、より顔を傾けたため、マスクのカメラに向けている側の領域の輝度値が顕著になる。マスクの左端も顕著に検出できる。また、マスク装着した顔は顔中心に対して、左右対称で、顔中心はその他の顔部位に対して、やや突出する傾向にあるので、光をカメラ正面方向から照射すると、マスクの左端に加えて、顔の中心線が明瞭に検出できるようになる。顔向き左30度、左40度、左50度のときも、同様に、マスク左端と顔中心線が顕著に検出することが可能である。また、顔近辺に物体が無い場合、光を照射しても、背景の輝度値は大きくはならないので、カメラに対して手前の顔幅WA、カメラに対して奥側の顔幅WBを検出することが可能である。顔向きを左方向に10度ずつ傾けた場合、以上で述べたマスク左端のエッジ、顔の中心線、カメラに対して手前の顔幅WA、カメラに対して奥側の顔幅WB等を検出することによって、顔向きが左に何度方向であるかを判定することができる。顔向きが右方向のときは、顔向き左方向のときと左右が対称となるだけであるので、詳細な説明は割愛する。
(Pitch angle: 0 degrees)
When the face is facing the front of the camera (yaw angle: 0 degrees, pitch angle: 0 degrees), the brightness value in the mouth area is large (compared to the skin area), but the mask is prominent on the left and right edges of the mask. Edges etc. are not detected. When the face is facing left 10 degrees (yaw angle: 10 degrees, pitch angle: 0 degrees), the brightness value in the mouth area becomes large, and the mask is tilted to the left with respect to the camera. A prominent mask edge can be detected at the left end. This is because the light is emitted from the front direction of the camera. When the face is 20 degrees to the left (yaw angle: 20 degrees), the brightness value of the area of the mask facing the camera becomes remarkable because the face is tilted more than when the face is 10 degrees. The left edge of the mask can also be noticeably detected. In addition, the face with the mask is symmetrical with respect to the center of the face, and the center of the face tends to protrude slightly with respect to other facial parts. Therefore, the center line of the face can be clearly detected. Similarly, when the face is oriented at 30 degrees to the left, 40 degrees to the left, and 50 degrees to the left, the left edge of the mask and the center line of the face can be remarkably detected. Further, when there is no object in the vicinity of the face, the brightness value of the background does not increase even if the light is irradiated, so the face width WA in front of the camera and the face width WB in the back of the camera are detected. It is possible. When the face direction is tilted to the left by 10 degrees, the edge of the left end of the mask, the center line of the face, the face width WA in front of the camera, the face width WB in the back of the camera, etc. are detected. By doing so, it is possible to determine how many times the face direction is to the left. When the face direction is to the right, the left and right sides are only symmetrical with the face direction to the left, so a detailed explanation is omitted.

(ピッチ角:上10度の場合)
顔向きが上10度(ヨー角:0度、ピッチ角:上10度)のときでは、口領域の輝度値が肌の領域と比較して大きくなるが、マスクの左右端には顕著なマスクエッジ等は検出されない。マスク上側のエッジがカメラ正面向き(ヨー角:0度、ピッチ角:0度)と比較して、勾配が急になっているが、マスク上側のエッジ勾配は、マスク着用時毎の変形等により変化するので、これだけでは、顔が上向きと判定することはできないが、マスク着用時のマスク上側エッジの基準エッジ勾配が分かれば、上下方向の顔向き角度も判定することは可能である。顔向き左10度(ヨー角:10度)のときは、ピッチ角:0度のときと同様に、口領域の輝度値が大きくなり、また、カメラに対して、顔を左方向に傾けたことにより、マスクの左端に顕著なエッジが検出できるようになる。さらに、左方向に顔を傾けたときも、ピッチ角:0度のときと同様に、マスク左端のエッジ、顔の中心線、カメラに対して手前の顔幅WA、カメラに対して奥側の顔幅WB等を検出して、顔が左向きに何度傾いているかを判定することができる。
(Pitch angle: 10 degrees above)
When the face orientation is 10 degrees above (yaw angle: 0 degrees, pitch angle: 10 degrees above), the brightness value of the mouth area is larger than that of the skin area, but the mask is prominent at the left and right edges of the mask. Edges etc. are not detected. The edge on the upper side of the mask has a steeper slope compared to the front of the camera (yaw angle: 0 degrees, pitch angle: 0 degrees), but the edge slope on the upper side of the mask is due to deformation etc. each time the mask is worn. Since it changes, it cannot be determined that the face is facing upward, but if the reference edge gradient of the upper edge of the mask when the mask is worn is known, it is possible to determine the angle of facing the face in the vertical direction. When the face direction is 10 degrees to the left (yaw angle: 10 degrees), the brightness value of the mouth area becomes large as in the case of the pitch angle: 0 degrees, and the face is tilted to the left with respect to the camera. This makes it possible to detect a prominent edge at the left edge of the mask. Furthermore, when the face is tilted to the left, the edge at the left end of the mask, the center line of the face, the face width WA in front of the camera, and the back side of the camera are the same as when the pitch angle is 0 degrees. It is possible to detect the face width WB and the like to determine how many times the face is tilted to the left.

顔の上向き角度(ピッチ角)の判定は、顔向き左30度、左40度、左50度等のときの顔中心線の傾きで判定できる。顔の上向き角度(ピッチ角)が0度のときと10度のときで、顔向き左30度、左40度、左50度のときの顔中心線の傾きを比較すると、顔の上向き角度(ピッチ角)が0度のときよりも、顔の上向き角度(ピッチ角)が10度のときの方が明らかに、顔が上を向いていると判定することができる。この顔の上向き角度(ピッチ角)が10度のときのマスク上側エッジの勾配を基準として記録しておけば、マスクが変形しない限り、後に撮影された画像におけるマスク上側エッジの勾配と比較して同じ角度(一定の幅をもたせ、略同一の角度とするのが好ましい)であれば、顔の上向き角度(ピッチ角)が10度であると判定することができる。顔向き方向が上10度右方向のときは、顔向き上10度左方向のときと左右が対称となるだけなので、詳細な説明は割愛する。 The upward angle (pitch angle) of the face can be determined by the inclination of the center line of the face when the face is facing left 30 degrees, left 40 degrees, left 50 degrees, or the like. Comparing the inclination of the face center line when the face upward angle (pitch angle) is 0 degrees and 10 degrees, and when the face faces left 30 degrees, left 40 degrees, and left 50 degrees, the face upward angle (pitch angle) It can be determined that the face is clearly facing upward when the upward angle (pitch angle) of the face is 10 degrees as compared with the case where the pitch angle) is 0 degrees. If the slope of the upper edge of the mask when the upward angle (pitch angle) of the face is 10 degrees is recorded as a reference, it is compared with the slope of the upper edge of the mask in the image taken later unless the mask is deformed. If the angles are the same (preferably having a constant width and substantially the same angle), it can be determined that the upward angle (pitch angle) of the face is 10 degrees. When the face direction is 10 degrees to the right, the left and right sides are only symmetrical with the face direction to the left by 10 degrees, so detailed explanation is omitted.

(ピッチ角:上20度の場合)
顔向きが上20度(ヨー角:0度、ピッチ角:上20度)のときでは、口領域の輝度値が肌の領域と比較して大きくなるが、マスクの左右端には顕著なマスクエッジ等は検出されない。マスク上側のエッジがカメラ正面向き(ヨー角:0度、ピッチ角:0度)と比較して、勾配が急になっているが、マスク上側のエッジ勾配は、マスク着用時毎の変形等により変化するので、これだけでは上向きと判定できないが、マスク着用時のマスク上側エッジの基準エッジ勾配が分かれば、上下方向の顔向き角度も判定することができる。顔向き左10度(ヨー角:10度、ピッチ角:上20度)のときは、ピッチ角:0度のときと同様に、口領域の輝度値が大きくなり、また、カメラに対して、顔を左方向に傾けたことにより、マスクの左端に顕著なエッジが検出できるようになる。さらに、左方向に顔を傾けたときは、ピッチ角:0度のときと同様に、マスク左端のエッジ、顔の中心線、カメラに対して手前の顔幅WA、カメラに対して奥側の顔幅WB等を検出して、顔が左向きに何度傾いているかを判定することができる。
(Pitch angle: 20 degrees above)
When the face orientation is up 20 degrees (yaw angle: 0 degrees, pitch angle: up 20 degrees), the brightness value of the mouth area is larger than that of the skin area, but the mask is prominent at the left and right edges of the mask. Edges etc. are not detected. The edge on the upper side of the mask has a steeper slope compared to the front of the camera (yaw angle: 0 degrees, pitch angle: 0 degrees), but the edge slope on the upper side of the mask is due to deformation etc. each time the mask is worn. Since it changes, it cannot be determined that the mask is facing upward, but if the reference edge gradient of the upper edge of the mask when the mask is worn is known, the face orientation angle in the vertical direction can also be determined. When the face is facing left 10 degrees (yaw angle: 10 degrees, pitch angle: top 20 degrees), the brightness value of the mouth area becomes large as in the case of pitch angle: 0 degrees, and the brightness value of the mouth area becomes large. By tilting the face to the left, a prominent edge can be detected at the left edge of the mask. Furthermore, when the face is tilted to the left, the edge at the left end of the mask, the center line of the face, the face width WA in front of the camera, and the back side with respect to the camera are the same as when the pitch angle is 0 degrees. It is possible to detect the face width WB and the like to determine how many times the face is tilted to the left.

顔の上向き角度(ピッチ角)の判定は、顔向き上10度のときと同様に、顔向き左30度、左40度、左50度のときの顔中心線の傾きで判定できる。顔向き上10度のときと顔向き上20度のときを比較すると、左30度、左40度、左50度時の顔中心線の傾きは、顔向き上20度のときの方がより傾いているので、上20度と判定することができる。また、この顔の上向き角度(ピッチ角)が20度のときのマスク上側エッジの勾配を基準として記録しておけば、マスクが変形しない限り、後に撮影された画像におけるマスク上側エッジの勾配と比較して同じ角度(一定の幅をもたせ、略同一の角度とするのが好ましい)であれば、顔の上向き角度(ピッチ角)が20度であると判定することができる。顔向き方向が上20度右方向のときは、顔向き上20度左方向のときと左右が対称となるだけなので、詳細な説明は割愛する。 The upward angle (pitch angle) of the face can be determined by the inclination of the center line of the face when the face is facing left 30 degrees, left 40 degrees, and left 50 degrees, as in the case of facing upward 10 degrees. Comparing the case of 10 degrees above the face and the case of 20 degrees above the face, the inclination of the center line of the face at 30 degrees to the left, 40 degrees to the left, and 50 degrees to the left is more when it is 20 degrees above the face. Since it is tilted, it can be determined to be 20 degrees above. Also, if the slope of the upper edge of the mask when the upward angle (pitch angle) of the face is 20 degrees is recorded as a reference, it is compared with the slope of the upper edge of the mask in the image taken later unless the mask is deformed. If the angles are the same (preferably having a constant width and substantially the same angle), it can be determined that the upward angle (pitch angle) of the face is 20 degrees. When the face direction is up 20 degrees to the right, the left and right sides are only symmetrical with the face direction up 20 degrees to the left, so a detailed explanation is omitted.

(ピッチ角:下10度の場合)
顔向きが下10度(ヨー角:0度、ピッチ角:下10度)のときでは、口領域の輝度値が肌の領域と比較して大きくなるが、マスクの左右端には顕著なマスクエッジ等は検出されない。マスク上側のエッジがカメラ正面向き(ヨー角:0度、ピッチ角:0度)と比較して、勾配がなだらかになっているが、マスク上側のエッジ勾配は、マスク着用時毎の変形等により変化するので、これだけでは下向きと判定できないが、マスク着用時のマスク上側エッジの基準エッジ勾配が分かれば、上下方向の顔向き角度も判定することは可能である(上向き10度の時に同じ)。顔向き左10度(ヨー角:10度、ピッチ角:下10度)のときは、ピッチ角:0度のときと同様に、口領域の輝度値が大きくなり、また、カメラに対して、顔を左方向に傾けたことにより、マスクの左端に顕著なエッジが検出できるようになる。左方向に顔を傾けたときは、ピッチ角:0度のときと同様に、マスク左端のエッジ、顔の中心線、カメラに対して手前の顔幅WA、カメラに対して奥側の顔幅WB等を検出して、顔が左向きに何度傾いているかを判定することは可能である。
(Pitch angle: 10 degrees below)
When the face orientation is 10 degrees below (yaw angle: 0 degrees, pitch angle: 10 degrees below), the brightness value of the mouth area is larger than that of the skin area, but the mask is prominent at the left and right edges of the mask. Edges etc. are not detected. The edge on the upper side of the mask has a gentler slope compared to the front of the camera (yaw angle: 0 degrees, pitch angle: 0 degrees), but the edge slope on the upper side of the mask is due to deformation etc. each time the mask is worn. Since it changes, it cannot be determined to be downward by this alone, but if the reference edge gradient of the upper edge of the mask when wearing the mask is known, it is possible to determine the vertical face angle (same as when 10 degrees upward). When the face is facing left 10 degrees (yaw angle: 10 degrees, pitch angle: bottom 10 degrees), the brightness value of the mouth area becomes large as in the case of pitch angle: 0 degrees, and the camera is not exposed to the camera. By tilting the face to the left, a prominent edge can be detected at the left edge of the mask. When the face is tilted to the left, the edge of the left edge of the mask, the center line of the face, the face width WA in front of the camera, and the face width on the back side of the camera are the same as when the pitch angle is 0 degrees. It is possible to detect WB and the like to determine how many times the face is tilted to the left.

顔の下向き角度の判定は、顔向き上10度のときと同様に、顔向き左30度、左40度、左50度のときの顔中心線の傾きで判定できる。ピッチ角:0度のときと、ピッチ角:下10度のときを比較すると、左30度、左40度、左50度時の顔中心線の傾きは、ピッチ角:下10度の方が顔がより下方向に傾いていると判定でき、下10度と判定することが可能である。この顔の下向き角度(ピッチ角)が10度のときのマスク上側エッジの勾配を基準として記録しておけば、マスクが変形しない限り、後に撮影された画像におけるマスク上側エッジの勾配と比較して同じ角度(一定の幅をもたせ、略同一の角度とするのが好ましい)であれば、顔の下向き角度(ピッチ角)が10度であると判定することができる。顔向き方向が下10度右方向のときは、顔向き下10度左方向のときと左右が対称となるだけなので、詳細な説明は割愛する。 The downward angle of the face can be determined by the inclination of the center line of the face when the face is facing left 30 degrees, left 40 degrees, and left 50 degrees, as in the case of facing upward 10 degrees. Comparing when the pitch angle is 0 degrees and when the pitch angle is 10 degrees below, the inclination of the face center line at 30 degrees to the left, 40 degrees to the left, and 50 degrees to the left is 10 degrees below the pitch angle. It can be determined that the face is tilted more downward, and it can be determined that the face is tilted 10 degrees downward. If the slope of the upper edge of the mask when the downward angle (pitch angle) of the face is 10 degrees is recorded as a reference, it is compared with the slope of the upper edge of the mask in the image taken later unless the mask is deformed. If the angles are the same (preferably having a constant width and substantially the same angle), it can be determined that the downward angle (pitch angle) of the face is 10 degrees. When the face direction is 10 degrees down to the right, the left and right sides are only symmetrical with the face direction down 10 degrees to the left, so a detailed explanation is omitted.

(ピッチ角:下20度の場合)
顔向きが下20度(ヨー角:0度、ピッチ角:下20度)のときでは、口領域の輝度値が肌の領域と比較して大きくなるが、マスクの左右端には顕著なマスクエッジ等は検出されない。マスク上側のエッジがカメラ正面向き(ヨー角:0度、ピッチ角:0度)と比較して、勾配がなだらかになっているが、マスク上側のエッジ勾配は、マスク着用時毎の変形等により変化するので、これだけでは下向きと判定できないが、装着時のマスク上側エッジの基準エッジ勾配が分かれば、上下方向の顔向き角度も判定することができる(上向き10度の時に同じ)。顔向き左10度(ヨー角:10度、ピッチ角:下20度)のときは、ピッチ角:0度のときと同様に、口領域の輝度値が大きくなり、また、カメラに対して、顔を左方向に傾けたことにより、マスクの左端に顕著なエッジが検出できるようになる。さらに左方向に顔を傾けたときは、ピッチ角:0度のときと同様に、マスク左端のエッジ、顔の中心線、カメラに対して手前の顔幅WA、カメラに対して奥側の顔幅WB等を検出して、顔が左向きに何度傾いているかを判定することが可能である。
(Pitch angle: 20 degrees below)
When the face is facing down 20 degrees (yaw angle: 0 degrees, pitch angle: down 20 degrees), the brightness value of the mouth area is larger than that of the skin area, but the mask is prominent at the left and right edges of the mask. Edges etc. are not detected. The edge on the upper side of the mask has a gentler slope compared to the front of the camera (yaw angle: 0 degrees, pitch angle: 0 degrees), but the edge slope on the upper side of the mask is due to deformation etc. each time the mask is worn. Since it changes, it cannot be determined that the mask is facing downward, but if the reference edge gradient of the upper edge of the mask at the time of wearing is known, the face facing angle in the vertical direction can also be determined (same as when the angle is 10 degrees upward). When the face is facing left 10 degrees (yaw angle: 10 degrees, pitch angle: lower 20 degrees), the brightness value of the mouth area becomes large as in the case of pitch angle: 0 degrees, and the camera is not exposed to the camera. By tilting the face to the left, a prominent edge can be detected at the left edge of the mask. When the face is further tilted to the left, the edge at the left end of the mask, the center line of the face, the face width WA in front of the camera, and the face on the back side of the camera are the same as when the pitch angle is 0 degrees. It is possible to detect the width WB and the like to determine how many times the face is tilted to the left.

顔の下向き角度(ピッチ角)の判定は、顔向き下10度のときと同様に、顔向き左30度、左40度、左50度のときの顔中心線の傾きで判定できる。顔向き下10度のときと顔向き下20度のときを比較すると、左30度、左40度、左50度時の顔中心線の傾きは、顔がより下方向に傾いていると判定でき、下20度と判定することができる。この顔の下向き角度(ピッチ角)が20度のときのマスク上側エッジの勾配を基準として記録しておけば、マスクが変形しない限り、後に撮影された画像におけるマスク上側エッジの勾配と比較して同じ角度(一定の幅をもたせ、略同一の角度とするのが好ましい)であれば、顔の下向き角度(ピッチ角)が20度であると判定することができる。顔向き方向が下20度右方向のときは、顔向き下20度左方向のときと左右が対称となるだけなので、詳細な説明は割愛する。 The downward angle (pitch angle) of the face can be determined by the inclination of the center line of the face when the face is facing left 30 degrees, left 40 degrees, and left 50 degrees, as in the case of facing downward 10 degrees. Comparing the case of 10 degrees below the face and the case of 20 degrees below the face, it is judged that the inclination of the center line of the face at 30 degrees to the left, 40 degrees to the left, and 50 degrees to the left indicates that the face is inclined more downward. It can be determined to be 20 degrees below. If the slope of the upper edge of the mask when the downward angle (pitch angle) of the face is 20 degrees is recorded as a reference, it is compared with the slope of the upper edge of the mask in the image taken later unless the mask is deformed. If the angles are the same (preferably having a constant width and substantially the same angle), it can be determined that the downward angle (pitch angle) of the face is 20 degrees. When the face direction is 20 degrees down to the right, the left and right sides are only symmetrical with the face direction down 20 degrees to the left, so a detailed explanation is omitted.

なお、顔向きを左50度のときなどにおいて、マスク左端近辺の肌の輝度値が高くなる場合があるが、耳にかけるマスクの紐部も、光照射によって輝度値が高くなり、顕著なエッジが検出できるので、その情報を基に、マスク左端を検出することも可能である。この紐エッジ情報から、顔の上下向きを判定することもできる。 When the face is turned to the left at 50 degrees, the brightness value of the skin near the left end of the mask may be high, but the string part of the mask to be put on the ear also has a high brightness value due to light irradiation, and the edge is remarkable. Can be detected, so it is also possible to detect the left end of the mask based on that information. From this string edge information, it is also possible to determine the vertical orientation of the face.

また、顔幅WA、WBは顔向き上下方向で異なる場合がある(図2における垂線222の取り方にもよる)ことから、顔向き上下向きを判定し、上下向き毎の基準に基づき、顔幅による向き判定を行うこともできる。 In addition, since the face widths WA and WB may differ in the vertical direction of the face (depending on how the vertical line 222 is taken in FIG. 2), the vertical direction of the face is determined, and the face is determined based on the standard for each vertical direction. It is also possible to determine the orientation based on the width.

更に、カメラCと同じ方向から光を照射する場合、顔が下向き20度のときは、額が髪の毛で遮蔽されていない場合は、額領域の輝度が大きくなる。額領域の輝度が所定の閾値より大きくなったことで、下向き20度と判定してもよい。 Further, when irradiating light from the same direction as the camera C, when the face is downward at 20 degrees and the forehead is not shielded by hair, the brightness of the forehead region becomes large. Since the brightness of the forehead region becomes larger than a predetermined threshold value, it may be determined that the degree is 20 degrees downward.

更にまた、顔向き上下方向の基準となるマスク上側エッジ勾配は、一度決めれば、その値を基準にして、上下方向のピッチ角を判定することもできる。例えば、下向き20度時において、マスク上側エッジ勾配を一度決定した後に、顔向きが上20度となったときに、基準となる下向き20度時のエッジ勾配に基づき、顔向きが上20度時のエッジ勾配を算出し、その値と画像から検出したエッジ勾配を比較して近い値であれば、顔向きが上20度になったと判定することもできる。基準となるエッジ勾配は、マスク着用時の変形や着脱等が無ければ、計算可能である。顔とカメラの距離が変われば変化するが、その距離が略一定である場合、一度基準が決まれば、その基準に基づいて、判定することができる。また、顔とカメラの距離が変化したときでも、顔の奥行き情報や顔の大きさ情報に基づいて、基準となるエッジ勾配を変化させれば、顔向き方向を判定することができる。 Furthermore, once the mask upper edge gradient, which is a reference in the vertical direction of the face, is determined, the pitch angle in the vertical direction can be determined based on the value. For example, when the upper edge gradient of the mask is determined once at 20 degrees downward and then the face orientation becomes 20 degrees upward, the face orientation is 20 degrees upward based on the reference edge gradient at 20 degrees downward. It is also possible to calculate the edge gradient of the above and compare the value with the edge gradient detected from the image, and if the values are close to each other, it can be determined that the face orientation is 20 degrees upward. The reference edge gradient can be calculated if there is no deformation or attachment / detachment when wearing the mask. It changes when the distance between the face and the camera changes, but if the distance is substantially constant, once a standard is determined, it can be determined based on that standard. Further, even when the distance between the face and the camera changes, the face orientation direction can be determined by changing the reference edge gradient based on the depth information of the face and the size information of the face.

また、マスクは様々な種類があることから、何れの種類のマスクを着用しているかを判定して、着用しているマスク特有の形状情報に基づいて、顔向き方向を推定することもできる。発明者の調査によると、現在市販されているマスクには様々な種類があるが、上述したマスク左端(右端)のエッジに関しては、マスク毎の特徴はあるが、顔が左右方向を向いたときに、光を照射すれば、ほぼ全てのマスクについてマスク左右端のマスク特有の形状を検出することができることが判明している。また、顔が左右方向を向いたときの顔(マスク)の中心線も、マスクの種類に形状に違いがあるが、ほとんど全てマスクで、マスク中心部が突出した形状になっている(顔は顔中心に突出した形状になっており、その形状にフィットさせるため)ことから、光をカメラ側から照射すれば、顔中心となるマスク中心を検出することができる。また、上述したマスク上側のエッジ勾配に関しては、マスクの種類により様々であるが、上述した処理で、一度基準を決定すれば、その基準に基づいて、顔の上下方向の角度を判定することはできる。特異な形状として、例えば図8(A)に示すマスクでは、マスク左右端の形状が縦のエッジ線ではないが、マスク左右端の形状を検出することはできる。また、図8(B)に示すような半球状のカップ型マスクがあるが、マスク中心やマスク上端エッジ勾配を検出することはできる。更に、黒いマスクでも、赤外撮影すると、輝度値の多少の差はあるが白く撮像することができるので、同様に、マスク検出し、マスク左右端や上端の特徴を検出することができる。 Further, since there are various types of masks, it is possible to determine which type of mask is worn and estimate the face orientation direction based on the shape information peculiar to the mask being worn. According to the research of the inventor, there are various types of masks currently on the market. Regarding the above-mentioned edge of the left end (right end) of the mask, although each mask has its own characteristics, when the face is turned to the left or right. In addition, it has been found that the shape peculiar to the mask at the left and right ends of the mask can be detected for almost all masks by irradiating with light. In addition, the center line of the face (mask) when the face is turned to the left and right also has a different shape depending on the type of mask, but almost all masks have a shape in which the center of the mask protrudes (the face is). Since it has a shape protruding to the center of the face (to fit the shape), it is possible to detect the center of the mask, which is the center of the face, by irradiating light from the camera side. Further, the edge gradient on the upper side of the mask described above varies depending on the type of mask, but once the reference is determined by the above-mentioned process, the vertical angle of the face can be determined based on the reference. can. As a peculiar shape, for example, in the mask shown in FIG. 8A, the shape of the left and right ends of the mask is not the vertical edge line, but the shape of the left and right ends of the mask can be detected. Further, although there is a hemispherical cup-shaped mask as shown in FIG. 8B, it is possible to detect the center of the mask and the slope of the upper end edge of the mask. Further, even with a black mask, when infrared photography is performed, a white image can be obtained although there is a slight difference in the luminance value. Therefore, the mask can be detected and the features at the left and right ends and the upper ends of the mask can be detected in the same manner.

また、マスクは変形することがあるが、上述したマスク左右端のエッジの特徴については変化はほとんど発生しない。顔が左右方向を向いたときのマスクの中心線に関しては、マスクが柔軟な形状変化をするため、変形によりマスクの中心線が検出できない場合が生じる可能性もある。このような場合は、左30度から左50度のときにおいて、マスク領域ではなく、顔上半分の部分において、顔の中心線を検出して、顔向き上下方向判定を行うこともできるし、耳にかけているマスクの紐部の傾きを検出して、顔向き上下方向判定を行うこともできる。マスク上側エッジの勾配もマスク変形により変化することがあるが、一度基準勾配を決定すれば、マスク変形を考慮して、定期的に、基準をその都度計算するような処理を行えば、マスク上側エッジの勾配の変形にも対応することができる。 Further, although the mask may be deformed, almost no change occurs in the characteristics of the edges at the left and right ends of the mask described above. Regarding the center line of the mask when the face is turned to the left and right, since the mask changes its shape flexibly, there is a possibility that the center line of the mask cannot be detected due to deformation. In such a case, the center line of the face can be detected not in the mask area but in the upper half of the face when the angle is from 30 degrees to the left to 50 degrees to the left, and the vertical direction of the face can be determined. It is also possible to detect the inclination of the string portion of the mask worn on the ear and determine the vertical direction of the face. The gradient of the upper edge of the mask may also change due to mask deformation, but once the reference gradient is determined, if the mask deformation is taken into consideration and the reference is calculated each time, the upper side of the mask can be calculated. It is also possible to deal with deformation of the slope of the edge.

顔向き方向認識部356が顔の向きを認識する上で、輝度値に基づいてエッジ勾配等を抽出する場合があるが、撮影条件によって、カメラパラメータ(露光時間等)や照射光強度を変更した方(何れか一方でも両方でもよい)が顕著にエッジ勾配等の特徴を抽出できる場合がある。そのような場合には、口領域検出部352、マスク着用判定部353、マスク特徴検出部354、顔特徴検出部355が検出した輝度値に基づいて、照射光調整部357が照射部Lから照射する光の強度を調整したり、カメラ調整部358がカメラCのパラメータを調整したりする。 When the face orientation recognition unit 356 recognizes the orientation of the face, the edge gradient or the like may be extracted based on the brightness value, but the camera parameters (exposure time, etc.) and the irradiation light intensity are changed depending on the shooting conditions. In some cases, one (either one or both) can significantly extract features such as edge gradient. In such a case, the irradiation light adjusting unit 357 irradiates from the irradiation unit L based on the brightness values detected by the mouth area detection unit 352, the mask wearing determination unit 353, the mask feature detection unit 354, and the face feature detection unit 355. The intensity of the light is adjusted, and the camera adjusting unit 358 adjusts the parameters of the camera C.

[3.認識装置Dの動作例]
次に、図9−図12のフローチャートを用いて、認識装置Dの顔向き判定処理の一例について説明する。
[3. Operation example of recognition device D]
Next, an example of the face orientation determination process of the recognition device D will be described with reference to the flowchart of FIGS. 9-12.

まず、認識装置Dの制御部311は、マスクMにより被覆された顔Fを、照射部Lが光を照射した状態でカメラCが撮影した画像を取得する(ステップS11)。 First, the control unit 311 of the recognition device D acquires an image taken by the camera C while the irradiation unit L irradiates the face F covered with the mask M with light (step S11).

次に、制御部311は、ステップS11の処理で取得した画像に写る顔の口領域を検出する(ステップS12)。 Next, the control unit 311 detects the mouth region of the face reflected in the image acquired in the process of step S11 (step S12).

次に、制御部311は、ステップS12に処理で検出した口領域について、マスク着用判定処理を行う(ステップS13)。 Next, the control unit 311 performs a mask wearing determination process on the mouth region detected in the process in step S12 (step S13).

ここで、図10を用いて、マスク着用判定処理について説明する。 Here, the mask wearing determination process will be described with reference to FIG.

まず、制御部311は、肌領域(例えば、図6の右目領域401)の平均輝度値Iaを算出する(ステップS21)。 First, the control unit 311 calculates the average luminance value Ia of the skin region (for example, the right eye region 401 in FIG. 6) (step S21).

次に、制御部311は、口領域(例えば、図6の口領域402)の平均輝度値Ibを算出する(ステップS22)。 Next, the control unit 311 calculates the average luminance value Ib of the mouth region (for example, the mouth region 402 in FIG. 6) (step S22).

次に、制御部311は、「Ib−Ia>Ic」が成立するか否かを判定する(ステップS23)。ここで、Icは閾値(例えばIc=40)である。Icは観測輝度値等に応じて設定することができる。制御部311は、「Ib−Ia>Ic」が成立すると判定した場合には(ステップS23:YES)、マスク着用と判定し(ステップS24)、マスク着用判定処理を終了する。一方、制御部311は、「Ib−Ia>Ic」が成立しないと判定した場合には(ステップS23:NO)、マスク未着用と判定し(ステップS25)、マスク着用判定処理を終了する。 Next, the control unit 311 determines whether or not "Ib-Ia> Ic" is satisfied (step S23). Here, Ic is a threshold value (for example, Ic = 40). Ic can be set according to the observed luminance value and the like. When it is determined that "Ib-Ia> Ic" is satisfied (step S23: YES), the control unit 311 determines that the mask is worn (step S24), and ends the mask wearing determination process. On the other hand, when it is determined that "Ib-Ia> Ic" is not established (step S23: NO), the control unit 311 determines that the mask is not worn (step S25), and ends the mask wearing determination process.

図9に戻り、制御部311は、マスク着用判定処理においてマスク着用と判定したか否かを判定する(ステップS14)。制御部311は、マスク着用していない(未着用)と判定したと場合には(ステップS14:NO)、顔向き判定処理を終了する。一方、制御部311は、マスク着用と判定したと場合には(ステップS14:YES)、次いで、ヨー角判定処理を行う(ステップS15)。 Returning to FIG. 9, the control unit 311 determines whether or not it is determined that the mask is worn in the mask wearing determination process (step S14). If it is determined that the mask is not worn (not worn), the control unit 311 ends the face orientation determination process (step S14: NO). On the other hand, if the control unit 311 determines that the mask is worn (step S14: YES), the control unit 311 then performs a yaw angle determination process (step S15).

ここで、図11を用いて、ヨー角判定処理について説明する。 Here, the yaw angle determination process will be described with reference to FIG.

まず、制御部311は、ステップS11又は後述するステップS18の処理で取得した画像からマスク左右端を検出できるか否かを判定する(ステップS31)。なお、図8(A)に示したような左右端の形状が特殊なマスクについては、肌の輝度値に対して大きい輝度値のマスク部を最初に判定して記録しておくことにより、以降の処理でも同様に処理することができる。 First, the control unit 311 determines whether or not the left and right ends of the mask can be detected from the image acquired in the process of step S11 or step S18 described later (step S31). For masks with special shapes at the left and right edges as shown in FIG. 8A, the mask portion having a large luminance value with respect to the luminance value of the skin is first determined and recorded. It can be processed in the same manner in the process of.

制御部311は、マスク左右端を検出できないと判定した場合には(ステップS31:NO)、ヨー角を「0度」と判定し(ステップS32)、ヨー角判定処理を終了する。一方、マスク左右端を検出できると判定した場合には(ステップS31:YES)、次いで、顔中心線(図2の顔中心線212参照)を検出できるか否かを判定する(ステップS33)。 When the control unit 311 determines that the left and right edges of the mask cannot be detected (step S31: NO), the control unit 311 determines the yaw angle to be "0 degree" (step S32), and ends the yaw angle determination process. On the other hand, if it is determined that the left and right edges of the mask can be detected (step S31: YES), then it is determined whether or not the face center line (see the face center line 212 in FIG. 2) can be detected (step S33).

制御部311は、顔中心線を検出できないと判定した場合には(ステップS33:NO)、ヨー角を「10度」と判定し(ステップS34)、ヨー角判定処理を終了する。一方、顔中心線を検出できると判定した場合には(ステップS33:YES)、次いで、手前側顔幅WAと奥側顔幅WBを算出する(図3参照)(ステップS35)。 When the control unit 311 determines that the face center line cannot be detected (step S33: NO), the control unit 311 determines the yaw angle to be "10 degrees" (step S34), and ends the yaw angle determination process. On the other hand, if it is determined that the face center line can be detected (step S33: YES), then the front side face width WA and the back side face width WB are calculated (see FIG. 3) (step S35).

次に、制御部311は、ステップS35の処理で算出した手前側顔幅WAと奥側顔幅WBに基づいてヨー角を判定する(ステップS36)。本実施例では、WB/WAと、予め定められた閾値Y1、Y2、Y3(Y1>Y2>Y3)を比較することにより、ヨー角を判定する。閾値Y1、Y2、Y3は、カメラCと顔Fの距離を観測した値等に基づいて値を変えてもよい。 Next, the control unit 311 determines the yaw angle based on the front face width WA and the back face width WB calculated in the process of step S35 (step S36). In this embodiment, the yaw angle is determined by comparing WB / WA with predetermined threshold values Y1, Y2, and Y3 (Y1> Y2> Y3). The threshold values Y1, Y2, and Y3 may be changed based on the observed values of the distance between the camera C and the face F.

制御部311は、具体的には、次の通りヨー角を判定する。
(1)Y1<WB/WA → ヨー角:20度
(2)Y2<WB/WA<Y1 → ヨー角:30度
(3)Y3<WB/WA<Y2 → ヨー角:40度
(4)WB/WA<Y3 → ヨー角:50度
Specifically, the control unit 311 determines the yaw angle as follows.
(1) Y1 <WB / WA → Yaw angle: 20 degrees (2) Y2 <WB / WA <Y1 → Yaw angle: 30 degrees (3) Y3 <WB / WA <Y2 → Yaw angle: 40 degrees (4) WB / WA <Y3 → Yaw angle: 50 degrees

次に、制御部311は、顔中心線補正処理を行い(ステップS37)、ヨー角判定処理を終了する。顔中心線補正処理は、照射部Lに対してヨー角が大きくなると、マスク中心部の輝度値が下がり、上述した輝度値条件により検出するマスク中心線と顔中心線が一致しなくなってしまう場合があるので(例えば、図7のヨー角50度時。ヨー角40度以下であれば、マスク中心線と顔中心線が一致しやすい)、そのような場合に顔中心線を補正するために行われる。本実施例では、ヨー角が50度未満である場合には、輝度値220以上に色分けされた画素で形成されるエッジに対応する線を顔中心線とする。一方、ヨー角が50度以上である場合には、輝度値160以上220未満に色分けされた画素で形成されるエッジに対応する線を顔中心線とする。 Next, the control unit 311 performs a face center line correction process (step S37), and ends the yaw angle determination process. In the face center line correction process, when the yaw angle with respect to the irradiation unit L becomes large, the brightness value of the mask center portion decreases, and the mask center line detected by the above-mentioned brightness value condition and the face center line do not match. (For example, when the yaw angle is 50 degrees in FIG. 7. If the yaw angle is 40 degrees or less, the mask center line and the face center line are likely to match). Will be done. In this embodiment, when the yaw angle is less than 50 degrees, the line corresponding to the edge formed by the color-coded pixels having a luminance value of 220 or more is set as the face center line. On the other hand, when the yaw angle is 50 degrees or more, the line corresponding to the edge formed by the color-coded pixels having a luminance value of 160 or more and less than 220 is set as the face center line.

図9に戻り、制御部311は、ピッチ角判定処理を行う(ステップS16)。 Returning to FIG. 9, the control unit 311 performs the pitch angle determination process (step S16).

ここで、図12を用いて、ピッチ角判定処理について説明する。 Here, the pitch angle determination process will be described with reference to FIG.

まず、制御部311は、全ピッチ角(下20度、下10度、0度、上10度、上20度)についてマスク上端の傾きを記録済みであるか否かを判定する(ステップS51)。このとき、制御部311は、全ピッチ角についてマスク上端の傾きを記録済みではないと判定した場合には(ステップS51:NO)、マスク左右端の特徴と顔中心線(マスク上端付近)の特徴に基づいてピッチ角を判定する(ステップS53)。具体的には、図13(A)、(B)に示すように、マスク左右端の特徴と顔中心線の特徴は、ピッチ角に応じて異なることから、事前にピッチ角毎に基準となるマスク左右端の特徴と顔中心線を記憶部312に記録しておき、今回取得した画像におけるマスク左右端の特徴と顔中心線を比較して最も類似するマスク左右端の特徴と顔中心線に対応付けられているピッチ角を、画像に写る顔のピッチ角と判定する。なお、本実施例では、マスク左右端の特徴としてマスク上紐の傾きを記録しておき、顔中心線の特徴として、マスク上端付近の傾きを記録しておくこととする。 First, the control unit 311 determines whether or not the inclination of the upper end of the mask has been recorded for all pitch angles (lower 20 degrees, lower 10 degrees, 0 degrees, upper 10 degrees, upper 20 degrees) (step S51). .. At this time, if the control unit 311 determines that the inclination of the upper end of the mask has not been recorded for all pitch angles (step S51: NO), the characteristics of the left and right ends of the mask and the characteristics of the face center line (near the upper end of the mask). The pitch angle is determined based on (step S53). Specifically, as shown in FIGS. 13 (A) and 13 (B), the characteristics of the left and right edges of the mask and the characteristics of the face center line differ depending on the pitch angle, and thus serve as a reference for each pitch angle in advance. The features of the left and right edges of the mask and the face center line are recorded in the storage unit 312, and the features of the left and right edges of the mask and the face center line in the image acquired this time are compared and the most similar features of the left and right edges of the mask and the face center line are obtained. The associated pitch angle is determined to be the pitch angle of the face reflected in the image. In this embodiment, the inclination of the upper string of the mask is recorded as a feature of the left and right ends of the mask, and the inclination near the upper end of the mask is recorded as a feature of the center line of the face.

以下、具体的に説明する。
・記憶部312に記録されているピッチ0度時(水平時)のマスク上紐の傾き:m0
・記憶部312に記録されているピッチ0度時(水平時)の顔中心線の傾き:v0
・記憶部312に記録されているピッチ上10度時のマスク上紐の傾き:m1
・記憶部312に記録されているピッチ上10度時の顔中心線の傾き:v1
・記憶部312に記録されているピッチ上20度時のマスク上紐の傾き:m2
・記憶部312に記録されているピッチ上20度時の顔中心線の傾き:v2
・記憶部312に記録されているピッチ下10度時のマスク上紐の傾き:m3
・記憶部312に記録されているピッチ下10度時の顔中心線の傾き:v3
・記憶部312に記録されているピッチ下20度時のマスク上紐の傾き:m4
・記憶部312に記録されているピッチ下20度時の顔中心線の傾き:v4
・今回取得した画像のマスク上紐の傾き:mA
・今回取得した画像の顔中心線の傾き:vA
上記の通りマスク上紐の傾き(「マスク左右端の特徴」の一例)及び顔中心線の傾きが定義付けられている場合には、制御部331は次の通りピッチ角を判定する。
Hereinafter, a specific description will be given.
-Inclination of the mask upper string when the pitch is 0 degrees (horizontal) recorded in the storage unit 312: m0
-Inclination of the face center line when the pitch is 0 degrees (horizontal) recorded in the storage unit 312: v0
-Inclination of the mask upper string at 10 degrees on the pitch recorded in the storage unit 312: m1
-Inclination of the face center line at 10 degrees on the pitch recorded in the storage unit 312: v1
-Inclination of the mask upper string at 20 degrees on the pitch recorded in the storage unit 312: m2
-Inclination of the face center line at 20 degrees on the pitch recorded in the storage unit 312: v2
-Inclination of the mask upper string at 10 degrees below the pitch recorded in the storage unit 312: m3
-Inclination of the face center line at 10 degrees below the pitch recorded in the storage unit 312: v3
-Inclination of the mask upper string at 20 degrees below the pitch recorded in the storage unit 312: m4
-Inclination of the face center line at 20 degrees below the pitch recorded in the storage unit 312: v4
-Inclination of the mask upper string of the image acquired this time: mA
-Inclination of the face center line of the image acquired this time: vA
When the inclination of the upper string of the mask (an example of "characteristics of the left and right ends of the mask") and the inclination of the face center line are defined as described above, the control unit 331 determines the pitch angle as follows.

(1)[(v3+v0)/2<vA<(v0+v1)/2] or/and
[(m3+m0)/2<mA<(m0+m1)/2] → ピッチ角:0度
(1) [(v3 + v0) / 2 <vA <(v0 + v1) / 2] or / and
[(M3 + m0) / 2 <mA <(m0 + m1) / 2] → Pitch angle: 0 degrees

(2)[(v0+v1)/2<vA<(v1+v2)/2] or/and
[(m0+m1)/2<mA<(m1+m2)/2] → ピッチ角:上10度
(2) [(v0 + v1) / 2 <vA <(v1 + v2) / 2] or / and
[(M0 + m1) / 2 <mA <(m1 + m2) / 2] → Pitch angle: Top 10 degrees

(3)[(v1+v2)/2<vA] or/and
[(m1+m2)/2<mA] → ピッチ角:上20度
(3) [(v1 + v2) / 2 <vA] or / and
[(M1 + m2) / 2 <mA] → Pitch angle: 20 degrees above

(4)[(v3+v4)/2<vA<(v0+v3)/2] or/and
[(m3+m4)/2<mA<(m0+m3)/2] → ピッチ角:下10度
(4) [(v3 + v4) / 2 <vA <(v0 + v3) / 2] or / and
[(M3 + m4) / 2 <mA <(m0 + m3) / 2] → Pitch angle: 10 degrees below

(5)[vA<(v3+v4)/2] or/and
[mA<(m3+m4)/2] → ピッチ角:下20度
(5) [vA <(v3 + v4) / 2] or / and
[mA <(m3 + m4) / 2] → Pitch angle: 20 degrees down

次に、制御部311は、マスク上端(図2の上境界213)を検出し、ステップS53の処理で判定したピッチ角とマスク上端の傾きを対応付けて記憶部312に記録し(ステップS54)、ピッチ角判定処理を終了する。 Next, the control unit 311 detects the upper end of the mask (upper boundary 213 in FIG. 2), associates the pitch angle determined in the process of step S53 with the inclination of the upper end of the mask, and records it in the storage unit 312 (step S54). , Ends the pitch angle determination process.

一方、制御部311は、ステップS51の処理において、全ピッチ角についてマスク上端の傾きを記録済みであると判定した場合には(ステップS51:YES)、記録済のマスク上端の傾きと、今回取得した画像のマスク上端の傾きを比較し、ピッチ角を判定し(ステップS52)、ピッチ角判定処理を終了する。ここで、記録済のマスク上端の傾きと、画像のマスク上端の傾きを比較し、ピッチ角を判定する場合について具体的に説明する。 On the other hand, when the control unit 311 determines in the process of step S51 that the inclination of the upper end of the mask has been recorded for all pitch angles (step S51: YES), the recorded inclination of the upper end of the mask is acquired this time. The inclination of the upper end of the mask of the image is compared, the pitch angle is determined (step S52), and the pitch angle determination process is completed. Here, a case where the pitch angle is determined by comparing the inclination of the recorded upper end of the mask with the inclination of the upper end of the mask of the image will be specifically described.

・記憶部312に記録されているピッチ0度時(水平時)のマスク上端の傾き:g0
・記憶部312に記録されているピッチ上10度時のマスク上端の傾き:g1
・記憶部312に記録されているピッチ上20度時のマスク上端の傾き:g2
・記憶部312に記録されているピッチ下10度時のマスク上端の傾き:g3
・記憶部312に記録されているピッチ下20度時のマスク上端の傾き:g4
・今回取得した画像のマスク上端の傾き:gA
上記の通りマスク上端の傾きが定義付けられている場合には、制御部331は次の通りピッチ角を判定する。
-Inclination of the upper end of the mask when the pitch is 0 degrees (horizontal) recorded in the storage unit 312: g0
-Inclination of the upper end of the mask at 10 degrees above the pitch recorded in the storage unit 312: g1
-Inclination of the upper end of the mask at 20 degrees on the pitch recorded in the storage unit 312: g2
-Inclination of the upper end of the mask at 10 degrees below the pitch recorded in the storage unit 312: g3
-Inclination of the upper end of the mask at 20 degrees below the pitch recorded in the storage unit 312: g4
-Inclination of the upper end of the mask of the image acquired this time: gA
When the inclination of the upper end of the mask is defined as described above, the control unit 331 determines the pitch angle as follows.

(1)[(g3+g0)/2<gA<(g0+g1)/2] → ピッチ角:0度 (1) [(g3 + g0) / 2 <gA <(g0 + g1) / 2] → Pitch angle: 0 degrees

(2)[(g0+g1)/2<gA<(g1+g2)/2] → ピッチ角:上10度 (2) [(g0 + g1) / 2 <gA <(g1 + g2) / 2] → Pitch angle: Top 10 degrees

(3)[(g1+G2)/2<gA] → ピッチ角:上20度 (3) [(g1 + G2) / 2 <gA] → Pitch angle: 20 degrees above

(4)[(g3+g4)/2<gA<(g0+g3)/2] → ピッチ角:下10度 (4) [(g3 + g4) / 2 <gA <(g0 + g3) / 2] → Pitch angle: 10 degrees below

(5)[gA<(g3+g4)/2] → ピッチ角:下20度 (5) [gA <(g3 + g4) / 2] → Pitch angle: 20 degrees below

図9に戻り、制御部311は、顔向き判定処理を継続するか否かを判定する(ステップS17)。このとき、制御部311は、顔向き判定処理を継続しないと判定したときには(ステップS17:NO)、顔向き判定処理を終了する。一方、制御部311は、顔向き判定処理を継続すると判定したときには(ステップS17:YES)、次の画像を取得し(ステップS18)、ステップS15の処理に移行する。 Returning to FIG. 9, the control unit 311 determines whether or not to continue the face orientation determination process (step S17). At this time, when the control unit 311 determines that the face orientation determination process is not continued (step S17: NO), the control unit 311 ends the face orientation determination process. On the other hand, when the control unit 311 determines that the face orientation determination process is to be continued (step S17: YES), the control unit 311 acquires the next image (step S18) and proceeds to the process of step S15.

以上説明したように、本実施例に係る認識装置Dの制御部311(「取得手段」、「検出手段」、「認識手段」の一例)は、マスク(「被覆部材」の一例)により被覆された顔(「対象」の一例)を照射部L(「照射手段」の一例)により光を照射した状態で撮影した画像を取得し、当該取得した画像に含まれる画素の輝度値に基づいて、顔中心線212(「対象の表面における正面縦方向の中心線」の一例)を検出し、当該検出結果に基づいて、対象の向きを認識する。 As described above, the control unit 311 (an example of the “acquisition means”, the “detection means”, and the “recognition means”) of the recognition device D according to the present embodiment is covered with a mask (an example of the “covering member”). An image taken with the face (an example of the "object") irradiated with light by the irradiation unit L (an example of the "irradiation means") is acquired, and based on the brightness value of the pixels included in the acquired image, the image is taken. The face center line 212 (an example of "the center line in the front vertical direction on the surface of the target") is detected, and the orientation of the target is recognized based on the detection result.

したがって、本実施例に係る認識装置Dによれば、画像に含まれる画素の輝度値に基づく顔中心線212の検出結果に基づいて顔の向きを認識することから、顔がマスクにより被覆されている場合であっても顔の向きを正確に認識することができる。また、パターンマッチングのような処理負荷の高い処理をせずに顔の向きを認識できる。さらに、パターンマッチングのためのパターン画像も記憶しておく必要がないので、記憶部312を小容量の記憶装置とすることができる。 Therefore, according to the recognition device D according to the present embodiment, the orientation of the face is recognized based on the detection result of the face center line 212 based on the brightness value of the pixels included in the image, so that the face is covered with the mask. Even if it is present, the orientation of the face can be accurately recognized. In addition, the orientation of the face can be recognized without performing high processing load processing such as pattern matching. Further, since it is not necessary to store the pattern image for pattern matching, the storage unit 312 can be used as a storage device having a small capacity.

また、本実施例に係る認識装置Dの制御部311は、顔中心線212の傾きに基づいて、顔の縦方向の向き(ピッチ角)を認識する。 Further, the control unit 311 of the recognition device D according to the present embodiment recognizes the vertical direction (pitch angle) of the face based on the inclination of the face center line 212.

更に、本実施例に係る認識装置Dの制御部311(「検出手段」、「記憶制御手段」、「認識手段」の一例)は、顔の縦方向の向きを認識した際の、マスクの上側の境界である上境界213を更に検出し、上境界213の傾きを、認識した対象の縦方向の向きと対応付けて記憶部312(「記憶手段」の一例)に記憶させ、縦方向の向きを認識していない顔の画像が新たに取得された際に、当該画像について検出されたマスクの上境界213の傾きと略同一の傾きが対応付けられている縦方向の向きを、当該画像に写る顔の縦方向の向きとして認識する。これにより、一度、顔の縦方向の向きを認識しておけば、それ以降の画像については、上境界213を検出して、記憶部312に記憶された上境界213と比較することにより、縦方向の向きを認識することができる。すなわち、縦方向の向きを認識するための処理負担が軽減される。 Further, the control unit 311 (an example of "detection means", "memory control means", and "recognition means") of the recognition device D according to the present embodiment is the upper side of the mask when recognizing the vertical orientation of the face. The upper boundary 213, which is the boundary of the above, is further detected, and the inclination of the upper boundary 213 is stored in the storage unit 312 (an example of the "storage means") in association with the vertical orientation of the recognized object, and the vertical orientation. When a new image of a face that does not recognize is acquired, the vertical orientation associated with the inclination of the upper boundary 213 of the mask detected for the image is substantially the same as that of the image. Recognize as the vertical orientation of the reflected face. As a result, once the vertical orientation of the face is recognized, the upper boundary 213 is detected for the subsequent images and compared with the upper boundary 213 stored in the storage unit 312, thereby performing the vertical direction. The direction of the direction can be recognized. That is, the processing load for recognizing the vertical orientation is reduced.

更にまた、本実施例に係る認識装置Dの制御部311(「認識手段」の一例)は、顔の横幅における、上境界線213と顔中心線212との交点の位置に基づいて(すなわち、手前側顔幅WAと奥側顔幅WBに基づいて)、顔の横方向の向き(ヨー角)を認識する。 Furthermore, the control unit 311 (an example of the "recognition means") of the recognition device D according to the present embodiment is based on the position of the intersection of the upper boundary line 213 and the face center line 212 in the width of the face (that is,). (Based on the front side face width WA and the back side face width WB), the lateral orientation (yaw angle) of the face is recognized.

なお、本実施例に係る認識装置Dは、車載カメラ(顔向き検出によるドライバーの安全確認)、監視カメラ(マスク着用時の顔向き検出、人の興味や行動検出等)、医療カメラ(マスク着用時の顔向き検出、医者や患者の行動検出等)等に組み込むことにより活用することができる。 The recognition device D according to this embodiment includes an in-vehicle camera (driver safety confirmation by face orientation detection), a surveillance camera (face orientation detection when wearing a mask, human interest and behavior detection, etc.), and a medical camera (mask wearing). It can be utilized by incorporating it into face detection of time, behavior detection of doctors and patients, etc.).

[4.変形例]
次に、上記実施例の変形例について説明する。なお、以下に説明する変形例は適宜組み合わせることができる。
[4. Modification example]
Next, a modification of the above embodiment will be described. The modifications described below can be combined as appropriate.

[4.1.変形例1]
上記実施例では、図13(A)、(B)に示すように、基準となるマスク上紐の傾き(「マスク左右端の特徴」の一例)と顔中心線(マスク上端付近)の傾き(「顔中心線の特徴」の一例)をピッチ角と対応付けて記憶部312に記録しておき、新たに取得した画像におけるマスク上紐の傾きと顔中心線の傾きを比較してピッチ角を判定する構成としているが、これに代えて、例えば、図14(A)、(B)に示すように、マスク左右端の特徴(形状)と顔中心線(マスクにかかる部分)の特徴(形状)をそのままピッチ角と対応付けて記憶部312に記録しておき、新たに取得した画像におけるマスク左右端の特徴(形状)と顔中心線の特徴(形状)を比較し、最も類似度の高いものと対応付けられているピッチ角を取得し、当該画像に写る顔Fのピッチ角と判定する構成としてもよい。
[4.1. Modification 1]
In the above embodiment, as shown in FIGS. 13A and 13B, the inclination of the reference mask upper string (an example of "characteristics of the left and right ends of the mask") and the inclination of the face center line (near the upper end of the mask) ( An example of "features of the face center line") is recorded in the storage unit 312 in association with the pitch angle, and the pitch angle is calculated by comparing the inclination of the mask upper string and the inclination of the face center line in the newly acquired image. Instead of this, as shown in FIGS. 14A and 14B, the characteristics (shape) of the left and right ends of the mask and the characteristics (shape) of the center line of the face (the part on the mask) are determined. ) Is recorded in the storage unit 312 as it is in association with the pitch angle, and the features (shape) of the left and right edges of the mask and the features (shape) of the face center line in the newly acquired image are compared and the highest degree of similarity is obtained. The pitch angle associated with the object may be acquired and determined as the pitch angle of the face F appearing in the image.

[4.2.変形例2]
上記実施例では、カメラCと照射部Lが略同じ方向から対象に向いていることとしたが、カメラCと照射部Lが異なる方向から対象に向いている場合についても本発明を適用することができる。すなわち、カメラCと照射部Lが対象からみて異なる方向に位置する場合であっても、照射部Lの位置が決まっており、マスク着用時の顔に光がどのように照射され、画像が撮像されるかが予め分かっていれば、上記実施例と同様に、口領域を判定し、マスク着用判定し、マスク特徴と顔特徴を検出することによって、顔向き方向の推定が可能である。
[4.2. Modification 2]
In the above embodiment, it is assumed that the camera C and the irradiation unit L are facing the target from substantially the same direction, but the present invention is also applied to the case where the camera C and the irradiation unit L are facing the target from different directions. Can be done. That is, even when the camera C and the irradiation unit L are located in different directions with respect to the object, the position of the irradiation unit L is fixed, and how light is applied to the face when wearing the mask to capture an image. If it is known in advance, it is possible to estimate the face orientation direction by determining the mouth region, determining the wearing of the mask, and detecting the mask feature and the face feature, as in the above embodiment.

図15は、カメラCと照射部Lを対象からみて異なる方向に配置し、顔の横方向から光を照射した状態で撮影した画像の一例である。顔の横から光を照射した場合は、顔向きがカメラ正面付近を向いたときに、顔の中心線601を検出できる。光が照射されている方向を向くと、顔の輪郭や光の方向に面しているマスクの特徴602や顔の前面領域が検出できるようになる。これらを検出し、同様にヨー角10度毎の判定をすることができる。但し、顔横方向から光を照射する場合は、顔向きが光の照射と反対方向に向いてしまうと、光照射によるマスク特徴や顔前面の特徴が検出できなくなってしまうことから、より広範囲に顔向き角度を検出したい場合は、上記実施例のように、カメラCと照射部Lを顔からみて同じ方向に設置することが望ましい。応用や環境の違いにより、顔横方向から光を照射して、マスクの特徴602等を検出して、顔向き方向を判定してもよい。 FIG. 15 is an example of an image taken in a state where the camera C and the irradiation unit L are arranged in different directions when viewed from the target and the light is irradiated from the lateral direction of the face. When the light is irradiated from the side of the face, the center line 601 of the face can be detected when the face faces the vicinity of the front of the camera. When facing the direction of the light, the contour of the face, the feature 602 of the mask facing the direction of the light, and the front area of the face can be detected. These can be detected and similarly determined every 10 degrees of yaw angle. However, when irradiating light from the lateral direction of the face, if the face is oriented in the opposite direction to the irradiation of the light, the mask features and the features on the front surface of the face due to the light irradiation cannot be detected, so that the range is wider. When it is desired to detect the face orientation angle, it is desirable to install the camera C and the irradiation unit L in the same direction when viewed from the face, as in the above embodiment. Depending on the application and the environment, light may be irradiated from the lateral direction of the face to detect the feature 602 of the mask and the like to determine the direction of the face.

このように、カメラCと照射部Lを対象からみて異なる方向に配置した場合であっても、マスク特徴や顔前面特徴を明瞭に検出することができるので、カメラCと照射部Lの設置条件等で、カメラCから位置を離して照射部Lを配置して、光の照射を顔横方向から行いたい場合や、カメラCの横方向から支配的な光(例えば、太陽光等)が照射される場合であっても、同様な処理で顔向き判定を行うことができる。 In this way, even when the camera C and the irradiation unit L are arranged in different directions when viewed from the target, the mask feature and the front surface feature of the face can be clearly detected. For example, when the irradiation unit L is arranged away from the camera C to irradiate the light from the lateral direction of the face, or when the dominant light (for example, sunlight) is irradiated from the lateral direction of the camera C. Even if it is done, the face orientation can be determined by the same processing.

[4.3.変形例3]
顔の口領域の判定や、顔向き角度の判定において、過去の撮影画像で判定した結果を利用して、上記判定に用いることとしてもよい。例えば、一度口領域を推定したら、次の時間で撮影した画像では、過去推定領域の周辺で口領域を探索する処理が考えられる。また、顔向き方向の判定においては、例えば、顔向き上10度左20度と判定した場合は、次の時間で撮影した画像では、過去推定顔向き周辺向きである可能性が高いので、顔向き上20度左20度、顔向き上10度左10度、顔向き上10度左30度、顔向き左20度の特徴を優先的に検出する処理を行うことが考えられる。すなわち、近い時刻に撮影された画像では顔の向きは大幅に変化しないことを想定し、新たに顔向きを判定する場合には、直近に判定した顔向きに近い方向から判定処理を行うことができる。この変形例のように、時系列にデータを処理して、判定処理を有効に行うことにより、口領域の判定や、顔向き角度の判定についての処理負担を軽減することができる。
[4.3. Modification 3]
In the determination of the mouth region of the face and the determination of the face orientation angle, the results of determination in the past captured images may be used for the above determination. For example, once the mouth region is estimated, in the image taken at the next time, a process of searching the mouth region around the past estimation region can be considered. Further, in the determination of the face orientation, for example, if it is determined to be 10 degrees above the face and 20 degrees to the left, it is highly possible that the image taken at the next time is oriented toward the periphery of the face estimated in the past. It is conceivable to perform a process of preferentially detecting the features of 20 degrees to the left of the face, 10 degrees to the left of the face, 10 degrees to the left of the face, and 20 degrees to the left of the face. That is, assuming that the orientation of the face does not change significantly in the images taken at a close time, when newly determining the face orientation, the determination processing may be performed from the direction close to the most recently determined face orientation. can. By processing the data in time series and effectively performing the determination process as in this modification, it is possible to reduce the processing load for the determination of the mouth region and the determination of the face orientation angle.

[4.4.変形例4]
本願発明者が実施したところ、多くのマスクは、赤外撮像画像において、マスク領域が、肌に比べて輝度値が大きくなることが判明した。しかし、マスクの素材によって、例えば赤外線を吸収するような素材を使っている場合は、赤外撮像画像で、マスク領域が肌に比べ暗く(輝度値が低く)撮像される場合がある。そのような場合は、肌領域と比較して、口領域の輝度値が小さいことを判定して、マスクを検出することとしてもよい。なお、この場合は、マスク検出した後、マスクエッジを検出する処理等は上述の実施例と同様に行うことができる。
[4.4. Modification 4]
As a result of the implementation by the inventor of the present application, it was found that in many masks, the brightness value of the mask region is larger than that of the skin in the infrared captured image. However, depending on the material of the mask, for example, when a material that absorbs infrared rays is used, the mask region may be imaged darker (lower brightness value) than the skin in the infrared image. In such a case, it may be determined that the brightness value of the mouth region is smaller than that of the skin region, and the mask may be detected. In this case, after the mask is detected, the process of detecting the mask edge and the like can be performed in the same manner as in the above-described embodiment.

1 認識装置
111A 取得手段
111B 検出手段
111C 認識手段
111D 記憶制御手段
111E 記憶手段
D 顔向き認識装置D
311 制御部
312 記憶部
313 通信部
314 表示部
315 操作部
1 Recognition device 111A Acquisition means 111B Detection means 111C Recognition means 111D Storage control means 111E Storage means D Face recognition device D
311 Control unit 312 Storage unit 313 Communication unit 314 Display unit 315 Operation unit

Claims (1)

被覆部材により被覆された対象を照射手段により光を照射した状態で撮影した画像を取得する取得手段と、
前記画像に含まれる画素の輝度値に基づいて、前記対象の表面における正面縦方向の中心線を検出する検出手段と、
前記検出手段の検出結果に基づいて、前記対象の向きを認識する認識手段と、
を備える認識装置。
An acquisition means for acquiring an image taken in a state where an object covered with a covering member is irradiated with light by an irradiation means, and an acquisition means.
A detection means for detecting a center line in the front vertical direction on the surface of the target based on the luminance value of the pixels included in the image.
A recognition means that recognizes the orientation of the target based on the detection result of the detection means, and
A recognition device equipped with.
JP2021156579A 2019-11-22 2021-09-27 Recognition device, recognition method and recognition program Pending JP2021193624A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021156579A JP2021193624A (en) 2019-11-22 2021-09-27 Recognition device, recognition method and recognition program
JP2023083675A JP2023103452A (en) 2019-11-22 2023-05-22 Recognition device, recognition method, and recognition program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019211287A JP2020042842A (en) 2019-11-22 2019-11-22 Recognition device, recognition method, and recognition program
JP2021156579A JP2021193624A (en) 2019-11-22 2021-09-27 Recognition device, recognition method and recognition program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019211287A Division JP2020042842A (en) 2019-11-22 2019-11-22 Recognition device, recognition method, and recognition program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023083675A Division JP2023103452A (en) 2019-11-22 2023-05-22 Recognition device, recognition method, and recognition program

Publications (1)

Publication Number Publication Date
JP2021193624A true JP2021193624A (en) 2021-12-23

Family

ID=69798530

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019211287A Pending JP2020042842A (en) 2019-11-22 2019-11-22 Recognition device, recognition method, and recognition program
JP2021156579A Pending JP2021193624A (en) 2019-11-22 2021-09-27 Recognition device, recognition method and recognition program
JP2023083675A Pending JP2023103452A (en) 2019-11-22 2023-05-22 Recognition device, recognition method, and recognition program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019211287A Pending JP2020042842A (en) 2019-11-22 2019-11-22 Recognition device, recognition method, and recognition program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023083675A Pending JP2023103452A (en) 2019-11-22 2023-05-22 Recognition device, recognition method, and recognition program

Country Status (1)

Country Link
JP (3) JP2020042842A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242886A1 (en) * 2022-06-13 2023-12-21 三菱電機株式会社 Face orientation estimation device, side glance determination system, and face orientation estimation method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251617A (en) * 2001-02-22 2002-09-06 Toyota Central Res & Dev Lab Inc Device for detecting nose position
JP2004110543A (en) * 2002-09-19 2004-04-08 Toyota Central Res & Dev Lab Inc Face image processing unit and program
JP2009265722A (en) * 2008-04-22 2009-11-12 Calsonic Kansei Corp Face direction sensing device
JP2009294999A (en) * 2008-06-06 2009-12-17 Hitachi Omron Terminal Solutions Corp Face direction detecting program, face direction detecting method, and face direction detecting unit
JP2010157073A (en) * 2008-12-26 2010-07-15 Fujitsu Ltd Device, method and program for recognizing face
JP2011118588A (en) * 2009-12-02 2011-06-16 Honda Motor Co Ltd Mask wearing determination apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002251617A (en) * 2001-02-22 2002-09-06 Toyota Central Res & Dev Lab Inc Device for detecting nose position
JP2004110543A (en) * 2002-09-19 2004-04-08 Toyota Central Res & Dev Lab Inc Face image processing unit and program
JP2009265722A (en) * 2008-04-22 2009-11-12 Calsonic Kansei Corp Face direction sensing device
JP2009294999A (en) * 2008-06-06 2009-12-17 Hitachi Omron Terminal Solutions Corp Face direction detecting program, face direction detecting method, and face direction detecting unit
JP2010157073A (en) * 2008-12-26 2010-07-15 Fujitsu Ltd Device, method and program for recognizing face
JP2011118588A (en) * 2009-12-02 2011-06-16 Honda Motor Co Ltd Mask wearing determination apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
法月 亮真、村上 和人: ""部分的に隠蔽された顔の方向推定手法について"", 映像情報メディア学会技術報告, vol. 34, no. 44, JPN6019005132, 18 October 2010 (2010-10-18), JP, pages 65 - 68, ISSN: 0004856406 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023242886A1 (en) * 2022-06-13 2023-12-21 三菱電機株式会社 Face orientation estimation device, side glance determination system, and face orientation estimation method

Also Published As

Publication number Publication date
JP2023103452A (en) 2023-07-26
JP2020042842A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
KR101446975B1 (en) Automatic face and skin beautification using face detection
JP4307496B2 (en) Facial part detection device and program
JP4739870B2 (en) Sunglasses detection device and face center position detection device
JP4396387B2 (en) Image correction device
JP2016189135A (en) Recognition device, recognition method, and recognition program
JP4845698B2 (en) Eye detection device, eye detection method, and program
US10311583B2 (en) Eye motion detection method, program, program storage medium, and eye motion detection device
KR20120039498A (en) Information processing device, information processing method, program, and electronic device
US10650225B2 (en) Image processing apparatus which determines category to which object in image belongs, method therefor, and object discrimination apparatus
JP2007114029A (en) Face center position detector, face center position detection method, and program
WO2018233637A1 (en) Video processing method and apparatus, electronic device, and storage medium
US8730352B2 (en) Image processing apparatus and image processing method
JP2023103452A (en) Recognition device, recognition method, and recognition program
JP5419757B2 (en) Face image synthesizer
JP2024037793A (en) Information processing device, method for processing information, and program
JP6817782B2 (en) Pulse detection device and pulse detection method
US20190370942A1 (en) Red-eye correction techniques
JP2007025901A (en) Image processor and image processing method
JP7400198B2 (en) Image processing device, image processing method, and program
JP2020123829A (en) Video processing device, video processing method, and video processing program
JP2007140723A (en) Face authentication device
US20200250883A1 (en) Information processing apparatus to set lighting effect applied to image, information processing method, and storage medium
JP7383891B2 (en) Image processing device, image processing method, and program
US10567670B2 (en) Image-processing device
JP5528172B2 (en) Face image processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220824

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230228