JP7124912B2 - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP7124912B2
JP7124912B2 JP2021039200A JP2021039200A JP7124912B2 JP 7124912 B2 JP7124912 B2 JP 7124912B2 JP 2021039200 A JP2021039200 A JP 2021039200A JP 2021039200 A JP2021039200 A JP 2021039200A JP 7124912 B2 JP7124912 B2 JP 7124912B2
Authority
JP
Japan
Prior art keywords
area
face image
image
region
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021039200A
Other languages
Japanese (ja)
Other versions
JP2021103538A (en
Inventor
昭裕 早坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2021039200A priority Critical patent/JP7124912B2/en
Publication of JP2021103538A publication Critical patent/JP2021103538A/en
Priority to JP2022121851A priority patent/JP7302719B2/en
Application granted granted Critical
Publication of JP7124912B2 publication Critical patent/JP7124912B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、遮蔽領域を含む顔画像を識別する技術に関する。 The present invention relates to technology for identifying face images that include occluded areas.

顔画像を識別する画像認識装置が良く知られている。このような画像認識装置では、入力された顔画像または登録されている顔画像において顔の一部が眼鏡やサングラス、マスクなどの装着物によって遮蔽されている場合、認識精度が低下する。 Image recognition devices for identifying facial images are well known. In such an image recognition apparatus, recognition accuracy decreases when a part of the face in an input face image or a registered face image is blocked by an object such as glasses, sunglasses, or a mask.

このような問題に関連する技術の1つが、特許文献1に記載されている。特許文献1に記載の関連技術は、入力画像における複数の各小領域と、各小領域に対応する位置にある登録画像の各小領域との間で、パターン間距離値を算出する。そして、この関連技術は、パターン間距離値のうち小さい順に所定数だけを用いて算出した統合距離値に基づいて、入力画像を識別する。この関連技術では、入力画像および登録画像間でパターン間距離値が大きい小領域は識別に寄与しない。このため、この関連技術は、遮蔽によって入力画像および登録画像が大きく異なる小領域については、その小領域を避けて照合することができる。 One technique related to such problems is described in Japanese Unexamined Patent Application Publication No. 2002-200013. The related technology described in Patent Document 1 calculates an inter-pattern distance value between each of a plurality of small regions in an input image and each small region of a registered image at a position corresponding to each small region. Then, this related technique identifies an input image based on an integrated distance value calculated using only a predetermined number of inter-pattern distance values in ascending order. In this related technique, a small region having a large inter-pattern distance value between the input image and the registered image does not contribute to identification. Therefore, with this related technology, it is possible to avoid small areas in which the input image and the registered image are greatly different from each other due to the shading, and perform matching.

また、このような問題に関連する他の技術が、特許文献2に記載されている。特許文献2に記載の関連技術は、利用者ごとに、装着物(眼鏡など)の装着状態が異なる複数の顔情報をあらかじめ登録しておく。そして、この関連技術は、複数の顔情報のうち、入力顔画像と類似する候補顔情報を特定する。さらに、この関連技術は、候補顔情報に対応する利用者について登録された複数の顔情報のうち、候補顔情報とは装着状態が異なる別種顔情報を特定する。そして、この関連技術は、装着物の装着領域以外の領域において、入力顔画像および別種顔情報が類似する場合に、入力顔画像が、候補顔情報に対応する利用者を表すと判定する。このように、この関連技術は、入力顔画像における装着物の装着状態がどちらの場合であっても、照合を行うことができる。 Another technique related to such problems is described in Japanese Unexamined Patent Application Publication No. 2002-200320. In the related technology described in Patent Literature 2, a plurality of pieces of face information are registered in advance for each user with different wearing states of wearing objects (such as eyeglasses). Then, this related technique identifies candidate face information similar to the input face image among the plurality of pieces of face information. Furthermore, this related technology identifies different type face information having a wearing state different from that of the candidate face information, among a plurality of pieces of face information registered for a user corresponding to the candidate face information. Then, this related technique determines that the input face image represents the user corresponding to the candidate face information when the input face image and the different type face information are similar in a region other than the wearing region of the wearable object. In this way, this related technology can perform matching regardless of the wearing state of the wearing object in the input face image.

また、このような問題に関連する他の技術が、特許文献3に記載されている。特許文献3に記載の関連技術は、顔画像について装着物ありと判定した場合、装着物領域を回避した領域から第1特徴量を抽出する。そして、この関連技術は、第1特徴量とともに、装着物ありの顔画像を登録しておく。また、この関連技術は、顔画像について装着物なしと判定した場合、第1特徴量に加えて、想定される装着物領域を含む領域から第2特徴量を抽出する。そして、この関連技術は、第1特徴量および第2特徴量とともに、装着物なしの顔画像を登録しておく。また、この関連技術は、入力顔画像から第1特徴量または第2特徴量を抽出し、登録画像の第1特徴量または第2特徴量との照合を行う。このように、この関連技術は、登録顔画像に装着物があり入力顔画像に装着物がない場合や、登録顔画像に装着物がなく入力顔画像に装着物がある場合も、照合を行うことができる。 In addition, another technique related to such problems is described in Japanese Patent Laid-Open No. 2002-200033. The related technology described in Patent Document 3 extracts a first feature amount from a region that avoids the wearable object region when it is determined that the wearable object is present in the face image. Then, in this related technique, a face image with a wearable object is registered together with the first feature amount. Further, in this related technique, when it is determined that there is no wearable item in the face image, in addition to the first feature amount, a second feature amount is extracted from an area including an assumed wearable item area. Then, in this related technique, a face image without a wearable object is registered together with the first feature amount and the second feature amount. Also, this related technique extracts a first feature amount or a second feature amount from an input face image, and performs matching with the first feature amount or the second feature amount of a registered image. In this way, this related technology performs matching even when a registered face image has a wearable object and an input face image does not have a wearable object, or even when a registered face image does not have a wearable object but an input face image has a wearable object. be able to.

また、このような問題に関連する他の関連技術が、特許文献4に記載されている。特許文献4に記載の関連技術は、入力顔画像および基準顔画像を、特徴点を頂点とする複数の小領域に分割し、対応する小領域ごとに比較する。そして、この関連技術は、比較結果に基づいて、入力顔画像の小領域ごとに、遮蔽領域であるか否かを判定する。 In addition, another related technology related to such problems is described in Japanese Patent Application Laid-Open No. 2002-200042. The related technique described in Patent Document 4 divides an input face image and a reference face image into a plurality of small regions with feature points as vertices, and compares the corresponding small regions. Then, this related technique determines whether or not each small region of the input face image is a shielded region based on the comparison result.

また、このような問題に関連する他の関連技術が、特許文献5に記載されている。特許文献5に記載の関連技術は、入力顔画像の部分的な遮蔽領域を、事前に学習させた連想記憶回路によって補完する。そして、この関連技術は、補完された想起画像を利用して照合を行う。このように、この関連技術は、全ての画像を遮蔽領域の無い画像として照合を行う。 In addition, another related technique related to such problems is described in Patent Document 5. The related technology described in Patent Literature 5 supplements a partially occluded region of an input face image with a pre-learned associative memory circuit. Then, this related technology performs matching using the complemented recalled image. In this way, this related technique performs matching assuming that all images are images without occluded regions.

特許第4803214号Patent No. 4803214 特開2014-115784号公報JP 2014-115784 A 特開2007-280250号公報Japanese Patent Application Laid-Open No. 2007-280250 特開2011-60038号公報Japanese Unexamined Patent Application Publication No. 2011-60038 特開2007-148872号公報JP 2007-148872 A

しかしながら、上述の関連技術には、以下の課題がある。 However, the related art described above has the following problems.

特許文献1に記載の関連技術では、入力画像および登録画像のそれぞれ表す顔の人物が異なる場合であっても、各画像における遮蔽領域の配置や内容が類似する場合がある。このような場合、この関連技術は、パターン間距離値が小さい遮蔽領域を照合に用いてしまう。そのため、この関連技術は、実際には異なる人物を示す入力画像および登録画像を、同一人物を示すと判定してしまう場合がある。 In the related technology described in Patent Literature 1, even when the input image and registered image have different faces, the placement and content of the shielded regions in each image may be similar. In such a case, this related technique ends up using a masked region with a small inter-pattern distance value for matching. Therefore, in this related technique, it may be determined that an input image and a registered image, which actually show different persons, show the same person.

また、特許文献2に記載の関連技術では、利用者ごとに、装着状態の異なる複数の顔画像を登録する必要がある。しかしながら、どのような利用者も、そのような複数の顔画像を登録可能であるとは限らない。また、想定される装着物の種類が増えると、利用者は、装着物ごとに装着状態の異なる顔画像を登録しなければならない。これは、利便性の面での問題を生じる。 Further, in the related technology described in Patent Literature 2, it is necessary to register a plurality of face images with different wearing states for each user. However, not all users can register such multiple face images. In addition, as the types of wearable objects increase, the user has to register face images with different wearing conditions for each wearable object. This creates a problem of convenience.

また、特許文献3に記載の関連技術では、想定される装着物の種類が増えると、各装着物について、想定される装着物領域を回避した第1特徴量を抽出する必要が生じる。したがって、この関連技術は、想定される装着物の種類数だけ異なるパターンの第1特徴量を抽出しなければならず、処理負荷が増加する。なお、想定される全ての装着物の装着物領域を避けた領域から第1特徴量を抽出すれば、想定される装着物の種類が増加しても、第1特徴量のパターン数は増加しない。しかしながら、この場合、想定される装着物の種類の増加に伴い、顔を表す領域のうちで照合に用いることができる領域が減少してしまう。その結果、認識精度が低下する。また、想定される装着物の種類の増加に応じて、装着物の有無を判定する機能の事前学習にかかるコストも増大する。 Further, in the related technology described in Patent Literature 3, as the types of assumed wearable objects increase, it becomes necessary to extract the first feature amount that avoids the assumed wearable object region for each wearable object. Therefore, in this related technique, it is necessary to extract the first feature amounts of different patterns by the number of types of wearables assumed, which increases the processing load. It should be noted that if the first feature amount is extracted from areas that avoid the wearable object areas of all assumed wearable items, even if the types of assumed wearable items increase, the number of patterns of the first feature amount does not increase. . However, in this case, the number of areas that can be used for matching among the areas representing the face decreases as the types of wearable objects increase. As a result, recognition accuracy decreases. In addition, as the number of possible types of wearable items increases, the cost of pre-learning the function of determining the presence or absence of the wearable items also increases.

また、特許文献4に記載の関連技術は、入力画像の小領域ごとに、基準顔画像の小領域との輝度の差分に基づき遮蔽領域であるかないかを判定している。しかし、照明変動の影響により、小領域によっては、遮蔽領域でなくても基準顔画像との輝度の差分が大きい場合がある。この場合、この関連技術は、遮蔽領域でない小領域を遮蔽領域であると判定してしまう。また、入力顔画像の小領域がテクスチャの少ない遮蔽物によって遮蔽されており、対応する基準顔画像の小領域におけるテクスチャがもともと少ないことがある。このとき、そのような小領域間では、輝度の差分が少なくなる場合がある。この場合、この関連技術は、遮蔽領域である小領域を遮蔽領域でないと判定してしまう。例えば、白いマスクをした人物のマスクの一部と基準顔の肌との輝度の差分は少ない可能性がある。この場合、この関連技術は、マスクで遮蔽されている領域を遮蔽領域でないと判定してしまう。このように、この関連技術は、小領域ごとの遮蔽領域の判定精度に問題がある。 Further, the related technique described in Patent Document 4 determines whether or not each small area of the input image is a shielded area based on the difference in brightness from that of the small area of the reference face image. However, due to the influence of illumination variations, some small areas may have a large difference in luminance from the reference face image even if they are not shielded areas. In this case, this related technique determines that a small area that is not a shielded area is a shielded area. In addition, a small region of the input face image may be shielded by a shielding object with little texture, and the corresponding small region of the reference face image may originally have little texture. At this time, the difference in luminance may be small between such small regions. In this case, this related technique determines that the small area that is the shielded area is not the shielded area. For example, there is a possibility that the difference in brightness between a part of the mask of a person wearing a white mask and the skin of the reference face is small. In this case, this related technique determines that the area blocked by the mask is not a blocked area. In this way, this related technique has a problem in accuracy of determination of the shielded area for each small area.

また、特許文献5に記載の関連技術は、登録画像に遮蔽領域がある場合に対応できない。これは、部分的な遮蔽領域を補完する想起画像生成のための学習には、遮蔽領域のない登録画像が必要となるからである。また、この関連技術は、登録画像の表す人物以外の人物を表す入力顔画像が入力された場合、登録画像の表す人物に近い想起画像を生成してしまう。そのため、この関連技術は、そのような入力顔画像について、実際には異なる人物を示す登録顔画像と同一人物を示すと判定してしまう可能性がある。 In addition, the related technology described in Patent Document 5 cannot cope with the case where the registered image has a shielded area. This is because learning for generating recall images that complement partially occluded regions requires registered images without occluded regions. Further, in this related technology, when an input face image representing a person other than the person represented by the registered image is input, a recalled image similar to the person represented by the registered image is generated. Therefore, this related technique may determine that such an input face image shows the same person as a registered face image that actually shows a different person.

本発明は、上述の課題を解決するためになされたものである。すなわち、本発明は、システム構築にかかるコストおよび識別時の処理負荷を増大させることなく、遮蔽領域を含む画像の認識精度をより向上させる技術を提供することを目的とする。 The present invention has been made to solve the above problems. That is, an object of the present invention is to provide a technique for further improving the recognition accuracy of an image including a shielded area without increasing the cost of system construction and the processing load at the time of identification.

本発明の情報処理装置は、顔を表す画像である入力画像において遮蔽されている遮蔽領域を判定する判定部と、前記遮蔽領域に基づく遮蔽パターンと関連付けられている領域以外を用いて、前記入力画像の識別を行う識別部と、を備える。 The information processing apparatus of the present invention includes a determining unit that determines a shielded area that is shielded in an input image that is an image representing a face, and an area other than an area that is associated with a shielding pattern based on the shielded area. an identification unit that identifies an image.

また、本発明の情報処理方法は、顔を表す画像である入力画像において遮蔽されている遮蔽領域を判定し、前記遮蔽領域に基づく遮蔽パターンと関連付けられている領域以外を用いて、前記入力画像の識別を行う。 Further, the information processing method of the present invention determines a shielded region that is shielded in an input image that is an image representing a face, and uses regions other than regions associated with a shielding pattern based on the shielded region to determine the input image. identification.

また、本発明の情報処理プログラムは、顔を表す画像である入力画像において遮蔽されている遮蔽領域を判定する処理と、前記遮蔽領域に基づく遮蔽パターンと関連付けられている領域以外を用いて、前記入力画像の識別を行う処理と、をコンピュータ装置に実行させる。 Further, the information processing program of the present invention includes processing for determining a shielded region that is shielded in an input image that is an image representing a face; and a process of identifying an input image.

本発明は、システム構築にかかるコストおよび識別時の処理負荷を増大させることなく、遮蔽領域を含む画像の認識精度をより向上させる技術を提供することができる。 INDUSTRIAL APPLICABILITY The present invention can provide a technique for further improving the recognition accuracy of an image including an occluded area without increasing the cost of system construction and the processing load during identification.

本発明の第1の実施の形態としての画像認識装置の機能ブロック図である。1 is a functional block diagram of an image recognition device as a first embodiment of the present invention; FIG. 本発明の第1の実施の形態としての画像認識装置のハードウェア構成の一例を示す図である。1 is a diagram showing an example of a hardware configuration of an image recognition device as a first embodiment of the invention; FIG. 本発明の第1の実施の形態としての画像認識装置の動作を説明するフローチャートである。4 is a flow chart for explaining the operation of the image recognition device as the first embodiment of the present invention; 本発明の第2の実施の形態としての画像認識装置の機能ブロック図である。FIG. 5 is a functional block diagram of an image recognition device as a second embodiment of the present invention; 本発明の第2の実施の形態において顔画像が分割された小領域の一例を模式的に示す図である。FIG. 10 is a diagram schematically showing an example of small areas into which a face image is divided in the second embodiment of the present invention; FIG. 本発明の第2の実施の形態において顔画像が分割された小領域の他の一例を模式的に示す図である。FIG. 10 is a diagram schematically showing another example of small areas into which a face image is divided in the second embodiment of the present invention; 本発明の第2の実施の形態において顔画像が分割された小領域の他の一例を模式的に示す図である。FIG. 10 is a diagram schematically showing another example of small areas into which a face image is divided in the second embodiment of the present invention; 本発明の第2の実施の形態において顔画像が分割された小領域の他の一例を模式的に示す図である。FIG. 10 is a diagram schematically showing another example of small areas into which a face image is divided in the second embodiment of the present invention; 本発明の第2の実施の形態としての画像認識装置の動作を説明するフローチャートである。8 is a flow chart for explaining the operation of the image recognition device as the second embodiment of the present invention; 本発明の第3の実施の形態としての画像認識装置の機能ブロック図である。FIG. 11 is a functional block diagram of an image recognition device as a third embodiment of the present invention; 本発明の第3の実施の形態としての画像認識装置の動作を説明するフローチャートである。13 is a flow chart for explaining the operation of the image recognition device as the third embodiment of the present invention; 本発明の第4の実施の形態としての画像認識装置の機能ブロック図である。FIG. 11 is a functional block diagram of an image recognition device as a fourth embodiment of the present invention; 本発明の第4の実施の形態としての画像認識装置の動作を説明するフローチャートである。10 is a flow chart for explaining the operation of the image recognition device as the fourth embodiment of the present invention;

以下、本発明の実施の形態について、図面を参照して詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
本発明の第1の実施の形態としての画像認識装置1の構成を図1に示す。図1において、画像認識装置1は、判定部11と、識別部12とを含む。
(First embodiment)
FIG. 1 shows the configuration of an image recognition device 1 as a first embodiment of the invention. In FIG. 1 , the image recognition device 1 includes a determination section 11 and an identification section 12 .

ここで、画像認識装置1は、図2に示すように、CPU(Central Processing Unit)1001と、RAM(Random Access Memory)1002と、ROM(Read Only Memory)1003と、ハードディスク等の記憶装置1004と、撮像装置1005と、出力装置1006とを含むコンピュータ装置によって構成可能である。ROM1003および記憶装置1004は、コンピュータ装置を本実施の形態の画像認識装置1として機能させるためのコンピュータ・プログラムおよび各種データを記憶している。撮像装置1005は、人物の顔を撮像することにより顔を表す画像を生成するカメラやビデオカメラ等の装置である。出力装置1006は、情報を出力するディスプレイ等の装置である。CPU1001は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行することにより、コンピュータ装置の各部を制御する。 Here, as shown in FIG. 2, the image recognition apparatus 1 includes a CPU (Central Processing Unit) 1001, a RAM (Random Access Memory) 1002, a ROM (Read Only Memory) 1003, and a storage device 1004 such as a hard disk. , an imaging device 1005, and an output device 1006. The ROM 1003 and the storage device 1004 store computer programs and various data for causing the computer device to function as the image recognition device 1 of this embodiment. The imaging device 1005 is a device such as a camera or a video camera that captures an image of a person's face to generate an image representing the face. The output device 1006 is a device such as a display that outputs information. The CPU 1001 loads computer programs and various data stored in the ROM 1003 and the storage device 1004 into the RAM 1002 and executes them, thereby controlling each part of the computer device.

この場合、判定部11は、撮像装置1005と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。また、識別部12は、出力装置1006と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。なお、画像認識装置1およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。 In this case, the determination unit 11 is composed of an imaging device 1005 and a CPU 1001 that reads computer programs and various data stored in the ROM 1003 and storage device 1004 into the RAM 1002 and executes them. The identification unit 12 is composed of an output device 1006 and a CPU 1001 that loads computer programs and various data stored in the ROM 1003 and storage device 1004 into the RAM 1002 and executes them. The hardware configuration of the image recognition device 1 and its functional blocks is not limited to the configuration described above.

次に、画像認識装置1の各機能ブロックについて説明する。 Next, each functional block of the image recognition device 1 will be described.

判定部11は、顔画像および標準顔画像を比較することにより、顔画像における顔の遮蔽パターンを判定する。ここで、顔画像は、顔を表す画像である。例えば、判定部11は、顔画像を、撮像装置1005を介して取得する。また、標準顔画像は、標準的な顔を表す画像である。なお、標準顔画像は、あらかじめ定められており、例えば、記憶装置1004に記憶されているものとする。また、顔画像および標準顔画像は、該当する画像から顔を表す領域が切り出された画像であるものとする。また、本実施の形態では、顔画像および標準顔画像は、サイズや顔の向きなどが略同一であることを前提とする。 The determination unit 11 determines the masking pattern of the face in the face image by comparing the face image and the standard face image. Here, a face image is an image representing a face. For example, the determination unit 11 acquires a face image via the imaging device 1005 . A standard face image is an image representing a standard face. It is assumed that the standard face image is predetermined and stored in the storage device 1004, for example. Also, the face image and the standard face image are images obtained by cutting out a region representing the face from the corresponding image. Further, in the present embodiment, it is assumed that the face image and the standard face image are substantially the same in size, face orientation, and the like.

また、遮蔽パターンとは、顔に対してどのような遮蔽物によりどの領域に遮蔽が発生しているかを表す情報である。具体的には、遮蔽パターンは、マスクで口が隠れている、サングラスで目が隠れている、といった情報であってもよい。例えば、判定部11は、顔画像および標準顔画像を比較することにより、顔が遮蔽物により遮蔽されている遮蔽領域を推定し、推定した遮蔽領域の分布を考慮して、遮蔽パターンを判定してもよい。 Further, the shielding pattern is information indicating which area is shielded by what kind of shield with respect to the face. Specifically, the shielding pattern may be information such as a mask covering the mouth and sunglasses covering the eyes. For example, the determination unit 11 compares the face image and the standard face image to estimate a masked region in which the face is masked by a masking object, and considers the distribution of the estimated masked region to determine the masking pattern. may

識別部12は、顔画像中の遮蔽パターンに基づく領域を除外して、顔画像の識別を行う。除外領域は、想定される遮蔽パターンに応じてあらかじめ定められているものとする。なお、除外領域は、判定部21によって遮蔽パターンを判定する過程で推定された遮蔽領域と必ずしも一致していなくてもよい。また、顔画像の識別技術については、公知の技術を採用可能である。そして、識別部12は、識別結果を、出力装置1006に出力する。 The identification unit 12 identifies the face image by excluding areas based on the shielding pattern in the face image. It is assumed that the exclusion area is determined in advance according to the assumed shielding pattern. Note that the excluded area does not necessarily have to match the shielded area estimated in the process of determining the shielding pattern by the determination unit 21 . Also, a known technology can be adopted for the facial image identification technology. The identification unit 12 then outputs the identification result to the output device 1006 .

以上のように構成された画像認識装置1の動作について、図3を参照して説明する。 The operation of the image recognition apparatus 1 configured as above will be described with reference to FIG.

まず、判定部11は、入力された顔画像(入力顔画像)および標準顔画像を比較する(ステップS1)。 First, the determination unit 11 compares an input face image (input face image) and a standard face image (step S1).

次に、判定部11は、ステップS1の比較結果に基づいて、入力顔画像における遮蔽パターンを判定する(ステップS2)。 Next, the determination unit 11 determines the shielding pattern in the input face image based on the comparison result of step S1 (step S2).

次に、識別部12は、入力顔画像中で、ステップS2で判定された遮蔽パターンに基づく領域を除外して、入力顔画像の識別を行う。そして、識別部12は、識別結果を出力する(ステップS3)。 Next, the identification unit 12 identifies the input face image by excluding the area based on the shielding pattern determined in step S2 in the input face image. Then, the identification unit 12 outputs the identification result (step S3).

以上で、画像認識装置1は動作を終了する。 With this, the image recognition apparatus 1 completes its operation.

次に、本発明の第1の実施の形態の効果について述べる。 Next, effects of the first embodiment of the present invention will be described.

本発明の第1の実施の形態としての画像認識装置は、システム構築にかかるコストおよび識別処理の負荷を増大させることなく、遮蔽領域を含む画像の認識精度をより向上させることができる。 The image recognition apparatus according to the first embodiment of the present invention can further improve recognition accuracy of an image including a shielded area without increasing the cost of system construction and the load of identification processing.

その理由は、判定部が、顔画像および標準顔画像を比較することにより、顔画像の遮蔽パターンを判定し、識別部が、顔画像中の遮蔽パターンに基づく領域を除外して、顔画像の識別を行うからである。 The reason for this is that the determination unit determines the masking pattern of the face image by comparing the face image and the standard face image, and the identification unit excludes the area based on the masking pattern in the face image, This is because identification is performed.

このように、本実施の形態は、顔画像を標準顔画像と比較して、顔画像における遮蔽領域の分布を考慮して遮蔽パターンを判定する。また、本実施の形態は、標準顔画像との比較により遮蔽されていると推定した遮蔽領域そのものを除外するのではなく、遮蔽領域の分布を考慮して判定した遮蔽パターンに対して定めておいた領域を除外して識別を行う。これにより、本実施の形態は、遮蔽領域の判定エラーに頑健な遮蔽検出を実現する。また、本実施の形態は、遮蔽領域の判定エラーに伴う認証精度の低下を防ぐことができ、顔画像の認識精度を向上させることができる。 As described above, in the present embodiment, a face image is compared with a standard face image, and a masking pattern is determined in consideration of the distribution of masking regions in the face image. In addition, in the present embodiment, instead of excluding the masked region itself estimated to be masked by comparison with the standard face image, a masking pattern determined in consideration of the distribution of the masked region is determined. Identification is performed by excluding the region where the As a result, the present embodiment realizes shielding detection that is robust against a shielding area determination error. Further, according to the present embodiment, it is possible to prevent a decrease in authentication accuracy due to an error in determining a shielded area, and to improve the recognition accuracy of a face image.

また、本実施の形態は、遮蔽物の種類ごとに遮蔽物の有無を判定する機能の事前学習を必要としない。また、本実施の形態は、利用者毎の遮蔽有無に対応する複数画像の事前登録を必要としない。また、本実施の形態は、遮蔽物の種類数分の特徴量の抽出を必要としない。そして、本実施の形態は、標準顔画像をあらかじめ用意しておき、想定される遮蔽パターンに応じて除外する領域を定めておけばよく、システム構築のコストおよび識別処理の負荷を増大させることがない。 Moreover, this embodiment does not require prior learning of the function for determining the presence or absence of a shield for each type of shield. In addition, this embodiment does not require pre-registration of multiple images corresponding to the presence or absence of shielding for each user. In addition, this embodiment does not require extraction of feature amounts for the number of types of shielding objects. In this embodiment, a standard face image is prepared in advance, and an area to be excluded is determined according to an assumed shielding pattern. do not have.

(第2の実施の形態)
次に、本発明の第2の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第1の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
(Second embodiment)
Next, a second embodiment of the present invention will be described in detail with reference to the drawings. In each drawing referred to in the description of the present embodiment, the same reference numerals are assigned to the same configurations and steps that operate in the same manner as in the first embodiment of the present invention. Description is omitted.

まず、本発明の第2の実施の形態としての画像認識装置2の構成を図4に示す。図4において、画像認識装置2は、本発明の第1の実施の形態としての画像認識装置1に対して、判定部11に替えて判定部21と、識別部12に替えて識別部22とを備え、さらに、分割部23と、信頼度算出部24とを有する。 First, FIG. 4 shows the configuration of an image recognition device 2 as a second embodiment of the present invention. In FIG. 4, the image recognition device 2 has a determination unit 21 in place of the determination unit 11 and an identification unit 22 in place of the identification unit 12, compared to the image recognition device 1 according to the first embodiment of the present invention. and further includes a dividing unit 23 and a reliability calculation unit 24 .

ここで、画像認識装置2は、図2を参照して説明した本発明の第1の実施の形態の画像認識装置1と同様のハードウェア要素によって構成可能である。この場合、分割部23は、撮像装置1005と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。また、信頼度算出部24は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001によって構成される。なお、画像認識装置2およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。 Here, the image recognition device 2 can be configured by hardware elements similar to those of the image recognition device 1 according to the first embodiment of the present invention described with reference to FIG. In this case, the dividing unit 23 is composed of an imaging device 1005 and a CPU 1001 that loads computer programs and various data stored in the ROM 1003 and the storage device 1004 into the RAM 1002 and executes them. The reliability calculation unit 24 is configured by the CPU 1001 that reads computer programs and various data stored in the ROM 1003 and storage device 1004 into the RAM 1002 and executes them. Note that the hardware configuration of the image recognition device 2 and its functional blocks is not limited to the configuration described above.

次に、画像認識装置2の各機能ブロックについて説明する。 Next, each functional block of the image recognition device 2 will be described.

分割部23は、顔画像を小領域(パッチともいう)に分割する。なお、分割部23は、撮像装置1005を介して顔画像を取得してもよい。例えば、分割部23は、顔画像を、同一形状の小領域に分割してもよい。また、分割部23は、顔画像を、ある小領域の形状が他の少なくとも一部と異なるように分割してもよい。また、分割された各小領域は、他の小領域と重なり合う部分があってもよい。なお、分割部23は、顔画像を、標準顔画像と同様の配置および形状の小領域に分割することが望ましい。例えば、分割部23は、あらかじめ標準顔画像を小領域に分割しておき、入力された顔画像を同様の小領域に分割すればよい。あるいは、分割部23は、小領域にあらかじめ分割された標準顔画像の情報を取得し、取得した小領域と同様の小領域に顔画像を分割してもよい。 The dividing unit 23 divides the face image into small areas (also called patches). Note that the dividing unit 23 may acquire the face image via the imaging device 1005 . For example, the dividing unit 23 may divide the face image into small regions of the same shape. Further, the dividing unit 23 may divide the face image so that the shape of a certain small area is different from at least part of the other areas. Also, each divided small area may have a portion that overlaps with another small area. It is desirable that the dividing unit 23 divides the face image into small regions having the same arrangement and shape as the standard face image. For example, the dividing unit 23 may divide the standard face image into small regions in advance, and divide the input face image into similar small regions. Alternatively, the dividing unit 23 may acquire information of a standard face image divided into small areas in advance, and divide the face image into small areas similar to the acquired small areas.

なお、分割部23は、顔画像を分割する前に、顔画像を正規化する処理を行ってもよい。これは、画像認識装置2に入力される顔画像が、正規化されていない場合に対応するためである。具体的には、分割部23は、顔画像中の顔を正規化した顔画像を生成する。なお、ここでいう正規化とは、顔の角度、大きさ等が、所定の角度や大きさになるよう変形処理することをいうものとする。例えば、分割部23は、入力顔画像中の目や口などの特徴点を検出し、その特徴点が所定の位置にくるよう幾何変換をすればよい。また、分割部23は、画像認識装置2に入力される画像が顔より広い範囲を表す画像であった場合、該当する画像から顔画像を切り出してから、正規化を行ってもよい。例えば、分割部23は、顔画像の正規化処理に、特許4653606号の手法を採用してもよい。なお、分割部23は、その他の手法を用いて入力顔画像を正規化してもよい。 Note that the dividing unit 23 may perform processing for normalizing the face image before dividing the face image. This is to cope with the case where the face image input to the image recognition device 2 is not normalized. Specifically, the dividing unit 23 generates a face image by normalizing the face in the face image. Note that the term "normalization" as used herein refers to deformation processing so that the angle, size, and the like of a face become a predetermined angle and size. For example, the dividing unit 23 may detect feature points such as the eyes and mouth in the input face image, and perform geometric transformation so that the feature points are positioned at predetermined positions. Further, when the image input to the image recognition device 2 is an image representing a wider area than the face, the dividing unit 23 may cut out the face image from the corresponding image and then perform normalization. For example, the division unit 23 may adopt the method disclosed in Japanese Patent No. 4653606 for the face image normalization process. Note that the dividing unit 23 may normalize the input face image using another method.

具体例として、例えば、分割部23は、正規化した顔画像を、図5に示すように、格子状の等サイズの矩形の小領域に分割してもよい。あるいは、図6に示すように、一部または全部の小領域が、他の小領域に重なるように分割されていても構わない。図6では、太線の実線の矩形が示す小領域は、破線の矩形が示す4つの小領域と重なっている。あるいは、分割部23は、正規化した顔画像を、図7に示すように、ある小領域のサイズが他の少なくとも一部の小領域のサイズと異なるよう分割してもよい。あるいは、分割部23は、正規化した顔画像を、図8に示すように、矩形以外の形状(例えば、三角形)の小領域に分割してもよい。分割部23は、信頼度算出部24および識別部22の処理に支障のない範囲であれば、任意の形状やサイズの小領域に分割を行ってよい。 As a specific example, for example, the dividing unit 23 may divide the normalized face image into rectangular small regions of equal size in a grid pattern, as shown in FIG. Alternatively, as shown in FIG. 6, some or all of the subregions may be divided so as to overlap other subregions. In FIG. 6, the small area indicated by the thick solid-line rectangle overlaps with the four small areas indicated by the dashed-line rectangles. Alternatively, the dividing unit 23 may divide the normalized face image so that the size of a certain small area is different from the size of at least some of the other small areas, as shown in FIG. Alternatively, the dividing unit 23 may divide the normalized face image into subregions having shapes other than rectangles (for example, triangles) as shown in FIG. The division unit 23 may divide into small regions of arbitrary shape and size as long as the processing of the reliability calculation unit 24 and the identification unit 22 is not hindered.

信頼度算出部24は、顔画像を構成する小領域と、標準顔画像を構成する小領域とで、対応する小領域同士を比較する。そして、信頼度算出部24は、顔画像の小領域毎に、比較結果に基づいて信頼度を算出する。信頼度は、その小領域が、遮蔽物により顔が隠されている遮蔽領域であるか否かの可能性を表す。なお、信頼度は、その小領域が遮蔽領域である可能性が高いほど小さく、低いほど大きい値であってもよい。逆に、信頼度は、その小領域が遮蔽領域である可能性が高いほど大きく、低いほど小さい値であってもよい。 The reliability calculation unit 24 compares the corresponding small regions of the face image and the standard face image. Then, the reliability calculation unit 24 calculates the reliability based on the comparison result for each small area of the face image. The reliability indicates the possibility of whether or not the small area is an occluded area where the face is hidden by an occluder. Note that the reliability may be smaller the higher the probability that the small area is a shielded area and larger the lower the probability. Conversely, the reliability may be higher when the small area is likely to be an occluded area and smaller when the possibility is lower.

また、標準顔画像は、あらかじめ記憶装置1004に記憶されている。また、標準顔画像は、あらかじめ正規化されているものとする。例えば、標準顔画像は、遮蔽領域を含まない一般的な証明写真のような顔を表すものであってもよい。また、標準顔画像としては、より多くの顔画像と照合されやすい顔画像を採用するのが望ましい。例えば、標準顔画像としては、複数の人物の顔が平均化された平均顔を表す画像を利用してもよい。また、標準顔画像としては、ウルフ/ラム(複数の人物の顔との類似度が所定条件を満たすサンプル)を表す画像を利用してもよい。また、標準顔画像としては、複数の人物の顔と類似するよう人工的に作り出された物体(人工物)を表す画像を利用してもよい。また、標準顔画像は、あらかじめ小領域に分割されていてもよい。この場合、標準顔画像を構成する小領域は、分割部23によって分割されたものであってもよい。 A standard face image is stored in the storage device 1004 in advance. It is also assumed that the standard face image has been normalized in advance. For example, the standard face image may represent a face such as a general identification photograph that does not include the shielding area. Moreover, as the standard face image, it is desirable to adopt a face image that is easily collated with a larger number of face images. For example, as the standard face image, an image representing an average face obtained by averaging faces of a plurality of persons may be used. Also, as the standard face image, an image representing Wolf/Lamb (a sample whose degree of similarity to a plurality of people's faces satisfies a predetermined condition) may be used. Also, as the standard face image, an image representing an object (artificial object) artificially created to resemble the faces of a plurality of persons may be used. Also, the standard face image may be divided into small areas in advance. In this case, the subregions forming the standard face image may be divided by the dividing section 23 .

例えば、信頼度算出部24は、対応する小領域間で、輝度値の差分の総和により信頼度を算出するようにしてもよい。ただし、輝度値を用いた信頼度は、照明変動の影響を受けやすい。そこで、信頼度算出部24は、小領域毎に特徴量ベクトルを用いて信頼度を算出してもよい。特徴量ベクトルは、例えば、顔認証でよく用いられるGaborフィルタやLBP(Local Binary Pattern)のような特徴抽出処理によって得られる情報であってもよい。あるいは、特徴量ベクトルは、顔検出でよく用いられるHaar-likeフィルタのような特徴抽出処理によって得られる情報であってもよい。そして、この場合、信頼度算出部24は、対応する小領域同士で、特徴量ベクトル間の距離または相関に基づき信頼度を算出可能である。このような特徴量ベクトルに基づくことにより、信頼度算出部24は、照明変動などの影響を低減した信頼度を算出できる。なお、特徴量ベクトル間の距離に基づく信頼度を算出した場合、信頼度は、値が大きいほど、遮蔽領域である可能性が高いことを表すことになる。また、特徴量ベクトル間の相関に基づく信頼度を算出した場合、信頼度は、値が小さいほど、遮蔽領域である可能性が高いことを表すことになる。例えば、信頼度算出部24は、特徴量ベクトル間の正規化相関値を計算し、各小領域の信頼度としてもよい。この場合、信頼度が1に近いほど非遮蔽領域である可能性が高く、0に近いほど遮蔽領域である可能性が高いとみなせる。以下では、信頼度が、正規化相関値である例を中心に説明する。 For example, the reliability calculation unit 24 may calculate the reliability by summing up differences in luminance values between corresponding small regions. However, reliability using luminance values is susceptible to illumination variations. Therefore, the reliability calculation unit 24 may calculate the reliability using the feature amount vector for each small area. The feature amount vector may be information obtained by feature extraction processing such as Gabor filter and LBP (Local Binary Pattern), which are often used in face authentication, for example. Alternatively, the feature amount vector may be information obtained by feature extraction processing such as a Haar-like filter that is often used in face detection. In this case, the reliability calculation unit 24 can calculate the reliability based on the distance or correlation between the feature quantity vectors between corresponding small regions. Based on such a feature amount vector, the reliability calculation unit 24 can calculate the reliability with reduced influence of illumination variation and the like. Note that when the reliability based on the distance between the feature amount vectors is calculated, the larger the reliability, the higher the possibility that the area is an occluded area. Also, when calculating the reliability based on the correlation between the feature amount vectors, the smaller the reliability, the higher the possibility that the area is an occluded area. For example, the reliability calculation unit 24 may calculate a normalized correlation value between feature amount vectors and use it as the reliability of each small region. In this case, it can be considered that the closer the reliability is to 1, the higher the possibility that the area is a non-shielded area, and the closer the reliability is to 0, the higher the possibility that the area is a shielded area. An example in which the reliability is a normalized correlation value will be mainly described below.

判定部21は、顔画像における小領域別の信頼度の分布に基づいて、遮蔽パターンを判定する。ここで、判定部21は、所定範囲の小領域群をまとめた中領域に対して、中領域を構成する小領域群の信頼度の分布が遮蔽条件を満たすか否かを判定してもよい。そして、遮蔽条件を満たす場合、判定部21は、その中領域が遮蔽領域であると推定してもよい。そして、判定部21は、推定した遮蔽領域の分布に基づいて、遮蔽パターンを判定してもよい。 The determination unit 21 determines the masking pattern based on the distribution of reliability for each small area in the face image. Here, the determining unit 21 may determine whether or not the reliability distribution of the small area group forming the intermediate area satisfies the shielding condition for the intermediate area obtained by combining the small area groups within a predetermined range. . Then, when the shielding condition is satisfied, the determining unit 21 may estimate that the middle area is the shielding area. Then, the determination unit 21 may determine the shielding pattern based on the estimated distribution of the shielding areas.

例えば、判定部21は、中領域を構成する各小領域の信頼度が閾値より高いか低いかを判別してもよい。そして、判定部21は、周囲の小領域の判別結果と異なる判別結果となった小領域の信頼度をノイズであるとみなしてもよい。具体的には、判定部21は、中領域を構成する小領域群の信頼度が閾値よりも低くなる小領域がその小領域群の過半数以上であるという遮蔽条件を満たす場合に、その中領域を遮蔽領域であると推定してもよい。なお、遮蔽条件は、その他の条件であってもよい。そして、判定部21は、遮蔽領域と推定された中領域の分布に基づいて、遮蔽パターンを判定してもよい。なお、中領域は、段階的に設定されていてもよい。例えば、判定部21は、所定範囲の小領域群をまとめた中領域をさらに所定範囲でまとめて大領域とするような構成にしてもよい。このような場合、判定部21は、大領域を構成する中領域のうち遮蔽領域であると推定されたものの分布が遮蔽条件を満たす場合に、大領域が遮蔽領域であると推定してもよい。そして、この場合、判定部21は、遮蔽領域であると推定された大領域の分布に基づいて、遮蔽パターンを判定すればよい。また、小領域、中領域、大領域の3段階に限らず、小領域から大領域までがさらに多段に設計されていてもよい。 For example, the determination unit 21 may determine whether the reliability of each small area forming the middle area is higher or lower than a threshold. Then, the determination unit 21 may regard the reliability of a small region having a discrimination result different from that of the surrounding small regions as noise. Specifically, when the determination unit 21 satisfies the shielding condition that a majority or more of the small regions in which the reliability of the group of small regions constituting the middle region is lower than the threshold, the middle region satisfies the shielding condition. may be estimated to be the occluded region. In addition, other conditions may be sufficient as shielding conditions. Then, the determination unit 21 may determine the shielding pattern based on the distribution of the medium areas estimated to be the shielding areas. Note that the middle region may be set stepwise. For example, the determination unit 21 may be configured such that a medium area obtained by grouping a group of small areas within a predetermined range is further grouped into a large area by a predetermined range. In such a case, the determination unit 21 may estimate that the large area is the shielded area when the distribution of the medium areas that constitute the large area that are estimated to be the shielded area satisfies the shielding condition. . In this case, the determination unit 21 may determine the shielding pattern based on the distribution of the large area estimated to be the shielding area. Further, the design is not limited to the three stages of the small area, medium area, and large area, and may be designed in multiple stages from the small area to the large area.

例えば、判定部21は、顔画像中で鼻よりも上側の小領域群をまとめた顔上部領域を中領域に設定してもよい。この場合、判定部21は、顔上部領域における小領域群の信頼度の分布が遮蔽条件を満たす場合に、サングラスによる遮蔽パターンであると判定してもよい。また、判定部21は、鼻よりも下側の小領域群をまとめた顔下部領域を中領域に設定してもよい。この場合、判定部21は、顔下部領域における小領域群の信頼度の分布が遮蔽条件を満たす場合に、マスクによる遮蔽パターンであると判定してもよい。その他、判定部21は、想定される各種の遮蔽パターンに応じて中領域を設定しておけばよい。 For example, the determination unit 21 may set the upper face region, which is a group of small regions above the nose in the face image, as the middle region. In this case, the determination unit 21 may determine that the masking pattern is due to sunglasses when the distribution of the reliability of the small region group in the upper face region satisfies the masking condition. Further, the determination unit 21 may set the lower face region, which is a group of small regions below the nose, as the middle region. In this case, the determination unit 21 may determine that the pattern is masked by a mask when the reliability distribution of the small region group in the lower face region satisfies the masking condition. In addition, the determination unit 21 may set the middle region according to various assumed shielding patterns.

ここで、小領域の信頼度の分布または遮蔽領域の分布に基づいて遮蔽パターンを判定することのメリットについて説明する。小領域毎に算出した信頼度は、撮影状況などにより結果が不安定になりやすい。そのため、仮に、小領域毎に、信頼度による遮蔽判定を行ったとすると、エラーが生じる可能性が高くなる。なお、ここでいうエラーとは、本来遮蔽領域である小領域を遮蔽領域でないと判定したり、本来遮蔽領域でない小領域を遮蔽領域であると判定することをいう。また、そのようなエラーを発生しうる信頼度は、ノイズであるといえる。仮に、このような小領域毎の遮蔽判定に基づき遮蔽領域以外を識別に用いるとすると、本来、識別の対象に適していない小領域(遮蔽領域)を遮蔽領域でないとして識別に利用する可能性がある。また、本来、識別の対象に適している小領域(遮蔽領域でない領域)を遮蔽領域であるとして識別に利用しない可能性がある。したがって、小領域毎の信頼度による遮蔽判定は、認証精度を低減してしまう。 Here, the advantage of determining the shielding pattern based on the distribution of the reliability of the small areas or the distribution of the shielding areas will be described. The reliability calculated for each small area tends to be unstable depending on the shooting conditions. Therefore, if the shielding determination is made based on the reliability for each small area, the possibility of an error is increased. Note that the error here refers to determining that a small area that is originally a shielded area is not a shielded area, or that a small area that is not originally a shielded area is determined to be a shielded area. Also, the reliability that can generate such an error can be said to be noise. If a non-shielded area is used for identification based on such shielding determination for each small area, there is a possibility that a small area (shielded area) that is originally not suitable for identification will be used for identification as a non-shielded area. be. Also, there is a possibility that a small area (area that is not a shielded area) that is originally suitable for an identification target may not be used for identification as a shielded area. Therefore, shielding determination based on the reliability of each small area reduces authentication accuracy.

一方、日常生活でよく起こり得る顔の遮蔽パターンとしては、マスクやサングラスが代表的である。これらの遮蔽パターンは、顔の1/3ないしは1/2程度の非常に大きい範囲を遮蔽するものである。このような遮蔽パターンの特性を考慮すると、信頼度にノイズがないと仮定すれば、閾値より高い(あるいは低い)信頼度の小領域群の中に、閾値より低い(あるいは高い)信頼度の小領域がわずかに存在する可能性は低い。したがって、周囲の小領域の信頼度と明らかに異なる信頼度が算出された場合には、その信頼度はノイズであると考えることができる。 On the other hand, masks and sunglasses are representative examples of face shielding patterns that often occur in daily life. These shielding patterns shield a very large area, on the order of 1/3 to 1/2 of the face. Considering such characteristics of occlusion patterns, if we assume that there is no noise in the reliability, there will be small regions with a reliability lower (or higher) than the threshold in the small region group with a higher (or lower) confidence than the threshold. It is unlikely that there will be a slight region. Therefore, if a reliability that is clearly different from the reliability of the surrounding small area is calculated, it can be considered that the reliability is noise.

そこで、前述のように、判定部21は、このようなエラー(ノイズ)を考慮して、所定範囲の小領域群をまとめた中領域における信頼度の分布が遮蔽条件を満たすか否かに基づいて、中領域が遮蔽領域であるか否かを推定する。これにより、判定部21は、小領域毎に信頼度のみを用いて遮蔽領域であるか否かを判定する場合と比べて、精度よく遮蔽領域を推定することができる。その結果、判定部21は、精度よく遮蔽パターンを判定可能となる。 Therefore, as described above, in consideration of such errors (noise), the determination unit 21 determines whether or not the distribution of the reliability in the middle region, which is a group of small regions within a predetermined range, satisfies the shielding condition. Then, it is estimated whether or not the middle area is a shielded area. As a result, the determination unit 21 can accurately estimate the shielded area compared to the case of determining whether or not each small area is a shielded area using only the reliability. As a result, the determination unit 21 can accurately determine the shielding pattern.

識別部22は、入力された顔画像中で、遮蔽パターンに基づく除外領域以外において、小領域毎に識別を行う。除外領域は、本発明の第1の実施の形態と同様に、遮蔽パターンに応じてあらかじめ定められているものとする。例えば、マスクによる遮蔽パターンであれば、顔の下半分の領域を除外領域として定めておいてもよい。また、サングラスによる遮蔽パターンであれば、顔の上半分の領域を除外領域として定めておいてもよい。なお、除外領域は、判定部21による遮蔽パターンの判定の過程で推定された遮蔽領域と必ずしも一致していなくてよい。 The identification unit 22 identifies each small area in the input face image except for the exclusion area based on the shielding pattern. It is assumed that the exclusion area is determined in advance according to the shielding pattern, as in the first embodiment of the present invention. For example, in the case of a shielding pattern by a mask, the area of the lower half of the face may be defined as an exclusion area. Also, if the pattern is shielded by sunglasses, the area of the upper half of the face may be defined as an exclusion area. Note that the exclusion area does not necessarily have to match the shielding area estimated in the process of shielding pattern determination by the determining unit 21 .

そして、識別部22は、除外領域以外の小領域毎の識別結果に基づいて、顔画像の識別を行う。例えば、識別部22は、顔画像中の遮蔽パターンに基づく除外領域以外において、小領域毎に識別スコアを算出してもよい。その場合、識別部22は、算出した各小領域別の識別スコアを統合した統合スコアを算出し、統合スコアを、識別結果として出力してもよい。 Then, the identification unit 22 identifies the face image based on the identification result for each small area other than the exclusion area. For example, the identification unit 22 may calculate the identification score for each small area other than the exclusion area based on the masking pattern in the face image. In that case, the identification unit 22 may calculate an integrated score by integrating the calculated identification scores for each small region, and output the integrated score as the identification result.

具体的には、識別部22は、入力された顔画像が分割された各小領域と、登録顔画像を構成する各小領域との間で、対応する小領域同士を照合することにより、識別スコアを算出してもよい。この場合、識別部22は、入力顔画像中および登録画像中の各遮蔽パターンに基づくいずれの除外領域にも含まれない領域において、対応する小領域同士の比較を行う。そして、識別部22は、各小領域間の比較結果に基づいて、除外領域以外の小領域毎に識別スコアを算出する。そして、識別部22は、識別スコアを統合して統合スコアを算出し、識別結果として出力する。 Specifically, the identification unit 22 compares each small area obtained by dividing the input face image with each small area constituting the registered face image, and performs identification by matching the corresponding small areas. A score may be calculated. In this case, the identification unit 22 compares corresponding small areas in areas that are not included in any of the exclusion areas based on the shielding patterns in the input face image and the registered image. Then, the identification unit 22 calculates an identification score for each small area other than the exclusion area based on the comparison result between the small areas. Then, the identification unit 22 integrates the identification scores to calculate an integrated score and outputs it as an identification result.

ここで、登録顔画像は、あらかじめ記憶装置1004に記憶されているものとする。また、記憶装置1004には、登録顔画像とともに、その登録顔画像の遮蔽パターンを表す情報が記憶されていてもよい。また、記憶装置1004には、登録顔画像とともに、登録顔画像を構成する小領域を表す情報が記憶されていてもよい。なお、登録顔画像の遮蔽パターンについては、登録顔画像が登録される際に判定部21によって判定された情報であってもよい。また、登録顔画像を構成する小領域については、登録顔画像が登録される際に分割部23によって分割された情報であってもよい。 Here, it is assumed that the registered face images are stored in the storage device 1004 in advance. The storage device 1004 may store registered face images together with information representing shielding patterns of the registered face images. In addition, the storage device 1004 may store information representing small areas forming the registered face image together with the registered face image. The masking pattern of the registered face image may be information determined by the determination unit 21 when the registered face image is registered. Further, the information divided by the division unit 23 when the registered face image is registered may be used for the small areas that constitute the registered face image.

また、識別部22は、対応する小領域間の識別スコアとして、特徴量ベクトル間の距離ないし相関に基づく値を用いてもよい。この場合、各小領域の特徴量ベクトルは、例えば、GaborフィルまたはLBPのような特徴抽出処理によって得られる情報であってもよい。ただし、識別部22は、登録顔画像との識別処理に、標準顔画像との信頼度算出時に用いられた特徴量ベクトルよりも識別能力が高い特徴量ベクトルを利用するのが望ましい。例えば、識別部22は、学習データから抽出した特徴量ベクトルに対して線形判別分析(Linear Discriminant Analysis)を行うことにより、低次元への変換行列を学習しておいてもよい。この場合、学習データは、人物ごとに正しくラベル付けされた顔画像であってもよい。そのような学習データは、登録顔画像であってもよい。例えば、画像認識装置2の利用者が全員特定可能なケース(例えば、入退場管理に用いられるケース)では、学習データとして、システム利用者全員の登録顔画像を用いることが望ましい。あるいは、学習データは、登録顔画像に限らず、その他のラベル付けされた顔画像であってもよい。例えば、画像認識装置2が不特定多数の人物の認証に用いられるケース(例えば、不審者検出に用いられるケース)であれば、学習データとしては、システム利用者か否かにかかわらず、ラベル付された多数の人物の顔画像を用いることが望ましい。そして、識別部22は、入力顔画像および登録顔画像の小領域毎の特徴量ベクトルに対して、前述の変換行列を作用させることにより、識別能力を高めた低次元特徴量ベクトルを生成すればよい。 Further, the identification unit 22 may use a value based on the distance or correlation between the feature amount vectors as the identification score between the corresponding small regions. In this case, the feature amount vector of each small region may be information obtained by feature extraction processing such as Gabor fill or LBP, for example. However, it is desirable that the identification unit 22 uses a feature amount vector having a higher identification ability than the feature amount vector used when calculating the reliability with the standard face image for the process of identifying the registered face image. For example, the identification unit 22 may learn a conversion matrix for lower dimensions by performing linear discriminant analysis on feature amount vectors extracted from learning data. In this case, the training data may be facial images correctly labeled for each person. Such training data may be registered face images. For example, in a case where all the users of the image recognition device 2 can be identified (for example, in a case where it is used for entrance/exit management), it is desirable to use registered face images of all system users as learning data. Alternatively, the learning data is not limited to registered face images, and may be other labeled face images. For example, in a case where the image recognition device 2 is used for authentication of an unspecified number of people (for example, a case where it is used for suspicious person detection), as training data, regardless of whether the user is a system user or not, labeled It is desirable to use face images of a large number of persons. Then, the identification unit 22 generates a low-dimensional feature amount vector with enhanced identification ability by applying the aforementioned transformation matrix to the feature amount vector for each small region of the input face image and the registered face image. good.

以上のように構成された画像認識装置2の動作について、図9を参照して説明する。なお、記憶装置1004には、標準顔画像および登録顔画像があらかじめ記憶されているものとする。また、標準顔画像は、あらかじめ小領域に分割されているものとする。また、登録顔画像も、あらかじめ小領域に分割されているものとする。また、登録顔画像は、遮蔽パターンを表す情報とともに記憶されているものとする。 The operation of the image recognition device 2 configured as above will be described with reference to FIG. It is assumed that the storage device 1004 stores a standard face image and a registered face image in advance. It is also assumed that the standard face image is preliminarily divided into small areas. It is also assumed that the registered face image is also divided into small areas in advance. Also, it is assumed that the registered face image is stored together with information representing the shielding pattern.

図9において、まず、分割部23は、入力された顔画像(入力顔画像)を正規化する(ステップS21)。 In FIG. 9, the dividing unit 23 first normalizes the input face image (input face image) (step S21).

次に、分割部23は、ステップS21で正規化した入力顔画像を小領域に分割する(ステップS22)。 Next, the dividing unit 23 divides the input face image normalized in step S21 into small regions (step S22).

次に、信頼度算出部24は、ステップS22で分割された顔画像の各小領域と、標準顔画像の各小領域との間で、対応する小領域同士を比較する。これにより、信頼度算出部24は、各小領域の信頼度を算出する(ステップS23)。 Next, the reliability calculation unit 24 compares the small areas of the face image divided in step S22 with the small areas of the standard face image. Thereby, the reliability calculation unit 24 calculates the reliability of each small area (step S23).

次に、判定部21は、中領域を構成する小領域群について信頼度の分布が遮蔽条件を満たすか否かに基づいて、入力顔画像の遮蔽パターンを判定する(ステップS24)。 Next, the determination unit 21 determines the masking pattern of the input face image based on whether or not the reliability distribution satisfies the masking condition for the group of small regions forming the middle region (step S24).

具体的には、前述のように、判定部21は、顔の上半分または下半分を表す中領域の信頼度の分布が遮蔽条件を満たせば、その中領域が遮蔽領域であると推定する。一方、判定部21は、顔の上半分または下半分を表す中領域の信頼度の分布が遮蔽条件を満たさなければ、その中領域が遮蔽領域でないと推定する。そして、そのような中領域が遮蔽領域であると推定した場合、判定部21は、設定した中領域に対応する遮蔽パターンを判定すればよい。例えば、判定部21は、上半分領域が遮蔽領域であると推定した場合、サングラスによる遮蔽パターンであると判定する。また、判定部21は、下半分領域が遮蔽領域であると推定した場合、マスクによる遮蔽パターンであると判定する。 Specifically, as described above, if the reliability distribution of a middle region representing the upper half or the lower half of the face satisfies the masking condition, the determining unit 21 estimates that the middle region is the masking region. On the other hand, if the reliability distribution of the middle region representing the upper half or the lower half of the face does not satisfy the masking condition, the determination unit 21 estimates that the middle region is not the masking region. Then, when it is estimated that such a middle area is a shielding area, the determination unit 21 may determine a shielding pattern corresponding to the set middle area. For example, when the determination unit 21 estimates that the upper half area is a shielded area, it determines that the pattern is shielded by sunglasses. Further, when the determination unit 21 estimates that the lower half area is a shielded area, the determination unit 21 determines that it is a masked pattern.

次に、識別部22は、入力顔画像が分割された各小領域と、登録顔画像を構成する各小領域との間で、対応する小領域同士を照合する。これにより、識別部22は、各小領域間の識別スコアを算出する(ステップS25)。 Next, the identification unit 22 compares the corresponding small areas between the small areas obtained by dividing the input face image and the small areas forming the registered face image. Thereby, the identification unit 22 calculates the identification score between each small area (step S25).

前述のように、識別部22は、識別スコアを、特徴量ベクトルまたは低次元特徴量ベクトル間の距離ないしは相関から算出すればよい。 As described above, the identification unit 22 may calculate the identification score from the distance or correlation between feature amount vectors or low-dimensional feature amount vectors.

次に、識別部22は、ステップS24で判定した遮蔽パターンに基づく領域を除外して、ステップS25で算出した各小領域間の識別スコアを統合した統合スコアを算出する(ステップS26)。 Next, the identification unit 22 excludes the area based on the shielding pattern determined in step S24, and calculates an integrated score by integrating the identification scores between the small areas calculated in step S25 (step S26).

ここでは、識別部22は、入力顔画像および登録顔画像間で、対応する小領域の一方または両方が、各画像の遮蔽パターンに基づく除外領域に含まれる場合、その小領域間の識別スコアを統合に用いない。そして、識別部22は、対応する小領域の両方が、各画像の遮蔽パターンに基づく除外領域に含まれない場合、その小領域間の識別スコアを統合に用いる。 Here, if one or both of the corresponding small regions between the input face image and the registered face image are included in the exclusion region based on the shielding pattern of each image, the identification unit 22 calculates the identification score between the small regions. Not used for integration. Then, if both of the corresponding small regions are not included in the exclusion regions based on the shielding pattern of each image, the identification unit 22 uses the identification scores between the small regions for integration.

例えば、識別部22は、該当する小領域の識別スコアの平均値を統合スコアとしてもよい。もし、入力顔画像および登録顔画像の双方について、いずれの遮蔽パターンも判定されていない場合、識別部22は、すべての小領域の識別スコアの平均値を統合スコアとする。例えば、入力顔画像および登録顔画像の一方または両方でマスクの遮蔽パターンが判定されている場合、識別部22は、顔の下半分を除外領域として、上半分の小領域の識別スコアについて、その平均値を統合スコアとしてもよい。また、例えば、識別部22は、対象となる各小領域の識別スコアに各小領域の信頼度を乗じた上で平均をとり、重み付き平均値を統合スコアとしてもよい。 For example, the identification unit 22 may use the average value of the identification scores of the corresponding small regions as the integrated score. If no shielding pattern is determined for both the input face image and the registered face image, the identifying section 22 takes the average value of the identification scores of all the small regions as the integrated score. For example, when a mask shielding pattern is determined in one or both of the input face image and the registered face image, the identification unit 22 sets the lower half of the face as an exclusion area, and calculates the identification score of the small area in the upper half of the face. An average value may be used as an integrated score. Further, for example, the identification unit 22 may multiply the identification score of each target small region by the reliability of each small region, take an average, and use the weighted average value as the integrated score.

以上で、画像認識装置2は、動作を終了する。 Thus, the image recognition device 2 ends its operation.

次に、本発明の第2の実施の形態の効果について述べる。 Next, effects of the second embodiment of the present invention will be described.

本発明の第2の実施の形態としての画像認識装置は、システム構築にかかるコストおよび識別処理の負荷を増大させることなく、遮蔽領域を含む顔画像の認識精度をさらに向上させることができる。 The image recognition apparatus according to the second embodiment of the present invention can further improve the recognition accuracy of face images including masked areas without increasing the cost of system construction and the load of identification processing.

その理由は、分割部が、顔画像を小領域に分割し、信頼度算出部が、顔画像および標準顔画像間で、対応する小領域同士を比較することにより小領域毎の信頼度を算出するからである。そして、判定部が、小領域毎の信頼度の分布に基づいて、顔画像の遮蔽領域を推定し、遮蔽領域の分布に基づいて遮蔽パターンを判定するからである。そして、識別部が、顔画像中の遮蔽パターンに基づき定められた領域を除外して、小領域毎に識別を行い、各識別結果に基づいて、顔画像全体の識別を行うからである。 The reason for this is that the dividing unit divides the face image into small regions, and the reliability calculation unit calculates the reliability of each small region by comparing the corresponding small regions between the face image and the standard face image. Because it does. This is because the determination unit estimates the masked area of the face image based on the distribution of the reliability for each small area, and determines the masked pattern based on the distribution of the masked area. This is because the identifying section excludes the area determined based on the masking pattern in the face image, identifies each small area, and identifies the entire face image based on each identification result.

このように、本実施の形態は、顔画像を構成する個々の小領域についてその信頼度のみで遮蔽領域であるか否かを判定するのではなく、より広い範囲の信頼度の分布に基づいて、遮蔽領域を推定する。その結果、本実施の形態は、小領域毎の遮蔽判定のエラーの影響を少なくすることができ、より正確な遮蔽領域を推定することができる。そして、本実施の形態は、推定した遮蔽領域の分布に基づいて遮蔽パターンを判定するので、遮蔽判定のエラーの影響をさらに少なくして、より高精度に遮蔽パターンを判定できる。そして、本実施の形態は、遮蔽領域として推定した領域をそのまま除外するのではなく、判定した遮蔽パターンに応じて定められた領域を除外して識別を行う。このため、本実施の形態は、遮蔽判定エラーに対してさらに頑健である。そして、本実施の形態は、そのような領域を除外して、小領域毎の識別結果に基づいて、顔画像の識別を行う。これにより、本実施の形態は、遮蔽領域の判定エラーに頑健な遮蔽検出を実現し、顔画像の認識精度を向上させることができる。 As described above, in the present embodiment, rather than determining whether or not each small region constituting a face image is an occluded region based only on the reliability thereof, it is determined based on a wider range of reliability distributions. , to estimate the occluded region. As a result, the present embodiment can reduce the influence of errors in the shielding determination for each small area, and can estimate the shielding area more accurately. In this embodiment, since the shielding pattern is determined based on the estimated distribution of the shielding regions, the influence of errors in the shielding determination can be further reduced, and the shielding pattern can be determined with higher accuracy. Then, in the present embodiment, identification is performed by excluding an area determined according to the determined shielding pattern, instead of excluding the area estimated as the shielding area as it is. Therefore, this embodiment is more robust against occlusion determination errors. Then, in the present embodiment, such areas are excluded, and the face image is identified based on the identification result for each small area. As a result, according to the present embodiment, it is possible to realize shielding detection that is robust against the detection error of the shielding area, and to improve the recognition accuracy of the face image.

さらには、本実施の形態は、標準顔1枚との比較で遮蔽領域および遮蔽パターンの判定を行うため、既存の技術では遮蔽領域や遮蔽パターンの判定のために必要であった大量の学習データを必要としない。その結果、本実施の形態は、システム構築のコストを大幅に低減することができる。 Furthermore, in the present embodiment, since the masked area and masking pattern are determined by comparison with a single standard face, a large amount of learning data, which is necessary for the determination of the masking area and masking pattern in the existing technology, can be obtained. does not require As a result, this embodiment can significantly reduce the cost of system construction.

なお、本実施の形態において、登録画像は、その遮蔽パターンおよび分割された小領域の情報とともにあらかじめ記憶装置に記憶されている例を中心に説明した。これに限らず、本実施の形態は、入力顔画像の識別時に、登録画像についても分割および遮蔽パターンの判定を行ってもよい。 In the present embodiment, an example has been mainly described in which the registered image is pre-stored in the storage device together with its shielding pattern and divided small area information. Not limited to this, in the present embodiment, when identifying an input face image, division of a registered image and determination of a shielding pattern may also be performed.

(第3の実施の形態)
次に、本発明の第3の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第3の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
(Third Embodiment)
Next, a third embodiment of the present invention will be described in detail with reference to the drawings. In each drawing referred to in the description of this embodiment, the same reference numerals are assigned to the same configurations and steps that operate in the same manner as in the third embodiment of the present invention, and detailed descriptions of the present embodiment are given. Description is omitted.

まず、本発明の第3の実施の形態としての画像認識装置3の構成を図10に示す。図10において、画像認識装置3は、本発明の第2の実施の形態としての画像認識装置2と同一の構成に加えて、全体識別部35と、切替部36とを有する。 First, FIG. 10 shows the configuration of an image recognition device 3 as a third embodiment of the present invention. In FIG. 10, the image recognition device 3 has an overall identifying section 35 and a switching section 36 in addition to the same configuration as the image recognition device 2 as the second embodiment of the present invention.

ここで、画像認識装置3は、図2を参照して説明した本発明の第1の実施の形態の画像認識装置1と同様のハードウェア要素によって構成可能である。この場合、全体識別部35は、出力装置1006と、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001とによって構成される。また、切替部36は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001によって構成される。なお、画像認識装置3およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。 Here, the image recognition device 3 can be composed of hardware elements similar to those of the image recognition device 1 according to the first embodiment of the present invention described with reference to FIG. In this case, the overall identification unit 35 is composed of an output device 1006 and a CPU 1001 that loads computer programs and various data stored in the ROM 1003 and storage device 1004 into the RAM 1002 and executes them. The switching unit 36 is configured by the CPU 1001 that loads computer programs and various data stored in the ROM 1003 and storage device 1004 into the RAM 1002 and executes them. The hardware configuration of the image recognition device 3 and its functional blocks is not limited to the configuration described above.

次に、画像認識装置3の各機能ブロックについて説明する。 Next, each functional block of the image recognition device 3 will be described.

全体識別部35は、顔画像における顔の全域を表す情報を用いて、顔画像の識別を行う。具体的には、例えば、全体識別部35は、顔の全域から特徴抽出を行って特徴量ベクトルを求める。また、全体識別部35は、登録顔画像からも、顔の全域についての特徴量ベクトルを求める。そして、全体識別部35は、入力顔画像の顔全域の特徴量ベクトルおよび登録顔画像の顔全域の特徴量ベクトルに基づいて、全体識別スコアを算出してもよい。この場合、全体識別部35は、全体識別スコアを、識別結果として出力する。 The overall identification unit 35 identifies the face image using information representing the entire face in the face image. Specifically, for example, the overall identification unit 35 performs feature extraction from the entire face to obtain a feature amount vector. The overall identification unit 35 also obtains a feature amount vector for the entire face from the registered face image. Then, the overall identification unit 35 may calculate the overall identification score based on the feature amount vector of the entire face of the input face image and the feature amount vector of the entire face of the registered face image. In this case, the overall identification unit 35 outputs the overall identification score as the identification result.

切替部36は、判定部21による遮蔽パターンの判定結果に基づいて、入力された顔画像の識別に、識別部22を用いるか全体識別部35を用いるかを切り替える。 The switching unit 36 switches between using the identifying unit 22 and the overall identifying unit 35 for identifying the input face image based on the determination result of the shielding pattern by the determining unit 21 .

以上のように構成された画像認識装置3の動作を、図11を用いて説明する。なお、以下では、登録顔画像は、遮蔽パターンおよび小領域を表す情報とともに記憶装置1004に記憶されているものとする。 The operation of the image recognition device 3 configured as described above will be described with reference to FIG. In the following, it is assumed that registered face images are stored in storage device 1004 along with information representing shielding patterns and small regions.

図11において、まず、画像認識装置3は、ステップS21~S24まで、本発明の第2の実施の形態としての画像認識装置2と同様に動作して、入力顔画像の遮蔽パターンを判定する。 In FIG. 11, first, the image recognition device 3 operates in steps S21 to S24 in the same manner as the image recognition device 2 according to the second embodiment of the present invention to determine the shielding pattern of the input face image.

次に、切替部36は、判定された遮蔽パターンに基づいて後続の処理を切り替える。具体的には、切替部36は、入力顔画像および登録顔画像の少なくともいずれかに、種類は問わず遮蔽パターンがあると判定されているか否かを判断する(ステップS31)。 Next, the switching unit 36 switches subsequent processes based on the determined shielding pattern. Specifically, the switching unit 36 determines whether or not it is determined that at least one of the input face image and the registered face image has a shielding pattern regardless of the type (step S31).

ここで、少なくともいずれかに遮蔽パターンがあると判定されている場合、切替部36は、識別部22を制御して、本発明の第2の実施の形態と同様にステップS25~S26を実行させる。 Here, if it is determined that there is a shielding pattern in at least one of them, the switching unit 36 controls the identifying unit 22 to execute steps S25 and S26 in the same manner as in the second embodiment of the present invention. .

一方、入力顔画像および登録顔画像のいずれにも遮蔽パターンがないと判定されている場合、切替部36は、全体識別部35を制御して、以下のステップS32を実行させる。 On the other hand, when it is determined that there is no shielding pattern in both the input face image and the registered face image, the switching section 36 controls the overall identification section 35 to execute the following step S32.

ここでは、全体識別部35は、入力顔画像の顔の全域の情報と、登録顔画像の顔の全域の情報とを用いて識別を行う。具体的には、全体識別部35は、入力顔画像の顔全域から求めた特徴量ベクトルと、登録顔画像の顔全域から求めた特徴量ベクトルとを用いて、全体識別スコアを算出する(ステップS32)。 Here, the overall identification unit 35 performs identification using information on the entire face of the input face image and information on the entire face of the registered face image. Specifically, the overall identification unit 35 calculates the overall identification score using the feature amount vector obtained from the entire face of the input face image and the feature amount vector obtained from the entire face of the registered face image (step S32).

例えば、全体識別部35は、GaborフィルタやLBPのような特徴抽出処理によって、各画像の顔全域からの特徴量ベクトルを求めればよい。そして、全体識別部35は、入力顔画像および登録顔画像それぞれの顔全域の特徴量ベクトルおよび間の距離または相関から、全体識別スコアを算出すればよい。 For example, the overall identification unit 35 may obtain a feature amount vector from the entire face of each image by feature extraction processing such as Gabor filter or LBP. Then, the overall identification unit 35 may calculate the overall identification score from the feature vector of the entire face of each of the input face image and the registered face image and the distance or correlation between them.

以上で、画像認識装置3は、動作を終了する。 Thus, the image recognition device 3 ends its operation.

次に、本発明の第3の実施の形態の効果について述べる。 Next, effects of the third embodiment of the present invention will be described.

本発明の第3の実施の形態としての画像認識装置は、本発明の第2の実施の形態と同様の効果に加えて、さらに、遮蔽領域がない場合に顔画像の認証精度を低下させないようにすることができる。 The image recognition apparatus according to the third embodiment of the present invention has the same effects as the second embodiment of the present invention, and furthermore, has the following features: can be

その理由は、切替部が、入力顔画像または登録顔画像のいずれにも遮蔽パターンがない場合には、小領域毎の識別結果を用いずに、顔全域の情報を用いて識別を行うよう処理を切り替えるからである。また、切替部が、入力顔画像または登録顔画像の少なくともいずかに遮蔽パターンがある場合には、小領域毎の識別結果を用いて識別を行うよう処理を切り替えるからである。 The reason for this is that when there is no masking pattern in either the input face image or the registered face image, the switching unit does not use the identification result for each small region, but uses the information for the entire face to perform processing. This is because the This is also because the switching unit switches the processing to perform identification using the identification result for each small region when at least one of the input face image and the registered face image has a masking pattern.

ここで、遮蔽パターンがなく領域を除外する必要がない場合には、顔全域の情報を用いた識別結果のほうが、小領域毎の識別結果の統合より精度がよい傾向がある。したがって、本実施の形態は、両画像の少なくとも一方に遮蔽パターンがある場合の高い認証精度を維持しつつ、両画像ともに遮蔽パターンがない場合にも照合精度を低下させることがない。 Here, when there is no shielding pattern and there is no need to exclude regions, there is a tendency that the identification result using the information of the entire face is more accurate than the integration of the identification results for each small region. Therefore, the present embodiment maintains high authentication accuracy when at least one of both images has a shielding pattern, and does not reduce matching accuracy even when neither of the images has a shielding pattern.

なお、本実施の形態において、識別部および全体識別部は、特徴量ベクトル間の距離や相関に基づき識別スコアを算出する例について説明したが、識別部は、その他の技術を採用して識別を行ってもよい。 In the present embodiment, an example in which the identification unit and the overall identification unit calculate the identification score based on the distance and correlation between the feature amount vectors has been described. you can go

(第4の実施の形態)
次に、本発明の第4の実施の形態について図面を参照して詳細に説明する。なお、本実施の形態の説明において参照する各図面において、本発明の第3の実施の形態と同一の構成および同様に動作するステップには同一の符号を付して本実施の形態における詳細な説明を省略する。
(Fourth embodiment)
Next, a fourth embodiment of the present invention will be described in detail with reference to the drawings. In each drawing referred to in the description of this embodiment, the same reference numerals are assigned to the same configurations and steps that operate in the same manner as in the third embodiment of the present invention, and detailed descriptions of the present embodiment are given. Description is omitted.

まず、本発明の第4の実施の形態としての画像認識装置4の構成を図12に示す。図12において、画像認識装置4は、本発明の第3の実施の形態としての画像認識装置3に対して、識別部22に替えて識別部42と、信頼度算出部24に替えて信頼度算出部44と、全体識別部35に替えて全体識別部45とを備え、さらに、特徴抽出部47を備える点が異なる。 First, FIG. 12 shows the configuration of an image recognition device 4 as a fourth embodiment of the present invention. In FIG. 12, an image recognition device 4 replaces the identification unit 22 with an identification unit 42 and replaces the reliability calculation unit 24 with a reliability degree It differs in that it includes a calculation unit 44 , an overall identification unit 45 instead of the overall identification unit 35 , and further includes a feature extraction unit 47 .

ここで、画像認識装置4は、図2を参照して説明した本発明の第1の実施の形態の画像認識装置1と同様のハードウェア要素によって構成可能である。この場合、特徴抽出部47は、ROM1003および記憶装置1004に記憶されたコンピュータ・プログラムおよび各種データをRAM1002に読み込んで実行するCPU1001によって構成される。なお、画像認識装置4およびその各機能ブロックのハードウェア構成は、上述の構成に限定されない。 Here, the image recognition device 4 can be configured by hardware elements similar to those of the image recognition device 1 according to the first embodiment of the present invention described with reference to FIG. In this case, the feature extracting unit 47 is configured by the CPU 1001 that reads computer programs and various data stored in the ROM 1003 and storage device 1004 into the RAM 1002 and executes them. The hardware configuration of the image recognition device 4 and its functional blocks is not limited to the configuration described above.

特徴抽出部47は、分割部23により分割された顔画像の小領域毎に、特徴量ベクトルを抽出する。特徴量ベクトルの抽出には、前述の各種フィルタや技術を用いればよい。例えば、特徴抽出部47は、Gaborフィルタを使ったGabor特徴量を抽出してもよい。具体的には、特徴抽出部47は、入力顔画像について、分割部23によって正規化・分割された小領域毎に特徴量ベクトルを算出し、記憶装置1004に記憶しておく。また、特徴抽出部47は、標準顔画像および登録顔画像についても、小領域毎にあらかじめ特徴量ベクトルを算出しておいてもよい。本実施の形態では、標準顔画像は、小領域毎の特徴量ベクトルとして記憶装置1004に記憶されていればよく、顔画像自体のデータは記憶されていなくてもよい。同様に、登録顔画像は、小領域毎の特徴量ベクトルとして記憶装置1004に記憶されていればよく、登録顔画像自体のデータは記憶されていなくてもよい。 The feature extraction unit 47 extracts a feature amount vector for each small area of the face image divided by the division unit 23 . The various filters and techniques described above may be used to extract the feature vector. For example, the feature extraction unit 47 may extract Gabor features using a Gabor filter. Specifically, the feature extraction unit 47 calculates a feature amount vector for each small region normalized and divided by the division unit 23 for the input face image, and stores the vector in the storage device 1004 . Further, the feature extracting section 47 may also calculate feature amount vectors for each small area in advance for the standard face image and the registered face image. In this embodiment, the standard face image may be stored in the storage device 1004 as a feature amount vector for each small area, and the data of the face image itself may not be stored. Similarly, the registered face image may be stored in the storage device 1004 as a feature amount vector for each small area, and the data of the registered face image itself may not be stored.

信頼度算出部44は、本発明の第2~第3の実施の形態における信頼度算出部24と略同様に構成される。すなわち、信頼度算出部44は、入力顔画像および標準顔画像の間で、対応する小領域間ごとに特徴量ベクトルを用いて信頼度を算出する。ただし、信頼度算出部44は、入力顔画像および標準顔画像について各小領域の特徴量ベクトルを、算出する代わりに記憶装置1004から取得する点が、信頼度算出部24と異なる。 The reliability calculation unit 44 is configured substantially in the same manner as the reliability calculation unit 24 in the second and third embodiments of the present invention. That is, the reliability calculation unit 44 calculates the reliability between the input face image and the standard face image using the feature vector for each corresponding small region. However, the reliability calculation unit 44 differs from the reliability calculation unit 24 in that the feature vector of each small region of the input face image and the standard face image is obtained from the storage device 1004 instead of being calculated.

識別部42は、本発明の第2~第3の実施の形態における識別部22と略同様に構成される。すなわち、識別部42は、入力顔画像および登録顔画像の間で、対応する小領域間ごとに特徴量ベクトルを用いて識別スコアを算出する。ただし、識別部42は、入力顔画像および登録顔画像について各小領域の特徴量ベクトルを、算出する代わりに記憶装置1004から取得する点が、識別部22と異なる。また、識別部42は、本発明の第2~第3の実施の形態と同様に、事前に特徴量ベクトルを低次元へ変換する変換行列を学習しておいてもよい。その場合、識別部42は、小領域毎の特徴量ベクトルを低次元に変換したものを用いて、識別スコアを算出する。例えば、識別部42は、入力顔画像および登録顔画像について、対応する各小領域の低次元特徴量ベクトル間の正規化相関値を、識別スコアとして算出すればよい。そして、識別部42は、入力顔画像および登録顔画像の遮蔽パターンに基づくいずれの領域も除外した上で、小領域毎の識別結果を統合して統合スコアを算出する。 The identifying section 42 is configured substantially in the same manner as the identifying section 22 in the second and third embodiments of the present invention. That is, the identification unit 42 calculates the identification score using the feature vector for each corresponding small area between the input face image and the registered face image. However, the identification unit 42 differs from the identification unit 22 in that the feature amount vector of each small region of the input face image and the registered face image is obtained from the storage device 1004 instead of being calculated. Further, the identification unit 42 may learn in advance a transformation matrix for transforming the feature amount vector to a lower dimension, as in the second to third embodiments of the present invention. In that case, the identification unit 42 calculates an identification score using a feature amount vector for each small area that has been converted to a lower dimension. For example, the identification unit 42 may calculate the normalized correlation value between the low-dimensional feature amount vectors of the corresponding small regions of the input face image and the registered face image as the identification score. Then, the identification unit 42 excludes any area based on the shielding pattern of the input face image and the registered face image, and integrates the identification results for each small area to calculate an integrated score.

全体識別部45は、入力顔画像の連結特徴量ベクトルと、登録顔画像の連結特徴量ベクトルとに基づいて、全体識別スコアを算出する。ここで、連結特徴量ベクトルとは、各小領域の特徴量ベクトルを連結して生成される。例えば、3つの小領域についてn1行1列、n2行1列、n3行1列の特徴量ベクトルがそれぞれ抽出されているとする。n1、n2、n3は、それぞれ正の整数である。これらは、全て同じ値であってもよいし、少なくとも一部が他と異なる値であってもよい。この場合、全体識別部45は、各特徴量ベクトルを連結し、(n1+n2+n3)行1列の連結特徴量ベクトルを生成可能である。つまり、連結特徴量ベクトルは、各小領域の特徴量ベクトルより次元数が増加している。なお、連結の順序は任意である。 The overall identification unit 45 calculates an overall identification score based on the connected feature amount vector of the input face image and the connected feature amount vector of the registered face image. Here, the concatenated feature quantity vector is generated by concatenating the feature quantity vectors of the respective small regions. For example, it is assumed that feature amount vectors of n1 rows and 1 column, n2 rows and 1 column, and n3 rows and 1 column are extracted for three small regions. n1, n2 and n3 are each positive integers. These may all have the same value, or at least some of them may have different values. In this case, the overall identification unit 45 can connect each feature amount vector to generate a (n1+n2+n3)-row, 1-column connected feature amount vector. In other words, the number of dimensions of the concatenated feature quantity vector is greater than that of the feature quantity vector of each small region. The order of concatenation is arbitrary.

また、全体識別部45は、連結特徴量ベクトルについても、事前に、学習データに対する線形判別分析により、連結特徴量ベクトルを低次元の連結特徴量ベクトルへと変換する変換行列を学習しておいてもよい。この場合、全体識別部45は、低次元連結特徴量ベクトル同士の正規化相関値を、全体識別スコアとして算出すればよい。 In addition, the overall identification unit 45 also learns in advance a conversion matrix for converting the connected feature amount vector to a low-dimensional connected feature amount vector by linear discriminant analysis on the learning data for the connected feature amount vector. good too. In this case, the overall identification unit 45 may calculate the normalized correlation value between the low-dimensional connected feature amount vectors as the overall identification score.

以上のように構成された画像認識装置4の動作について、図13を参照して説明する。なお、以下では、標準顔画像の小領域毎の特徴量ベクトルが、記憶装置1004に記憶されているものとする。また、登録顔画像の小領域毎の特徴量ベクトルが、あらかじめ判定部21により判定された遮蔽パターンと共に、記憶装置1004に記憶されているものとする。 The operation of the image recognition device 4 configured as described above will be described with reference to FIG. In the following description, it is assumed that the storage device 1004 stores a feature amount vector for each small area of the standard face image. Also, it is assumed that the feature amount vector for each small area of the registered face image is stored in the storage device 1004 together with the shielding pattern determined by the determination unit 21 in advance.

図13では、まず、分割部23は、本発明の第2の実施の形態と同様にステップS21~S22を実行し、入力顔画像を正規化・分割する。 In FIG. 13, the dividing unit 23 first executes steps S21 and S22 in the same manner as in the second embodiment of the present invention to normalize and divide the input face image.

次に、特徴抽出部47は、入力顔画像の小領域毎に特徴量を抽出し、記憶装置1004に記憶する(ステップS41)。 Next, the feature extraction unit 47 extracts a feature amount for each small area of the input face image and stores it in the storage device 1004 (step S41).

次に、信頼度算出部44は、ステップS41で記憶装置1004に記憶された入力顔画像の各小領域の特徴量ベクトルと、記憶装置1004に記録されている標準顔画像の各小領域の特徴量ベクトルとで、対応する各小領域間の信頼度を算出する(ステップS42)。 Next, the reliability calculation unit 44 calculates the feature vector of each small region of the input face image stored in the storage device 1004 in step S41 and the feature vector of each small region of the standard face image recorded in the storage device 1004. Quantity vectors are used to calculate the reliability between corresponding small regions (step S42).

次に、判定部21は、本発明の第2の実施の形態と同様にステップS24を実行し、遮蔽パターンを判定する。 Next, the determination unit 21 executes step S24 to determine the shielding pattern as in the second embodiment of the present invention.

次に、切替部36により入力顔画像および登録顔画像の一方または両方で遮蔽パターンありと判断された場合、識別部42は、ステップS43、S26を実行する。 Next, when the switching unit 36 determines that there is a shielding pattern in one or both of the input face image and the registered face image, the identification unit 42 executes steps S43 and S26.

ここでは、識別部42は、入力顔画像および登録顔画像について、記憶装置1004に記憶されている小領域の特徴量ベクトルを用いて、対応する小領域間の識別スコアを算出する(ステップS43)。 Here, for the input face image and the registered face image, the identification unit 42 uses the feature vectors of the small regions stored in the storage device 1004 to calculate the identification score between the corresponding small regions (step S43). .

例えば、前述のように、識別部42は、対応する各小領域の特徴量ベクトルを低次元に変換した低次元特徴量ベクトル間で、正規化相関値を識別スコアとして算出してもよい。そして、識別部42は、本発明の第2の実施の形態と同様にステップS26を実行し、統合スコアを算出する。 For example, as described above, the identification unit 42 may calculate a normalized correlation value as an identification score between low-dimensional feature amount vectors obtained by converting feature amount vectors of corresponding small regions into low-dimensional ones. Then, the identification unit 42 executes step S26 to calculate an integrated score, as in the second embodiment of the present invention.

一方、切替部36により入力顔画像および登録顔画像のどちらにも遮蔽パターンなしと判断された場合、全体識別部45は、ステップS44~S45を実行する。 On the other hand, when the switching unit 36 determines that there is no shielding pattern in both the input face image and the registered face image, the overall identification unit 45 executes steps S44 and S45.

ここでは、全体識別部45は、入力顔画像および登録顔画像について、記憶装置1004に記憶されている小領域の特徴量ベクトルを連結した連結特徴量ベクトルをそれぞれ生成する(ステップS44)。 Here, for the input face image and the registered face image, the overall identification unit 45 generates a concatenated feature quantity vector by concatenating the feature quantity vectors of the small regions stored in the storage device 1004 (step S44).

そして、全体識別部45は、入力顔画像および登録顔画像について、連結特徴量ベクトル間の比較により、全体識別スコアを算出する(ステップS45)。 Then, for the input face image and the registered face image, the overall identification unit 45 calculates the overall identification score by comparing the connected feature amount vectors (step S45).

例えば、前述のように、全体識別部45は、連結特徴量ベクトルを低次元に変換してから、低次元連結特徴量ベクトル間の正規化相関値を、全体識別スコアとして算出してもよい。 For example, as described above, the overall identification unit 45 may convert the concatenated feature amount vectors to lower dimensions, and then calculate the normalized correlation value between the low-dimensional concatenated feature amount vectors as the overall identification score.

以上で、画像認識装置4は、動作を終了する。 Thus, the image recognition device 4 ends its operation.

次に、本発明の第4の実施の形態の効果について述べる。 Next, effects of the fourth embodiment of the present invention will be described.

本発明の第4の実施の形態としての画像認識装置は、遮蔽領域を含む顔画像について高い認証精度を保ちながら、さらに処理を効率化し高速化を実現する。 The image recognition apparatus according to the fourth embodiment of the present invention achieves higher processing efficiency and speed while maintaining high recognition accuracy for face images including masked areas.

その理由は、特徴抽出部が、入力顔画像、標準顔画像、および、登録顔画像を構成する各小領域について、特徴量ベクトルを抽出して記憶しておくからである。これにより、信頼度算出部、識別部、および、全体識別部は、既に抽出された特徴量ベクトルを共通で利用することができ、各処理を効率化・高速化できる。 The reason for this is that the feature extraction unit extracts and stores feature amount vectors for each of the small regions that form the input face image, the standard face image, and the registered face image. As a result, the reliability calculation unit, the identification unit, and the overall identification unit can commonly use the already-extracted feature amount vectors, and each process can be made more efficient and faster.

なお、上述した本発明の第2から第4の各実施の形態において、識別部および全体識別部が、登録画像との照合により入力顔画像を識別する例を中心に説明した。これに限らず、各実施の形態の識別部および全体識別部は、登録画像を用いずに、入力顔画像の表す人物の性別推定、姿勢推定、表情認識等を行ってもよい。このように、各実施の形態は、遮蔽領域を含む顔画像について、登録画像を用いない各種識別処理を行う用途にも適用可能である。 In each of the second to fourth embodiments of the present invention described above, examples have been mainly described in which the identification unit and the overall identification unit identify an input face image by matching with a registered image. Without being limited to this, the identifying unit and overall identifying unit of each embodiment may perform gender estimation, posture estimation, facial expression recognition, etc. of a person represented by an input face image without using a registered image. In this way, each embodiment can also be applied to various identification processes that do not use a registered image for a face image that includes a masked area.

また、上述した本発明の第2から第4の各実施の形態において、判定部、識別部、および、全体識別部が、特徴量ベクトル間の距離または相関を用いて遮蔽パターンの判定および入力顔画像の識別を行う例を中心に説明した。これに限らず、各実施の形態のこれらの機能ブロックは、その他の手法により領域間を比較して信頼度または識別スコアを算出してもよい。なお、その場合、本発明の第4の実施の形態の特徴抽出部は、該当する画像の小領域について、比較に用いる情報を算出して記憶しておけばよい。 Further, in each of the second to fourth embodiments of the present invention described above, the determining unit, the identifying unit, and the overall identifying unit use the distance or correlation between the feature amount vectors to determine the shielding pattern and input face information. The description has focused on an example of image identification. Without being limited to this, these functional blocks of each embodiment may calculate reliability or identification score by comparing regions by other methods. In this case, the feature extraction unit according to the fourth embodiment of the present invention may calculate and store information used for comparison with respect to the corresponding small area of the image.

また、上述した本発明の各実施の形態において、遮蔽パターンの一例としてマスクやサングラスによる遮蔽を説明したが、遮蔽パターンの種類を限定するものではない。 Further, in each embodiment of the present invention described above, shielding by a mask or sunglasses has been described as an example of a shielding pattern, but the type of shielding pattern is not limited.

また、上述した本発明の各実施の形態において、入力顔画像、標準顔画像、登録顔画像とは、該当する画像に含まれる顔を表す領域の部分を指すものとする。これらの顔画像は、あらかじめ顔の領域が切り出されたものであってもよいし、処理時に切り出されたものであってもよい。 In each embodiment of the present invention described above, the input face image, the standard face image, and the registered face image refer to regions representing faces included in the corresponding images. These face images may be obtained by cutting out the face area in advance, or by cutting out during processing.

また、上述した本発明の各実施の形態において、画像認識装置の各機能ブロックが、記憶装置またはROMに記憶されたコンピュータ・プログラムを実行するCPUによって実現される例を中心に説明した。これに限らず、各機能ブロックの一部、全部、または、それらの組み合わせが専用のハードウェアにより実現されていてもよい。 Further, in each of the above-described embodiments of the present invention, an example in which each functional block of the image recognition apparatus is implemented by a CPU executing a computer program stored in a storage device or ROM has been mainly described. Not limited to this, some or all of each functional block, or a combination thereof may be implemented by dedicated hardware.

また、上述した本発明の各実施の形態において、画像認識装置の機能ブロックは、複数の装置に分散されて実現されてもよい。 Moreover, in each embodiment of the present invention described above, the functional blocks of the image recognition device may be implemented by being distributed to a plurality of devices.

また、上述した本発明の各実施の形態において、各フローチャートを参照して説明した画像認識装置の動作を、本発明の画像認識プログラムとしてコンピュータの記憶装置(記憶媒体)に格納しておいてもよい。そして、係るコンピュータ・プログラムを当該CPUが読み出して実行するようにしてもよい。そして、このような場合において、本発明は、係るコンピュータ・プログラムのコードあるいは記憶媒体によって構成される。 Further, in each embodiment of the present invention described above, the operation of the image recognition apparatus described with reference to each flowchart may be stored in a computer storage device (storage medium) as the image recognition program of the present invention. good. Then, the computer program may be read and executed by the CPU. In such a case, the present invention is constituted by such computer program code or storage medium.

また、上述した各実施の形態は、適宜組み合わせて実施されることが可能である。 Moreover, each embodiment mentioned above can be combined suitably and implemented.

また、本発明は、上述した各実施の形態に限定されず、様々な態様で実施されることが可能である。 Moreover, the present invention is not limited to the above-described embodiments, and can be implemented in various modes.

また、上述した各実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定する判定部と、
前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う識別部と、
を備えた画像認識装置。
(付記2)
前記判定部は、前記顔画像を構成する各小領域と、前記標準顔画像において前記顔画像の各小領域に対応する小領域との比較に基づく信頼度の分布に基づいて、前記遮蔽パターンを判定することを特徴とする付記1に記載の画像認識装置。
(付記3)
前記判定部は、所定範囲の前記小領域群をまとめた中領域に対して、その中領域を構成する小領域群の信頼度の分布が所定の遮蔽条件を満たす場合に、その中領域に基づき遮蔽パターンを判定することを特徴とする付記2に記載の画像認識装置。
(付記4)
前記判定部は、前記顔画像中で鼻よりも上側の小領域群をまとめた顔上部領域を前記中領域として、該中領域において前記信頼度の分布が前記遮蔽条件を満たす場合に、サングラスによる遮蔽パターンであると判定することを特徴とする付記3に記載の画像認識装置。
(付記5)
前記判定部は、前記顔画像中で鼻よりも下側の小領域群をまとめた顔下部領域を前記中領域として、該中領域において前記信頼度の分布が前記遮蔽条件を満たす場合に、マスクによる遮蔽パターンであると判定することを特徴とする付記3または付記4に記載の画像認識装置。
(付記6)
前記顔画像を前記小領域に分割する分割部と、
前記顔画像および前記標準顔画像について、対応する前記小領域間を比較することにより前記信頼度を算出する信頼度算出部と、
をさらに備えることを特徴とする付記2から付記5のいずれか1つに記載の画像認識装置。
(付記7)
前記識別部は、前記顔画像中の前記遮蔽パターンに基づく領域以外における前記小領域毎に識別を行い、前記小領域毎の識別結果に基づいて、前記顔画像の識別を行うことを特徴とする付記2から付記6のいずれか1つに記載の画像認識装置。
(付記8)
前記顔画像について、顔全域の情報を用いて識別を行う全体識別部と、
前記判定部の判定結果に基づいて、前記識別部および前記全体識別部のいずれを用いるかを切り替える切替部と、
をさらに備えることを特徴とする付記1から付記7のいずれか1つに記載の画像認識装置。
(付記9)
前記標準顔画像として、複数の人物の顔が平均化された平均顔を表す顔画像を用いることを特徴とする付記1から付記8のいずれか1つに記載の画像認識装置。
(付記10)
前記標準顔画像として、複数の人物の顔画像との類似度が所定条件を満たす顔画像を用いることを特徴とする付記1から付記8のいずれか1つに記載の画像認識装置。
(付記11)
前記標準顔画像として、標準的な顔の人工物を表す顔画像を用いることを特徴とする付記1から付記8のいずれか1つに記載の画像認識装置。
(付記12)
前記顔画像および前記標準顔画像として、特徴量ベクトルで表された情報を用いることを特徴とする付記1から付記11のいずれか1つに記載の画像認識装置。
(付記13)
顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定し、
前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う画像認識方法。
(付記14)
顔を表す画像(顔画像)と、標準的な顔を表す画像(標準顔画像)とを比較することにより、前記顔画像における顔の遮蔽パターンを判定する判定ステップと、
前記顔画像中の前記遮蔽パターンに基づく領域を除外して、前記顔画像の識別を行う識別ステップと、
をコンピュータ装置に実行させる画像認識プログラム。
In addition, part or all of each of the embodiments described above can also be described in the following additional remarks, but is not limited to the following.
(Appendix 1)
a determination unit that determines a masking pattern of the face in the face image by comparing an image representing the face (face image) with a standard image representing the face (standard face image);
an identification unit that identifies the face image by excluding a region based on the shielding pattern in the face image;
An image recognition device with
(Appendix 2)
The determining unit selects the shielding pattern based on a reliability distribution based on a comparison between each small region forming the face image and a small region corresponding to each small region of the face image in the standard face image. 1. The image recognition device according to appendix 1, characterized in that:
(Appendix 3)
The determination unit is configured to, for a middle area obtained by putting together the small area group within a predetermined range, based on the middle area when a reliability distribution of the small area group constituting the middle area satisfies a predetermined shielding condition. 2. The image recognition device according to appendix 2, wherein the shielding pattern is determined.
(Appendix 4)
The determination unit defines an upper face region, which is a group of small regions above the nose in the face image, as the middle region, and determines that if the reliability distribution in the middle region is the shielding condition, the sunglasses are used. 3. The image recognition device according to appendix 3, wherein the image recognition device determines that the pattern is a shielding pattern.
(Appendix 5)
The determination unit defines a face lower region, which is a group of small regions located below the nose in the face image, as the middle region, and if the reliability distribution satisfies the shielding condition in the middle region, the mask is determined. The image recognition device according to appendix 3 or appendix 4, wherein the image recognition apparatus determines that the pattern is a shielding pattern by .
(Appendix 6)
a dividing unit that divides the face image into the small areas;
a reliability calculation unit that calculates the reliability by comparing the corresponding small areas of the face image and the standard face image;
The image recognition device according to any one of appendices 2 to 5, further comprising:
(Appendix 7)
The identification unit identifies each of the small regions other than the region based on the shielding pattern in the face image, and identifies the face image based on the identification result of each of the small regions. The image recognition device according to any one of appendices 2 to 6.
(Appendix 8)
an overall identification unit that identifies the face image using information of the entire face;
a switching unit that switches between the identification unit and the overall identification unit to be used based on the determination result of the determination unit;
The image recognition device according to any one of appendices 1 to 7, further comprising:
(Appendix 9)
9. The image recognition apparatus according to any one of appendices 1 to 8, wherein a face image representing an average face obtained by averaging faces of a plurality of persons is used as the standard face image.
(Appendix 10)
9. The image recognition apparatus according to any one of appendices 1 to 8, characterized in that, as the standard face image, a face image satisfying a predetermined condition in degree of similarity to face images of a plurality of persons is used.
(Appendix 11)
9. The image recognition apparatus according to any one of appendices 1 to 8, wherein a face image representing a standard facial artifact is used as the standard face image.
(Appendix 12)
12. The image recognition apparatus according to any one of appendices 1 to 11, wherein information represented by a feature amount vector is used as the face image and the standard face image.
(Appendix 13)
determining a masking pattern of the face in the face image by comparing an image representing the face (face image) with an image representing a standard face (standard face image);
An image recognition method for identifying the face image by excluding a region based on the shielding pattern in the face image.
(Appendix 14)
a determination step of determining a masking pattern of the face in the face image by comparing an image representing the face (face image) with a standard image representing the face (standard face image);
an identification step of identifying the face image by excluding a region based on the shielding pattern in the face image;
An image recognition program that causes a computer device to execute

1、2、3、4 画像認識装置
11、21 判定部
12、22、42 識別部
23 分割部
24、44 信頼度算出部
35、45 全体識別部
36 切替部
47 特徴抽出部
1001 CPU
1002 RAM
1003 ROM
1004 記憶装置
1005 撮像装置
1006 出力装置
1, 2, 3, 4 image recognition device 11, 21 determination unit 12, 22, 42 identification unit 23 division unit 24, 44 reliability calculation unit 35, 45 overall identification unit 36 switching unit 47 feature extraction unit 1001 CPU
1002 RAMs
1003 ROMs
1004 storage device 1005 imaging device 1006 output device

Claims (11)

顔を表す画像である入力画像において遮蔽されている遮蔽領域を判定する判定部と、
前記遮蔽領域に基づく遮蔽パターンと予め関連付けられている、前記遮蔽パターンに応じた除外領域以外を用いて、前記入力画像の識別を行う識別部と、
を備えた情報処理装置。
a determination unit that determines a shielded region that is shielded in an input image that is an image representing a face;
an identification unit that identifies the input image using a region other than an exclusion region corresponding to the blocking pattern, which is pre- associated with the blocking pattern based on the blocking region;
Information processing device with
前記判定部は、前記入力画像を構成する複数の小領域と、標準的な顔を表す画像である標準画像において前記入力画像の各小領域に対応する小領域との比較に基づく信頼度の分布に基づいて、前記遮蔽パターンを判定する請求項1に記載の情報処理装置。 The determination unit determines a reliability distribution based on a comparison between a plurality of small regions forming the input image and small regions corresponding to each of the small regions of the input image in a standard image representing a standard face. The information processing apparatus according to claim 1, wherein the shielding pattern is determined based on. 前記判定部は、所定範囲の前記小領域をまとめた小領域群である中領域について、当該中領域を構成する前記小領域の信頼度の分布が所定の遮蔽条件を満たす場合に、前記遮蔽パターンを判定する請求項2に記載の情報処理装置。 The determination unit determines the shielding pattern when a reliability distribution of the small areas constituting the medium area satisfies a predetermined shielding condition for a medium area that is a small area group obtained by collecting the small areas of a predetermined range. 3. The information processing apparatus according to claim 2, wherein the determination is made. 前記判定部は、前記入力画像における鼻よりも上側の前記小領域をまとめた顔上部領域を前記中領域とし、当該中領域において前記信頼度の分布が前記遮蔽条件を満たす場合に、サングラスによる遮蔽パターンであると判定する請求項3に記載の情報処理装置。 The determination unit defines an upper face area obtained by collecting the small areas above the nose in the input image as the middle area, and if the reliability distribution satisfies the shielding condition in the middle area, the shielding by sunglasses is performed. 4. The information processing apparatus according to claim 3, wherein the pattern is determined. 前記判定部は、前記入力画像における鼻よりも下側の前記小領域をまとめた顔下部領域を前記中領域とし、当該中領域において前記信頼度の分布が前記遮蔽条件を満たす場合に、マスクによる遮蔽パターンであると判定する請求項3または請求項4に記載の情報処理装置。 The determination unit defines a lower face region obtained by collecting the small regions below the nose in the input image as the middle region, and uses a mask when the reliability distribution satisfies the shielding condition in the middle region. 5. The information processing apparatus according to claim 3, wherein the pattern is determined to be a shielding pattern. 前記入力画像を前記小領域に分割する分割部と、
前記入力画像および前記標準画像について、対応する前記小領域間を比較することにより前記信頼度を算出する信頼度算出部と、
をさらに備える請求項2から請求項5のいずれか1項に記載の情報処理装置。
a dividing unit that divides the input image into the small regions;
a reliability calculation unit that calculates the reliability by comparing the corresponding small areas of the input image and the standard image;
The information processing apparatus according to any one of claims 2 to 5, further comprising:
前記識別部は、前記入力画像における前記遮蔽パターンに基づいて定めた領域以外における前記小領域毎に前記入力画像の識別を行い、前記小領域毎の識別結果に基づいて、前記入力画像の識別を行う請求項2から請求項6のいずれか1項に記載の情報処理装置。 The identification unit identifies the input image for each of the small regions other than the region determined based on the shielding pattern in the input image, and identifies the input image based on the identification result for each of the small regions. 7. The information processing apparatus according to any one of claims 2 to 6. 前記入力画像について、顔全域の情報を用いて識別を行う全体識別部と、
前記判定部の判定結果に基づいて、前記識別部および前記全体識別部のいずれを用いるかを切り替える切替部と、
をさらに備える請求項1から請求項7のいずれか1項に記載の情報処理装置。
an overall identification unit that identifies the input image using information on the entire face;
a switching unit that switches between the identification unit and the overall identification unit to be used based on the determination result of the determination unit;
The information processing apparatus according to any one of claims 1 to 7, further comprising:
前記識別部は、前記遮蔽領域に基づく前記遮蔽パターンと関連付けられている前記除外領域を前記入力画像から除外し、前記入力画像の識別を行い、
前記除外領域は、前記判定部が判定した前記遮蔽領域とは異なる領域である請求項1から8のいずれか1項に記載の情報処理装置。
The identification unit identifies the input image by excluding from the input image the exclusion area associated with the shielding pattern based on the shielding area,
The information processing apparatus according to any one of claims 1 to 8, wherein the exclusion area is an area different from the shielded area determined by the determination unit.
顔を表す画像である入力画像において遮蔽されている遮蔽領域を判定し、
前記遮蔽領域に基づく遮蔽パターンと予め関連付けられている、前記遮蔽パターンに応じた除外領域以外を用いて、前記入力画像の識別を行う情報処理方法。
Determining an occluded area that is occluded in an input image that is an image representing a face,
An information processing method for identifying the input image using areas other than exclusion areas corresponding to the shielding pattern, which are pre- associated with the shielding pattern based on the shielding area.
顔を表す画像である入力画像において遮蔽されている遮蔽領域を判定する処理と、
前記遮蔽領域に基づく遮蔽パターンと予め関連付けられている、前記遮蔽パターンに応じた除外領域以外を用いて、前記入力画像の識別を行う処理と、
をコンピュータ装置に実行させる情報処理プログラム。
A process of determining a shielded region that is shielded in an input image that is an image representing a face;
a process of identifying the input image using a region other than an exclusion region according to the blocking pattern, which is pre- associated with the blocking pattern based on the blocking region;
An information processing program that causes a computer device to execute
JP2021039200A 2019-12-12 2021-03-11 Information processing device, information processing method, and information processing program Active JP7124912B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021039200A JP7124912B2 (en) 2019-12-12 2021-03-11 Information processing device, information processing method, and information processing program
JP2022121851A JP7302719B2 (en) 2019-12-12 2022-07-29 Information processing device, information processing method, and information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019224879A JP6852779B2 (en) 2019-12-12 2019-12-12 Image recognition device, image recognition method, and image recognition program
JP2021039200A JP7124912B2 (en) 2019-12-12 2021-03-11 Information processing device, information processing method, and information processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019224879A Division JP6852779B2 (en) 2019-12-12 2019-12-12 Image recognition device, image recognition method, and image recognition program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022121851A Division JP7302719B2 (en) 2019-12-12 2022-07-29 Information processing device, information processing method, and information processing program

Publications (2)

Publication Number Publication Date
JP2021103538A JP2021103538A (en) 2021-07-15
JP7124912B2 true JP7124912B2 (en) 2022-08-24

Family

ID=69738579

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019224879A Active JP6852779B2 (en) 2019-12-12 2019-12-12 Image recognition device, image recognition method, and image recognition program
JP2021039200A Active JP7124912B2 (en) 2019-12-12 2021-03-11 Information processing device, information processing method, and information processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019224879A Active JP6852779B2 (en) 2019-12-12 2019-12-12 Image recognition device, image recognition method, and image recognition program

Country Status (1)

Country Link
JP (2) JP6852779B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112115886A (en) * 2020-09-22 2020-12-22 北京市商汤科技开发有限公司 Image detection method and related device, equipment and storage medium
KR102563153B1 (en) * 2021-01-25 2023-08-04 상명대학교산학협력단 Method and system for robust face recognition system to wearing a mask

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004158013A (en) 2002-11-04 2004-06-03 Samsung Electronics Co Ltd Face detection system and method, and face image authentication method
JP2007128262A (en) 2005-11-02 2007-05-24 Omron Corp Face collation device
JP2007280250A (en) 2006-04-11 2007-10-25 Matsushita Electric Ind Co Ltd Face authentication system
WO2010126120A1 (en) 2009-04-30 2010-11-04 グローリー株式会社 Image processing device, image processing method, and program for making computer execute the method
JP2011060038A (en) 2009-09-10 2011-03-24 Seiko Epson Corp Image processing apparatus
US20120230545A1 (en) 2009-11-30 2012-09-13 Tong Zhang Face Recognition Apparatus and Methods
JP2012212969A (en) 2011-03-30 2012-11-01 Secom Co Ltd Image monitoring apparatus
JP2014086042A (en) 2012-10-26 2014-05-12 Secom Co Ltd Face authentication device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4161659B2 (en) * 2002-02-27 2008-10-08 日本電気株式会社 Image recognition system, recognition method thereof, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004158013A (en) 2002-11-04 2004-06-03 Samsung Electronics Co Ltd Face detection system and method, and face image authentication method
JP2007128262A (en) 2005-11-02 2007-05-24 Omron Corp Face collation device
JP2007280250A (en) 2006-04-11 2007-10-25 Matsushita Electric Ind Co Ltd Face authentication system
WO2010126120A1 (en) 2009-04-30 2010-11-04 グローリー株式会社 Image processing device, image processing method, and program for making computer execute the method
JP2011060038A (en) 2009-09-10 2011-03-24 Seiko Epson Corp Image processing apparatus
US20120230545A1 (en) 2009-11-30 2012-09-13 Tong Zhang Face Recognition Apparatus and Methods
JP2012212969A (en) 2011-03-30 2012-11-01 Secom Co Ltd Image monitoring apparatus
JP2014086042A (en) 2012-10-26 2014-05-12 Secom Co Ltd Face authentication device

Also Published As

Publication number Publication date
JP6852779B2 (en) 2021-03-31
JP2021103538A (en) 2021-07-15
JP2020038731A (en) 2020-03-12

Similar Documents

Publication Publication Date Title
JP6630999B2 (en) Image recognition device, image recognition method, and image recognition program
US9563821B2 (en) Method, apparatus and computer readable recording medium for detecting a location of a face feature point using an Adaboost learning algorithm
Zhang et al. Fast and robust occluded face detection in ATM surveillance
JP5010905B2 (en) Face recognition device
KR20120069922A (en) Face recognition apparatus and method thereof
US20070172099A1 (en) Scalable face recognition method and apparatus based on complementary features of face image
KR20130048076A (en) Face recognition apparatus and control method for the same
JP7124912B2 (en) Information processing device, information processing method, and information processing program
Hassanat et al. Color-based object segmentation method using artificial neural network
KR20160066380A (en) Method and apparatus for registering face, method and apparatus for recognizing face
Balasubramanian et al. Real time face and mouth recognition using radial basis function neural networks
Bianco et al. Adaptive skin classification using face and body detection
JP2008251039A (en) Image recognition system, recognition method thereof and program
Ramalingam et al. Robust face recognition using enhanced local binary pattern
JP7302719B2 (en) Information processing device, information processing method, and information processing program
US10068321B2 (en) Image processing method, image processing apparatus, and recording medium
Boodoo-Jahangeer et al. Face recognition using chain codes
Thanh Do et al. Facial feature extraction using geometric feature and independent component analysis
Türkmen et al. Global feature based female facial beauty decision system
Paul et al. Automatic adaptive facial feature extraction using CDF analysis
Fathima et al. Person authentication system with quality analysis of multimodal biometrics
Khryashchev et al. Gender and age recognition for video analytics solution
Balasubramanian et al. Fovea intensity comparison code for person identification and verification
Mishra et al. Face detection for video summary using enhancement based fusion strategy
Vrejoiu A Pattern Matching Method and Algorithm for Face Detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210311

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220331

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R151 Written notification of patent or utility model registration

Ref document number: 7124912

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151