JP2007164498A - System and method for authentication, and program - Google Patents

System and method for authentication, and program Download PDF

Info

Publication number
JP2007164498A
JP2007164498A JP2005360293A JP2005360293A JP2007164498A JP 2007164498 A JP2007164498 A JP 2007164498A JP 2005360293 A JP2005360293 A JP 2005360293A JP 2005360293 A JP2005360293 A JP 2005360293A JP 2007164498 A JP2007164498 A JP 2007164498A
Authority
JP
Japan
Prior art keywords
dimensional
texture information
person
authentication
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005360293A
Other languages
Japanese (ja)
Other versions
JP4956983B2 (en
Inventor
Yuichi Kawakami
雄一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005360293A priority Critical patent/JP4956983B2/en
Publication of JP2007164498A publication Critical patent/JP2007164498A/en
Application granted granted Critical
Publication of JP4956983B2 publication Critical patent/JP4956983B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an authentication technique enabling authentication with high accuracy by reducing the influence of the difference in the posture of a person, when authenticating the identity of the person. <P>SOLUTION: An authentication system acquires texture information (first texture information) and three-dimensional information in regard to the face of a person to be authenticated, and also texture information (second texture information) in regard to the face of a person to be compared. The first texture information is converted using an individual model (solid model) MDb. Then, by comparing the first texture information and the second texture information mutually from an identical viewpoint, the authentication system decides the identity between the person to be compared and the person to be authenticated. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、物体の認証技術に関する。   The present invention relates to an object authentication technique.

近年、ネットワーク技術等の発展によって電子化された様々なサービスが普及し、人に頼らない非対面での本人認証技術の必要性が高まっている。これに伴い、人物の生体特徴によって自動的に個人の識別を行うバイオメトリクス認証技術(生体認証技術)の研究が盛んに行われている。バイオメトリクス認証技術の一つである顔認証技術は、非接触型の認証方法であり、監視カメラによるセキュリティ或いは顔をキーとした画像データベース検索等、様々な分野での応用が期待されている。   In recent years, various services digitized by the development of network technology and the like have become widespread, and the need for non-face-to-face personal authentication technology that does not rely on people is increasing. Along with this, research on biometrics authentication technology (biometric authentication technology) for automatically identifying an individual based on a person's biometric features has been actively conducted. Face authentication technology, which is one of biometric authentication technologies, is a non-contact authentication method, and is expected to be applied in various fields such as security by a surveillance camera or image database search using a face as a key.

このような認証技術としては、予め登録された登録画像と認証対象物を撮影した撮影画像とをそれぞれ平面情報(「テクスチャ情報」あるいは「2次元情報」)としてのみ取得しておき、単純に両画像の平面情報を比較することによって、登録画像内の人物と撮影画像内の人物とが同一人物であるか否かを判定することが行われる(例えば、非特許文献1参照)。   As such an authentication technique, a registered image registered in advance and a photographed image obtained by photographing an authentication object are acquired only as plane information (“texture information” or “two-dimensional information”), respectively. It is determined whether or not the person in the registered image and the person in the captured image are the same person by comparing the plane information of the images (for example, see Non-Patent Document 1).

ダデット・プラマディハント、呉海元、谷内田正彦、「多様な姿勢を有する入力顔画像からの個人識別」、電子情報通信学会論文誌、D-II、1997年8月、Vol.J80-D-II、No.8、pp.2232-2238Dadet Pramady Hunt, Moto Kure and Masahiko Taniuchi, “Personal Identification from Input Face Images with Various Postures”, IEICE Transactions, D-II, August 1997, Vol. J80-D- II, No.8, pp.2232-2238

しかしながら、上記のような比較技術においては、比較の対象となる両画像における人物の姿勢(向き)が同一でない場合には、高精度の認証を行うことができないという問題がある。   However, the above-described comparison technique has a problem that high-accuracy authentication cannot be performed if the posture (orientation) of the person in both images to be compared is not the same.

そこで、この発明の課題は、人物の同一性を認証するに際して、人物の姿勢の相違の影響を軽減し、高精度の認証を行うことが可能な認証技術を提供することにある。   Accordingly, an object of the present invention is to provide an authentication technique capable of reducing the influence of a difference in the posture of a person and performing highly accurate authentication when authenticating the identity of the person.

上記課題を解決すべく、請求項1の発明は、認証対象者に関する認証動作を行う認証システムであって、認証対象者の顔に関するテクスチャ情報および3次元情報を取得する第1取得手段と、前記認証対象者の顔に関する立体モデルである第1立体モデルを、前記3次元情報に基づいて生成する生成手段と、前記第1立体モデルを用いて、前記認証対象者の顔に関するテクスチャ情報である第1テクスチャ情報を変換する変換手段と、比較対象者の顔に関するテクスチャ情報である第2テクスチャ情報を取得する第2取得手段と、互いに同じ視点による前記第1テクスチャ情報と前記第2テクスチャ情報とを比較することによって、比較対象者と認証対象者との同一性を判定する判定手段とを備えることを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is an authentication system for performing an authentication operation on an authentication target person, the first acquisition means for acquiring texture information and three-dimensional information on the face of the authentication target person, A generating unit that generates a first three-dimensional model that is a three-dimensional model related to the face of the person to be authenticated based on the three-dimensional information, and a texture information that is related to the face of the authentication target person using the first three-dimensional model. Conversion means for converting 1 texture information; second acquisition means for acquiring second texture information that is texture information related to the face of the person to be compared; and the first texture information and the second texture information from the same viewpoint. And a determination unit that determines the identity of the comparison target person and the authentication target person by comparing.

請求項2の発明は、請求項1の発明に係る認証システムにおいて、前記変換手段は、前記第1立体モデルの各代表点と人物の顔の標準的な立体モデルである標準モデルの各代表点との対応関係に基づいて、前記第1立体モデルの複数の代表点をそれぞれ前記標準モデルの対応代表点の投影先の点と同一の位置に投影し、前記複数の代表点によって構成されるパッチに対応したテクスチャ情報を投影面上に割り付けることを特徴とする。   According to a second aspect of the present invention, in the authentication system according to the first aspect of the invention, the converting means includes each representative point of the first stereo model and each representative point of a standard model which is a standard stereo model of a human face. A plurality of representative points of the first three-dimensional model are projected on the same positions as the projection destination points of the corresponding representative points of the standard model, and the patches are configured by the plurality of representative points. The texture information corresponding to is assigned on the projection plane.

請求項3の発明は、請求項2の発明に係る認証システムにおいて、前記変換手段は、前記標準モデルの周囲に配置される所定の投影面に前記第1立体モデルのテクスチャ情報を割り付けることを特徴とする。   According to a third aspect of the present invention, in the authentication system according to the second aspect of the invention, the conversion unit assigns the texture information of the first three-dimensional model to a predetermined projection plane arranged around the standard model. And

請求項4の発明は、請求項3の発明に係る認証システムにおいて、前記所定の投影面は、円筒面であることを特徴とする。   According to a fourth aspect of the invention, in the authentication system according to the third aspect of the invention, the predetermined projection plane is a cylindrical plane.

請求項5の発明は、請求項3の発明に係る認証システムにおいて、前記所定の投影面は、球面であることを特徴とする。   According to a fifth aspect of the present invention, in the authentication system according to the third aspect of the invention, the predetermined projection surface is a spherical surface.

請求項6の発明は、請求項1または請求項2の発明に係る認証システムにおいて、前記変換手段は、前記第1立体モデルに含まれるパッチを複数のグループに分類し、分類後のグループごとに設定した投影面に、そのグループにおける各パッチに対応したテクスチャ情報を割り付けることを特徴とする。   According to a sixth aspect of the present invention, in the authentication system according to the first or second aspect of the present invention, the conversion unit classifies the patches included in the first three-dimensional model into a plurality of groups, and each group after classification. Texture information corresponding to each patch in the group is assigned to the set projection plane.

請求項7の発明は、請求項1から請求項6のいずれかの発明に係る認証システムにおいて、前記変換手段は、前記第1立体モデル上での各パッチの面積が投影後の投影面上での各パッチの面積と同じになるように、前記第1立体モデルの各パッチを前記投影面にマッピングすることを特徴とする。   According to a seventh aspect of the present invention, in the authentication system according to any one of the first to sixth aspects of the present invention, the conversion means is configured such that the area of each patch on the first three-dimensional model is on the projection surface after the projection. Each patch of the first three-dimensional model is mapped onto the projection plane so as to have the same area as each patch.

請求項8の発明は、請求項1から請求項7のいずれかの発明に係る認証システムにおいて、前記判定手段は、前記比較対象者の顔に関する前記第2テクスチャ情報から抽出された特徴量と、変換後の前記第1テクスチャ情報から抽出された特徴量とを比較することによって、比較対象者と認証対象者との同一性を判定することを特徴とする。   The invention according to claim 8 is the authentication system according to any one of claims 1 to 7, wherein the determination unit includes a feature amount extracted from the second texture information related to the face of the person to be compared, The identity between the comparison target person and the authentication target person is determined by comparing the feature amount extracted from the converted first texture information.

請求項9の発明は、認証対象者に関する認証動作を行う認証方法であって、認証対象者の顔に関するテクスチャ情報および3次元情報を取得する工程と、前記認証対象者の顔に関する立体モデルである第1立体モデルを、前記3次元情報に基づいて生成する工程と、前記第1立体モデルを用いて、前記認証対象者の顔に関するテクスチャ情報である第1テクスチャ情報を変換する工程と、比較対象者の顔に関するテクスチャ情報である第2テクスチャ情報を取得する工程と、互いに同じ視点による前記第1テクスチャ情報と前記第2テクスチャ情報とを比較することによって、比較対象者と認証対象者との同一性を判定する工程とを備えることを特徴とする。   The invention according to claim 9 is an authentication method for performing an authentication operation related to an authentication target person, and is a step of acquiring texture information and three-dimensional information related to the face of the authentication target person and a three-dimensional model related to the face of the authentication target person. A step of generating a first three-dimensional model based on the three-dimensional information, a step of converting first texture information that is texture information relating to the face of the person to be authenticated using the first three-dimensional model, and a comparison target The comparison target person and the authentication target person are identical by comparing the first texture information and the second texture information from the same viewpoint with the step of obtaining the second texture information that is the texture information related to the person's face And a step of determining the sex.

請求項10の発明は、コンピュータに、認証対象者に関する認証動作を行う認証方法を実行させるためのプログラムであって、前記コンピュータに、認証対象者の顔に関するテクスチャ情報および3次元情報を取得する手順と、前記認証対象者の顔に関する立体モデルである第1立体モデルを、前記3次元情報に基づいて生成する手順と、前記第1立体モデルを用いて、前記認証対象者の顔に関するテクスチャ情報である第1テクスチャ情報を変換する手順と、比較対象者の顔に関するテクスチャ情報である第2テクスチャ情報を取得する手順と、互いに同じ視点による前記第1テクスチャ情報と前記第2テクスチャ情報とを比較することによって、比較対象者と認証対象者との同一性を判定する手順とを実行させるためのプログラムであることを特徴とする。   The invention of claim 10 is a program for causing a computer to execute an authentication method for performing an authentication operation relating to an authentication target person, wherein the computer acquires texture information and three-dimensional information related to the face of the authentication target person. And a procedure for generating a first three-dimensional model that is a three-dimensional model related to the face of the person to be authenticated based on the three-dimensional information, and texture information about the face of the authentication target person using the first three-dimensional model. A procedure for converting certain first texture information, a procedure for obtaining second texture information that is texture information related to the face of the person to be compared, and the first texture information and the second texture information from the same viewpoint are compared. This is a program for executing the procedure for determining the identity of the comparison target person and the authentication target person. And wherein the door.

請求項1から請求項10に記載の発明によれば、第1立体モデルを用いて第1テクスチャ情報が変換され、互いに同じ視点による第1テクスチャ情報と第2テクスチャ情報とを比較することによって、認証対象者と比較対象者との同一性が判定されるので、人物の姿勢の相違に基づく影響を軽減し、高精度の認証を行うことが可能である。   According to the first to tenth aspects of the invention, the first texture information is converted using the first three-dimensional model, and by comparing the first texture information and the second texture information from the same viewpoint, Since the identity of the person to be authenticated and the person to be compared is determined, it is possible to reduce the influence based on the difference in the posture of the person and perform high-precision authentication.

特に、請求項2に記載の発明によれば、第1立体モデルの各代表点と標準モデルの各代表点との対応関係に基づいて、第1立体モデルの複数の代表点がそれぞれ標準モデルの対応代表点の投影先の点と同一の位置に投影され、第1立体モデル上のパッチのテクスチャ情報が所定の投影面上に割り付けられるので、比較条件を十分に整えた上で比較処理を行うことが可能になり、より高精度の認証を行うことが可能である。   In particular, according to the invention described in claim 2, based on the correspondence between each representative point of the first stereo model and each representative point of the standard model, the plurality of representative points of the first stereo model are respectively the standard model. Since the corresponding representative point is projected at the same position as the projection destination point, and the texture information of the patch on the first three-dimensional model is allocated on a predetermined projection plane, the comparison process is performed after sufficiently preparing the comparison conditions. It is possible to perform authentication with higher accuracy.

以下、本発明の実施形態を図面に基づいて説明する。以下では、顔画像を用いた認証動作を行う認証システムについて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Hereinafter, an authentication system that performs an authentication operation using a face image will be described.

<A.概要>
図1は、この実施形態に係る顔認証システム1の概要を示す概念図である。
<A. Overview>
FIG. 1 is a conceptual diagram showing an outline of a face authentication system 1 according to this embodiment.

顔認証システム1は、後述するように、認証時に2台のカメラCA1,CA2(図2参照)によって、認証対象者である人物HMb(人物HMaであると名乗る人物)の顔について多眼視(ここではステレオ視)による複数(ここでは2枚)の画像(ステレオ画像)G1,G2を撮影する。詳細には、カメラCA1により画像G1が撮影され、カメラCA2により画像G2が撮影される。そして、顔認証システム1は、2枚の画像G1,G2から得られた情報を、人物HMaについて予め登録された顔画像に基づく情報と比較(ないし照合)することによって認証動作を行い、認証対象者である人物HMbが比較対象者(登録者)である人物HMaと同一人物であるか否かを判定する。   As will be described later, the face authentication system 1 uses multiple cameras CA1 and CA2 (see FIG. 2) at the time of authentication to multi-view the face of a person HMb (a person who claims to be a person HMa) as an authentication target person ( Here, a plurality of (here, two) images (stereo images) G1 and G2 are captured. Specifically, an image G1 is captured by the camera CA1, and an image G2 is captured by the camera CA2. Then, the face authentication system 1 performs an authentication operation by comparing (or collating) information obtained from the two images G1 and G2 with information based on a face image registered in advance for the person HMa. It is determined whether or not the person HMb who is the person is the same person as the person HMa who is the person to be compared (registrant).

人物HMbに関する画像G1,G2から得られる情報は、形状情報(各部位の位置等に関する情報)とテクスチャ情報(各点の表面輝度の集合等として得られる表面情報)とに大別される。   Information obtained from the images G1 and G2 relating to the person HMb is broadly classified into shape information (information relating to the position and the like of each part) and texture information (surface information obtained as a set of surface luminance at each point and the like).

人物HMbに関する画像G1,G2からは、テクスチャ情報TBが得られるとともに、形状情報として3次元情報SBも得られる。より詳細には、まず、画像G1および画像G2の少なくとも一方から、人物HMbの顔のテクスチャ情報TBが得られる。また、ステレオ視による2枚の画像G1,G2からは、人物HMbの顔の各点の3次元位置の集合等を含む3次元情報SBが得られる。   From the images G1 and G2 related to the person HMb, texture information TB is obtained, and three-dimensional information SB is obtained as shape information. More specifically, first, texture information TB of the face of the person HMb is obtained from at least one of the image G1 and the image G2. Further, three-dimensional information SB including a set of three-dimensional positions of each point of the face of the person HMb and the like is obtained from the two images G1 and G2 viewed in stereo.

また、人物(比較対象者)HMaについても、例えば、予め人物(認証対象者)HMbに対する処理と同様の処理が行われる。具体的には、比較対象者HMaの撮影動作が予め行われ、得られた複数の画像からテクスチャ情報TAと3次元情報SAとを得ることができる。   For the person (comparison target) HMa, for example, the same process as the process for the person (authentication target) HMb is performed in advance. Specifically, the photographing operation of the comparison target person HMa is performed in advance, and the texture information TA and the three-dimensional information SA can be obtained from the obtained plurality of images.

基本的には、このようにして得られたテクスチャ情報TAとテクスチャ情報TBとが比較される。また、この実施形態においては、3次元情報SAと3次元情報SBとの比較も行われる。なお、3次元情報SA,SBの比較(換言すれば「形状情報の対比」)には、3次元形状情報の対比と2次元形状情報の比較とが包含されている。   Basically, the texture information TA and the texture information TB obtained in this way are compared. In this embodiment, the three-dimensional information SA and the three-dimensional information SB are also compared. The comparison of the three-dimensional information SA and SB (in other words, “the comparison of shape information”) includes the comparison of the three-dimensional shape information and the comparison of the two-dimensional shape information.

ただし、このようにして得られたテクスチャ情報TA,TBおよび形状情報SA,SBは、膨大な情報量を有しているため、特徴選択動作(換言すれば、情報圧縮動作(後述))を行った後に比較動作を行うことが好ましい。この実施形態においても、情報圧縮動作を行う。これによれば、情報量を削減して、より効率的な照合動作を行うことができる。   However, since the texture information TA, TB and the shape information SA, SB obtained in this way have an enormous amount of information, a feature selection operation (in other words, an information compression operation (described later)) is performed. It is preferable to carry out the comparison operation after a while. Also in this embodiment, an information compression operation is performed. According to this, it is possible to reduce the amount of information and perform a more efficient collation operation.

また、この実施形態において、顔認証システム1は、テクスチャ情報TAとテクスチャ情報TBとの比較において、人物の姿勢変化による影響を受けにくくするための処理を行う。具体的には、3次元モデル上のテクスチャをそれぞれ共通の投影面(2次元画像)に投影する変換処理を行う。その後、変換処理後のテクスチャ情報TAと変換処理後のテクスチャ情報TBとが比較される。   Further, in this embodiment, the face authentication system 1 performs a process for making it less likely to be affected by a change in the posture of the person in the comparison between the texture information TA and the texture information TB. Specifically, a conversion process for projecting the texture on the three-dimensional model onto a common projection surface (two-dimensional image) is performed. Thereafter, the texture information TA after the conversion process and the texture information TB after the conversion process are compared.

この顔認証システム1によれば、互いに同じ視点によるテクスチャ情報TAとテクスチャ情報TBとを比較することによって、比較対象者と認証対象者との同一性が判定されるので、人物の姿勢の相違に基づく影響を軽減し、高精度の認証を行うことが可能である。   According to this face authentication system 1, since the identity of the comparison target person and the authentication target person is determined by comparing the texture information TA and the texture information TB from the same viewpoint, It is possible to reduce the influence based on it and to perform highly accurate authentication.

<B.詳細構成>
図2は、本発明の実施形態に係る顔認証システム1を示す構成図である。図2に示すように顔認証システム1は、コントローラ10と2台の画像撮影カメラ(以下、単に「カメラ」とも称する)CA1,CA2とを備えている。カメラCA1とカメラCA2とは、それぞれ異なる位置から撮影対象者(登録対象者HMaあるいは認証対象者HMb)の顔を撮影できるように配置されている。カメラCA1とカメラCA2とによって撮影対象者の顔画像が撮影されると、当該撮影対象者の外観情報すなわち2枚の顔画像G1,G2がコントローラ10に通信線を介して送信される。なお、各カメラとコントローラ10との間での画像データの通信方式は有線方式に限定されず、無線方式であってもよい。
<B. Detailed configuration>
FIG. 2 is a configuration diagram showing the face authentication system 1 according to the embodiment of the present invention. As shown in FIG. 2, the face authentication system 1 includes a controller 10 and two image capturing cameras (hereinafter also simply referred to as “cameras”) CA1 and CA2. The camera CA1 and the camera CA2 are arranged so that the face of the person to be photographed (the person to be registered HMa or the person to be authenticated HMb) can be photographed from different positions. When the face image of the person to be photographed is photographed by the camera CA1 and the camera CA2, the appearance information of the person to be photographed, that is, the two face images G1 and G2 are transmitted to the controller 10 via the communication line. Note that the communication method of image data between each camera and the controller 10 is not limited to a wired method, and may be a wireless method.

図3は、コントローラ10の構成概要を示す図である。図3に示されるように、コントローラ10は、CPU2と、記憶部3と、メディアドライブ4と、液晶ディスプレイなどの表示部5と、キーボード6a及びポインティングデバイスであるマウス6bなどの入力部6と、ネットワークカードなどの通信部7とを備えたパーソナルコンピュータなどの一般的なコンピュータで構成される。記憶部3は、複数の記憶媒体、具体的には、ハードディスクドライブ(HDD)3aと、HDD3aよりも高速処理可能なRAM(半導体メモリ)3bとを有している。また、メディアドライブ4は、CD−ROM、DVD(Digital Versatile Disk)、フレキシブルディスク、メモリカードなどの可搬性の記録媒体8からその中に記録されている情報を読み出すことができる。なお、このコントローラ10に対して供給される情報は、記録媒体8を介して供給される場合に限定されず、LAN及びインターネットなどのネットワークを介して供給されてもよい。   FIG. 3 is a diagram showing a configuration outline of the controller 10. As shown in FIG. 3, the controller 10 includes a CPU 2, a storage unit 3, a media drive 4, a display unit 5 such as a liquid crystal display, an input unit 6 such as a keyboard 6a and a mouse 6b that is a pointing device, It is composed of a general computer such as a personal computer provided with a communication unit 7 such as a network card. The storage unit 3 includes a plurality of storage media, specifically, a hard disk drive (HDD) 3a and a RAM (semiconductor memory) 3b capable of processing at higher speed than the HDD 3a. The media drive 4 can read information recorded in a portable recording medium 8 such as a CD-ROM, a DVD (Digital Versatile Disk), a flexible disk, or a memory card. Note that the information supplied to the controller 10 is not limited to the case of being supplied via the recording medium 8, and may be supplied via a network such as a LAN and the Internet.

次に、コントローラ10の機能について、図4および図5を参照して説明する。   Next, the function of the controller 10 will be described with reference to FIGS.

図4は、コントローラ10の各種機能構成を示すブロック図であり、図5は、個人認証部14の詳細な機能構成を示すブロック図である。   FIG. 4 is a block diagram illustrating various functional configurations of the controller 10, and FIG. 5 is a block diagram illustrating a detailed functional configuration of the personal authentication unit 14.

図4および図5の各種機能構成は、コントローラ10内のCPU等の各種ハードウェアを用い所定のソフトウェアプログラム(以下、単に「プログラム」とも称する)を実行することによって実現される機能を概念的に示すものである。   4 and FIG. 5 conceptually shows functions realized by executing a predetermined software program (hereinafter also simply referred to as “program”) using various hardware such as a CPU in the controller 10. It is shown.

図4に示されるように、コントローラ10は、画像入力部11と顔領域検索部12と顔部位検出部13と個人認証部14と出力部15とを備えている。   As shown in FIG. 4, the controller 10 includes an image input unit 11, a face area search unit 12, a face part detection unit 13, a personal authentication unit 14, and an output unit 15.

画像入力部11は、カメラCA1及びCA2によって撮影された認証用の2枚の画像をコントローラ10に入力する機能を有している。   The image input unit 11 has a function of inputting two images for authentication photographed by the cameras CA1 and CA2 to the controller 10.

顔領域検索部12は、入力された顔画像から顔領域を特定する機能を有している。   The face area search unit 12 has a function of specifying a face area from the input face image.

顔部位検出部13は、特定した顔領域から顔の特徴的な部位(例えば、目、眉、鼻、口等)の位置を検出する機能を有している。   The face part detection unit 13 has a function of detecting the position of a characteristic part (for example, eyes, eyebrows, nose, mouth) of the face from the specified face region.

個人認証部14は、顔の認証を主たる目的として構成され、各個人を顔画像で認証する機能を有している。この個人認証部14の詳細については、次述する。   The personal authentication unit 14 is configured mainly for face authentication, and has a function of authenticating each individual with a face image. Details of the personal authentication unit 14 will be described below.

出力部15は、個人認証部で得られた認証結果を出力する機能を有している。   The output unit 15 has a function of outputting the authentication result obtained by the personal authentication unit.

次に、個人認証部14の詳細構成について図5を用いて説明する。
図5に示すように、個人認証部14は、3次元再構成部21と最適化部22と補正部23と特徴抽出部24と情報圧縮部25と比較部26とを有している。
Next, a detailed configuration of the personal authentication unit 14 will be described with reference to FIG.
As shown in FIG. 5, the personal authentication unit 14 includes a three-dimensional reconstruction unit 21, an optimization unit 22, a correction unit 23, a feature extraction unit 24, an information compression unit 25, and a comparison unit 26.

3次元再構成部21は、入力画像から得られる顔の特徴的な部位の座標から各部位の3次元における座標を算出する機能を有している。この3次元座標算出機能は、カメラパラメータ記憶部27に格納されているカメラ情報を用いて実現される。   The three-dimensional reconstruction unit 21 has a function of calculating the three-dimensional coordinates of each part from the coordinates of the characteristic part of the face obtained from the input image. This three-dimensional coordinate calculation function is realized using camera information stored in the camera parameter storage unit 27.

最適化部22は、算出された3次元座標を用いて3次元モデルデータベース28に格納されている顔の標準的な立体モデル(「標準立体モデル」あるいは「標準モデル」とも称する)から、固有の人物に関する「個別モデル」を生成する機能を有している。   The optimization unit 22 uses the calculated three-dimensional coordinates to determine a unique three-dimensional model (also referred to as “standard three-dimensional model” or “standard model”) of the face stored in the three-dimensional model database 28. It has a function of generating an “individual model” related to a person.

補正部23は、生成された個別モデルを補正する機能を有しており、個別モデル(立体モデル)に貼り付けられたテクスチャを2次元画像(投影面)上に貼り付け直す機能(変換機能)を有している。   The correction unit 23 has a function of correcting the generated individual model, and a function (conversion function) for re-attaching the texture pasted on the individual model (three-dimensional model) on the two-dimensional image (projection plane). have.

これらの各処理部21,22,23によって、認証対象者HMbおよび登録者HMaに関する情報は、標準化(正規化)され、相互比較しやすい状態に変換される。また、各処理部の機能によって作成された個別モデルは、人物の顔に関する3次元情報と2次元情報との双方を含むものとして形成される。「3次元情報」は、代表点の3次元座標値等の立体的構成に関連する情報であり、「2次元情報」は、表面情報(テクスチャ情報)および/または代表点の平面的な位置情報(2次元形状情報)等の平面的構成に関連する情報である。また、個別モデルは、人物の顔に関する形状情報(3次元形状情報および2次元形状情報)とテクスチャ情報との双方を含むものとも表現される。   By each of these processing units 21, 22, and 23, information regarding the authentication target person HMb and the registrant HMa is standardized (normalized) and converted into a state that can be easily compared with each other. In addition, the individual model created by the function of each processing unit is formed as including both three-dimensional information and two-dimensional information related to a person's face. “3D information” is information related to a three-dimensional configuration such as a 3D coordinate value of a representative point, and “2D information” is surface information (texture information) and / or planar position information of a representative point. This is information related to a planar configuration such as (two-dimensional shape information). The individual model is also expressed as including both shape information (three-dimensional shape information and two-dimensional shape information) and texture information related to a person's face.

特徴抽出部24は、上記各処理部21,22,23において作成された個別モデルから3次元情報と2次元情報とを抽出する特徴抽出機能を有している。   The feature extraction unit 24 has a feature extraction function for extracting three-dimensional information and two-dimensional information from the individual models created in the processing units 21, 22, and 23.

情報圧縮部25は、特徴抽出部24で抽出された3次元情報と2次元情報とをそれぞれ、顔認証用の適切な顔特徴量に変換することによって、顔認証に用いる3次元情報と2次元情報とをそれぞれ圧縮する機能を有している。この情報圧縮機能は、基底ベクトルデータベース29に格納された情報等を用いて実現される。   The information compression unit 25 converts the three-dimensional information and the two-dimensional information used for face authentication by converting the three-dimensional information and the two-dimensional information extracted by the feature extraction unit 24 into appropriate face feature amounts for face authentication, respectively. Each has a function of compressing information. This information compression function is realized by using information stored in the basis vector database 29.

比較部26は、人物データベース30に予め登録されている登録者(比較対象者)HMaの顔特徴量と、上記各機能部によって得られる認証対象者HMbの顔特徴量との類似度を計算し、顔の認証を行う機能を有している。   The comparison unit 26 calculates the similarity between the facial feature amount of the registrant (comparison subject) HMa registered in the person database 30 in advance and the facial feature amount of the authentication subject person HMb obtained by each of the functional units. , Has a function to perform face authentication.

<C.動作>
<C1.動作概要>
以下では、上述したコントローラ10の顔認証動作についてより詳細に説明する。具体的には、上述したように、カメラCA1及びCA2で撮影した認証対象者HMbの顔画像と、予め登録された人物HMaの顔画像とに関する情報を用いて、認証対象者HMbが登録済み人物HMaと同一人物であるかを認証する場合(顔認証を行う場合)について説明する。ここでは、3次元情報として、カメラCA1,CA2による画像を利用して三角測量の原理によって計測された3次元形状情報を用い、2次元情報としてテクスチャ(輝度)情報を用いる場合を例示する。
<C. Operation>
<C1. Outline of operation>
Hereinafter, the face authentication operation of the controller 10 described above will be described in more detail. Specifically, as described above, the person to be authenticated HMb is a registered person using information on the face image of the person to be authenticated HMb photographed by the cameras CA1 and CA2 and the face image of the person HMa registered in advance. The case of authenticating whether the person is the same as HMa (when performing face authentication) will be described. Here, as an example, three-dimensional information using three-dimensional shape information measured according to the principle of triangulation using images from the cameras CA1 and CA2 is used, and texture (luminance) information is used as two-dimensional information.

図6は、コントローラ10の全体動作(認証動作)を示すフローチャートであり、図7は、図6の処理に先立って行われる登録動作(ステップSP30)を示すフローチャートある。さらに、図8は、顔画像における特徴的な部位の特徴点を例示する図であり、図9は、2次元画像中の特徴点から三角測量の原理を用いて3次元座標を算出する様子を示す模式図である。図9における画像G1、G2中の点Q20は、図8における口の右端に相当する。   FIG. 6 is a flowchart showing the overall operation (authentication operation) of the controller 10, and FIG. 7 is a flowchart showing the registration operation (step SP30) performed prior to the processing of FIG. Further, FIG. 8 is a diagram exemplifying feature points of characteristic parts in the face image, and FIG. 9 shows how three-dimensional coordinates are calculated from the feature points in the two-dimensional image using the principle of triangulation. It is a schematic diagram shown. A point Q20 in the images G1 and G2 in FIG. 9 corresponds to the right end of the mouth in FIG.

図6に示されるように、コントローラ10は、ステップSP1からステップSP8までの工程において、認証対象者の顔を撮影した画像に基づいて、認証対象者に関する顔特徴量を取得する。コントローラ10は、その後、さらにステップSP9,SP10の工程を実行することによって、顔認証を実現する。なお、実際には、図7に示す処理(ステップSP31〜SP39)が図6のステップSP1〜SP10に示す処理に先立って行われるが、ここでは説明の便宜上、図6に示す処理から説明する。   As illustrated in FIG. 6, the controller 10 acquires a facial feature amount related to the authentication target person based on an image obtained by photographing the face of the authentication target person in the processes from step SP1 to step SP8. Thereafter, the controller 10 further performs steps SP9 and SP10 to realize face authentication. In practice, the processing shown in FIG. 7 (steps SP31 to SP39) is performed prior to the processing shown in steps SP1 to SP10 in FIG. 6, but the processing shown in FIG.

<C2.認証対象者HMbに関する情報収集>
<個別モデル作成処理等>
まず、ステップSP1において、カメラCA1及びCA2によって撮影された所定の人物(認証対象者)HMbの顔画像が、通信線を介しコントローラ10に入力される。顔画像を撮影するカメラCA1及びカメラCA2は、それぞれ、2次元画像を撮影可能な一般的な撮影装置で構成される。また、当該各カメラCAiの位置姿勢等を示すカメラパラメータBi(i=1・・N)は既知であり、予めカメラパラメータ記憶部27(図5)に記憶されている。ここで、Nはカメラの台数を示している。本実施形態ではN=2の場合を例示しているが、N≧3としてもよい(3台以上のカメラを用いてもよい)。カメラパラメータBiについては後述する。
<C2. Collecting information on HMb subject to authentication>
<Individual model creation processing>
First, in step SP1, a face image of a predetermined person (person to be authenticated) HMb photographed by the cameras CA1 and CA2 is input to the controller 10 via a communication line. The cameras CA1 and CA2 that capture a face image are each configured by a general imaging device that can capture a two-dimensional image. Further, camera parameters Bi (i = 1 ·· N) indicating the positions and orientations of the respective cameras CAi are known and stored in advance in the camera parameter storage unit 27 (FIG. 5). Here, N indicates the number of cameras. In the present embodiment, the case of N = 2 is illustrated, but N ≧ 3 may be used (three or more cameras may be used). The camera parameter Bi will be described later.

次に、ステップSP2において、カメラCA1及びCA2より入力された2枚の画像G1,G2のそれぞれにおいて、顔の存在する領域が検出される。顔領域検出手法としては、例えば、予め用意された標準の顔画像を用いたテンプレートマッチングにより、2枚の画像G1,G2のそれぞれから顔領域を検出する手法を採用することができる。   Next, in step SP2, a region where a face exists is detected in each of the two images G1 and G2 input from the cameras CA1 and CA2. As the face area detection technique, for example, a technique of detecting a face area from each of the two images G1 and G2 by template matching using a standard face image prepared in advance can be employed.

次に、ステップSP3において、ステップSP2で検出された顔領域画像の中から、顔の特徴的な部位の位置が検出される。例えば、顔の特徴的な部位としては、目、眉、鼻又は口等が考えられ、ステップSP3においては、図8に示されるような上記各部位の特徴点Q1〜Q23の座標が算出される。特徴部位は、例えば、特徴部位の標準的なテンプレートを用いて行うテンプレートマッチングにより検出することができる。また、算出される特徴点の座標は、カメラより入力された画像G1、G2上の座標として表される。例えば、図8における口の右端に相当する特徴点Q20に関して、図9中に示すように、2枚の画像G1,G2のそれぞれにおける座標値が求められる。具体的には、画像G1の左上の端点を原点Oとして、特徴点Q20の画像G1上の座標(x1,y1)が算出される。画像G2においても同様に特徴点Q20の画像G2上の座標(x2,y2)が算出される。   Next, in step SP3, the position of the characteristic part of the face is detected from the face area image detected in step SP2. For example, eyes, eyebrows, nose or mouth may be considered as characteristic parts of the face, and in step SP3, the coordinates of the characteristic points Q1 to Q23 of the respective parts as shown in FIG. 8 are calculated. . The feature part can be detected by, for example, template matching performed using a standard template of the feature part. The calculated feature point coordinates are expressed as coordinates on the images G1 and G2 input from the camera. For example, with respect to the feature point Q20 corresponding to the right end of the mouth in FIG. 8, coordinate values in each of the two images G1 and G2 are obtained as shown in FIG. Specifically, the coordinates (x1, y1) of the feature point Q20 on the image G1 are calculated using the upper left end point of the image G1 as the origin O. Similarly, in the image G2, the coordinates (x2, y2) of the feature point Q20 on the image G2 are calculated.

また、入力された画像における各特徴点を頂点とする領域内の各画素の輝度値が、当該領域の有する情報(以下、「テクスチャ情報」とも称する)として取得される。各領域におけるテクスチャ情報は、後述のステップSP5等において、個別モデルに貼り付けられる。なお、本実施形態の場合、入力される画像は2枚であるので、各画像の対応する領域内の対応する画素における平均の輝度値を当該領域のテクスチャ情報として用いるものとする。   In addition, the luminance value of each pixel in a region having each feature point as a vertex in the input image is acquired as information (hereinafter also referred to as “texture information”) of the region. The texture information in each region is pasted on the individual model in step SP5 and the like described later. In the present embodiment, since two images are input, the average luminance value in the corresponding pixel in the corresponding region of each image is used as the texture information of the region.

次のステップSP4では、3次元再構成処理が行われる。具体的には、ステップSP3において検出された各特徴点Qjの各画像Gi(i=1,...,N)における2次元座標Ui(j)と、各画像Giを撮影したカメラのカメラパラメータBiとに基づいて、各特徴点Qjの3次元座標M(j)(j=1・・・m)が算出される。端的に言えば、三角測量の原理に基づいて各特徴点の3次元位置が算出される。なお、mは特徴点の数を示している。 In the next step SP4, a three-dimensional reconstruction process is performed. Specifically, the two-dimensional coordinates Ui (j) in each image Gi (i = 1,..., N) of each feature point Qj detected in step SP3 and the camera parameters of the camera that captured each image Gi. Based on Bi, the three-dimensional coordinates M (j) (j = 1... M ) of each feature point Qj are calculated. In short, the three-dimensional position of each feature point is calculated based on the principle of triangulation. Note that m indicates the number of feature points.

以下、3次元座標M(j)の算出について具体的に説明する。 Hereinafter, the calculation of the three-dimensional coordinate M (j) will be specifically described.

各特徴点Qjの3次元座標M(j)と各特徴点Qjの2次元座標Ui(j)とカメラパラメータBiとの関係は式(1)のように表される。 The relationship between the three-dimensional coordinates M (j) of each feature point Qj, the two-dimensional coordinates Ui (j) of each feature point Qj, and the camera parameter Bi is expressed as in Expression (1).

なお、μiは、スケールの変動分を示す媒介変数である。また、カメラパラメータ行列Biは、予め3次元座標が既知の物体を撮影することにより求められる各カメラ固有の値であり、3×4の射影行列で表される。   Note that μi is a parameter that indicates a change in the scale. The camera parameter matrix Bi is a value unique to each camera obtained by photographing an object with known three-dimensional coordinates in advance, and is represented by a 3 × 4 projection matrix.

例えば、上記式(1)を用いて3次元座標を算出する具体的な例として、特徴点Q20の3次元座標M(20)を算出する場合を図9を用いて考える。式(2)は画像G1上の特徴点Q20の座標(x1,y1)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。同様に、式(3)は、画像G2上の特徴点Q20の座標(x2,y2)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。 For example, as a specific example of calculating the three-dimensional coordinates using the above equation (1), consider the case of calculating the three-dimensional coordinates M feature points Q20 (20) with reference to FIG. Expression (2) shows the relationship between the coordinates (x1, y1) of the feature point Q20 on the image G1 and the three-dimensional coordinates (x, y, z) when the feature point Q20 is represented in a three-dimensional space. Similarly, Expression (3) represents the relationship between the coordinates (x2, y2) of the feature point Q20 on the image G2 and the three-dimensional coordinates (x, y, z) when the feature point Q20 is represented in a three-dimensional space. Show.

上記式(2)及び式(3)中の未知数は、2つの媒介変数μ1、μ2と3次元座標M(20)の3つの成分値x,y,zとの合計5つである。一方、式(2)及び式(3)に含まれる等式の数は6であるため、各未知数つまり特徴点Q20の3次元座標(x,y,z)を算出することができる。また、同様にして、全ての特徴点Qjについての3次元座標M(j)を取得することができる。 The unknowns in the above formulas (2) and (3) are a total of five of the two parameters μ1, μ2 and the three component values x, y, z of the three-dimensional coordinate M (20) . On the other hand, since the number of equations included in the equations (2) and (3) is 6, each unknown, that is, the three-dimensional coordinates (x, y, z) of the feature point Q20 can be calculated. Similarly, three-dimensional coordinates M (j) for all feature points Qj can be acquired.

次のステップSP5では、モデルフィッテングが行われる。この「モデルフィッティング」は、予め準備された一般的(標準的)な顔のモデルである「(顔の)標準モデル」を、認証対象者に関する情報を用いて変形することによって、認証対象者の顔に関する入力情報が反映された「個別モデル」を生成する処理である。具体的には、算出された3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理と、上記のテクスチャ情報を用いて標準モデルの2次元情報を変更する処理(当該テクスチャ情報を個別モデルの表面に貼り付ける処理)とが行われる。 In the next step SP5, model fitting is performed. This “model fitting” is performed by deforming a “standard model of a face”, which is a general (standard) model of a face prepared in advance, using information related to the authentication target person. This is a process for generating an “individual model” in which input information related to a face is reflected. Specifically, a process of changing the three-dimensional information of the standard model using the calculated three-dimensional coordinates M (j) , and a process of changing the two-dimensional information of the standard model using the texture information (the texture concerned) Information is pasted on the surface of the individual model).

図10は、3次元の顔の標準モデルを示している。   FIG. 10 shows a standard model of a three-dimensional face.

図10に示されるように、顔の標準モデルは、頂点データとポリゴンデータとで構成され、3次元モデルデータベース28(図5)として記憶部3等に保存されている。頂点データは、標準モデルにおける特徴部位の頂点(以下、「標準制御点」とも称する)COjの座標の集合であり、ステップSP4において算出される各特徴点Qjの3次元座標と1対1に対応している。ポリゴンデータは、標準モデルの表面を微小な多角形(例えば、三角形)のポリゴンに分割し、ポリゴンを数値データとして表現したものである。なお、図10では、各ポリゴンの頂点が標準制御点COj以外の中間点によっても構成される場合を例示しており、中間点の座標は標準制御点COjの座標値を用いた適宜の補完手法によって得ることが可能である。   As shown in FIG. 10, the standard model of a face is composed of vertex data and polygon data, and is stored in the storage unit 3 or the like as a three-dimensional model database 28 (FIG. 5). The vertex data is a set of coordinates of the vertices (hereinafter also referred to as “standard control points”) COj of the characteristic parts in the standard model, and has a one-to-one correspondence with the three-dimensional coordinates of the characteristic points Qj calculated in step SP4. is doing. The polygon data is obtained by dividing the surface of the standard model into minute polygons (for example, triangles) and expressing the polygons as numerical data. FIG. 10 illustrates the case where the vertexes of each polygon are also configured by intermediate points other than the standard control point COj, and the coordinates of the intermediate point are appropriately complemented using the coordinate values of the standard control point COj. Can be obtained by:

ここで、標準モデルから個別モデルを構成するモデルフィッティングについて詳述する。   Here, the model fitting which comprises an individual model from a standard model is explained in full detail.

まず、標準モデルの各特徴部位の頂点(標準制御点COj)を、ステップSP4において算出された各特徴点に移動させる。具体的には、各特徴点Qjの3次元座標値を、対応する標準制御点COjの3次元座標値として代入し、移動後の標準制御点(以下、「個別制御点」とも称する)Cjを得る。これにより、標準モデルを3次元座標M(j)で表した個別モデルに変形することができる。なお、個別モデルにおける個別制御点Cj以外の中間点の座標は、個別制御点Cjの座標値を用いた適宜の補間手法によって得ることが可能である。 First, the vertex (standard control point COj) of each feature part of the standard model is moved to each feature point calculated in step SP4. Specifically, the three-dimensional coordinate value of each feature point Qj is substituted as the three-dimensional coordinate value of the corresponding standard control point COj, and the moved standard control point (hereinafter also referred to as “individual control point”) Cj obtain. As a result, the standard model can be transformed into an individual model represented by the three-dimensional coordinates M (j) . Note that the coordinates of intermediate points other than the individual control points Cj in the individual model can be obtained by an appropriate interpolation method using the coordinate values of the individual control points Cj.

また、この変形(移動)による各頂点の移動量から、後述のステップSP6において用いられる、標準モデルを基準にした場合の個別モデルのスケール、傾き及び位置を求めることができる。具体的には、標準モデルにおける所定の基準位置と、変形後の個別モデルにおける対応基準位置との間のずれ量によって、個別モデルの標準モデルに対する位置変化を求めることができる。また、標準モデルにおける所定の2点を結ぶ基準ベクトルと、変形後の個別モデルにおける当該所定の2点の対応点を結ぶ基準ベクトルとの間のずれ量によって、個別モデルの標準モデルに対する傾きの変化及びスケール変化を求めることができる。たとえば、右目の目頭の特徴点Q1と左目の目頭の特徴点Q2との中点QMの座標と標準モデルにおいて中点QMに相当する点の座標とを比較することによって個別モデルの位置を求めることができ、さらに、中点QMと他の特徴点とを比較することによって個別モデルのスケール及び傾きを算出することができる。   In addition, the scale, inclination, and position of the individual model based on the standard model used in step SP6 described later can be obtained from the amount of movement of each vertex due to this deformation (movement). Specifically, the position change of the individual model with respect to the standard model can be obtained from the deviation amount between the predetermined reference position in the standard model and the corresponding reference position in the individual model after deformation. In addition, a change in the inclination of the individual model with respect to the standard model is determined by the amount of deviation between the reference vector connecting the two predetermined points in the standard model and the reference vector connecting the corresponding two points in the individual model after deformation. And a change in scale can be determined. For example, the position of the individual model is obtained by comparing the coordinates of the midpoint QM of the right-eye feature point Q1 and the left-eye feature point Q2 with the coordinates of the point corresponding to the midpoint QM in the standard model. Furthermore, the scale and inclination of the individual model can be calculated by comparing the midpoint QM with other feature points.

次の式(4)は、標準モデルと個別モデルとの間の対応関係を表現する変換パラメータ(ベクトル)vtを示している。式(4)に示すように、この変換パラメータ(ベクトル)vtは、両者のスケール変換指数szと、直交3軸方向における並進変位を示す変換パラメータ(tx,ty,tz)と、回転変位(傾き)を示す変換パラメータ(φ,θ,ψ)とをその要素とするベクトルである。   The following equation (4) represents a conversion parameter (vector) vt that represents the correspondence between the standard model and the individual model. As shown in the equation (4), the conversion parameter (vector) vt includes a scale conversion index sz of both, a conversion parameter (tx, ty, tz) indicating translational displacement in the orthogonal three-axis directions, and a rotational displacement (inclination). ) Representing a conversion parameter (φ, θ, ψ).

上述のようにして、認証対象者に関する3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理が行われる。 As described above, the process of changing the three-dimensional information of the standard model using the three-dimensional coordinates M (j) regarding the person to be authenticated is performed.

その後、テクスチャ情報を用いて標準モデルの2次元情報を変更する処理も行われる。具体的には、入力画像G1,G2における各領域のテクスチャ情報が、3次元の個別モデル上の対応する領域(ポリゴン)に貼り付けられる(マッピングされる)。なお、立体モデル(個別モデル等)上でテクスチャ情報が貼り付けられる各領域(ポリゴン)は、「パッチ」とも称せられる。   Thereafter, processing for changing the two-dimensional information of the standard model using the texture information is also performed. Specifically, the texture information of each region in the input images G1 and G2 is pasted (mapped) to the corresponding region (polygon) on the three-dimensional individual model. Each region (polygon) to which texture information is pasted on a three-dimensional model (individual model or the like) is also referred to as a “patch”.

以上のようにして、モデルフィッティング処理(ステップSP5)が行われる。これによって、認証対象者HMbに関する情報は、認証対象者HMbに関する3次元情報と2次元情報との双方を含む「個別モデル」(MDb)として生成される。   The model fitting process (step SP5) is performed as described above. Thereby, the information related to the authentication target person HMb is generated as an “individual model” (MDb) including both the three-dimensional information and the two-dimensional information related to the authentication target person HMb.

<変換処理等(概要)>
次のステップSP6においては、標準モデルを基準にして個別モデルの補正等が行われる。本工程では、3次元情報に関する位置(アライメント)補正と、3次元モデル上のテクスチャ情報を2次元平面に投影する変換処理とが実行される。
<Conversion processing (outline)>
In the next step SP6, the individual model is corrected based on the standard model. In this step, position (alignment) correction relating to three-dimensional information and conversion processing for projecting texture information on the three-dimensional model onto a two-dimensional plane are executed.

前者のアライメント(顔向き)補正は、3次元情報に関する位置および姿勢等の補正処理である。アライメント補正は、標準モデルを基準にした際の個別モデルのスケール、傾き及び位置に基づいて行われる。より詳細には、標準モデルを基準にした際の標準モデルと個別モデルとの関係を示す変換パラメータvt(式(4)参照)を用いて個別モデルを座標変換することによって、標準モデルの姿勢と同じ姿勢を有する3次元顔モデルを作成することができる。すなわち、このアライメント補正によって、認証対象者に関する3次元情報を適切に正規化することができる。   The former alignment (face orientation) correction is a correction process for the position and orientation of the three-dimensional information. The alignment correction is performed based on the scale, inclination, and position of the individual model when the standard model is used as a reference. More specifically, by converting the coordinates of the individual model using the conversion parameter vt (see Expression (4)) indicating the relationship between the standard model and the individual model when the standard model is used as a reference, A three-dimensional face model having the same posture can be created. That is, this alignment correction can properly normalize the three-dimensional information related to the authentication subject.

また、後者の変換処理は、3次元モデル(個別モデル)上のテクスチャ情報を2次元平面に投影する処理である。後述するように、この変換処理によって2次元平面に投影された画像(投影画像)を認証対象者と比較対象者との双方について求め、両投影画像を比較することによって(詳細には、両投影画像から抽出した特徴量を比較することによって)、認証動作が行われる。   The latter conversion process is a process for projecting texture information on a three-dimensional model (individual model) onto a two-dimensional plane. As will be described later, an image (projected image) projected on a two-dimensional plane by this conversion processing is obtained for both the authentication target person and the comparison target person, and the two projected images are compared (specifically, both projections An authentication operation is performed (by comparing feature quantities extracted from the images).

<移動処理>
この変換処理は、個別モデル(例えばMDb)上の特徴点(PB等)を投影面PL上の対応点(PT)に移動(ワープ)させる処理を伴う(図11参照)。この結果、3次元空間内の特徴点が2次元平面上の特徴点へと変換される。
<Move process>
This conversion process involves a process of moving (warping) a feature point (PB or the like) on an individual model (for example, MDb) to a corresponding point (PT) on the projection plane PL (see FIG. 11). As a result, the feature points in the three-dimensional space are converted into feature points on the two-dimensional plane.

ここでは、個別モデルにおける特徴点の移動先の点(「目的点」とも称する)として、標準モデルにおける対応特徴点の移動先の点(「目的点」)を用いる場合を例示する。   Here, the case where the point of movement of the corresponding feature point in the standard model (“target point”) is used as the point of movement of the feature point in the individual model (also referred to as “target point”) is illustrated.

たとえば、個別モデル(3次元モデル)MDb上での特徴点PB0〜PB5(図11参照)は、それぞれ、投影面PL上において、点PT0〜PT5(次述)に移動(ないし投影とも称する)される。詳細には、特徴点PB0は対応点PT0に投影され、特徴点PB1は対応点PT1に投影され、特徴点PB2は対応点PT2に投影される。他の特徴点PB3,PB4,PB5,...についても、同様に、それぞれ、特徴点PT3,PT4,PT5,...に投影される。   For example, the feature points PB0 to PB5 (see FIG. 11) on the individual model (three-dimensional model) MDb are moved (also referred to as projections) to points PT0 to PT5 (described below) on the projection plane PL, respectively. The Specifically, the feature point PB0 is projected onto the corresponding point PT0, the feature point PB1 is projected onto the corresponding point PT1, and the feature point PB2 is projected onto the corresponding point PT2. Similarly, the other feature points PB3, PB4, PB5,... Are projected onto the feature points PT3, PT4, PT5,.

ここで、点PT0〜PT5は、「標準モデル」MDs上の各特徴点PS0〜PS5が手法MT1あるいは手法MT2(次述)等によって投影される投影面PL上の点(移動先の点、ないし「目的点」とも称する)として決定される。詳細には、点PT0は特徴点PS0の目的点であり、点PT1は特徴点PS1の目的点であり、点PT2は特徴点PS2の目的点である。他の点PT3,PT4,PT5,...についても同様である。   Here, the points PT0 to PT5 are points on the projection plane PL on which the feature points PS0 to PS5 on the “standard model” MDs are projected by the method MT1 or the method MT2 (described below) (destination points or thru points). Also referred to as “target point”). Specifically, the point PT0 is the target point of the feature point PS0, the point PT1 is the target point of the feature point PS1, and the point PT2 is the target point of the feature point PS2. The same applies to the other points PT3, PT4, PT5,.

個別モデルMDb上の各特徴点PB0〜PB6,...をこのような目的点PT0〜PT6,...へとそれぞれ移動させることによれば、個別モデルMDb上の特徴点を標準モデルMDs上の特徴点と同一の位置に対応付けた2次元画像が生成されることになる。   By moving the feature points PB0 to PB6,... On the individual model MDb to such target points PT0 to PT6,..., The feature points on the individual model MDb are moved on the standard model MDs. A two-dimensional image associated with the same position as the feature point is generated.

詳細には、まず、手法MT1あるいは手法MT2等によって、標準モデルMDsの各特徴点PS1〜PS5,...を投影面PLに投影するときの目的点PT0〜PT5,...を決定しておく。つぎに、個別モデルMDbの各特徴点PB0〜PB5,...と標準モデルの各特徴点PS0〜PS5,...との対応関係を把握する。そして、この対応関係に基づいて、個別モデルMDbの各特徴点PB0〜PB5,...を、標準モデルの対応特徴点PS0〜PS5,...の投影先の点PT0〜PT5,...と同一の位置に投影する。例えば、個別モデルMDbの特徴点PB1には標準モデルMDsの特徴点PS1が対応するので、標準モデルMDsの特徴点PS1に関する目的点PT1が、個別モデルMDbの特徴点PB1に関する目的点として決定される。他の特徴点についても同様である。   Specifically, first, target points PT0 to PT5,... When projecting the characteristic points PS1 to PS5,... Of the standard model MDs on the projection plane PL are determined by the method MT1 or the method MT2. deep. Next, the correspondence relationship between the feature points PB0 to PB5,... Of the individual model MDb and the feature points PS0 to PS5,. Then, based on this correspondence relationship, the feature points PB0 to PB5,... Of the individual model MDb are converted into the projection points PT0 to PT5,... Of the corresponding feature points PS0 to PS5,. Project to the same position. For example, since the feature point PS1 of the standard model MDs corresponds to the feature point PB1 of the individual model MDb, the target point PT1 related to the feature point PS1 of the standard model MDs is determined as the target point related to the feature point PB1 of the individual model MDb. . The same applies to other feature points.

ここで、各手法MT1,MT2は、それぞれ、
(1)手法MT1:全パッチに対して共通の投影面(および共通の座標系)を設定し、当該共通の投影面に各パッチの頂点を投影する手法、
(2)手法MT2:全パッチをいくつかのグループに分類し、分類後のグループごとに設定された個別の投影面に、そのグループに所属する各パッチの頂点を投影する手法、
である。
Here, each method MT1, MT2 is respectively
(1) Method MT1: A method of setting a common projection plane (and a common coordinate system) for all patches and projecting the vertices of each patch onto the common projection plane,
(2) Method MT2: A method of classifying all patches into several groups and projecting the vertices of each patch belonging to the group onto individual projection planes set for each group after classification.
It is.

以下では、これらの2種類の手法MT1,MT2について順次に説明する。   Hereinafter, these two types of methods MT1 and MT2 will be described in order.

まず、(1)手法MT1について説明する。   First, (1) method MT1 will be described.

手法MT1における共通の投影面および共通の座標系としては、それぞれ、例えば、円筒面PL11(図12参照)および円筒座標系を採用することができる。具体的には、図12に示すように、標準モデルMDsの周囲に配置した円筒面PL11に標準モデルMDsの各パッチの頂点を投影し、投影された各頂点を、上記の「目的点」として決定することができる。例えば、標準モデルMDsの各特徴点PS1〜PS5は、それぞれ、投影面PL(PL11)上の投影点PT0〜PT5(図11参照)に投影される。このとき各特徴点PS1〜PS5に対応する投影点が目的点(対応目的点)PT0〜PT5として決定される。   As the common projection plane and the common coordinate system in the technique MT1, for example, a cylindrical plane PL11 (see FIG. 12) and a cylindrical coordinate system can be employed, respectively. Specifically, as shown in FIG. 12, the vertices of the patches of the standard model MDs are projected onto the cylindrical surface PL11 arranged around the standard model MDs, and the projected vertices are used as the above “target points”. Can be determined. For example, the feature points PS1 to PS5 of the standard model MDs are respectively projected onto the projection points PT0 to PT5 (see FIG. 11) on the projection plane PL (PL11). At this time, projection points corresponding to the feature points PS1 to PS5 are determined as target points (corresponding target points) PT0 to PT5.

なお、手法MT1により決定された投影面PL(PL11)上の点へと個別モデルの特徴点を投影する投影処理は、個別モデルの周囲に配置した投影面に個別モデルの各パッチの頂点を投影する処理に相当する。また、ここでは、手法MT1における共通の投影面(および共通の座標系)として、円筒面PL11および円筒面座標系をそれぞれ例示したが、これに限定されず、例えば、共通の投影面および共通の座標系として、それぞれ、球面PL12(図13参照)および球面座標系等を採用してもよい。   Note that the projection processing for projecting the feature points of the individual model to the points on the projection plane PL (PL11) determined by the method MT1 projects the vertices of each patch of the individual model onto the projection plane arranged around the individual model. It corresponds to the processing. In addition, here, the cylindrical plane PL11 and the cylindrical plane coordinate system are illustrated as the common projection plane (and the common coordinate system) in the technique MT1, but the present invention is not limited thereto. For example, the common projection plane and the common plane are common. As the coordinate system, a spherical PL 12 (see FIG. 13), a spherical coordinate system, or the like may be employed.

次に、(2)手法MT2について説明する。   Next, (2) Method MT2 will be described.

手法MT2は、上述したように、全パッチをいくつかのグループに分類し、分類後のグループごとに設定された個別の投影面に、そのグループに所属する各パッチの頂点を投影する手法である。   As described above, the technique MT2 is a technique in which all patches are classified into several groups, and the vertices of the patches belonging to the group are projected onto individual projection planes set for each group after classification. .

図14は、各パッチの分類例を示す図である。図14においては、標準モデルMDsの表面を形成する複数のパッチが、右眼付近のパッチを含むグループGR1、左眼付近のパッチを含むグループGR2、鼻付近のパッチを含むグループGR3、および口付近のパッチを含むグループGR4等に、分類されている様子が示されている。たとえば、標準モデルMDsのパッチをこのような各グループGR(GR1〜GR4等)に分類することができる。   FIG. 14 is a diagram illustrating a classification example of each patch. In FIG. 14, the plurality of patches forming the surface of the standard model MDs are a group GR1 including a patch near the right eye, a group GR2 including a patch near the left eye, a group GR3 including a patch near the nose, and a vicinity of the mouth. A state of being classified into the group GR4 and the like including the patches of is shown. For example, the patches of the standard model MDs can be classified into such groups GR (GR1 to GR4, etc.).

手法MT2においては、各グループごとに個別の投影平面が設定される。   In the method MT2, an individual projection plane is set for each group.

図15は、標準モデルMDsの各特徴点PS0〜PS5が、それぞれ、投影面PL15上の投影点PT0〜PT5に投影される様子を示す図である。図15においては、標準モデルMDsの各特徴点PS0〜PS5は、それぞれ、投影面PL15上の投影点PT0〜PT5に投影されており、各特徴点PS0〜PS5に対応する投影点が目的点(対応目的点)PT0〜PT5として決定される。なお、図15においては、標準モデルMDsの或るグループに属する各パッチが、或る投影面PL15に投影される様子も示されている。詳細には、標準モデルMDs上の特徴点PS0〜PS5で構成されるパッチC1〜C5が、投影面PL15上に投影される様子が示されている。   FIG. 15 is a diagram showing how the characteristic points PS0 to PS5 of the standard model MDs are projected onto the projection points PT0 to PT5 on the projection plane PL15, respectively. In FIG. 15, the feature points PS0 to PS5 of the standard model MDs are respectively projected onto the projection points PT0 to PT5 on the projection plane PL15, and the projection points corresponding to the feature points PS0 to PS5 are target points ( Corresponding destination point: determined as PT0 to PT5. FIG. 15 also shows how each patch belonging to a certain group of standard models MDs is projected onto a certain projection plane PL15. Specifically, a state is shown in which patches C1 to C5 composed of feature points PS0 to PS5 on the standard model MDs are projected onto the projection plane PL15.

この投影平面PL15は、注目点(ここでは特徴点PS0)付近のパッチC1〜C5の(外向き)法線ベクトルを合成して得られるベクトル(合成ベクトルとも称する)をその法線ベクトルとする平面として定められる。なお、この合成ベクトルは、これら複数のパッチC1〜C5の(外向き)法線ベクトルの平均ベクトルであるとも表現される。これによれば、注目点付近のパッチを真上から(より正確には合成ベクトルの方向が視線方向となるようにして)見た画像が投影画像として生成されることになる。   The projection plane PL15 is a plane whose vector is a vector (also referred to as a synthesized vector) obtained by synthesizing (outward) normal vectors of the patches C1 to C5 near the point of interest (here, the feature point PS0). It is determined as This combined vector is also expressed as an average vector of (outward) normal vectors of the plurality of patches C1 to C5. According to this, an image in which the patch near the point of interest is viewed from directly above (more precisely, the direction of the combined vector is the line-of-sight direction) is generated as a projection image.

また、標準モデルにおける別グループに属するパッチについても上記と同様の処理が行われる。これにより、標準モデルにおける複数のグループのそれぞれに属する各特徴点を所属グループ固有の投影面に投影した対応点が、対応目的点として決定される。   The same processing as described above is performed for patches belonging to another group in the standard model. Thereby, the corresponding point obtained by projecting each feature point belonging to each of the plurality of groups in the standard model onto the projection plane unique to the belonging group is determined as the corresponding target point.

以上のようにして、標準モデルの特徴点に関する目的点が決定される。そして、上述したように、標準モデルの特徴点に関する目的点は、個別モデルの特徴点に関する目的点として決定される。   As described above, the target point related to the feature point of the standard model is determined. As described above, the target point related to the feature point of the standard model is determined as the target point related to the feature point of the individual model.

<貼り付け処理>
この変換処理においては、上述のようなワープ処理によって「個別モデル」の各特徴点が投影面上の各「目的点」へと移動されるとともに、個別モデル上の特徴点で囲まれるパッチ(三角形領域)が、投影面PL上のパッチ(三角形領域)に割り付けられる。すなわち、個別モデル上の各パッチのテクスチャ情報を投影面PLに貼り付ける処理も行われる。
<Paste processing>
In this conversion processing, each feature point of the “individual model” is moved to each “target point” on the projection plane by the warp processing as described above, and a patch (triangle) surrounded by the feature points on the individual model. Area) is assigned to a patch (triangular area) on the projection plane PL. That is, the process of pasting the texture information of each patch on the individual model onto the projection plane PL is also performed.

具体的には、変換前の個別モデル上の各パッチ(「変換前パッチ」とも称する)内の画素を、変換後の投影面上の各パッチ(「変換後パッチ」とも称する)内の対応位置にワープ(移動)させるような変換を考える。この変換においては、例えば3つの頂点に囲まれた変換前パッチ内の2次元位置(x,y)は、式(5)で表現される変換によって、変換後の座標系における座標値(u,v)に変換される。なお、行列Hの3行目が(0,0,1)になる場合には、行列Hによって表される変換はアフィン変換となる。   Specifically, the pixel in each patch on the individual model before conversion (also referred to as “pre-conversion patch”) corresponds to the corresponding position in each patch on the projection plane after conversion (also referred to as “post-conversion patch”). Consider a transformation that warps (moves) In this conversion, for example, the two-dimensional position (x, y) in the pre-conversion patch surrounded by three vertices is converted into coordinate values (u, v). When the third row of the matrix H is (0, 0, 1), the transformation represented by the matrix H is an affine transformation.

変換後の各位置(u,v)における画素の画素値を実際に求める際には、まず、この行列Hの逆行列であるH-1を求め、変換後パッチ内の各(u,v)の対応位置(x、y)を式(6)で求める。 When the pixel value of the pixel at each position (u, v) after conversion is actually obtained, first, H -1 that is an inverse matrix of this matrix H is obtained, and each (u, v) in the post-conversion patch is obtained. The corresponding position (x, y) is obtained by equation (6).

そして、この式(6)で得られる変換前の位置(x,y)における画素の画素値、もしくは当該位置近傍に存在する複数の画素の画素値によって補間(線形補間等)される画素値を、変換後パッチ内の位置(u,v)における画素の画素値として決定する。   Then, the pixel value of the pixel at the position (x, y) before conversion obtained by the equation (6) or the pixel value to be interpolated (such as linear interpolation) by the pixel values of a plurality of pixels existing in the vicinity of the position. The pixel value of the pixel at the position (u, v) in the post-conversion patch is determined.

このようにして、変換後パッチ内の各画素の画素値、すなわち2次元平面に投影されたテクスチャ情報が取得される。   Thus, the pixel value of each pixel in the post-conversion patch, that is, the texture information projected on the two-dimensional plane is acquired.

なお、手法MT2を用いる場合には、複数のグループについて同様の処理が施され、これによって、各グループごとに設定された投影面PLに対する投影画像が生成される。この場合、各投影画像は、それぞれ、個別の座標系を有することになる。   Note that, when the method MT2 is used, the same processing is performed on a plurality of groups, thereby generating a projection image on the projection plane PL set for each group. In this case, each projection image has an individual coordinate system.

<変換処理における微調整>
基本的には、上記のように手法MT1,MT2等によって得られた移動先の点(目的点)へと、標準モデルMDs上の各特徴点を移動させることなどによって、変換処理を行うことが可能である。
<Fine adjustment in conversion processing>
Basically, conversion processing can be performed by moving each feature point on the standard model MDs to a destination point (target point) obtained by the methods MT1, MT2, etc. as described above. Is possible.

ただし、上記の変換処理においては、3次元形状を有する各パッチの法線と投影面PLの法線との角度が互いに異なることに起因して、標準モデルMDs上での各パッチの面積と変換処理によって投影された投影面PL上での各パッチの面積とが異なることがある(図15参照)。パッチのテクスチャ情報を比較するに際しては、標準モデルMDs上での変換前パッチの面積と投影面PL上での変換後パッチの面積とは同じであることが好ましい。また、パッチの変換前後の面積比はパッチによって異ならないことが好ましい。   However, in the above conversion processing, the area of each patch on the standard model MDs and conversion are converted because the normal line of each patch having a three-dimensional shape and the normal line of the projection plane PL are different from each other. The area of each patch on the projection plane PL projected by the processing may be different (see FIG. 15). When comparing the texture information of patches, it is preferable that the area of the patch before conversion on the standard model MDs and the area of the patch after conversion on the projection plane PL are the same. Further, it is preferable that the area ratio before and after the conversion of the patch does not differ depending on the patch.

そこで、ここでは各パッチについて変換前パッチの面積と変換後パッチの面積とを近づけるような変換処理を行うものとする。換言すれば、3次元モデル上での各パッチの面積と変換処理によって投影された投影面上での各パッチの面積とが、より近い値になるように、各移動先の点を決定するものとする。これによれば、各標準モデル上のパッチが、3次元モデル上での表面積とほぼ同じ面積を有する状態に変換される。したがって、個別モデルのテクスチャ比較における比較条件をさらに整えることができる。   Therefore, here, for each patch, a conversion process is performed in which the area of the pre-conversion patch and the area of the post-conversion patch are made closer. In other words, the point of each destination is determined so that the area of each patch on the three-dimensional model and the area of each patch on the projection surface projected by the conversion process are closer to each other. And According to this, the patch on each standard model is converted into a state having approximately the same area as the surface area on the three-dimensional model. Therefore, the comparison conditions in the texture comparison of the individual models can be further adjusted.

以下では、手法MT2にこの変形例に係る技術を適用する場合について説明する。   Below, the case where the technique which concerns on this modification is applied to method MT2 is demonstrated.

具体的には、パッチの頂点PT1〜PT5を移動しつつ式(7)の評価関数FDを算出し、当該評価関数FDを最小化する移動後のパッチの頂点PT1〜PT5を得る。最小化手法(最適化手法)としては、最急降下法などの適宜の手法を用いればよい。   Specifically, the evaluation function FD of Expression (7) is calculated while moving the patch vertices PT1 to PT5, and the moved patch vertices PT1 to PT5 that minimize the evaluation function FD are obtained. As a minimization method (optimization method), an appropriate method such as a steepest descent method may be used.

ただし、Sm(p)は第pパッチの標準モデル上での面積を表し、Sr(p)は第pパッチの投影面上での面積を表し、Npは頂点の数を表し、Θ(q)は座標軸AXq(後述)と投影面における座標軸CXqとがなす角度を表しており、βは適宜の定数である。   Where Sm (p) represents the area of the p-th patch on the standard model, Sr (p) represents the area of the p-th patch on the projection plane, Np represents the number of vertices, and Θ (q) Represents an angle formed by a coordinate axis AXq (described later) and a coordinate axis CXq on the projection plane, and β is an appropriate constant.

式(7)の右辺第1項を最小化することによって、変換前パッチの面積と変換後パッチの面積とを近づけるような変換処理が行われることになる。また、式(7)の右辺第2項は、面積の最適化の方向性に拘束を加える作用を有する項である。   By minimizing the first term on the right side of Equation (7), a conversion process is performed to bring the area of the pre-conversion patch close to the area of the post-conversion patch. In addition, the second term on the right side of Equation (7) is a term having an effect of constraining the directionality of area optimization.

図16,図17,図18は、モデル上のテクスチャ情報が2次元平面上に投影される様子を示すための図である。   FIGS. 16, 17, and 18 are diagrams for illustrating how texture information on a model is projected on a two-dimensional plane.

図16は、標準モデルの注目点中心に設定される座標軸を示す図であり、標準モデルの右眼を注目点としたときに、当該注目点を中心にして標準モデルの表面形状に沿って設定される座標軸AX1〜AX4を示している。なお、ここでは、右眼中央部を注目点として示しているが、図14の点Q7等を注目点とするようにしてもよい。   FIG. 16 is a diagram illustrating coordinate axes set at the center of interest of the standard model. When the right eye of the standard model is the attention point, the coordinate axis is set along the surface shape of the standard model around the attention point. The coordinate axes AX1 to AX4 are shown. Here, although the center part of the right eye is shown as the attention point, the point Q7 in FIG.

座標軸AX1は、平面PL1と標準モデルのパッチ(詳細には注目点の右側パッチC2(図15参照))との交線であり、座標軸AX3は、平面PL1と標準モデルのパッチ(詳細には注目点の左側パッチC5)との交線である。なお、平面PL1は、上記注目点と標準モデルMDsの中心点との双方を通る鉛直平面である。   The coordinate axis AX1 is a line of intersection between the plane PL1 and the standard model patch (specifically, the right point patch C2 of the target point (see FIG. 15)), and the coordinate axis AX3 is the plane PL1 and the standard model patch (detailed attention). This is a line of intersection with the left patch C5) of the point. The plane PL1 is a vertical plane that passes through both the attention point and the center point of the standard model MDs.

また、座標軸AX2は、平面PL2と標準モデルのパッチ(詳細には注目点の上側パッチC1)との交線であり、座標軸AX4は、平面PL2と標準モデルのパッチ(詳細には注目点の下側パッチC3)との交線である。なお、平面PL2は、上記注目点を通る水平面である。   The coordinate axis AX2 is an intersection line between the plane PL2 and the standard model patch (specifically, the upper patch C1 of the target point), and the coordinate axis AX4 is the plane PL2 and the standard model patch (specifically, below the target point). This is the intersection line with the side patch C3). The plane PL2 is a horizontal plane passing through the attention point.

図17は、投影平面PL15における座標系の座標軸CX1〜CX4と最適化処理前の座標軸AX1〜AX4との関係を示す図である。また、図18は、最適化処理後の状態を示す図である。なお、図15には、投影面PL15上に最適化処理前の座標軸AX1〜AX4が示されている。   FIG. 17 is a diagram showing the relationship between the coordinate axes CX1 to CX4 of the coordinate system on the projection plane PL15 and the coordinate axes AX1 to AX4 before the optimization process. FIG. 18 is a diagram illustrating a state after the optimization process. In FIG. 15, coordinate axes AX1 to AX4 before the optimization process are shown on the projection plane PL15.

ここでは、対象グループに関する合成ベクトルの方向が方向AR1と相違している状況、詳細には、図16における両平面PL1,PL2の交線に沿う方向AR1よりもやや右上側から斜めに標準モデルの対象グループ近傍を眺めている状況を想定している。この場合、図17に示すように、投影面PL15上においては、ポリゴン表面上の座標軸AX1〜AX4は、それぞれ、座標軸CX1〜CX4に対して、「ずれた」状態となっている。   Here, the direction of the composite vector regarding the target group is different from the direction AR1, more specifically, the standard model is slightly inclined from the upper right side with respect to the direction AR1 along the intersection line of both planes PL1 and PL2 in FIG. A situation is assumed in which the vicinity of the target group is viewed. In this case, as shown in FIG. 17, on the projection plane PL15, the coordinate axes AX1 to AX4 on the polygon surface are in a state of being shifted from the coordinate axes CX1 to CX4, respectively.

式(7)の右辺第2項によれば、このずれを抑制し、3次元モデル上での水平線および垂直線をより正確に合わせることが可能になる。また、このような制約の元で、面積の同一化を図ることができる。   According to the second term on the right side of Equation (7), this deviation can be suppressed, and the horizontal and vertical lines on the three-dimensional model can be more accurately aligned. In addition, the area can be made identical under such restrictions.

また、各パッチの投影状態が図18のような状態に変更されれば、投影面PL上での各パッチC1〜C5の面積は、それぞれ、標準モデルMDs上の各パッチC1〜C5の面積にほぼ等しくなる。   Further, if the projection state of each patch is changed to the state as shown in FIG. 18, the areas of the patches C1 to C5 on the projection plane PL are respectively the areas of the patches C1 to C5 on the standard model MDs. Almost equal.

以上のように、ステップSP6においては、認証対象者HMbに関する3次元位置情報が個別モデルMDbにおける各特徴点の3次元位置情報として生成されるとともに、認証対象者HMbに関するテクスチャ情報が上述のような投影面への投影画像として生成される。   As described above, in step SP6, the three-dimensional position information related to the authentication target person HMb is generated as the three-dimensional position information of each feature point in the individual model MDb, and the texture information related to the authentication target person HMb is as described above. It is generated as a projection image on the projection plane.

<抽出処理等>
次のステップSP7(図6)においては、認証対象者HMbの特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。
<Extraction processing, etc.>
In the next step SP7 (FIG. 6), three-dimensional shape information (three-dimensional information) and texture information (two-dimensional information) are extracted as information representing the characteristics of the person to be authenticated HMb.

3次元情報としては、個別モデルMDbにおけるm個の個別制御点Cjの3次元座標ベクトルが抽出される。具体的には、式(8)に示されるように、m個の個別制御点Cj(j=1,...,m)の3次元座標(Xj,Yj,Zj)を要素とするベクトルhSが3次元情報(3次元形状情報)として抽出される。 As the three-dimensional information, three-dimensional coordinate vectors of m individual control points Cj in the individual model MDb are extracted. Specifically, as shown in Expression (8), a vector h whose elements are three-dimensional coordinates (Xj, Yj, Zj) of m individual control points Cj (j = 1,..., M). S is extracted as three-dimensional information (three-dimensional shape information).

また、2次元情報としては、個人認証にとって重要な情報となる顔の特徴的な部分つまり個別制御点付近のパッチ又はパッチのグループ(局所領域)が有するテクスチャ(輝度)情報(以下、「局所2次元情報」とも称する)が抽出される。ここでは、テクスチャ情報(局所2次元情報)として、上記変換処理(ステップSP6)後の情報(すなわち投影画像に基づく情報)が用いられる。   As the two-dimensional information, texture (luminance) information (hereinafter referred to as “local 2”) included in a characteristic part of the face that is important information for personal authentication, that is, a patch or a group of patches (local region) in the vicinity of an individual control point. Also referred to as “dimensional information”). Here, information after the conversion process (step SP6) (that is, information based on the projection image) is used as the texture information (local two-dimensional information).

局所2次元情報は、例えば、各局所領域が有する各画素の輝度情報として構成される。各局所領域としては、複数のパッチで構成されるグループ領域、又は、単一のパッチで構成される領域等が該当する。   The local two-dimensional information is configured as luminance information of each pixel included in each local area, for example. Each local area corresponds to a group area composed of a plurality of patches or an area composed of a single patch.

局所2次元情報h(k)(k=1,...,L;Lは局所領域数)は、それぞれ、当該局所領域内の画素数をn、各画素の輝度値をBR1,...,BRnとすると、式(9)のようなベクトル形式で表される。また、局所2次元情報h(k)をL個の局所領域について集めた情報は、総合的な2次元情報であるとも表現される。 The local two-dimensional information h (k) (k = 1,..., L; L is the number of local regions) is represented by n as the number of pixels in the local region and BR1 as the luminance value of each pixel. , BRn, it is expressed in a vector format as shown in Equation (9). In addition, information obtained by collecting local two-dimensional information h (k) for L local regions is also expressed as comprehensive two-dimensional information.

以上のように、ステップSP7においては、個別モデルの特徴を表す情報として、3次元形状情報(3次元情報)SB(図1)とテクスチャ情報(2次元情報)TBとが抽出される。   As described above, in step SP7, the three-dimensional shape information (three-dimensional information) SB (FIG. 1) and the texture information (two-dimensional information) TB are extracted as information representing the characteristics of the individual model.

抽出された情報は後述の認証動作(ステップSP9,SP10)に用いられる。当該認証動作においては、式(9)で得られる情報をそのまま用いて認証動作を行うようにしてもよいが、その場合、局所領域内の画素数が多いときには、認証動作での計算量が非常に大きくなってしまう。そこで、この実施形態では、計算量を低減して効率的に認証動作を行うことを企図して、式(9)で得られる情報を更に圧縮し圧縮後の情報を用いて認証動作を行うものとする。   The extracted information is used for an authentication operation (steps SP9 and SP10) described later. In the authentication operation, the authentication operation may be performed using the information obtained by Expression (9) as it is. However, in this case, when the number of pixels in the local area is large, the amount of calculation in the authentication operation is very large. Will become bigger. Therefore, in this embodiment, the authentication operation is performed by reducing the amount of calculation and performing the authentication operation efficiently, and further compressing the information obtained by Expression (9) and using the compressed information. And

そのため、次のステップSP8においては、ステップSP7で抽出された情報を、認証に適した状態に変換する次述の情報圧縮処理を行う。   For this reason, in the next step SP8, the information compression processing described below for converting the information extracted in step SP7 into a state suitable for authentication is performed.

情報圧縮処理は、3次元形状情報hS及び各局所2次元情報h(k)のそれぞれに対して同様の手法を用いて行われるが、ここでは、局所2次元情報h(k)に対して情報圧縮処理を施す場合について詳細に説明する。 The information compression processing is performed using the same method for each of the three-dimensional shape information h S and each local two-dimensional information h (k) . Here, for the local two-dimensional information h (k) , A case where information compression processing is performed will be described in detail.

局所2次元情報h(k)は、複数のサンプル顔画像から予め取得される当該局所領域の平均情報(ベクトル)have(k)と、複数のサンプル顔画像をKL展開することによって予め算出される当該局所領域の固有ベクトルのセットで表現される行列P(k)(次述)とを用いて式(10)のように基底分解された形式で表すことができる。この結果、局所2次元顔情報量(ベクトル)c(k)が、局所2次元情報h(k)についての圧縮情報として取得される。 The local two-dimensional information h (k) is calculated in advance by KL expansion of the average information (vector) have (k) of the local area acquired in advance from a plurality of sample face images and the plurality of sample face images. Using the matrix P (k) (described below) expressed by the set of eigenvectors of the local region, it can be expressed in a basis-decomposed format as shown in Equation (10). As a result, the local two-dimensional face information amount (vector) c (k) is acquired as compressed information about the local two-dimensional information h (k) .

上述のように式(10)中の行列P(k)は、複数のサンプル顔画像から算出される。具体的には、行列P(k)は、複数のサンプル顔画像をKL展開することによって求められる複数の固有ベクトルのうち、固有値の大きい数個の固有ベクトル(基底ベクトル)のセットとして求められる。これらの基底ベクトルは、基底ベクトルデータベース29に記憶されている。顔画像についてのより大きな特徴を示す固有ベクトルを基底ベクトルとしてその顔画像を表現することによれば、顔画像の特徴を効率的に表現することが可能となる。 As described above, the matrix P (k) in the equation (10 ) is calculated from a plurality of sample face images. Specifically, the matrix P (k) is obtained as a set of several eigenvectors (base vectors) having large eigenvalues among a plurality of eigenvectors obtained by KL expansion of a plurality of sample face images. These basis vectors are stored in the basis vector database 29. By expressing the face image using an eigenvector indicating a larger feature of the face image as a base vector, it is possible to efficiently express the feature of the face image.

例えば、或るグループGRの局所領域の局所2次元情報h(GR)を基底分解された形式で表現する場合を考える。当該局所領域の固有ベクトルのセットPが、3つの固有ベクトルP1、P2及びP3によってP=(P1,P2,P3)と表現されているとすると、局所2次元情報h(GR)は、当該局所領域の平均情報have(GR)と固有ベクトルのセットP1,P2,P3を用いて式(11)のように表される。平均情報have(GR)は、様々なサンプル顔画像についての複数の局所2次元情報(ベクトル)を対応要素ごとに平均して得られるベクトルである。なお、複数のサンプル顔画像は、適度なばらつきを有する標準的な複数の顔画像を用いればよい。 For example, let us consider a case where local two-dimensional information h (GR) of a local region of a certain group GR is expressed in a basis decomposed form. Assuming that the set P of eigenvectors of the local region is expressed as P = (P1, P2, P3) by three eigenvectors P1, P2, and P3, the local two-dimensional information h (GR) The average information have (GR) and the set of eigenvectors P1, P2, and P3 are used to express the equation (11). The average information have (GR) is a vector obtained by averaging a plurality of local two-dimensional information (vectors) for various sample face images for each corresponding element. In addition, what is necessary is just to use the some standard face image which has moderate dispersion | variation for a some sample face image.

また、上記式(11)は、顔情報量c(GR)=(c1,c2,c3)Tによって元の局所2次元情報を再現することが可能であることを示している。すなわち、顔情報量c(GR)は、グループGRからなる局所領域の局所2次元情報h(GR)を圧縮した情報といえる。 Further, the above equation (11) indicates that the original local two-dimensional information can be reproduced by the face information amount c (GR) = (c1, c2, c3) T. That is, it can be said that the face information amount c (GR) is information obtained by compressing the local two-dimensional information h (GR) of the local region including the group GR.

上記のようにして取得された局所2次元顔情報量c(GR)をそのまま認証動作に用いてもよいが、この実施形態ではさらなる情報圧縮を行う。具体的には、局所2次元顔情報量c(GR)が表す特徴空間を個人間の分離を大きくするような部分空間へと変換する処理を更に行う。より詳細には、式(12)に表されるようベクトルサイズfの局所2次元顔情報量c(GR)をベクトルサイズgの局所2次元特徴量d(GR)に低減させる変換行列Aを考える。これにより、局所2次元顔情報量c(GR)で表される特徴空間を局所2次元特徴量d(GR)で表される部分空間に変換することができ、個人間の情報の相違が顕著になる。 The local two-dimensional face information amount c (GR) acquired as described above may be used for the authentication operation as it is, but in this embodiment, further information compression is performed. Specifically, a process of converting the feature space represented by the local two-dimensional face information amount c (GR) into a partial space that increases separation between individuals is further performed. More specifically, a transformation matrix A that reduces the local two-dimensional face information amount c (GR) of the vector size f to the local two-dimensional feature amount d (GR) of the vector size g as expressed in Expression (12) is considered. . Thereby, the feature space represented by the local two-dimensional face information amount c (GR) can be converted into the partial space represented by the local two-dimensional feature amount d (GR) , and the difference in information between individuals is remarkable. become.

ここで、変換行列Aはf×gのサイズを有する行列である。重判別分析(MDA:Multiple Discriminant Analysis)法を用いて、特徴空間から級内分散と級間分散との比率(F比)の大きい主成分をg個選び出すことによって、変換行列Aを決定することができる。   Here, the transformation matrix A is a matrix having a size of f × g. Using a multiple discriminant analysis (MDA) method, the transformation matrix A is determined by selecting g principal components having a large ratio (F ratio) between intra-class variance and inter-class variance from the feature space. Can do.

また、上述した局所2次元情報h(GR)について行った情報圧縮処理と同様の処理を他の全ての局所領域にも実行することによって、各局所領域についての局所2次元顔特徴量d(k)を取得することができる。また、3次元形状情報hSに対しても同様の手法を適用することにより3次元顔特徴量dSを取得することができる。 In addition, by executing the same processing as the information compression processing performed on the local two-dimensional information h (GR) described above for all other local regions, the local two-dimensional face feature amount d (k) for each local region is also obtained. ) can be acquired. Further, by applying the same method to the three-dimensional shape information h S , the three-dimensional face feature value d S can be acquired.

上記ステップSP8を経て取得される3次元顔特徴量dSと局所2次元顔特徴量d(k)とを組み合わせた顔特徴量dは、ベクトル形式で式(13)のように表すことができる。 The face feature amount d obtained by combining the three-dimensional face feature amount d S and the local two-dimensional face feature amount d (k) acquired through step SP8 can be expressed as a formula (13) in a vector format. .

以上に述べたステップSP1〜SP8の工程において、入力される認証対象者HMbの顔画像G1,G2から当該対象者の顔特徴量d(Bd)が取得される。認証対象者HMbの顔特徴量d(Bd)は、次述する登録者HMaの顔画像に関する特徴量d(Ad)とともに、ステップSP9,SP10の処理において用いられる。   In the steps SP1 to SP8 described above, the facial feature amount d (Bd) of the subject person is acquired from the face images G1 and G2 of the subject person HMb to be inputted. The face feature amount d (Bd) of the person to be authenticated HMb is used in the processing of steps SP9 and SP10 together with the feature amount d (Ad) related to the registrant HMa's face image described below.

<C3.登録者HMaに関する情報収集>
次に、図7を参照して、登録時の顔画像に関する特徴量d(Ad)を得る動作(ステップSP30)について説明する。ステップSP30の処理は、ステップSP31〜SP39の処理を含む。ステップSP31〜SP38の各処理は、それぞれ、対応するステップSP1〜SP8の各処理と同様の処理である。
<C3. Collecting information on registrant HMa>
Next, with reference to FIG. 7, the operation (step SP30) for obtaining the feature quantity d (Ad) related to the face image at the time of registration will be described. The process of step SP30 includes the processes of steps SP31 to SP39. Each process of steps SP31 to SP38 is the same as the corresponding process of steps SP1 to SP8.

まず、ステップSP31〜SP35の処理によって、登録者(比較対象者)HMaに関する情報は、登録者HMaに関する3次元情報と2次元情報との双方を含む「個別モデル」MDaとして生成される。   First, information regarding the registrant (comparator) HMa is generated as an “individual model” MDa including both the three-dimensional information and the two-dimensional information regarding the registrant HMa through the processing of steps SP31 to SP35.

また、ステップSP36においては、上記ステップSP6の処理と同様の処理が行われる。3次元情報に関する位置(アライメント)補正が施されるとともに、個別モデル上のパッチに貼り付けられていたテクスチャ情報が所定の投影面に投影された状態に変換される。   In step SP36, the same process as the process in step SP6 is performed. The position (alignment) correction related to the three-dimensional information is performed, and the texture information pasted on the patch on the individual model is converted into a state projected onto a predetermined projection plane.

次のステップSP37(図6)においては、登録者HMaの特徴を表す情報として、3次元形状情報とテクスチャ情報とが抽出される。ステップSP37においては、ステップSP7と同様の処理が行われる。なお、ここでは、テクスチャ情報として、所定の投影面に投影された状態の情報を用いるものとする。   In the next step SP37 (FIG. 6), three-dimensional shape information and texture information are extracted as information representing the characteristics of the registrant HMa. In step SP37, the same processing as in step SP7 is performed. Here, information on a state projected onto a predetermined projection plane is used as the texture information.

さらに、ステップSP38においては、ステップSP37で抽出された情報を、認証に適した状態に変換する情報圧縮処理を行う。ステップSP38においては、ステップSP8と同様の処理が行われる。   Further, in step SP38, information compression processing for converting the information extracted in step SP37 into a state suitable for authentication is performed. In step SP38, the same processing as in step SP8 is performed.

これによって、ステップSP38において取得される3次元顔特徴量dSと局所2次元顔特徴量d(k)とを組み合わせた顔特徴量d(Ad)が取得される。 As a result, a facial feature value d (Ad) obtained by combining the three-dimensional facial feature value d S and the local two-dimensional facial feature value d (k) obtained in step SP38 is obtained.

次のステップSP39においては、取得された顔特徴量d(Ad)が、登録者HMaの情報として、コントローラ10内の人物データベース30に登録され記憶される。   In the next step SP39, the acquired face feature amount d (Ad) is registered and stored in the person database 30 in the controller 10 as information on the registrant HMa.

以上のようにして、ステップSP30(図7)の処理が行われる。   As described above, the process of step SP30 (FIG. 7) is performed.

<C4.登録者HMaと認証対象者HMbとの照合処理等>
再び図6を参照して、ステップSP9以降の処理について説明する。
<C4. Matching process between registrant HMa and authentication target HMb>
Referring to FIG. 6 again, the processing after step SP9 will be described.

ステップSP9,SP10においては、上述の2つの顔特徴量Ad,Bdを用いて顔認証が行われる。   In steps SP9 and SP10, face authentication is performed using the two face feature values Ad and Bd described above.

具体的には、認証対象者(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reが算出され(ステップSP9)、その後、この総合類似度Reに基づく認証対象者と比較対象者との比較動作等(ステップSP10)が行われる。総合類似度Reは、3次元顔特徴量dSから算出される3次元類似度ReSと、局所2次元顔特徴量d(k)から算出される局所2次元類似度Re(k)とに加えて、3次元類似度ReSと局所2次元類似度Re(k)との重みを規定する適宜の重み付け係数(以下、単に「重み係数」とも称する)WT,WS(式(14)参照)を用いて算出される。 Specifically, the total similarity Re, which is the similarity between the authentication target person (authentication target object) and the comparison target person (comparison target object), is calculated (step SP9), and then authentication based on the total similarity degree Re A comparison operation or the like (step SP10) between the subject and the comparison subject is performed. Overall similarity Re is, the 3-dimensional similarity Re S calculated from 3-dimensional face feature amount d S, a local two-dimensional similarity calculated from the local 2-dimensional face feature amount d (k) Re (k) In addition, appropriate weighting factors that define the weights of the three-dimensional similarity Re S and the local two-dimensional similarity Re (k) (hereinafter also simply referred to as “weighting factors”) WT, WS (see Expression (14)) Is calculated using

ステップSP9では、人物データベース30に予め登録されている比較対象者の顔特徴量(比較特徴量)d(Ad)と、上記ステップSP1〜ステップSP8を経て算出された認証対象者の顔特徴量d(Bd)との類似性の評価が行われる。具体的には、登録されている顔特徴量(比較特徴量)(ReSM及びRe(k)M)と認証対象者の顔特徴量(ReSI及びRe(k)I)との間で類似度計算が実行され、3次元類似度ReSと局所2次元類似度Re(k)とが算出される。 In step SP9, the face feature amount (comparison feature amount) d (Ad) of the comparison target registered in advance in the person database 30 and the face feature amount d of the authentication target calculated through steps SP1 to SP8. Similarity with (Bd) is evaluated. Specifically, it is similar between the registered facial feature quantities (comparison feature quantities) (Re SM and Re (k) M ) and the authentication target person's facial feature quantities (Re SI and Re (k) I ). The degree calculation is executed, and the three-dimensional similarity Re S and the local two-dimensional similarity Re (k) are calculated.

さて、認証対象者と比較対象者との3次元類似度ReSは、式(15)に示されるように対応するベクトル同士のユークリッド距離ReSを求めることによって取得される。 Now, the three-dimensional similarity Re S between the authentication subject and the comparison subject is obtained by obtaining the Euclidean distance Re S between the corresponding vectors as shown in the equation (15).

また、局所2次元の類似度Re(k)は、式(16)に示されるように対応する局所領域同士における特徴量の各ベクトル成分ごとのユークリッド距離Re(k)を求めることによって取得される。 Further, the local two-dimensional similarity Re (k) is obtained by obtaining the Euclidean distance Re (k) for each vector component of the feature quantities in the corresponding local regions as shown in the equation (16). .

そして、式(17)に示されるように、3次元の類似度ReSと局所2次元の類似度Re(k)とを、所定の重み係数WT,WSを用いて合成し、認証対象者(認証対象物)と比較対象者(比較対象物)との類似度である総合類似度Reを取得することができる。 Then, as shown in Expression (17), the three-dimensional similarity Re S and the local two-dimensional similarity Re (k) are synthesized using predetermined weighting factors WT and WS, and the person to be authenticated ( The overall similarity Re, which is the similarity between the authentication object) and the comparison person (comparison object), can be acquired.

次に、ステップSP10においては、総合類似度Reに基づいて認証判定が行われる。具体的には、認証対象者HMbの顔特徴量と特定の登録者(比較対象者)HMaの顔特徴量との類似度Reを一定の閾値TH1と比較することによって、認証対象者HMbと比較対象者HMaとの同一性が判定される。詳細には、類似度Reが一定の閾値TH1よりも小さいときに認証対象者が比較対象者と同一人物であると判定される。   Next, in step SP10, authentication determination is performed based on the total similarity Re. Specifically, the degree of similarity Re between the facial feature quantity of the authentication target person HMb and the facial feature quantity of the specific registrant (comparison target person) HMa is compared with a certain threshold TH1, thereby comparing with the authentication target person HMb. Identity with the subject person HMa is determined. Specifically, when the similarity Re is smaller than a certain threshold TH1, it is determined that the person to be authenticated is the same person as the person to be compared.

以上のように、上記実施形態の認証システムによれば、個別モデル(MDb等)の各代表点(特徴点等)と標準モデルMDsの各代表点との対応関係に基づいて、個別モデルの各代表点が標準モデルの対応代表点(対応特徴点等)の投影先の点と同一の位置に投影される(図11等参照)。そして、個別モデルMDa,MDb上の各パッチが共通の投影面上に同様に割り付けられる。このことは、個別モデルMDaに関するテクスチャ情報と個別モデルMDbに関するテクスチャ情報とが、同じ視点から見られた状態で比較されることに相当する。そのため、認証対象者と比較対象者との同一性の判定において、人物の姿勢の相違に基づく影響を軽減し、高精度の認証を行うことが可能である。   As described above, according to the authentication system of the above embodiment, each individual model is based on the correspondence between each representative point (feature point, etc.) of the individual model (MDb, etc.) and each representative point of the standard model MDs. The representative point is projected at the same position as the projection destination point of the corresponding representative point (corresponding feature point etc.) of the standard model (see FIG. 11 etc.). Then, the patches on the individual models MDa and MDb are similarly allocated on the common projection plane. This corresponds to the texture information regarding the individual model MDa and the texture information regarding the individual model MDb being compared in a state viewed from the same viewpoint. Therefore, in determining the identity between the authentication target person and the comparison target person, it is possible to reduce the influence based on the difference in the posture of the person and perform high-accuracy authentication.

また、標準モデルの投影位置に合わせて各個別モデルMDa,MDbが共通の投影面に投影された状態(標準状態)で、認証対象者HMbに関する個別モデルから抽出されたテクスチャ情報と比較対象者HMaに関する個別モデルから抽出されたテクスチャ情報とが比較される。この場合、各個別モデルMDa,MDbの対応パッチは、その位置が同一となるように共通の投影面に投影されることになる。したがって、比較条件を十分に整えた上で比較処理を行うことが可能になるため、より高精度の認証を行うことが可能である。   Further, in a state (standard state) in which the individual models MDa and MDb are projected on a common projection plane in accordance with the projection position of the standard model, the texture information extracted from the individual model related to the authentication target person HMb and the comparison target person HMa Is compared with the texture information extracted from the individual models. In this case, the corresponding patches of the individual models MDa and MDb are projected on a common projection plane so that the positions thereof are the same. Therefore, since it is possible to perform the comparison process after sufficiently setting the comparison conditions, more accurate authentication can be performed.

さらに、標準モデルの投影位置に合わせて両個別モデルMDa,MDbが共通の投影面に投影される場合、各個別モデルMDa,MDbの対応パッチは、その形状が同一となるように共通の投影面に投影されることになる。そのため、対応パッチの形状に関しても標準化された状態で、認証対象者HMbに関する個別モデルから抽出されたテクスチャ情報と比較対象者HMaに関する個別モデルから抽出されたテクスチャ情報とが比較されるので、より高精度のテクスチャ比較を行うことができる。   Furthermore, when both the individual models MDa and MDb are projected onto a common projection surface in accordance with the projection position of the standard model, the corresponding projection planes of the individual models MDa and MDb have the same shape so as to have the same shape. Will be projected. Therefore, the texture information extracted from the individual model related to the authentication target person HMb is compared with the texture information extracted from the individual model related to the comparison target person HMa in a standardized state with respect to the shape of the corresponding patch. Accurate texture comparison can be performed.

<D.変形例>
上記実施形態においては、3次元モデルの代表点として「特徴点」を例示したが、これに限定されず、3次元モデルの代表点として特徴点以外の点を採用してもよい。
<D. Modification>
In the above-described embodiment, “feature points” are illustrated as representative points of the three-dimensional model. However, the present invention is not limited thereto, and points other than the feature points may be adopted as representative points of the three-dimensional model.

また、上記実施形態においては、各局所2次元情報h(k)として、式(9)のように、各画素の輝度値をそのまま列挙したものを例示したが、これに限定されない。例えば、各特徴点の特徴量をガボールフィルタを用いて算出するようにしてもよい。具体的には、グループ内に含まれる複数の特徴点のそれぞれについて、式(18)に示されるような2次元ガボールフィルタを用いた特徴量を算出することができる。ここで、σはガウス関数の広がりを表し、εはスケールパラメータを表し、τは方向パラメータを表す。 In the above embodiment, as the local two-dimensional information h (k) , the luminance values of the respective pixels are enumerated as shown in Expression (9), but the present invention is not limited to this. For example, the feature amount of each feature point may be calculated using a Gabor filter. Specifically, for each of a plurality of feature points included in the group, a feature amount using a two-dimensional Gabor filter as shown in Expression (18) can be calculated. Here, σ represents the spread of the Gaussian function, ε represents the scale parameter, and τ represents the direction parameter.

詳細には、各特徴点において、方向パラメータτの4つの値(例えば、τ=0,π/4,π/2,3π/4(rad))と、スケールパラメータεの3段階の値と(例えば、ε=π,π/2,π/4(rad))を変更しつつ、式(18)のガボールフィルタを作用させて、合計12(4×3)の特徴量を得る。そして、当該グループ内の各特徴点に関する合計12個の値を、複数の特徴点について並べたベクトルを各局所2次元情報h(k)として求めることができる。なお、このとき、各局所2次元情報h(k)の次元数は、当該グループに含まれる特徴点の数に「12」を乗じた値になる。 Specifically, at each feature point, four values of the direction parameter τ (for example, τ = 0, π / 4, π / 2, 3π / 4 (rad)) and three values of the scale parameter ε ( For example, while changing ε = π, π / 2, π / 4 (rad)), the Gabor filter of Expression (18) is applied to obtain a total of 12 (4 × 3) feature values. A vector in which a total of 12 values related to each feature point in the group are arranged for a plurality of feature points can be obtained as each local two-dimensional information h (k) . At this time, the number of dimensions of each local two-dimensional information h (k) is a value obtained by multiplying the number of feature points included in the group by “12”.

ガボールフィルタによれば、画像の局所的な濃淡情報(特定方向の輪郭線等)を効率的に抽出することが可能である。   According to the Gabor filter, it is possible to efficiently extract local shading information (such as a contour line in a specific direction) of an image.

また、上記実施形態においては、式(17)に示すように、テクスチャ情報だけでなく形状情報をも用いて認証対象者と登録者との同一性を判定しているが、これに限定されず、テクスチャ情報だけを用いて認証対象者と登録者との同一性を判定してもよい。   Moreover, in the said embodiment, as shown in Formula (17), the identity of a person to be authenticated and a registrant is determined using not only texture information but also shape information. However, the present invention is not limited to this. The identity of the person to be authenticated and the registrant may be determined using only the texture information.

また、上記実施形態においては、入力された顔(認証対象者の顔)が特定の登録者であるか否かを判定する場合について説明したが、これに限定されず、認証対象者が複数の登録者のうちの誰であるかを判定する顔識別に上記の思想を適用するようにしてもよい。例えば、登録されている複数の人物の各顔特徴量と認証対象者の顔特徴量との類似度を全て算出して、各比較対象者(登録者)と認証対象者との同一性をそれぞれ判定すればよい。また、特定数の人物に絞り込むことで足りる場合には、複数の比較対象者のうち、その同一性が高い順に特定数の比較対象者を選択するようにしてもよい。   In the above embodiment, the case where it is determined whether or not the input face (face of the person to be authenticated) is a specific registrant has been described. However, the present invention is not limited to this. You may make it apply said idea to the face identification which determines who is among the registrants. For example, the similarity between each face feature quantity of a plurality of registered persons and the face feature quantity of the person to be authenticated is calculated, and the identity between each person to be compared (registrant) and the person to be authenticated is calculated. What is necessary is just to judge. Further, when it is sufficient to narrow down to a specific number of persons, a specific number of comparison target persons may be selected in descending order of identity among a plurality of comparison target persons.

また、上記実施形態においては、複数台のカメラより入力される複数の画像を用いて、認証対象者の顔の3次元情報を取得しているがこれに限定されない。具体的には、図19に示されるようなレーザ光出射部L1とカメラLCAとから構成される3次元形状測定器を用いてレーザ光出射部L1の照射するレーザの反射光をカメラLCAによって計測することにより、認証対象者の顔の3次元情報を取得してもよい。すなわち、光切断法によって3次元情報を取得するようにしてもよい。但し、上記実施形態のように2台のカメラを含む入力装置を用いて3次元の形状情報を取得する手法によれば、レーザ光を用いる入力装置に比べて、比較的簡易な構成で3次元の形状情報を取得することができる。   In the above embodiment, the three-dimensional information of the face of the person to be authenticated is acquired using a plurality of images input from a plurality of cameras. However, the present invention is not limited to this. Specifically, the reflected light of the laser irradiated by the laser beam emitting unit L1 is measured by the camera LCA using a three-dimensional shape measuring instrument configured by the laser beam emitting unit L1 and the camera LCA as shown in FIG. By doing so, the three-dimensional information of the face of the person to be authenticated may be acquired. That is, three-dimensional information may be acquired by a light cutting method. However, according to the method of acquiring three-dimensional shape information using an input device including two cameras as in the above-described embodiment, the three-dimensional shape is relatively simple compared to an input device using laser light. Shape information can be acquired.

顔認証システムの概要を示す概念図である。It is a conceptual diagram which shows the outline | summary of a face authentication system. 顔認証システムを示す構成図である。It is a block diagram which shows a face authentication system. コントローラの構成概要を示す図である。It is a figure which shows the structure outline | summary of a controller. コントローラの各種機能構成を示すブロック図である。It is a block diagram which shows the various function structures of a controller. 個人認証部の詳細な機能構成を示すブロック図である。It is a block diagram which shows the detailed functional structure of a personal authentication part. 認証動作を示すフローチャートである。It is a flowchart which shows authentication operation | movement. 登録動作を示すフローチャートである。It is a flowchart which shows registration operation | movement. 顔画像における特徴的な部位の特徴点を示す図である。It is a figure which shows the feature point of the characteristic site | part in a face image. 2次元画像中の特徴点から3次元座標を算出する模式図である。It is a schematic diagram which calculates a three-dimensional coordinate from the feature point in a two-dimensional image. 3次元の顔の標準モデルを示す図である。It is a figure which shows the standard model of a three-dimensional face. 個別モデルにおける各特徴点の移動先の点と標準モデルにおける対応特徴点の移動先の点とを示す図である。It is a figure which shows the point of the movement destination of each feature point in an individual model, and the point of movement of the corresponding feature point in a standard model. 標準モデルの周囲に配置される円筒面を示す図である。It is a figure which shows the cylindrical surface arrange | positioned around a standard model. 標準モデルの周囲に配置される球面を示す図である。It is a figure which shows the spherical surface arrange | positioned around a standard model. 各パッチの分類例を示す図である。It is a figure showing an example of classification of each patch. 標準モデルの或るグループに属する各パッチが、投影面に投影される様子を示す図である。It is a figure which shows a mode that each patch which belongs to a certain group of a standard model is projected on a projection surface. 標準モデルの表面形状に沿って設定される座標軸を示す図である。It is a figure which shows the coordinate axis set along the surface shape of a standard model. 標準モデルの注目点において設定される座標軸と投影平面における座標系の座標軸との関係を示す図である。It is a figure which shows the relationship between the coordinate axis set in the attention point of a standard model, and the coordinate axis of the coordinate system in a projection plane. 最適化処理後の状態を示す図である。It is a figure which shows the state after an optimization process. 光切断法を用いた3次元形状測定器を示す図である。It is a figure which shows the three-dimensional shape measuring device using the optical cutting method.

符号の説明Explanation of symbols

1 顔認証システム(認証システム)
10 コントローラ
AX1〜AX4,CX1〜CX4 座標軸
Ad,Bd 顔特徴量
C1〜C5 パッチ
CA1,CA2 カメラ
HMa 比較対象者
HMb 認証対象者
PB1〜PB5 (個別モデル上の)特徴点
PL,PL11,PL12,PL15 投影面
PS0〜PS5 (標準モデル上の)特徴点
PT0〜PT5 目的点
1 Face recognition system (authentication system)
10 Controllers AX1 to AX4, CX1 to CX4 Coordinate axes Ad, Bd Facial features C1 to C5 Patch CA1, CA2 Camera HMa Comparison target HMb Authentication target PB1 to PB5 Feature points (on individual models) PL, PL11, PL12, PL15 Projection plane PS0 to PS5 Feature points (on standard model) PT0 to PT5 Target point

Claims (10)

認証対象者に関する認証動作を行う認証システムであって、
認証対象者の顔に関するテクスチャ情報および3次元情報を取得する第1取得手段と、
前記認証対象者の顔に関する立体モデルである第1立体モデルを、前記3次元情報に基づいて生成する生成手段と、
前記第1立体モデルを用いて、前記認証対象者の顔に関するテクスチャ情報である第1テクスチャ情報を変換する変換手段と、
比較対象者の顔に関するテクスチャ情報である第2テクスチャ情報を取得する第2取得手段と、
互いに同じ視点による前記第1テクスチャ情報と前記第2テクスチャ情報とを比較することによって、比較対象者と認証対象者との同一性を判定する判定手段と、
を備えることを特徴とする認証システム。
An authentication system for performing an authentication operation on an authentication target person,
First acquisition means for acquiring texture information and three-dimensional information related to the face of the person to be authenticated;
Generating means for generating a first three-dimensional model that is a three-dimensional model related to the face of the person to be authenticated based on the three-dimensional information;
Conversion means for converting first texture information, which is texture information related to the face of the person to be authenticated, using the first three-dimensional model;
Second acquisition means for acquiring second texture information that is texture information relating to the face of the person to be compared;
A determination unit that determines the identity of the comparison target person and the authentication target person by comparing the first texture information and the second texture information from the same viewpoint;
An authentication system comprising:
請求項1に記載の認証システムにおいて、
前記変換手段は、前記第1立体モデルの各代表点と人物の顔の標準的な立体モデルである標準モデルの各代表点との対応関係に基づいて、前記第1立体モデルの複数の代表点をそれぞれ前記標準モデルの対応代表点の投影先の点と同一の位置に投影し、前記複数の代表点によって構成されるパッチに対応したテクスチャ情報を投影面上に割り付けることを特徴とする認証システム。
The authentication system according to claim 1,
The converting means includes a plurality of representative points of the first stereo model based on a correspondence relationship between each representative point of the first stereo model and each representative point of a standard model that is a standard stereo model of a human face. Each of which is projected onto the same position as the projection destination point of the corresponding representative point of the standard model, and texture information corresponding to a patch composed of the plurality of representative points is allocated on the projection plane. .
請求項2に記載の認証システムにおいて、
前記変換手段は、前記標準モデルの周囲に配置される所定の投影面に前記第1立体モデルのテクスチャ情報を割り付けることを特徴とする認証システム。
The authentication system according to claim 2,
The authentication system, wherein the conversion means assigns texture information of the first three-dimensional model to a predetermined projection plane arranged around the standard model.
請求項3に記載の認証システムにおいて、
前記所定の投影面は、円筒面であることを特徴とする認証システム。
The authentication system according to claim 3,
The authentication system according to claim 1, wherein the predetermined projection surface is a cylindrical surface.
請求項3に記載の認証システムにおいて、
前記所定の投影面は、球面であることを特徴とする認証システム。
The authentication system according to claim 3,
The authentication system, wherein the predetermined projection surface is a spherical surface.
請求項1または請求項2に記載の認証システムにおいて、
前記変換手段は、前記第1立体モデルに含まれるパッチを複数のグループに分類し、分類後のグループごとに設定した投影面に、そのグループにおける各パッチに対応したテクスチャ情報を割り付けることを特徴とする認証システム。
In the authentication system according to claim 1 or 2,
The converting means classifies patches included in the first three-dimensional model into a plurality of groups, and assigns texture information corresponding to each patch in the group to a projection plane set for each group after classification. Authentication system.
請求項1から請求項6のいずれかに記載の認証システムにおいて、
前記変換手段は、前記第1立体モデル上での各パッチの面積が投影後の投影面上での各パッチの面積と同じになるように、前記第1立体モデルの各パッチを前記投影面にマッピングすることを特徴とする認証システム。
The authentication system according to any one of claims 1 to 6,
The converting means applies each patch of the first three-dimensional model to the projection plane so that the area of each patch on the first three-dimensional model is the same as the area of each patch on the projection plane after projection. An authentication system characterized by mapping.
請求項1から請求項7のいずれかに記載の認証システムにおいて、
前記判定手段は、前記比較対象者の顔に関する前記第2テクスチャ情報から抽出された特徴量と、変換後の前記第1テクスチャ情報から抽出された特徴量とを比較することによって、比較対象者と認証対象者との同一性を判定することを特徴とする認証システム。
In the authentication system according to any one of claims 1 to 7,
The determination means compares the feature amount extracted from the second texture information related to the face of the comparison target person with the feature amount extracted from the converted first texture information, and An authentication system for determining identity with an authentication target person.
認証対象者に関する認証動作を行う認証方法であって、
認証対象者の顔に関するテクスチャ情報および3次元情報を取得する工程と、
前記認証対象者の顔に関する立体モデルである第1立体モデルを、前記3次元情報に基づいて生成する工程と、
前記第1立体モデルを用いて、前記認証対象者の顔に関するテクスチャ情報である第1テクスチャ情報を変換する工程と、
比較対象者の顔に関するテクスチャ情報である第2テクスチャ情報を取得する工程と、
互いに同じ視点による前記第1テクスチャ情報と前記第2テクスチャ情報とを比較することによって、比較対象者と認証対象者との同一性を判定する工程と、
を備えることを特徴とする認証方法。
An authentication method for performing an authentication operation on an authentication target person,
Obtaining texture information and three-dimensional information related to the face of the person to be authenticated;
Generating a first three-dimensional model that is a three-dimensional model related to the face of the person to be authenticated based on the three-dimensional information;
Converting the first texture information, which is texture information about the face of the person to be authenticated, using the first three-dimensional model;
Obtaining second texture information that is texture information related to the face of the person to be compared;
Determining the identity of the comparison target person and the authentication target person by comparing the first texture information and the second texture information from the same viewpoint;
An authentication method comprising:
コンピュータに、認証対象者に関する認証動作を行う認証方法を実行させるためのプログラムであって、前記コンピュータに、
認証対象者の顔に関するテクスチャ情報および3次元情報を取得する手順と、
前記認証対象者の顔に関する立体モデルである第1立体モデルを、前記3次元情報に基づいて生成する手順と、
前記第1立体モデルを用いて、前記認証対象者の顔に関するテクスチャ情報である第1テクスチャ情報を変換する手順と、
比較対象者の顔に関するテクスチャ情報である第2テクスチャ情報を取得する手順と、
互いに同じ視点による前記第1テクスチャ情報と前記第2テクスチャ情報とを比較することによって、比較対象者と認証対象者との同一性を判定する手順と、
を実行させるためのプログラム。
A program for causing a computer to execute an authentication method for performing an authentication operation related to an authentication target person.
A procedure for acquiring texture information and three-dimensional information related to the face of the person to be authenticated;
Generating a first three-dimensional model that is a three-dimensional model related to the face of the person to be authenticated based on the three-dimensional information;
A step of converting first texture information, which is texture information related to the face of the person to be authenticated, using the first three-dimensional model;
A procedure for obtaining second texture information that is texture information relating to the face of the person to be compared;
A procedure for determining the identity of the comparison target person and the authentication target person by comparing the first texture information and the second texture information from the same viewpoint;
A program for running
JP2005360293A 2005-12-14 2005-12-14 Authentication system, authentication method and program Expired - Fee Related JP4956983B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005360293A JP4956983B2 (en) 2005-12-14 2005-12-14 Authentication system, authentication method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005360293A JP4956983B2 (en) 2005-12-14 2005-12-14 Authentication system, authentication method and program

Publications (2)

Publication Number Publication Date
JP2007164498A true JP2007164498A (en) 2007-06-28
JP4956983B2 JP4956983B2 (en) 2012-06-20

Family

ID=38247313

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005360293A Expired - Fee Related JP4956983B2 (en) 2005-12-14 2005-12-14 Authentication system, authentication method and program

Country Status (1)

Country Link
JP (1) JP4956983B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037540A (en) * 2007-08-03 2009-02-19 Casio Comput Co Ltd Imaging device and program therefor
JP2009043065A (en) * 2007-08-09 2009-02-26 Panasonic Corp Face authentication device
JP2009053916A (en) * 2007-08-27 2009-03-12 Sony Corp Face image processing apparatus, face image processing method, and computer program
JP2015158752A (en) * 2014-02-21 2015-09-03 公立大学法人首都大学東京 Three-dimensional cad model similarity search method
JP2015162012A (en) * 2014-02-26 2015-09-07 沖電気工業株式会社 Face matching device, face matching method and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256483A (en) * 2000-03-10 2001-09-21 Minolta Co Ltd Device for recognizing object
JP2002157595A (en) * 2000-11-20 2002-05-31 Nec Corp Method and device for collating object and recording medium recording its program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001256483A (en) * 2000-03-10 2001-09-21 Minolta Co Ltd Device for recognizing object
JP2002157595A (en) * 2000-11-20 2002-05-31 Nec Corp Method and device for collating object and recording medium recording its program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009037540A (en) * 2007-08-03 2009-02-19 Casio Comput Co Ltd Imaging device and program therefor
JP2009043065A (en) * 2007-08-09 2009-02-26 Panasonic Corp Face authentication device
JP2009053916A (en) * 2007-08-27 2009-03-12 Sony Corp Face image processing apparatus, face image processing method, and computer program
US8331616B2 (en) 2007-08-27 2012-12-11 Sony Corporation Face image processing apparatus, face image processing method, and computer program
JP2015158752A (en) * 2014-02-21 2015-09-03 公立大学法人首都大学東京 Three-dimensional cad model similarity search method
JP2015162012A (en) * 2014-02-26 2015-09-07 沖電気工業株式会社 Face matching device, face matching method and program

Also Published As

Publication number Publication date
JP4956983B2 (en) 2012-06-20

Similar Documents

Publication Publication Date Title
JP4752433B2 (en) Modeling system, modeling method and program
JP4696778B2 (en) Authentication apparatus, authentication method, and program
JP4645411B2 (en) Authentication system, registration system and program
JP4780198B2 (en) Authentication system and authentication method
JP4539494B2 (en) Authentication apparatus, authentication method, and program
AU2019203928B2 (en) Face location detection
JP2007058397A (en) Authentication system, registration system, and medium for certificate
JP4653606B2 (en) Image recognition apparatus, method and program
KR101007276B1 (en) Three dimensional face recognition
JP4992289B2 (en) Authentication system, authentication method, and program
WO2006049147A1 (en) 3d shape estimation system and image generation system
JP4539519B2 (en) Stereo model generation apparatus and stereo model generation method
Hsu et al. RGB-D-based face reconstruction and recognition
JP4956983B2 (en) Authentication system, authentication method and program
JP2008123216A (en) Authentication system and method
JP4525523B2 (en) Authentication system, authentication method and program
JP4956967B2 (en) Authentication system, authentication method and program
Bronstein et al. 3D face recognition without facial surface reconstruction
CN111652020B (en) Face rotation angle identification method around Z axis
Trujillo Scene Representation and Matching for Visual Localization in Hybrid Camera Scenarios
Tsalakanidou et al. Exploitation of 3D images for face authentication under pose and illumination variations
Lee et al. Multi-instrument analysis from point and raster data
Samad et al. Recognition of 3D facial expression from posed data
Nair Robust signatures for 3D face registration and recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081029

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20091020

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120305

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees