JP2007058397A - Authentication system, registration system, and medium for certificate - Google Patents

Authentication system, registration system, and medium for certificate Download PDF

Info

Publication number
JP2007058397A
JP2007058397A JP2005240955A JP2005240955A JP2007058397A JP 2007058397 A JP2007058397 A JP 2007058397A JP 2005240955 A JP2005240955 A JP 2005240955A JP 2005240955 A JP2005240955 A JP 2005240955A JP 2007058397 A JP2007058397 A JP 2007058397A
Authority
JP
Japan
Prior art keywords
information
face
dimensional
authentication
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005240955A
Other languages
Japanese (ja)
Inventor
Yuichi Kawakami
雄一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2005240955A priority Critical patent/JP2007058397A/en
Publication of JP2007058397A publication Critical patent/JP2007058397A/en
Pending legal-status Critical Current

Links

Landscapes

  • Credit Cards Or The Like (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an authentication system of high precision using an ID card. <P>SOLUTION: A face authentication system 1 acquires a registered face characteristic amount EB2 having three-dimensional information and two-dimensional information of the face of a person recorded in the ID card 9, from ID information recorded in the ID card 9, and acquires an authentication face characteristic amount EC2 having three-dimensional information and two-dimensional information of the face of an authentication objective person HMb, based on two images (collation images EC1) acquired directly from the authentication objective person HMb, the authentication face characteristic amount EC2 is compared with the registered face characteristic amount EB2 to authenticate (collate) whether the authentication objective person HMb is the person same to the person recorded in the ID card 9 or not, and the high precise authentication is executed by this manner. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、証明用媒体を用いた顔の認証技術に関する。   The present invention relates to a face authentication technique using a certification medium.

近年、ネットワーク技術等の発展によって電子化された様々なサービスが普及し、人に頼らない非対面での本人認証技術の必要性が高まっている。これに伴い、人物の生体特徴によって自動的に個人の識別を行うバイオメトリクス認証技術(生体認証技術)の研究が盛んに行われている。バイオメトリクス認証技術の一つである顔認証技術は、非接触型の認証方法であり、監視カメラによるセキュリティ或いは顔をキーとした画像データベース検索等、様々な分野での応用が期待されている。   In recent years, various services digitized by the development of network technology and the like have become widespread, and the need for non-face-to-face personal authentication technology that does not rely on people is increasing. Along with this, research on biometrics authentication technology (biometric authentication technology) for automatically identifying an individual based on a person's biometric features has been actively conducted. Face authentication technology, which is one of biometric authentication technologies, is a non-contact authentication method, and is expected to be applied in various fields such as security by a surveillance camera or image database search using a face as a key.

一方、従来からクレジットカード、IDカード等の使用に際して、カードの所有者が正当な所有者であるか否かを正確に識別するニーズが存在し、このような識別に用いる識別情報として、カード所有者の顔画像と顔の代表的な部位における2次元の特徴情報とをIDカードに記録する技術が提案されている(特許文献1参照)。   On the other hand, when using a credit card, an ID card, etc., there is a need for accurately identifying whether the card owner is a legitimate owner, and the card possession is used as identification information for such identification. A technique for recording a person's face image and two-dimensional feature information of a representative part of the face on an ID card has been proposed (see Patent Document 1).

特開2003−317036号公報JP 2003-317036 A

しかしながら、上記識別情報は、基本的に顔の2次元情報に基づく情報であるため、当該識別情報を用いた認識精度は十分に高いものではないという問題がある。   However, since the identification information is basically information based on the two-dimensional information of the face, there is a problem that the recognition accuracy using the identification information is not sufficiently high.

そこで、本発明は上記課題に鑑みてなされたものであり、顔の2次元情報だけを用いる場合よりも、高い精度の認証を行うことが可能な技術を提供することを課題とする。   Therefore, the present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of performing authentication with higher accuracy than the case of using only two-dimensional face information.

上記の課題を解決するため、請求項1の発明は、本人証明用のID情報を記録した証明用媒体を用いた認証システムであって、前記証明用媒体から前記ID情報を読み取る手段と、前記ID情報に基づいて、前記証明用媒体に記録された人物の特徴を表す第1の特徴情報を取得する手段と、前記証明用媒体を所持する認証対象者の特徴を表す第2の特徴情報を取得する手段と、前記第1の特徴情報と前記第2の特徴情報とを用いて、前記証明用媒体に記録された人物と前記認証対象者とが同一人物であるか否かについての認証動作を行う認証手段とを備え、前記第1の特徴情報及び前記第2の特徴情報は、それぞれ、顔の3次元情報と顔の2次元情報とを含むように構成され、前記認証手段は、前記第1の特徴情報に含まれる3次元情報と前記第2の特徴情報に含まれる3次元情報とを照合するとともに、前記第1の特徴情報に含まれる2次元情報と前記第2の特徴情報に含まれる2次元情報とを照合することによって、前記認証動作を行うことを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is an authentication system using a proof medium in which ID information for personal identification is recorded, the means for reading the ID information from the proof medium, Based on the ID information, means for obtaining first characteristic information representing the characteristics of the person recorded on the certification medium, and second characteristic information representing the characteristics of the person to be authenticated who possesses the certification medium An authentication operation as to whether or not the person recorded on the certification medium and the person to be authenticated are the same person using the obtaining means, the first feature information, and the second feature information And the first feature information and the second feature information are configured to include face three-dimensional information and face two-dimensional information, respectively, and the authentication means 3D information contained in the first feature information and the previous By collating the three-dimensional information included in the second feature information, and collating the two-dimensional information included in the first feature information with the two-dimensional information included in the second feature information, An authentication operation is performed.

また、請求項2の発明は、請求項1の発明に係る認証システムにおいて、前記ID情報は、前記証明用媒体に登録されている所定人物の顔における複数の代表点の3次元座標情報と前記所定人物の顔を撮影した少なくとも1枚の画像とを含むことを特徴とする。   The invention of claim 2 is the authentication system according to claim 1, wherein the ID information includes three-dimensional coordinate information of a plurality of representative points in the face of a predetermined person registered in the certification medium, and the ID information. And at least one image obtained by photographing a face of a predetermined person.

また、請求項3の発明は、請求項2の発明に係る認証システムにおいて、前記少なくとも1枚の画像は、前記証明用媒体上に顔写真として付されていることを特徴とする。   According to a third aspect of the present invention, in the authentication system according to the second aspect of the present invention, the at least one image is attached as a face photograph on the certification medium.

また、請求項4の発明は、請求項2の発明に係る認証システムにおいて、前記少なくとも1枚の画像は、前記証明用媒体において画像データとして記録されていることを特徴とする。   According to a fourth aspect of the present invention, in the authentication system according to the second aspect of the invention, the at least one image is recorded as image data on the certification medium.

また、請求項5の発明は、請求項4の発明に係る認証システムにおいて、前記証明用媒体から読み出された画像データを可視化して表示する表示手段、をさらに備えることを特徴とする。   The invention according to claim 5 is the authentication system according to claim 4, further comprising display means for visualizing and displaying the image data read from the certification medium.

また、請求項6の発明は、請求項2から請求項5のいずれかの発明に係る認証システムにおいて、前記ID情報は、前記複数の代表点の前記画像上における位置を表す2次元座標を含むことを特徴とする。   The invention of claim 6 is the authentication system according to any one of claims 2 to 5, wherein the ID information includes two-dimensional coordinates representing positions of the plurality of representative points on the image. It is characterized by that.

また、請求項7の発明は、請求項2から請求項5のいずれかの発明に係る認証システムにおいて、前記ID情報は、前記少なくとも1枚の画像を撮影したときのカメラの位置姿勢を示すパラメータを含むことを特徴とする。   The invention of claim 7 is the authentication system according to any one of claims 2 to 5, wherein the ID information is a parameter indicating a position and orientation of a camera when the at least one image is taken. It is characterized by including.

また、請求項8の発明は、本人証明用の情報を記録する証明用媒体であって、所定人物の顔における複数の代表点の3次元座標情報と前記所定人物の顔を撮影した少なくとも1枚の画像とを含む情報を記録することを特徴とする。   The invention of claim 8 is a proof medium for recording personal proof information, and at least one piece of three-dimensional coordinate information of a plurality of representative points on the face of the predetermined person and the face of the predetermined person. The information including the image is recorded.

また、請求項9の発明は、顔認証用の情報を証明用媒体へ登録する登録システムであって、登録対象者の顔を異なる位置から撮影した複数の画像を取得する手段と、前記複数の画像に基づいて登録対象者の顔における複数の代表点の3次元座標情報を取得する手段と、前記複数の画像のうち少なくとも1枚の画像と前記3次元座標情報とを含む情報を前記証明用媒体に記録する手段とを備えることを特徴とする。   Further, the invention of claim 9 is a registration system for registering face authentication information in a certification medium, wherein a plurality of images obtained by photographing a face of a person to be registered from different positions; Means for acquiring three-dimensional coordinate information of a plurality of representative points on the face of the person to be registered based on an image; and information including at least one image of the plurality of images and the three-dimensional coordinate information Means for recording on a medium.

請求項1から請求項7に記載の発明によれば、証明用媒体に記録されているID情報から顔の3次元情報と2次元情報とを取得するとともに、当該証明用媒体を所有する認証対象者から顔の3次元情報と2次元情報とを取得し、これら3次元情報同士と2次元情報同士とを照合することによって認証対象者が証明用媒体に記録された人物と同一人物であるか否かを判断するので、精度の高い認証を行うことが可能となる。   According to the first to seventh aspects of the invention, the authentication object that acquires the face three-dimensional information and the two-dimensional information from the ID information recorded on the certification medium and possesses the certification medium Whether the person to be authenticated is the same person as the person recorded on the certification medium by acquiring the three-dimensional information and the two-dimensional information of the face from the person and collating the three-dimensional information with the two-dimensional information. Since it is determined whether or not, authentication with high accuracy can be performed.

また、請求項8に記載の発明によれば、所定人物の顔における複数の代表点の3次元座標情報と前記所定人物の顔を撮影した少なくとも1枚の画像とを含む情報が証明用媒体に記録されるため、当該情報を読み出して利用可能な認証システムにおいて、高精度の認証が可能となる。   According to the invention described in claim 8, information including three-dimensional coordinate information of a plurality of representative points on the face of the predetermined person and at least one image obtained by photographing the face of the predetermined person is stored in the certification medium. Since the information is recorded, high-accuracy authentication can be performed in an authentication system that can read and use the information.

また、請求項9に記載の発明によれば、登録対象者の顔を異なる位置から撮影した複数の画像を取得し、当該複数の画像から登録対象者の顔における複数の代表点の3次元座標情報を取得するとともに、当該複数の画像のうち少なくとも1枚の画像と3次元座標情報とを含む情報を証明用媒体に記録するので、当該証明用媒体を用いた認証システムにおいて、高精度の認証が可能となる。   According to the invention of claim 9, a plurality of images obtained by photographing the face of the registration target person from different positions are acquired, and the three-dimensional coordinates of the plurality of representative points on the face of the registration target person are acquired from the plurality of images. Since information is acquired and information including at least one image and three-dimensional coordinate information among the plurality of images is recorded on the certification medium, high-accuracy authentication is performed in the certification system using the certification medium. Is possible.

また特に、請求項3に記載の発明によれば、証明用媒体上に顔写真が付されているため、目視による照合が可能となる。   In particular, according to the third aspect of the present invention, since the face photograph is attached on the certification medium, it is possible to collate visually.

また特に、請求項5に記載の発明によれば、証明用媒体から読み出された画像データを可視化して表示することが可能であるため、目視による照合が可能となる。   In particular, according to the invention described in claim 5, since it is possible to visualize and display the image data read from the certification medium, it is possible to collate visually.

また特に、請求項6に記載の発明によれば、所定人物の顔を撮影した少なくとも1枚の画像上における当該顔の複数の代表点の2次元座標がID情報に含まれるので、複数の代表点の画像上における位置を表す2次元座標を算出する処理を行わずに済むため、認証動作を高速化できる。   In particular, according to the invention described in claim 6, since the ID information includes two-dimensional coordinates of a plurality of representative points of the face on at least one image obtained by photographing the face of the predetermined person, a plurality of representatives Since it is not necessary to perform processing for calculating the two-dimensional coordinates representing the position of the point on the image, the authentication operation can be speeded up.

また特に、請求項7に記載の発明によれば、少なくとも1枚の画像を撮影したときのカメラの位置姿勢を示すパラメータがID情報に含まれるので、複数の代表点の画像上における位置を表す2次元座標を容易に算出することが可能となり、認証動作を高速化できる。   In particular, according to the seventh aspect of the invention, since the ID information includes a parameter indicating the position and orientation of the camera when at least one image is captured, the position of the plurality of representative points on the image is represented. Two-dimensional coordinates can be easily calculated, and the authentication operation can be speeded up.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<実施形態>
<動作概要>
図1は、本発明の実施形態に係る顔認証システム1の全体動作を示す図である。
<Embodiment>
<Overview of operation>
FIG. 1 is a diagram showing an overall operation of the face authentication system 1 according to the embodiment of the present invention.

図1に示されるように、顔認証システム1は、2つのサブシステムである顔登録システムSYS1と顔照合システムSYS2とを備えている。   As shown in FIG. 1, the face authentication system 1 includes two subsystems, a face registration system SYS1 and a face matching system SYS2.

顔登録システムSYS1においては、登録対象者HMaから取得した2枚以上の入力画像EB1に基づいて3次元情報等の所定形式の情報(以下、「ID情報」とも称する)が生成される。そして、当該ID情報がIDカード9等の証明用情報記録媒体(以下、単に「証明用媒体」とも称する)に記録される。   In the face registration system SYS1, information in a predetermined format such as three-dimensional information (hereinafter also referred to as “ID information”) is generated based on two or more input images EB1 acquired from the person to be registered HMa. Then, the ID information is recorded on a certification information recording medium such as an ID card 9 (hereinafter also simply referred to as “certification medium”).

顔照合システムSYS2においては、証明用媒体(IDカード9)に記録されたID情報から得られる3次元情報及び2次元情報に基づいて登録顔特徴量EB2が取得(生成)されるとともに、認証対象者HMbから直接取得した2枚以上の照合画像EC1から得られる3次元情報と2次元情報とに基づいて認証顔特徴量EC2が取得(生成)される。そして、証明用媒体に記録された人物の特徴を表す登録顔特徴量EB2の3次元情報と証明用媒体を所持する認証対象者の特徴を表す認証顔特徴量EC2の3次元情報とを照合するとともに、当該登録顔特徴量EB2の2次元情報と当該認証顔特徴量EC2の2次元情報とを照合する。これによって、認証対象者が証明用媒体に記録された人物と同一人物であるか否かを判断する認証判定が行われる。   In the face matching system SYS2, the registered face feature quantity EB2 is acquired (generated) based on the three-dimensional information and the two-dimensional information obtained from the ID information recorded on the certification medium (ID card 9), and the authentication target The authentication face feature amount EC2 is acquired (generated) based on the three-dimensional information and the two-dimensional information obtained from two or more collation images EC1 directly acquired from the person HMb. Then, the three-dimensional information of the registered face feature quantity EB2 representing the characteristics of the person recorded on the certification medium is compared with the three-dimensional information of the authentication face feature quantity EC2 representing the characteristics of the person to be authenticated who possesses the certification medium. At the same time, the two-dimensional information of the registered face feature quantity EB2 and the two-dimensional information of the authentication face feature quantity EC2 are collated. As a result, authentication determination is performed to determine whether or not the authentication target person is the same person as the person recorded on the certification medium.

このように、顔認証システム1においては、登録対象者HMaから取得した所定形式のID情報を用いて証明用媒体(IDカード9)を作成し(顔登録システムSYS1)、当該IDカードを用いて、IDカード所有者(認証対象者HMb)の認証動作が実行される(顔照合システムSYS2)。   As described above, the face authentication system 1 creates a certification medium (ID card 9) using ID information in a predetermined format acquired from the person to be registered HMa (face registration system SYS1), and uses the ID card. Then, the authentication operation of the ID card owner (authentication target person HMb) is executed (face matching system SYS2).

以下では、顔登録システムSYS1と顔照合システムSYS2とについて、この順序で詳述する。また、本実施形態形態に係る顔認証システム1においては、証明用媒体として、IDカード9を用いている。   Hereinafter, the face registration system SYS1 and the face collation system SYS2 will be described in detail in this order. In the face authentication system 1 according to the present embodiment, the ID card 9 is used as a proof medium.

<顔登録システムSYS1の概要>
図2は、顔登録システムSYS1を示す構成図である。図2に示すように顔登録システムSYS1は、コントローラ10aと2台の画像撮影カメラ(以下、単に「カメラ」とも称する)CA1及びCA2とIDカードライタ9aとで構成されている。
<Outline of face registration system SYS1>
FIG. 2 is a configuration diagram showing the face registration system SYS1. As shown in FIG. 2, the face registration system SYS1 includes a controller 10a, two image photographing cameras (hereinafter also simply referred to as “cameras”) CA1 and CA2, and an ID card writer 9a.

カメラCA1とカメラCA2とは、それぞれ異なる位置から所定人物である登録対象者HMaの顔を撮影できるように配置されている。カメラCA1とカメラCA2とによって登録対象者HMaの顔画像が撮影されると、当該撮影により得られる登録対象者HMaの外観情報すなわち2種類の顔画像がコントローラ10aに通信線を介して送信される。そして、コントローラ10aの所定の処理によって、IDカード9に記録する所定形式の情報(ID情報)が生成され、当該ID情報が、IDカードライタ9aによって、IDカード9に記録(登録)される。なお、各カメラ又はIDカードライタ9aとコントローラ10aとの間のデータ通信方式は有線方式に限定されず、無線方式であってもよい。   The camera CA1 and the camera CA2 are arranged so that the face of the registration target person HMa, which is a predetermined person, can be photographed from different positions. When a face image of the registration target person HMa is captured by the camera CA1 and the camera CA2, appearance information of the registration target person HMa obtained by the capturing, that is, two types of face images are transmitted to the controller 10a via a communication line. . Then, a predetermined format of information (ID information) to be recorded on the ID card 9 is generated by a predetermined process of the controller 10a, and the ID information is recorded (registered) on the ID card 9 by the ID card writer 9a. The data communication method between each camera or ID card writer 9a and the controller 10a is not limited to a wired method, and may be a wireless method.

図3は、コントローラ10aの構成概要を示す図である。図3に示されるように、コントローラ10aは、CPU2と、記憶部3と、メディアドライブ4と、液晶ディスプレイなどの表示部5と、キーボード6a及びポインティングデバイスであるマウス6bなどの入力部6と、ネットワークカードなどの通信部7とを備えたパーソナルコンピュータなどの一般的なコンピュータで構成される。記憶部3は、複数の記憶媒体、具体的には、ハードディスクドライブ(HDD)3aと、HDD3aよりも高速処理可能なRAM(半導体メモリ)3bとを有している。また、メディアドライブ4は、CD−ROM、DVD(Digital Versatile Disk)、フレキシブルディスク、メモリカードなどの可搬性の記録媒体8からその中に記録されている情報を読み出すことができる。なお、このコントローラ10aに対して供給される情報は、記録媒体8を介して供給される場合に限定されず、LAN及びインターネットなどのネットワークを介して供給されてもよい。   FIG. 3 is a diagram showing a configuration outline of the controller 10a. As shown in FIG. 3, the controller 10a includes a CPU 2, a storage unit 3, a media drive 4, a display unit 5 such as a liquid crystal display, an input unit 6 such as a keyboard 6a and a mouse 6b that is a pointing device, It is composed of a general computer such as a personal computer provided with a communication unit 7 such as a network card. The storage unit 3 includes a plurality of storage media, specifically, a hard disk drive (HDD) 3a and a RAM (semiconductor memory) 3b capable of processing at higher speed than the HDD 3a. The media drive 4 can read information recorded in a portable recording medium 8 such as a CD-ROM, a DVD (Digital Versatile Disk), a flexible disk, or a memory card. The information supplied to the controller 10a is not limited to being supplied via the recording medium 8, and may be supplied via a network such as a LAN and the Internet.

次に、コントローラ10aが備える各種機能について説明する。   Next, various functions provided in the controller 10a will be described.

図4は、コントローラ10aが備える各種機能を示すブロック図である。   FIG. 4 is a block diagram illustrating various functions provided in the controller 10a.

コントローラ10aの備える各種機能は、コントローラ10a内のCPU等の各種ハードウェアを用いて所定のソフトウェアプログラム(以下、単に「プログラム」とも称する)を実行することによって、実現される機能を概念的に示すものである。   The various functions provided in the controller 10a conceptually indicate functions realized by executing a predetermined software program (hereinafter also simply referred to as “program”) using various hardware such as a CPU in the controller 10a. Is.

図4に示されるように、コントローラ10aは、画像入力部11と顔領域検索部12と顔部位検出部13と3次元再構成部14と出力部15とを備えている。   As shown in FIG. 4, the controller 10 a includes an image input unit 11, a face area search unit 12, a face part detection unit 13, a three-dimensional reconstruction unit 14, and an output unit 15.

画像入力部11は、カメラCA1及びCA2によって撮影された2枚の画像をコントローラ10aに入力する機能を有している。   The image input unit 11 has a function of inputting two images taken by the cameras CA1 and CA2 to the controller 10a.

顔領域検索部12は、入力された顔画像から顔領域を特定する機能を有している。   The face area search unit 12 has a function of specifying a face area from the input face image.

顔部位検出部13は、特定した顔領域から顔の特徴的な部位(例えば、目、眉、鼻、口等)の位置を検出する機能を有している。   The face part detection unit 13 has a function of detecting the position of a characteristic part (for example, eyes, eyebrows, nose, mouth) of the face from the specified face region.

3次元再構成部14は、入力画像から得られる顔の特徴的な部位の座標から各部位の3次元における座標を算出する機能を有している。この3次元座標算出機能は、カメラパラメータ記憶部101等に格納されているカメラ情報を用いて実現される。   The three-dimensional reconstruction unit 14 has a function of calculating the three-dimensional coordinates of each part from the coordinates of the characteristic part of the face obtained from the input image. This three-dimensional coordinate calculation function is realized using camera information stored in the camera parameter storage unit 101 or the like.

出力部15は、3次元再構成部14で得られた3次元座標値等で構成される立体的構成に関連する情報(以下、「3次元情報」とも称する)及び画像入力部11に入力された画像等をID情報として出力する機能を有している。   The output unit 15 is input to the image input unit 11 and information related to a three-dimensional configuration (hereinafter also referred to as “three-dimensional information”) composed of the three-dimensional coordinate values obtained by the three-dimensional reconstruction unit 14. It has a function of outputting the image etc. as ID information.

次に、IDカード9について説明する。   Next, the ID card 9 will be described.

図5(a)は、IDカード9の構成を示す外観図であり、図5(b)は、IDカード9の機能構成を示すブロック図である。   FIG. 5A is an external view showing the configuration of the ID card 9, and FIG. 5B is a block diagram showing the functional configuration of the ID card 9.

図5に示されるように、IDカード9は、その表面に顔写真52と電極端子53等のデータ入出力部55とを備えている。   As shown in FIG. 5, the ID card 9 includes a face photograph 52 and a data input / output unit 55 such as an electrode terminal 53 on the surface thereof.

ここにおいて、IDカード9上に顔写真52が付されるので、第三者(入室管理者等)の目視による照合が可能になる。詳細には、IDカード9を所持する認証対象者が当該IDカード9の真の所有者か否かを、顔認証用のコントローラ10b(後述)を用いることなく、容易に判断することが可能になる。あるいは、目視による照合動作をコントローラ10bを用いた照合とともに加重的に行うことなども可能になる。   Here, since the face photograph 52 is attached on the ID card 9, it is possible to collate with a third party (such as an entrance manager) by visual inspection. Specifically, it is possible to easily determine whether or not the person to be authenticated who owns the ID card 9 is the true owner of the ID card 9 without using the face authentication controller 10b (described later). Become. Alternatively, it is possible to perform a visual collating operation in a weighted manner together with collation using the controller 10b.

さらに、IDカード9は、その内部にICチップ等の記録部54を有している。これにより、IDカード9は、IDカードライタ9a等を介してデータ入出力部55からID情報等を記録部54に記録(保持)し、データ入出力部55からIDカードリーダ等を介すことによって当該ID情報を出力することができる。   Further, the ID card 9 has a recording unit 54 such as an IC chip inside. Thereby, the ID card 9 records (holds) ID information or the like from the data input / output unit 55 to the recording unit 54 via the ID card writer 9a and the like, and passes the ID card reader or the like from the data input / output unit 55. Can output the ID information.

以下では、上述した顔登録システムSYS1によって実現される動作について説明する。   Below, the operation | movement implement | achieved by the face registration system SYS1 mentioned above is demonstrated.

<顔登録システムSYS1の動作>
図1に示されるように、顔登録システムSYS1におけるコントローラ10aは、カメラCA1及びCA2から入力された2枚の画像(入力画像EB1)からID情報を生成することができる。ID情報としては、後述するように、入力画像EB1から算出される顔の各特徴点の3次元座標を含む3次元情報EA1と2枚の入力画像EB1のうち少なくとも1枚の画像(例えば1枚の登録画像EB1a)とを用いればよい。また、さらにカメラパラメータ等の補足情報EPをも加えた情報をID情報として用いるようにしてもよい。
<Operation of Face Registration System SYS1>
As shown in FIG. 1, the controller 10a in the face registration system SYS1 can generate ID information from two images (input images EB1) input from the cameras CA1 and CA2. As the ID information, as will be described later, at least one image (for example, one image) of the three-dimensional information EA1 including the three-dimensional coordinates of each feature point of the face calculated from the input image EB1 and the two input images EB1. The registered image EB1a) may be used. Further, information including supplementary information EP such as camera parameters may be used as ID information.

以下では、コントローラ10aが備えるID情報生成動作について説明する。   Below, ID information generation operation | movement with which the controller 10a is provided is demonstrated.

具体的には、カメラCA1及びCA2で撮影した所定人物を登録対象者HMaとして、実際に登録動作を行う場合について説明する。ここでは、3次元情報として、カメラCA1,CA2による画像を利用して三角測量の原理によって計測された3次元形状情報を用い、2次元情報としてテクスチャ(輝度)情報を用いる場合を例示する。   Specifically, a case where a registration operation is actually performed with a predetermined person photographed by the cameras CA1 and CA2 as a registration target person HMa will be described. Here, as an example, three-dimensional information using three-dimensional shape information measured according to the principle of triangulation using images from the cameras CA1 and CA2 is used, and texture (luminance) information is used as two-dimensional information.

図6は、顔登録システムSYS1におけるコントローラ10aの動作を示すフローチャートである。図7は、顔画像における特徴的な部位の特徴点(代表点)を示す図である。図8は、2次元画像中の特徴点から三角測量の原理を用いて3次元座標を算出する様子を示す模式図である。なお、図8中の符号G1は、カメラCA1により撮影されコントローラ10aに入力された画像G1を示し、符号G2は、カメラCA2により撮影されコントローラ10aに入力された画像G2を示している。また、画像G1、G2中の点Q20は、図7における口の右端に相当する。   FIG. 6 is a flowchart showing the operation of the controller 10a in the face registration system SYS1. FIG. 7 is a diagram showing characteristic points (representative points) of characteristic parts in the face image. FIG. 8 is a schematic diagram showing how three-dimensional coordinates are calculated from feature points in a two-dimensional image using the principle of triangulation. 8 indicates the image G1 captured by the camera CA1 and input to the controller 10a, and the reference G2 indicates the image G2 captured by the camera CA2 and input to the controller 10a. A point Q20 in the images G1 and G2 corresponds to the right end of the mouth in FIG.

図6に示されるように、コントローラ10aは、ステップSP1からステップSP4までの工程において、登録対象者HMaの顔を撮影した画像に基づいて、登録対象者HMaに関するID情報を生成し、さらにステップSP5においてID情報を出力することで、IDカード9への顔登録を実現する。   As illustrated in FIG. 6, in the process from step SP1 to step SP4, the controller 10a generates ID information related to the registration target person HMa based on an image obtained by photographing the face of the registration target person HMa, and further includes step SP5. By outputting the ID information at, face registration to the ID card 9 is realized.

まず、ステップSP1において、カメラCA1及びCA2によって撮影された所定の人物(登録対象者HMa)の顔画像(画像G1及び画像G2)が、通信線を介しコントローラ10aに入力される。顔画像を撮影するカメラCA1及びカメラCA2は、それぞれ、2次元画像を撮影可能な一般的な撮影装置で構成される。また、当該各カメラCAiの位置姿勢等を示すカメラパラメータBi(i=1・・N)は既知であり、予めカメラパラメータ記憶部101(図3)に記憶されている。ここで、Nはカメラの台数を示している。本実施形態ではN=2の場合を例示しているが、N≧3としてもよい(3台以上のカメラを用いてもよい)。また、カメラパラメータBiについては後述する。   First, in step SP1, face images (image G1 and image G2) of a predetermined person (registration target person HMa) photographed by the cameras CA1 and CA2 are input to the controller 10a via a communication line. The cameras CA1 and CA2 that capture a face image are each configured by a general imaging device that can capture a two-dimensional image. Further, camera parameters Bi (i = 1 ·· N) indicating the positions and orientations of the respective cameras CAi are known and stored in advance in the camera parameter storage unit 101 (FIG. 3). Here, N indicates the number of cameras. In the present embodiment, the case of N = 2 is illustrated, but N ≧ 3 may be used (three or more cameras may be used). The camera parameter Bi will be described later.

次に、ステップSP2において、カメラCA1及びCA2より入力された2枚の画像(画像G1及び画像G2)それぞれにおいて、顔の存在する領域が検出される。顔領域検出手法としては、例えば、予め用意された標準の顔画像を用いたテンプレートマッチングにより、2枚の画像それぞれから顔領域を検出する手法を採用することができる。   Next, in step SP2, the area where the face exists is detected in each of the two images (image G1 and image G2) input from the cameras CA1 and CA2. As a face area detection technique, for example, a technique of detecting a face area from each of two images by template matching using a standard face image prepared in advance can be employed.

次に、ステップSP3において、ステップSP2で検出された顔領域画像の中から、顔の特徴的な部位の位置が検出される。例えば、顔の特徴的な部位としては、目、眉、鼻又は口等が考えられ、ステップSP3においては、図7に示されるような上記各部位の特徴点(代表点)Q1〜Q23の座標が算出される。特徴部位は、例えば、特徴部位の標準的なテンプレートを用いて行うテンプレートマッチングにより検出することができる。また、算出される特徴点(代表点)の座標は、カメラより入力された画像G1、G2上の座標として表される。例えば、図7における口の右端に相当する特徴点Q20に関して、図8中に示すように、2枚の画像G1,G2のそれぞれにおける座標値が求められる。具体的には、画像G1の左上の端点を原点Oとして、特徴点Q20の画像G1上の座標(x1,y1)が算出される。画像G2においても同様に特徴点Q20の画像G2上の座標(x2,y2)が算出される。   Next, in step SP3, the position of the characteristic part of the face is detected from the face area image detected in step SP2. For example, eyes, eyebrows, nose or mouth may be considered as characteristic parts of the face. In step SP3, the coordinates of the characteristic points (representative points) Q1 to Q23 of the above parts as shown in FIG. Is calculated. The feature part can be detected by, for example, template matching performed using a standard template of the feature part. Further, the coordinates of the calculated feature points (representative points) are represented as coordinates on the images G1 and G2 input from the camera. For example, with respect to the feature point Q20 corresponding to the right end of the mouth in FIG. 7, as shown in FIG. 8, the coordinate values in each of the two images G1 and G2 are obtained. Specifically, the coordinates (x1, y1) of the feature point Q20 on the image G1 are calculated using the upper left end point of the image G1 as the origin O. Similarly, in the image G2, the coordinates (x2, y2) of the feature point Q20 on the image G2 are calculated.

次のステップSP4(3次元再構成工程)では、ステップSP3において検出された各特徴点(代表点)Qjの各画像Gi(i=1,...,N)における2次元座標Ui(j)と、各画像Giを撮影したカメラのカメラパラメータBiとに基づいて、各特徴点Qjの3次元座標M(j)(j=1・・・m)が算出される。なお、mは特徴点の数を示している。 In the next step SP4 (three-dimensional reconstruction process), two-dimensional coordinates Ui (j) in each image Gi (i = 1,..., N) of each feature point (representative point) Qj detected in step SP3. Based on the camera parameters Bi of the camera that captured each image Gi, the three-dimensional coordinates M (j) (j = 1... M ) of each feature point Qj are calculated. Note that m indicates the number of feature points.

以下、3次元座標M(j)の算出について具体的に説明する。 Hereinafter, the calculation of the three-dimensional coordinate M (j) will be specifically described.

各特徴点Qjの3次元座標M(j)と各特徴点Qjの2次元座標Ui(j)とカメラパラメータBiとの関係は式(1)のように表される。 The relationship between the three-dimensional coordinates M (j) of each feature point Qj, the two-dimensional coordinates Ui (j) of each feature point Qj, and the camera parameter Bi is expressed as in Expression (1).

なお、μiは、スケールの変動分を示す媒介変数である。また、カメラパラメータ行列Biは、予め3次元座標が既知の物体を撮影することにより求められる各カメラ固有の値であり、3×4の射影行列で表される。   Note that μi is a parameter that indicates a change in the scale. The camera parameter matrix Bi is a value unique to each camera obtained by photographing an object with known three-dimensional coordinates in advance, and is represented by a 3 × 4 projection matrix.

例えば、上記式(1)を用いて3次元座標を算出する具体的な例として、特徴点Q20の3次元座標M(20)を算出する場合を図8を用いて考える。式(2)は画像G1上の特徴点Q20の座標(x1,y1)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。同様に、式(3)は、画像G2上の特徴点Q20の座標(x2,y2)と特徴点Q20を3次元空間で表したときの3次元座標(x,y,z)との関係を示している。 For example, as a specific example of calculating the three-dimensional coordinates using the above formula (1), consider the case of calculating the three-dimensional coordinates M (20) of the feature point Q20 with reference to FIG. Expression (2) shows the relationship between the coordinates (x1, y1) of the feature point Q20 on the image G1 and the three-dimensional coordinates (x, y, z) when the feature point Q20 is represented in a three-dimensional space. Similarly, Expression (3) represents the relationship between the coordinates (x2, y2) of the feature point Q20 on the image G2 and the three-dimensional coordinates (x, y, z) when the feature point Q20 is represented in a three-dimensional space. Show.

上記式(2)及び式(3)中の未知数は、2つの媒介変数μ1、μ2と3次元座標M(20)の3つの成分値x,y,zとの合計5つである。一方、式(2)及び式(3)に含まれる等式の数は6であるため、各未知数つまり特徴点Q20の3次元座標(x,y,z)を算出することができる。また、同様にして、全ての特徴点Qjについての3次元座標M(j)を取得することができる。 The unknowns in the above formulas (2) and (3) are a total of five of the two parameters μ1, μ2 and the three component values x, y, z of the three-dimensional coordinate M (20) . On the other hand, since the number of equations included in the equations (2) and (3) is 6, each unknown, that is, the three-dimensional coordinates (x, y, z) of the feature point Q20 can be calculated. Similarly, three-dimensional coordinates M (j) for all feature points Qj can be acquired.

そして、ステップSP5では、ID情報が出力される。前述のとおり本実施形態ではID情報として、ステップSP4で算出された登録対象者の顔の各特徴点Qjの3次元座標M(j)を含む3次元情報と、カメラより入力された2枚の入力画像EB1のうち少なくとも1枚の画像(例えば画像G1)とを用いるため、出力工程(ステップSP5)において当該3次元情報と少なくとも1枚の画像(登録画像EB1a)の画像データとが所定形式のID情報として出力される。 In step SP5, ID information is output. As described above, in this embodiment, as the ID information, three-dimensional information including the three-dimensional coordinates M (j) of each feature point Qj of the face of the person to be registered calculated in step SP4, and two pieces of information input from the camera are used. Since at least one image (for example, image G1) is used among the input images EB1, the three-dimensional information and the image data of at least one image (registered image EB1a) are in a predetermined format in the output step (step SP5). Output as ID information.

また、上記2種類の情報に加えて以下の補足情報EPを含む情報をID情報として出力するようにしてもよい。補足情報としては、登録画像EB1aを撮影したカメラのカメラパラメータBa、及び/又は、登録画像EB1aにおける顔の各特徴点Qjの2次元座標U(j)(上記ステップSP3で算出)等が挙げられる。 In addition to the above two types of information, information including the following supplementary information EP may be output as ID information. Examples of supplementary information include the camera parameter Ba of the camera that captured the registered image EB1a, and / or the two-dimensional coordinates U (j) of each facial feature point Qj in the registered image EB1a (calculated in step SP3). .

このように出力されたID情報は、IDカードライタ9a等によってIDカード9に記録される。また、顔写真52はIDカード9上に印刷出力される。なお、IDカード9の表面に付される顔写真52は、登録画像EB1aと同一の画像であることが好ましい。   The ID information output in this way is recorded on the ID card 9 by the ID card writer 9a or the like. The face photograph 52 is printed out on the ID card 9. The face photograph 52 attached to the surface of the ID card 9 is preferably the same image as the registered image EB1a.

また、顔写真52は、上述のようにIDカード9上に直接印刷されることによってIDカード9上に付されていてもよく、あるいは別紙への印刷物がIDカード9に貼付されることによってIDカード9上に付されたものとして構成されてもよい。また、本実施形態においては、後述するようにIDカード9内に記憶された画像データがコントローラ10bによる照合に用いられ、顔写真52自体はコントローラ10bによる照合には用いられないので、IDカード9に付されている顔写真52は、必ずしも精緻であることを要さず、視覚による識別が可能な程度の解像度を有していればよい。   Further, the face photograph 52 may be attached on the ID card 9 by being directly printed on the ID card 9 as described above, or the ID may be obtained by attaching a printed matter on a separate sheet to the ID card 9. You may comprise as what was attached | subjected on the card | curd 9. FIG. In this embodiment, as will be described later, the image data stored in the ID card 9 is used for collation by the controller 10b, and the face photograph 52 itself is not used for collation by the controller 10b. The face photograph 52 attached to is not necessarily required to be elaborate and may have a resolution that can be visually identified.

以上のように、顔登録システムSYS1は、次述の顔照合システムSYS2に用いられる登録対象者HMaの顔情報を所定形式のID情報としてIDカード9に記録することができる。   As described above, the face registration system SYS1 can record the face information of the person to be registered HMa used in the face collation system SYS2 described below on the ID card 9 as ID information in a predetermined format.

<顔照合システムSYS2の概要>
次に、顔照合システムSYS2について説明する。顔照合システムSYS2では、上述の通り、上記顔登録システムSYS1で作成されたIDカードを用いて認証(照合)動作が行われる。なお、以下の説明においては、顔登録システムSYS1との相違点を中心に説明し、共通する部分については、同じ符号を付して説明を省略する。
<Outline of face matching system SYS2>
Next, the face matching system SYS2 will be described. In the face collation system SYS2, as described above, an authentication (collation) operation is performed using the ID card created by the face registration system SYS1. In the following description, differences from the face registration system SYS1 will be mainly described, and common portions will be denoted by the same reference numerals and description thereof will be omitted.

図9は、顔照合システムSYS2を示す構成図である。   FIG. 9 is a configuration diagram showing the face matching system SYS2.

図9に示される顔照合システムSYS2の構成において、顔登録システムSYS1と異なる点は、外部機器としてIDカードリーダ9bがコントローラ10bに接続されている点である。   In the configuration of the face matching system SYS2 shown in FIG. 9, the difference from the face registration system SYS1 is that an ID card reader 9b is connected to the controller 10b as an external device.

IDカードリーダ9bは、認証対象者HMbが所持するIDカード9のID情報を読み取り、コントローラ10bに送信する。そして、コントローラ10bにおいては、カメラCA1及びCA2で撮影される2種類の顔画像と当該ID情報とを用いて、IDカード所有者(認証対象者HMb)の顔認証(照合)が行われる。   The ID card reader 9b reads the ID information of the ID card 9 possessed by the person to be authenticated HMb and transmits it to the controller 10b. Then, in the controller 10b, face authentication (verification) of the ID card owner (authentication target person HMb) is performed using the two types of face images photographed by the cameras CA1 and CA2 and the ID information.

次に、コントローラ10bが備える各種機能について説明する。   Next, various functions provided in the controller 10b will be described.

図10は、コントローラ10bが備える各種機能を示す図である。図11は、個人認証部21の詳細な機能構成を示すブロック図である。   FIG. 10 is a diagram illustrating various functions provided in the controller 10b. FIG. 11 is a block diagram showing a detailed functional configuration of the personal authentication unit 21.

コントローラ10bは、図3に示されるコントローラ10aと同様のハードウェア構成を有している。コントローラ10bの各種機能は、コントローラ10b内のCPU等の各種ハードウェアを用いて所定のソフトウェアプログラム(以下、単に「プログラム」とも称する)を実行することによって、実現される機能を概念的に示すものである。   The controller 10b has the same hardware configuration as the controller 10a shown in FIG. The various functions of the controller 10b conceptually indicate functions realized by executing a predetermined software program (hereinafter also simply referred to as “program”) using various hardware such as a CPU in the controller 10b. It is.

図10に示されるように、コントローラ10bは、コントローラ10aが備える各種機能(画像入力部11、顔領域検索部12、顔部位検出部13)に加えて個人認証部21と認証結果出力部22とを備えている。また、上記各機能を備えるコントローラ10bには、2台のカメラ(CA1,CA2)から取得される認証対象者HMbの2枚の画像と、IDカード9に記録されている登録者のID情報とが入力され、それぞれの入力情報に対して上記各機能部を用いた処理が行われる。   As shown in FIG. 10, the controller 10 b includes a personal authentication unit 21 and an authentication result output unit 22 in addition to various functions (image input unit 11, face area search unit 12, face part detection unit 13) provided in the controller 10 a. It has. In addition, the controller 10b having the above functions includes two images of the person to be authenticated HMb acquired from the two cameras (CA1, CA2), and ID information of the registrant recorded on the ID card 9. Is input, and the processing using each functional unit is performed on each input information.

個人認証部21は、顔の認証を主たる目的として構成され、各個人を顔画像を用いて認証する機能を有している。この個人認証部21の詳細については、次述する。   The personal authentication unit 21 is configured mainly for face authentication, and has a function of authenticating each individual using a face image. Details of the personal authentication unit 21 will be described below.

認証結果出力部22は、個人認証部21で得られた認証結果を出力する機能を有している。   The authentication result output unit 22 has a function of outputting the authentication result obtained by the personal authentication unit 21.

次に、個人認証部21の詳細構成について図11を用いて説明する。   Next, a detailed configuration of the personal authentication unit 21 will be described with reference to FIG.

図11に示すように、個人認証部21は、上述の3次元再構成部14と最適化部31と補正部32と特徴抽出部33と情報圧縮部34と比較部35とを有している。   As shown in FIG. 11, the personal authentication unit 21 includes the above-described three-dimensional reconstruction unit 14, optimization unit 31, correction unit 32, feature extraction unit 33, information compression unit 34, and comparison unit 35. .

3次元再構成部14は、コントローラ10aにおける3次元再構成部14と同様の機能を有し、入力画像から得られる顔の特徴的な部位の座標から各部位の3次元における座標を算出する機能を有している。   The three-dimensional reconstruction unit 14 has the same function as the three-dimensional reconstruction unit 14 in the controller 10a, and calculates the three-dimensional coordinates of each part from the coordinates of the characteristic part of the face obtained from the input image. have.

最適化部31は、顔の特徴的な部位の3次元座標を用いて3次元モデルデータベース102に格納されている顔の標準的な立体モデル(「標準立体モデル」あるいは「標準モデル」とも称する)から、個別モデルを生成する機能を有している。   The optimization unit 31 uses a three-dimensional coordinate of a characteristic part of the face to store a standard three-dimensional model of the face (also referred to as “standard three-dimensional model” or “standard model”) stored in the three-dimensional model database 102. From this, it has a function of generating an individual model.

補正部32は、生成された個別モデルを補正する機能を有している。   The correction unit 32 has a function of correcting the generated individual model.

これらの各処理部14,31,32によって、入力された各情報は、正規化され、相互比較しやすい状態に変換される。また、各処理部の機能によって作成された個別モデルは、3次元情報と2次元情報との双方を含むものとして形成される。「3次元情報」は、3次元座標値等で構成される立体的構成に関連する情報であり、「2次元情報」は、表面情報(テクスチャ情報)及び/又は平面的な位置情報等で構成される平面的構成に関連する情報である。   Each of the input information is normalized by each of the processing units 14, 31, and 32 and converted into a state that can be easily compared with each other. Further, the individual model created by the function of each processing unit is formed as including both three-dimensional information and two-dimensional information. “3D information” is information related to a three-dimensional structure composed of 3D coordinate values, etc., and “2D information” is composed of surface information (texture information) and / or planar position information, etc. This is information related to the planar configuration.

特徴抽出部33は、上記各処理部14,31,32において作成された個別モデルから3次元情報と2次元情報とを抽出する特徴抽出機能を有している。   The feature extraction unit 33 has a feature extraction function for extracting three-dimensional information and two-dimensional information from the individual models created by the processing units 14, 31, 32.

情報圧縮部34は、特徴抽出部33で抽出された3次元情報と2次元情報とをそれぞれ、顔認証用の適切な顔特徴量に変換することで、顔認証(照合)に用いる3次元情報と2次元情報とをそれぞれ圧縮する機能を有している。この情報圧縮機能は、圧縮情報記憶部103に格納された情報等を用いて実現される。   The information compressing unit 34 converts the three-dimensional information and the two-dimensional information extracted by the feature extracting unit 33 into appropriate face feature amounts for face authentication, so that the three-dimensional information used for face authentication (collation) is obtained. And two-dimensional information are compressed. This information compression function is realized by using information stored in the compressed information storage unit 103.

比較部35は、上記各機能部によって得られるID情報に基づく登録顔特徴量EB2と、上記各機能部によって認証対象者HMbから直接得られる認証対象者HMbの認証顔特徴量EC2との類似度を計算し、顔の認証(照合)を行う機能を有している。   The comparison unit 35 compares the registered face feature amount EB2 based on the ID information obtained by each function unit and the authentication face feature amount EC2 of the authentication target person HMb obtained directly from the authentication target person HMb by each function unit. And has a function of performing face authentication (collation).

<顔照合システムSYS2の動作>
図1に示されるように、顔照合システムSYS2におけるコントローラ10bは、IDカード9に記録されたID情報から3次元情報と2次元情報とを取得し、登録顔特徴量EB2を生成する(PHA1)。また、コントローラ10bは、認証対象者HMbから直接取得した2枚の画像(照合画像EC1)から得られる3次元情報と2次元情報とに基づいて認証顔特徴量EC2を生成し、登録顔特徴量EB2と認証顔特徴量EC2とを比較することで認証(照合)判定を行う(PHA2)。
<Operation of Face Matching System SYS2>
As shown in FIG. 1, the controller 10b in the face collation system SYS2 acquires three-dimensional information and two-dimensional information from the ID information recorded on the ID card 9, and generates a registered face feature amount EB2 (PHA1). . Further, the controller 10b generates an authentication face feature amount EC2 based on the three-dimensional information and the two-dimensional information obtained from the two images (collation image EC1) directly obtained from the authentication target person HMb, and the registered face feature amount. Authentication (collation) determination is performed by comparing EB2 and authentication face feature amount EC2 (PHA2).

以下では、顔照合システムSYS2におけるコントローラ10bの全体動作を登録顔特徴量生成動作PHA1と認証(照合)動作PHA2とに大別してそれぞれ説明する。   In the following, the overall operation of the controller 10b in the face matching system SYS2 will be broadly described as a registered face feature value generation operation PHA1 and an authentication (collation) operation PHA2.

図12は、登録顔特徴量生成動作PHA1を示すフローチャートである。   FIG. 12 is a flowchart showing the registered face feature value generation operation PHA1.

図12に示されるように、コントローラ10bは、ステップSP11からステップSP16までの工程において、ID情報に基づいてモデルフィッティングに用いる情報を取得し、さらにステップSP17からステップSP20の工程を経ることで、登録顔特徴量の生成を実現する。   As shown in FIG. 12, in the process from step SP11 to step SP16, the controller 10b acquires information used for model fitting based on the ID information, and further registers through the process from step SP17 to step SP20. Realize facial feature.

まず、ステップSP11において、IDカード9に記録されているID情報がIDカードリーダ9bを介して読み出される。   First, in step SP11, the ID information recorded on the ID card 9 is read via the ID card reader 9b.

次に、ステップSP12において、ステップSP11で読み出されたID情報に、登録画像EB1aにおける顔の特徴点Qjの2次元座標U(j)が含まれているか否かが判断される。当該2次元座標U(j)が含まれている場合には、ステップSP17へ移行し、含まれていない場合には、当該2次元座標U(j)を算出するためにステップSP13へ移行する。このように、ID情報に顔の特徴点Qjの2次元情報U(j)が含まれている場合には、ステップSP13からステップSP16の処理を省くことが可能となり、登録顔特徴量生成動作PHA1を高速化できる。 Next, in step SP12, it is determined whether or not the ID information read in step SP11 includes the two-dimensional coordinates U (j) of the facial feature point Qj in the registered image EB1a. If the two-dimensional coordinate U (j) is included, the process proceeds to step SP17. If not included, the process proceeds to step SP13 to calculate the two-dimensional coordinate U (j) . As described above, when the two-dimensional information U (j) of the facial feature point Qj is included in the ID information, the processing from step SP13 to step SP16 can be omitted, and the registered face feature value generation operation PHA1. Can be speeded up.

そして、ステップSP13において、ステップSP11で読み出されたID情報に、登録画像EB1aを撮影したときのカメラのカメラパラメータBaが含まれているか否かが判断される。当該カメラパラメータBaが含まれている場合にはステップSP14へ移行する。このように、ID情報に登録画像EB1aを撮影したときのカメラのカメラパラメータBaが含まれている場合には、ステップSP15及びステップSP16の処理を省くことが可能となり、登録顔特徴量生成動作PHA1を高速化できる。   In step SP13, it is determined whether the camera information Ba of the camera when the registered image EB1a is captured is included in the ID information read in step SP11. If the camera parameter Ba is included, the process proceeds to step SP14. As described above, when the camera information Ba of the camera when the registered image EB1a is captured is included in the ID information, the processing of step SP15 and step SP16 can be omitted, and the registered face feature value generation operation PHA1. Can be speeded up.

ステップSP14においては、当該カメラパラメータBaを用いて登録画像EB1aにおける顔の特徴点Qjの2次元座標U(j)が算出される。具体的には、ID情報に含まれるIDカード9所有者の顔の特徴点Qjについての3次元座標M(j)とカメラパラメータBaとが既知であることから、上述のステップSP4で用いた式(1)の関係を利用して、登録画像EB1aにおける顔の特徴点Qjの2次元座標U(j)を算出することができる。 In step SP14, the two-dimensional coordinates U (j) of the facial feature point Qj in the registered image EB1a are calculated using the camera parameter Ba. Specifically, since the three-dimensional coordinates M (j) and the camera parameter Ba regarding the feature point Qj of the face of the owner of the ID card 9 included in the ID information are known, the equation used in step SP4 above is used. Using the relationship (1), the two-dimensional coordinates U (j) of the facial feature point Qj in the registered image EB1a can be calculated.

一方、ステップSP13においてカメラパラメータBaが含まれていないと判断されると、ステップSP15へ移行する。   On the other hand, if it is determined in step SP13 that the camera parameter Ba is not included, the process proceeds to step SP15.

ステップSP15においては、登録画像EB1aに対して既述のステップSP2と同様の処理が行われ、登録画像EB1aにおける顔の領域が検出される。   In step SP15, the registered image EB1a is subjected to the same processing as step SP2 described above, and the face area in the registered image EB1a is detected.

さらに、ステップSP16において、既述のステップSP3と同様の処理が行われ、ステップSP15で検出された顔領域画像の中から、顔の特徴的な部位の位置すなわち登録画像EB1aにおける顔の各特徴点Qjの2次元座標Ui(j)が検出される。 Further, in step SP16, the same processing as in step SP3 described above is performed. From the face area image detected in step SP15, the position of a characteristic part of the face, that is, each feature point of the face in the registered image EB1a. 2-dimensional coordinates Ui of Qj (j) is detected.

このように、ステップSP12からステップSP16までの工程において、ID情報に基づいて登録画像EB1aにおける顔の各特徴点Qjの2次元座標Ui(j)が取得される。これによって、登録画像EB1aにおける顔の各特徴点Qjの登録画像EB1a上での2次元位置とID情報の3次元情報に含まれる顔の各特徴点Qjの3次元空間内での3次元位置との対応関係を特定することが可能となり、次述のモデルフィッティングにおいて2次元情報の貼り付け処理が可能となる。 As described above, in the processes from step SP12 to step SP16, the two-dimensional coordinates Ui (j) of the facial feature points Qj in the registered image EB1a are acquired based on the ID information. Accordingly, the two-dimensional position of each facial feature point Qj on the registered image EB1a on the registered image EB1a and the three-dimensional position of each facial feature point Qj included in the three-dimensional information of the ID information in the three-dimensional space The two-dimensional information can be pasted in the model fitting described below.

次のステップSP17では、モデルフィッテングが行われる。この「モデルフィッティング」は、予め準備された一般的(標準的)な顔のモデルである「(顔の)標準モデル」を、ID情報及び当該ID情報から取得された情報を用いて変形することによって、IDカード9に記録されたID情報が反映された「個別モデル」を生成する処理である。具体的には、ID情報の3次元情報に含まれる3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理と、ID情報の登録画像EB1aから得られる後述のテクスチャ情報を用いて標準モデルの2次元情報を変更する処理とが行われる。 In the next step SP17, model fitting is performed. This “model fitting” is a modification of “standard model of face”, which is a general (standard) face model prepared in advance, using ID information and information obtained from the ID information. Thus, an “individual model” in which the ID information recorded on the ID card 9 is reflected is generated. Specifically, processing for changing the three-dimensional information of the standard model using the three-dimensional coordinates M (j) included in the three-dimensional information of the ID information, and texture information to be described later obtained from the registered image EB1a of the ID information And processing for changing the two-dimensional information of the standard model.

図13は、3次元の顔の標準モデルを示す図である。   FIG. 13 is a diagram illustrating a standard model of a three-dimensional face.

図13に示される顔の標準モデルは、頂点データとポリゴンデータとで構成され、3次元モデルデータベース102(図11)としてコントローラ10bの記憶部3等に保存されている。頂点データは、標準モデルにおける特徴部位の頂点(以下、「標準制御点」とも称する)COjの座標の集合であり、ID情報の3次元情報に含まれる顔の各特徴点Qjの3次元座標と1対1に対応している。ポリゴンデータは、標準モデルの表面を微小な多角形(例えば、三角形)のポリゴンに分割し、ポリゴンを数値データとして表現したものである。なお、図13では、各ポリゴンの頂点が標準制御点COj以外の中間点によっても構成される場合を例示しており、中間点の座標は標準制御点COjの座標値を用いた適宜の補完手法によって得ることが可能である。   The standard model of the face shown in FIG. 13 includes vertex data and polygon data, and is stored in the storage unit 3 of the controller 10b as the three-dimensional model database 102 (FIG. 11). The vertex data is a set of coordinates of the vertices (hereinafter also referred to as “standard control points”) COj of the feature parts in the standard model, and the three-dimensional coordinates of each feature point Qj of the face included in the three-dimensional information of the ID information. There is a one-to-one correspondence. The polygon data is obtained by dividing the surface of the standard model into minute polygons (for example, triangles) and expressing the polygons as numerical data. FIG. 13 exemplifies a case where the vertices of each polygon are also constituted by intermediate points other than the standard control point COj, and the coordinates of the intermediate point are appropriately complemented using the coordinate values of the standard control point COj. Can be obtained by:

ここで、標準モデルから個別モデルを構成するモデルフィッティング処理について詳述する。   Here, the model fitting process which comprises an individual model from a standard model is explained in full detail.

まず、標準モデルの各特徴部位の頂点(標準制御点COj)を、ID情報の3次元情報に含まれる顔の各特徴点Qjに移動させる。具体的には、各特徴点Qjの3次元座標値を、対応する標準制御点COjの3次元座標値として代入し、移動後の標準制御点(以下、「個別制御点」とも称する)Cjを得る。これにより、標準モデルを3次元座標M(j)で表した個別モデルに変形することができる。なお、個別モデルにおける個別制御点Cj以外の中間点の座標は、個別制御点Cjの座標値を用いた適宜の補間手法によって得ることが可能である。 First, the vertex (standard control point COj) of each feature part of the standard model is moved to each feature point Qj of the face included in the three-dimensional information of the ID information. Specifically, the three-dimensional coordinate value of each feature point Qj is substituted as the three-dimensional coordinate value of the corresponding standard control point COj, and the moved standard control point (hereinafter also referred to as “individual control point”) Cj obtain. As a result, the standard model can be transformed into an individual model represented by the three-dimensional coordinates M (j) . Note that the coordinates of intermediate points other than the individual control points Cj in the individual model can be obtained by an appropriate interpolation method using the coordinate values of the individual control points Cj.

また、この変形(移動)による各頂点の移動量から、後述のステップSP18において用いられる、標準モデルを基準にした場合の個別モデルのスケール、傾き及び位置を求めることができる。具体的には、標準モデルにおける所定の基準位置と、変形後の個別モデルにおける対応基準位置との間のずれ量によって、個別モデルの標準モデルに対する位置変化を求めることができる。また、標準モデルにおける所定の2点を結ぶ基準ベクトルと、変形後の個別モデルにおける当該所定の2点の対応点を結ぶ基準ベクトルとの間のずれ量によって、個別モデルの標準モデルに対する傾きの変化及びスケール変化を求めることができる。例えば、右目の目頭の特徴点Q1と左目の目頭の特徴点Q2との中点QMの座標と標準モデルにおいて中点QMに相当する点の座標とを比較することによって個別モデルの位置を求めることができ、さらに、中点QMと他の特徴点とを比較することによって個別モデルのスケール及び傾きを算出することができる。   Further, the scale, inclination, and position of the individual model based on the standard model used in step SP18 described later can be obtained from the amount of movement of each vertex due to this deformation (movement). Specifically, the position change of the individual model with respect to the standard model can be obtained from the deviation amount between the predetermined reference position in the standard model and the corresponding reference position in the individual model after deformation. In addition, a change in the inclination of the individual model with respect to the standard model is determined by the amount of deviation between the reference vector connecting the two predetermined points in the standard model and the reference vector connecting the corresponding two points in the individual model after deformation. And a change in scale can be determined. For example, the position of the individual model is obtained by comparing the coordinates of the midpoint QM of the right eye feature point Q1 and the left eye feature point Q2 with the coordinates of the point corresponding to the midpoint QM in the standard model. Furthermore, the scale and inclination of the individual model can be calculated by comparing the midpoint QM with other feature points.

次の式(4)は、標準モデルと個別モデルとの間の対応関係を表現する変換パラメータ(ベクトル)vtを示している。式(4)に示すように、この変換パラメータ(ベクトル)vtは、両者のスケール変換指数szと、直交3軸方向における並進変位を示す変換パラメータ(tx,ty,tz)と、回転変位(傾き)を示す変換パラメータ(φ,θ,ψ)とをその要素とするベクトルである。   The following equation (4) represents a conversion parameter (vector) vt that represents the correspondence between the standard model and the individual model. As shown in the equation (4), the conversion parameter (vector) vt includes a scale conversion index sz of both, a conversion parameter (tx, ty, tz) indicating translational displacement in the orthogonal three-axis directions, and a rotational displacement (inclination). ) Representing a conversion parameter (φ, θ, ψ).

上述のようにして、ID情報の3次元情報に含まれる3次元座標M(j)を用いて標準モデルの3次元情報を変更する処理が行われる。 As described above, the process of changing the three-dimensional information of the standard model using the three-dimensional coordinates M (j) included in the three-dimensional information of the ID information is performed.

また、登録画像EB1aにおける各特徴点を頂点とする領域内の各画素の輝度値が、各領域の有する情報(以下、「テクスチャ情報」とも称する)として取得され、当該各テクスチャ情報が、個別モデル上の対応する領域(ポリゴン)に貼り付け(マッピング)られる。なお、個別モデルと登録画像EB1aとの間で互いに対応する領域は、上述のとおり特徴点Qjを利用した対応関係を用いて特定される。   In addition, the luminance value of each pixel in the region having each feature point as a vertex in the registered image EB1a is acquired as information (hereinafter, also referred to as “texture information”) included in each region. It is pasted (mapped) on the corresponding area (polygon) above. Note that regions corresponding to each other between the individual model and the registered image EB1a are specified using the correspondence relationship using the feature point Qj as described above.

また、立体モデル(個別モデル等)上でテクスチャ情報が貼り付けられる各領域(ポリゴン)は「パッチ」とも称せられる。   Each region (polygon) to which texture information is pasted on a three-dimensional model (individual model or the like) is also referred to as a “patch”.

以上のようにして、モデルフィッティング処理(ステップSP17)が行われる。   As described above, the model fitting process (step SP17) is performed.

次のステップSP18においては、標準モデルを基準にして個別モデルの補正が行われる。本工程では、3次元情報に関する位置(アライメント)補正と、2次元情報に関するテクスチャ補正とが実行される。   In the next step SP18, the individual model is corrected based on the standard model. In this step, position (alignment) correction relating to three-dimensional information and texture correction relating to two-dimensional information are executed.

アライメント(顔向き)補正は、上記ステップSP17において求められる標準モデルを基準にした際の個別モデルのスケール、傾き及び位置を基にして行われる。より詳細には、標準モデルを基準にした際の標準モデルと個別モデルとの関係を示す変換パラメータvt(式(4)参照)を用いて個別モデルを座標変換することで、標準モデルの姿勢と同じ姿勢を有する3次元顔モデルを作成することができる。すなわち、このアライメント補正によって、ID情報の3次元情報を適切に正規化することができる。   The alignment (face orientation) correction is performed based on the scale, inclination, and position of the individual model based on the standard model obtained in step SP17. More specifically, by converting the coordinates of the individual model using the conversion parameter vt (see Expression (4)) indicating the relationship between the standard model and the individual model when the standard model is used as a reference, A three-dimensional face model having the same posture can be created. That is, the alignment correction can appropriately normalize the three-dimensional information of the ID information.

次に、テクスチャ補正について説明する。テクスチャ補正においては、テクスチャ情報の正規化が行われる。   Next, texture correction will be described. In texture correction, normalization of texture information is performed.

テクスチャ情報の正規化は、個別モデルの各個別制御点(特徴点)と標準モデルにおける各対応点(対応標準位置)との対応関係を求めてテクスチャ情報を標準化する処理である。これによって、個別モデルにおける各パッチのテクスチャ情報を、パッチ形状の変化(具体的には、顔の表情の変化)及び/又は顔の姿勢の変化の影響を受けにくい状態に変更することができる。   The texture information normalization is a process of standardizing the texture information by obtaining the correspondence between each individual control point (feature point) of the individual model and each corresponding point (corresponding standard position) in the standard model. As a result, the texture information of each patch in the individual model can be changed to a state that is not easily affected by changes in patch shape (specifically, changes in facial expression) and / or changes in facial posture.

ここでは、個別モデルにおける各パッチのテクスチャ情報を(当該個別モデルの作成に用いた)元の標準モデルに貼り付けた立体モデルを、サブモデルとして、当該個別モデルとは別個に生成する場合を例示する。サブモデルに貼り付けられた各パッチのテクスチャ情報は、当該各パッチの形状及び顔の姿勢が正規化された状態を有している。   Here, a case where a stereo model in which texture information of each patch in an individual model is pasted to the original standard model (used for creating the individual model) is generated as a sub model separately from the individual model. To do. The texture information of each patch attached to the submodel has a state in which the shape of each patch and the posture of the face are normalized.

詳細には、個別モデルの各個別制御点(特徴点)を元の標準モデルにおける各対応点に移動させた上で認証対象者に関するテクスチャ情報を標準化する。また、より詳細には、個別モデルにおける各パッチ内の各画素の位置を当該パッチの個別制御点Cjの3次元座標に基づいて正規化し、元の標準モデルにおいて対応するパッチ内の対応する位置に個別モデルの各画素の輝度値(テクスチャ情報)を貼り付ける。   More specifically, the individual control points (feature points) of the individual model are moved to the corresponding points in the original standard model, and then the texture information regarding the person to be authenticated is standardized. More specifically, the position of each pixel in each patch in the individual model is normalized based on the three-dimensional coordinates of the individual control point Cj of the patch, and the corresponding position in the corresponding patch in the original standard model is obtained. The brightness value (texture information) of each pixel of the individual model is pasted.

図14は、所定パッチにおけるテクスチャ情報の正規化を示す概念図である。この図14を用いて、テクスチャ情報の正規化について、より詳細に説明する。   FIG. 14 is a conceptual diagram showing normalization of texture information in a predetermined patch. The normalization of texture information will be described in more detail with reference to FIG.

例えば、或る個別モデルにおけるパッチKK2と元の標準モデルにおけるパッチHYとが対応しているとする。このとき、個別モデルにおけるパッチKK2内の位置γK2は、パッチKK2の個別制御点Cj(j=J1、J2、J3)のうちの異なる2組の点を結ぶ独立したベクトルV21,V22の線形和で表現される。また、標準モデルにおけるパッチHY内の位置γHYは、当該ベクトルV21,V22の線形和における各係数と同じ係数を用いて、対応ベクトルV01,V02の線形和で表現される。これにより、両位置γK1,γHYとの対応関係が求められ、パッチKK2内における位置γK2のテクスチャ情報を、パッチHY内の対応する位置γHYに貼り付けることが可能となる。このようなテクスチャ情報の貼り付け処理を個別モデルのパッチKK2内の全テクスチャ情報について実行すると、個別モデルにおけるパッチ内のテクスチャ情報が、サブモデルにおけるパッチ内のテクスチャ情報に変換され、正規化された状態で得られることになる。   For example, it is assumed that the patch KK2 in a certain individual model corresponds to the patch HY in the original standard model. At this time, the position γK2 in the patch KK2 in the individual model is a linear sum of independent vectors V21 and V22 connecting two different sets of individual control points Cj (j = J1, J2, J3) of the patch KK2. Expressed. Further, the position γHY in the patch HY in the standard model is expressed by the linear sum of the corresponding vectors V01 and V02 using the same coefficient as each coefficient in the linear sum of the vectors V21 and V22. As a result, the correspondence relationship between the positions γK1 and γHY is obtained, and the texture information of the position γK2 in the patch KK2 can be pasted to the corresponding position γHY in the patch HY. When such texture information pasting processing is executed for all the texture information in the patch KK2 of the individual model, the texture information in the patch in the individual model is converted into texture information in the patch in the sub model and normalized. It will be obtained in the state.

このサブモデルにおける顔の2次元情報(テクスチャ情報)は、顔の姿勢変動及び顔の表情変化等による影響を受けにくいという特質を有している。例えば、同一人物に関する2つの個別モデルにおける姿勢及び表情が互いに異なる場合、上述のテクスチャ情報の正規化を行わないときには、両個別モデルにおけるパッチの対応関係(例えば、図14において、本来はパッチKK1とパッチKK2とが対応すること)等を正確に得ることができず、別人物であるとして誤判定する可能性が高くなる。これに対して、上述のテクスチャ情報の正規化を行えば、顔の姿勢が統一され、各パッチの対応位置関係をより正確に得ることができるので、姿勢変化による影響を受けにくくなる。また、上述のテクスチャ情報の正規化によれば、顔の表面を構成する各パッチの形状は、標準モデルにおける各対応パッチの形状と同一になる(図14参照)ため、各パッチの形状が統一(正規化)され、表情変化による影響を受けにくくなる。例えば、微笑している人物の個別モデルは、笑っていない(無表情の)標準モデルを用いることによって、笑っていない状態のサブモデルに変換されて標準化される。これによれば、微笑によるテクスチャ情報の変化(例えば、ほくろの位置の変化)の影響が抑制される。このように、上述の正規化されたテクスチャ情報は、個人認証(照合)に有効な情報となる。   The two-dimensional information (texture information) of the face in this sub-model has a characteristic that it is not easily affected by changes in facial posture, facial expression changes, and the like. For example, when postures and expressions in two individual models relating to the same person are different from each other, when normalization of the texture information described above is not performed, the correspondence between patches in both individual models (for example, in FIG. Etc.) cannot be obtained accurately, and there is a high possibility of being erroneously determined that the person is a different person. On the other hand, if the texture information is normalized as described above, the posture of the face is unified, and the corresponding positional relationship of each patch can be obtained more accurately, so that it is less affected by the posture change. Further, according to the above-described normalization of the texture information, the shape of each patch constituting the face surface is the same as the shape of each corresponding patch in the standard model (see FIG. 14), so the shape of each patch is unified. (Normalized) and less affected by facial expression changes. For example, an individual model of a smiling person is converted into a non-laughing sub model and standardized by using a standard model that is not smiling (no expression). According to this, the influence of the texture information change (for example, the mole position change) due to the smile is suppressed. Thus, the above-mentioned normalized texture information becomes information effective for personal authentication (collation).

また、サブモデルに貼り付けられたテクスチャ情報は、比較しやすいように、図15に示すような投影画像にさらに変更することもできる。   Further, the texture information pasted on the sub model can be further changed to a projection image as shown in FIG. 15 so that the comparison can be easily performed.

図15は、テクスチャ補正されたテクスチャ情報、すなわち、サブモデルに貼り付けられたテクスチャ情報を、当該サブモデルの周囲に配置した円筒面に投影した画像である。この投影画像のテクスチャ情報は、正規化されており形状及び姿勢に依存しないという特質を有しているため、個人識別に用いる情報として非常に有用である。   FIG. 15 shows an image obtained by projecting texture-corrected texture information, that is, texture information pasted on a sub model, onto a cylindrical surface arranged around the sub model. Since the texture information of the projection image is normalized and has a characteristic that it does not depend on the shape and posture, it is very useful as information used for personal identification.

以上のようにステップSP18においては、IDカード9に記録されているID情報に基づく3次元情報と2次元情報とが、正規化された状態で生成される。   As described above, in step SP18, the three-dimensional information and the two-dimensional information based on the ID information recorded on the ID card 9 are generated in a normalized state.

次のステップSP19(図12)においては、IDカード9に記録されている登録者のID情報に基づく特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。   In the next step SP19 (FIG. 12), three-dimensional shape information (three-dimensional information), texture information (two-dimensional information), and information representing features based on the registrant's ID information recorded on the ID card 9 Is extracted.

3次元情報としては、個別モデルにおけるm個の個別制御点Cjの3次元座標ベクトルが抽出される。具体的には、式(5)に示されるように、m個の個別制御点Cj(j=1,...,m)の3次元座標(Xj,Yj,Zj)を要素とするベクトルhS(以下、「3次元座標情報」とも称する)が3次元情報(3次元形状情報)として抽出される。 As the three-dimensional information, three-dimensional coordinate vectors of m individual control points Cj in the individual model are extracted. Specifically, as shown in Expression (5), a vector h having three-dimensional coordinates (Xj, Yj, Zj) of m individual control points Cj (j = 1,..., M) as elements. S (hereinafter also referred to as “three-dimensional coordinate information”) is extracted as three-dimensional information (three-dimensional shape information).

また、2次元情報としては、個人認証(照合)にとって重要な情報となる顔の特徴的な部分つまり個別制御点付近のパッチ又はパッチのグループ(局所領域)が有するテクスチャ(輝度)情報(以下、「局所2次元情報」とも称する)が抽出される。ここでは、テクスチャ情報(局所2次元情報)として、上述のサブモデルにマッピングされた情報が用いられる。   Further, as the two-dimensional information, texture (luminance) information (hereinafter, referred to as a patch or a group of patches (local region) in the vicinity of an individual control point, that is, a characteristic part of a face that is important information for personal authentication (collation) "Local 2D information") is extracted. Here, information mapped to the above-described submodel is used as texture information (local two-dimensional information).

局所2次元情報は、例えば、正規化後の特徴的な部位の個別制御点を示す図16中のグループGR(個別制御点C20、C22及びC23を頂点とするパッチR1と個別制御点C21、C22及びC23を頂点とするパッチR2)から構成される領域、又は、単に一つのパッチからなる領域等の各局所領域が有する各画素の輝度情報として構成される。局所2次元情報h(k)(k=1,...,L;Lは局所領域数)は、それぞれ、当該局所領域内の画素数をn、各画素の輝度値をBR1,...,BRnとすると、式(6)のようなベクトル形式で表される。また、局所2次元情報h(k)をL個の局所領域について集めた情報は、総合的な2次元情報であるとも表現される。 The local two-dimensional information is, for example, a group GR (individual control points C20, C22, and C23 having a vertex at the individual control points C20, C22, and C23) and individual control points C21, C22 in FIG. And the luminance information of each pixel included in each local region such as a region composed of patches R2) having C23 as vertices or a region composed of only one patch. The local two-dimensional information h (k) (k = 1,..., L; L is the number of local regions) is represented by n as the number of pixels in the local region and BR1 as the luminance value of each pixel. , BRn, it is expressed in a vector format as shown in Equation (6). In addition, information obtained by collecting local two-dimensional information h (k) for L local regions is also expressed as comprehensive two-dimensional information.

以上のように、ステップSP19においては、IDカード9に記録されている登録者のID情報に基づく特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。   As described above, in step SP19, three-dimensional shape information (three-dimensional information) and texture information (two-dimensional information) are included as information representing features based on the registrant's ID information recorded on the ID card 9. Extracted.

次のステップSP20においては、ステップSP19で抽出された情報を、認証に適した状態に変換する次述の情報圧縮処理が行われる。   In the next step SP20, the information compression processing described below is performed to convert the information extracted in step SP19 into a state suitable for authentication.

情報圧縮処理は、3次元形状情報hS及び各局所2次元情報h(k)のそれぞれに対して同様の手法を用いて行われるが、ここでは、局所2次元情報h(k)に対して情報圧縮処理を施す場合について詳細に説明する。 The information compression processing is performed using the same method for each of the three-dimensional shape information h S and each local two-dimensional information h (k) . Here, for the local two-dimensional information h (k) , A case where information compression processing is performed will be described in detail.

局所2次元情報h(k)は、複数のサンプル顔画像から予め取得される当該局所領域の平均情報(ベクトル)have(k)と、複数のサンプル顔画像をKL展開することによって予め算出される当該局所領域の固有ベクトルのセットで表現される行列P(k)(次述)とを用いて式(7)のように基底分解された形式で表すことができる。この結果、局所2次元顔情報量(ベクトル)c(k)が、局所2次元情報h(k)についての圧縮情報として取得される。 The local two-dimensional information h (k) is calculated in advance by KL expansion of the average information (vector) have (k) of the local area acquired in advance from a plurality of sample face images and the plurality of sample face images. Using the matrix P (k) (described below) expressed by the set of eigenvectors of the local region, it can be expressed in the form of basis decomposition as shown in Equation (7). As a result, the local two-dimensional face information amount (vector) c (k) is acquired as compressed information about the local two-dimensional information h (k) .

上述のように式(7)中の行列P(k)は、複数のサンプル顔画像から算出される。具体的には、行列P(k)は、複数のサンプル顔画像をKL展開することによって求められる複数の固有ベクトルのうち、固有値の大きい数個の固有ベクトル(基底ベクトル)のセットとして求められる。これらの基底ベクトルは、圧縮情報記憶部103に記憶されている。顔画像についてのより大きな特徴を示す固有ベクトルを基底ベクトルとしてその顔画像を表現することによれば、顔画像の特徴を効率的に表現することが可能となる。 As described above, the matrix P (k) in the equation (7 ) is calculated from a plurality of sample face images. Specifically, the matrix P (k) is obtained as a set of several eigenvectors (base vectors) having large eigenvalues among a plurality of eigenvectors obtained by KL expansion of a plurality of sample face images. These basis vectors are stored in the compressed information storage unit 103. By expressing the face image using an eigenvector indicating a larger feature of the face image as a base vector, it is possible to efficiently express the feature of the face image.

例えば、図16に示されているグループGRからなる局所領域の局所2次元情報h(GR)を基底分解された形式で表現する場合を考える。当該局所領域の固有ベクトルのセットPが、3つの固有ベクトルP1、P2及びP3によってP=(P1,P2,P3)と表現されているとすると、局所2次元情報h(GR)は、当該局所領域の平均情報have(GR)と固有ベクトルのセットP1,P2,P3を用いて式(8)のように表される。平均情報have(GR)は、様々なサンプル顔画像についての複数の局所2次元情報(ベクトル)を対応要素ごとに平均して得られるベクトルである。尚、複数のサンプル顔画像は、適度なばらつきを有する標準的な複数の顔画像を用いればよい。 For example, consider a case where the local two-dimensional information h (GR) of the local region composed of the group GR shown in FIG. 16 is expressed in a basis-decomposed format. Assuming that the set P of eigenvectors of the local region is expressed as P = (P1, P2, P3) by three eigenvectors P1, P2, and P3, the local two-dimensional information h (GR) The average information have (GR) and the set of eigenvectors P1, P2, and P3 are used to express the equation (8). The average information have (GR) is a vector obtained by averaging a plurality of local two-dimensional information (vectors) for various sample face images for each corresponding element. In addition, what is necessary is just to use the standard several face image which has moderate dispersion | variation as several sample face images.

また、上記式(8)は、顔情報量c(GR)=(c1,c2,c3)Tによって元の局所2次元情報を再現することが可能であることを示している。すなわち、顔情報量c(GR)は、グループGRからなる局所領域の局所2次元情報h(GR)を圧縮した情報といえる。 Further, the above equation (8) indicates that the original local two-dimensional information can be reproduced by the face information amount c (GR) = (c1, c2, c3) T. That is, it can be said that the face information amount c (GR) is information obtained by compressing the local two-dimensional information h (GR) of the local region including the group GR.

上記のようにして取得された局所2次元顔情報量c(GR)をそのまま認証動作に用いてもよいが、この実施形態ではさらなる情報圧縮を行う。具体的には、局所2次元顔情報量c(GR)が表す特徴空間を個人間の分離を大きくするような部分空間へと変換する処理を更に行う。より詳細には、式(9)に表されるようベクトルサイズfの局所2次元顔情報量c(GR)をベクトルサイズgの局所2次元特徴量d(GR)に低減させる変換行列Aを考える。これにより、局所2次元顔情報量c(GR)で表される特徴空間を局所2次元特徴量d(GR)で表される部分空間に変換することができ、個人間の情報の相違が顕著になる。 The local two-dimensional face information amount c (GR) acquired as described above may be used for the authentication operation as it is, but in this embodiment, further information compression is performed. Specifically, a process of converting the feature space represented by the local two-dimensional face information amount c (GR) into a partial space that increases separation between individuals is further performed. More specifically, consider a transformation matrix A that reduces the local two-dimensional face information amount c (GR) of the vector size f to the local two-dimensional feature amount d (GR) of the vector size g as expressed in Expression (9). . Thereby, the feature space represented by the local two-dimensional face information amount c (GR) can be converted into the partial space represented by the local two-dimensional feature amount d (GR) , and the difference in information between individuals is remarkable. become.

ここで、変換行列Aはf×gのサイズを有する行列である。重判別分析(MDA:Multiple Discriminant Analysis)法を用いて、特徴空間から級内分散と級間分散との比率(F比)の大きい主成分をg個選び出すことによって、変換行列Aを決定することができる。   Here, the transformation matrix A is a matrix having a size of f × g. Using a multiple discriminant analysis (MDA) method, the transformation matrix A is determined by selecting g principal components having a large ratio (F ratio) between intra-class variance and inter-class variance from the feature space. Can do.

また、上述した局所2次元情報h(GR)について行った情報圧縮処理と同様の処理を他の全ての局所領域にも実行することによって、各局所領域についての局所2次元顔特徴量d(k)を取得することができる。また、3次元形状情報hSに対しても同様の手法を適用することにより3次元顔特徴量dSを取得することができる。 In addition, by executing the same processing as the information compression processing performed on the local two-dimensional information h (GR) described above for all other local regions, the local two-dimensional face feature amount d (k) for each local region is also obtained. ) can be acquired. Further, by applying the same method to the three-dimensional shape information h S , the three-dimensional face feature value d S can be acquired.

上記ステップSP20を経て取得される3次元顔特徴量dSと局所2次元顔特徴量d(k)とを組み合わせた顔特徴量dは、ベクトル形式で式(10)のように表すことができる。 The face feature amount d obtained by combining the three-dimensional face feature amount d S and the local two-dimensional face feature amount d (k) acquired through the step SP20 can be expressed as a formula (10) in a vector format. .

以上に述べたステップSP11〜SP20の工程において、ID情報からIDカード9に登録されているID情報に基づく顔特徴量dが登録顔特徴量EB2として生成される。   In the steps SP11 to SP20 described above, the face feature amount d based on the ID information registered in the ID card 9 is generated as the registered face feature amount EB2 from the ID information.

そして、次述の認証(照合)動作PHA2において、この登録顔特徴量EB2を用いてIDカード9を所有している認証対象者HMbの顔認証(照合)が行われる。   Then, in the following authentication (collation) operation PHA2, face authentication (collation) of the person HMb to be authenticated who owns the ID card 9 is performed using the registered face feature amount EB2.

次に、認証(照合)動作PHA2について説明する。   Next, the authentication (collation) operation PHA2 will be described.

図17は、認証(照合)動作PHA2を示すフローチャートである。なお、以下の認証(照合)動作PHA2の説明においては、既述の工程と同様の処理については説明を省略する。   FIG. 17 is a flowchart showing the authentication (collation) operation PHA2. In the following description of the authentication (collation) operation PHA2, the description of the same process as that described above will be omitted.

図17に示されるように、コントローラ10bは、ステップSP31からステップSP38までの工程において、認証対象者HMbから直接取得される2枚の照合画像EC1に基づいて認証対象者HMbの認証顔特徴量EC2を生成し、さらにステップSP39からステップSP40の工程において、登録顔特徴量EB2と認証顔特徴量EC2とを比較することで認証対象者HMbの認証(照合)を実現する。   As shown in FIG. 17, in the process from step SP31 to step SP38, the controller 10b authenticates the authentication face feature amount EC2 of the authentication target person HMb based on the two collation images EC1 directly acquired from the authentication target person HMb. Further, in the processes from step SP39 to step SP40, authentication (verification) of the authentication target person HMb is realized by comparing the registered face feature amount EB2 and the authentication face feature amount EC2.

まず、ステップSP31において、ステップSP1と同様にカメラCA1及びCA2によって撮影された認証対象者HMbの顔画像(画像G11及び画像G12)が、通信線を介しコントローラ10bに入力される。   First, in step SP31, the face image (image G11 and image G12) of the person to be authenticated HMb photographed by the cameras CA1 and CA2 as in step SP1 is input to the controller 10b via the communication line.

次に、ステップSP32において、ステップSP2と同様の処理が行われ、入力された2枚の画像(画像G11及び画像G12)それぞれにおいて、顔の存在する領域が検出される。   Next, in step SP32, processing similar to that in step SP2 is performed, and a region where a face exists is detected in each of the two input images (image G11 and image G12).

ステップSP33では、ステップSP3と同様の処理が行われ、ステップSP32で検出された顔領域画像の中から、顔の特徴的な部位の位置すなわち各特徴点Qjの2枚の画像それぞれにおける2次元座標U(j)が検出される。 In step SP33, processing similar to that in step SP3 is performed. From the face area image detected in step SP32, the position of the characteristic part of the face, that is, the two-dimensional coordinates in each of the two images of each feature point Qj. U (j) is detected.

次のステップSP34では、ステップSP4と同様の処理が行われ、各特徴点Qjの3次元座標M(j)が算出される。 In the next step SP34, processing similar to that in step SP4 is performed, and the three-dimensional coordinates M (j) of each feature point Qj are calculated.

ステップSP35では、ステップSP17と同様の処理が行われ、標準モデルから認証対象者HMbの顔に関する入力情報が反映された個別モデルが生成される。   In step SP35, the same process as step SP17 is performed, and an individual model reflecting input information related to the face of the person HMb to be authenticated is generated from the standard model.

ステップSP36では、ステップSP18と同様の処理が行われ、個別モデルの3次元情報と2次元情報とが適切に正規化され、認証(照合)に有効な情報となる。   In step SP36, the same processing as in step SP18 is performed, and the three-dimensional information and the two-dimensional information of the individual model are appropriately normalized, and become information effective for authentication (collation).

次のステップSP37においては、ステップSP19と同様の処理が行われ、認証対象者HMbの特徴を表す情報として、3次元形状情報(3次元情報)とテクスチャ情報(2次元情報)とが抽出される。   In the next step SP37, processing similar to that in step SP19 is performed, and three-dimensional shape information (three-dimensional information) and texture information (two-dimensional information) are extracted as information representing the characteristics of the person to be authenticated HMb. .

次のステップSP38においては、ステップSP20と同様に、ステップSP37で抽出された情報を、認証に適した状態に変換する情報圧縮処理が行われ、認証対象者HMbの顔特徴量dが認証顔特徴量EC2として生成される。   In the next step SP38, as in step SP20, information compression processing for converting the information extracted in step SP37 into a state suitable for authentication is performed, and the face feature amount d of the person HMb to be authenticated is the authentication face feature. Generated as quantity EC2.

そして、次のステップSP39〜SP40においては、この認証顔特徴量EC2を用いて認証(照合)が行われる。   In the next steps SP39 to SP40, authentication (collation) is performed using the authentication face feature quantity EC2.

具体的には、認証対象者HMbの認証顔特徴量EC2とIDカード9に記録されている登録者のID情報に基づく登録顔特徴量EB2との類似度である総合類似度Reが算出され(ステップSP39)、その後、この総合類似度Reに基づいて認証対象者HMbとID情報との比較(判定)動作等(ステップSP40)が行われる。この総合類似度Reは、3次元顔特徴量dSから算出される3次元類似度ReSと、局所2次元顔特徴量d(k)から算出される局所2次元類似度Re(k)とに加えて、3次元類似度ReSと局所2次元類似度Re(k)との重みを規定する重み付け係数(以下、単に「重み係数」とも称する)を用いて算出される。なお、本実施形態における重み係数WT及びWSは、予め決定されている所定の値を用いる。 Specifically, the total similarity Re, which is the similarity between the authentication face feature amount EC2 of the person to be authenticated HMb and the registered face feature amount EB2 based on the ID information of the registrant recorded on the ID card 9, is calculated ( Step SP39), and thereafter, a comparison (determination) operation between the person to be authenticated HMb and the ID information (step SP40) is performed based on the total similarity Re. The overall similarity Re is three-dimensional and 3-dimensional similarity Re S calculated from the face feature amount d S, a local two-dimensional similarity Re (k) calculated from the local 2-dimensional face feature amount d (k) In addition, the weighting coefficient (hereinafter also simply referred to as “weighting coefficient”) that defines the weight between the three-dimensional similarity Re S and the local two-dimensional similarity Re (k) is calculated. Note that predetermined values determined in advance are used as the weighting factors WT and WS in the present embodiment.

ステップSP39では、登録顔特徴量生成動作PHA1において生成されたID情報に基づく登録顔特徴量EB2と、上記ステップSP31〜ステップSP38を経て算出された認証対象者HMbの認証顔特徴量EC2との類似性の評価が行われる。具体的には、登録されている登録顔特徴量EB2(dSM及びd(k)M)と認証対象者HMbの認証顔特徴量EC2(dSI及びd(k)I)との間で類似度計算が実行され、3次元類似度ReSと局所2次元類似度Re(k)とが算出される。 In step SP39, the registered face feature amount EB2 based on the ID information generated in the registered face feature amount generation operation PHA1 is similar to the authentication face feature amount EC2 of the person to be authenticated HMb calculated through steps SP31 to SP38. Sexuality assessment is performed. Specifically, it is similar between the registered face feature quantity EB2 (d SM and d (k) M ) registered and the authentication face feature quantity EC2 (d SI and d (k) I ) of the person to be authenticated HMb. The degree calculation is executed, and the three-dimensional similarity Re S and the local two-dimensional similarity Re (k) are calculated.

3次元類似度ReSは、式(11)に示されるように対応するベクトル同士のユークリッド距離ReSを求めることによって取得される。 The three-dimensional similarity Re S is obtained by obtaining the Euclidean distance Re S between corresponding vectors as shown in Expression (11).

また、局所2次元の類似度Re(k)は、式(12)に示されるように対応する局所領域同士における特徴量の各ベクトル成分ごとのユークリッド距離Re(k)を求めることによって取得される。 Further, the local two-dimensional similarity Re (k) is obtained by obtaining the Euclidean distance Re (k) for each vector component of the feature quantities in the corresponding local regions as shown in Expression (12). .

そして、式(13)に示されるように、3次元の類似度ReSと局所2次元の類似度Re(k)とを、重み係数WT及びWSを用いて合成し、認証対象者HMbとIDカード9に記録されている登録者との類似度である総合類似度Reを取得することができる。 Then, as shown in Expression (13), the three-dimensional similarity Re S and the local two-dimensional similarity Re (k) are synthesized using the weighting factors WT and WS, and the person to be authenticated HMb and ID The total similarity Re that is the similarity with the registrant recorded on the card 9 can be acquired.

次に、ステップSP40においては、総合類似度Reに基づいて認証(照合)判定が行われる。   Next, in step SP40, authentication (collation) determination is performed based on the total similarity Re.

具体的には、入力された顔(認証対象者HMbの顔)がIDカード9に記録されている人物(登録者)の顔と同一であるか否かが判定されればよいため、ID情報に基づく登録顔特徴量EB2と認証対象者HMbの認証顔特徴量EC2との類似度Reを一定の閾値と比較することで、認証対象者HMbとIDカード9に記録されている人物との同一性が判定される。詳細には、類似度Reが一定の閾値TH1よりも小さいときに認証対象者HMbがIDカード9に記録されている人物と同一人物であると判定される。   Specifically, since it is only necessary to determine whether or not the input face (face of the person to be authenticated HMb) is the same as the face of the person (registrant) recorded in the ID card 9, the ID information By comparing the similarity Re between the registered face feature amount EB2 based on the authentication face feature amount EC2 of the authentication target person HMb with a certain threshold value, the authentication target person HMb and the person recorded on the ID card 9 are identical. Sex is determined. Specifically, when the similarity Re is smaller than a certain threshold TH1, it is determined that the person to be authenticated HMb is the same person as the person recorded on the ID card 9.

このように、コントローラ10bにおいては、IDカード9に記録されているID情報から登録顔特徴量EB2を生成するとともに、認証対象者HMbから直接取得した2枚の画像(照合画像EC1)に基づいて認証顔特徴量EC2を生成し、登録顔特徴量EB2と認証顔特徴量EC2とを比較することで、認証対象者HMbがIDカード9に記録された人物と同一人物であるか否かの認証(照合)を行うことができる。   As described above, the controller 10b generates the registered face feature amount EB2 from the ID information recorded on the ID card 9, and based on the two images (collation image EC1) directly acquired from the authentication target person HMb. Authentication face feature amount EC2 is generated, and by comparing the registered face feature amount EB2 with the authentication face feature amount EC2, it is authenticated whether or not the person to be authenticated HMb is the same person as the person recorded on the ID card 9 (Verification) can be performed.

ここで、登録顔特徴量EB2を第1の特徴情報とし、認証顔特徴量EC2を第2の特徴情報とすると、コントローラ10bは、第1の特徴情報と第2の特徴情報とを用いて認証動作を行うことが可能であると表現できる。   Here, assuming that the registered face feature quantity EB2 is the first feature information and the authentication face feature quantity EC2 is the second feature information, the controller 10b authenticates using the first feature information and the second feature information. It can be expressed that the operation can be performed.

以上のように、顔認証システム1は、顔登録システムSYS1において登録対象者HMaの顔の3次元情報と2次元情報とを所定の形式でID情報としてIDカード9に記録し、顔照合システムSYS2において、当該ID情報から得られる3次元情報と2次元情報とを用いて認証(照合)動作を行うので精度の高い認証を行うことができる。   As described above, the face authentication system 1 records the three-dimensional information and two-dimensional information of the face of the person to be registered HMa in the face registration system SYS1 as ID information in a predetermined format on the ID card 9, and the face matching system SYS2 The authentication (collation) operation is performed using the three-dimensional information and the two-dimensional information obtained from the ID information, so that highly accurate authentication can be performed.

<変形例>
以上、この発明の実施の形態について説明したが、この発明は、上記に説明した内容に限定されるものではない。
<Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the contents described above.

例えば、上記実施形態においては、パッチ内の各画素の輝度値を2次元情報としていたが、各パッチが有する色合いを2次元情報として用いてもよい。   For example, in the above embodiment, the luminance value of each pixel in the patch is used as the two-dimensional information. However, the color of each patch may be used as the two-dimensional information.

また、上記実施形態においては、1回の撮影によって得られる認証顔特徴量EC2を用いて類似度計算を行っていたがこれに限定されない。具体的には、認証対象者HMbの撮影を2度行い、2回の撮影で得られる顔特徴量同士の類似度を算出することで、取得した認証顔特徴量EC2の値が妥当であるか否かを判断することができる。これにより、取得した認証顔特徴量EC2の値が不適当であった場合、再度撮影をやり直すことができる。   Further, in the above embodiment, the similarity calculation is performed using the authentication face feature amount EC2 obtained by one photographing, but the present invention is not limited to this. Specifically, whether the value of the acquired authentication face feature amount EC2 is appropriate by photographing the authentication target person HMb twice and calculating the similarity between the face feature amounts obtained by the two photographing operations. It can be determined whether or not. As a result, when the acquired value of the authentication face feature amount EC2 is inappropriate, it is possible to perform imaging again.

また、上記実施形態では、ステップSP19及びステップSP38において変換行列Aを決定する手法としてMDA法を用いていたがこれに限定されず、例えば、所定の特徴空間から級間分散と級内分散との差が大きくなるような射影空間を求めるEM(Eigenspace Method)法を用いてもよい。   Moreover, in the said embodiment, although MDA method was used as a method of determining the transformation matrix A in step SP19 and step SP38, it is not limited to this, For example, between class dispersion and intraclass dispersion from predetermined feature space An EM (Eigenspace Method) method for obtaining a projection space in which the difference is large may be used.

また、上記実施形態においては、複数台のカメラより入力される複数の画像を用いて顔の3次元形状情報を取得しているがこれに限定されない。具体的には、図18に示されるようなレーザ光出射部L1とカメラLCAとから構成される3次元形状測定器を用いてレーザ光出射部L1の照射するレーザの反射光をカメラLCAによって計測することにより、登録対象者HMa或いは認証対象者HMbの顔の3次元形状情報を取得してもよい。但し、上記実施形態のようにカメラ2台を含む入力装置を用いて3次元の形状情報を取得する手法によれば、レーザ光を用いる入力装置に比べて、比較的簡易な構成で3次元の形状情報を取得することができる。   Moreover, in the said embodiment, although the three-dimensional shape information of the face is acquired using the several image input from several cameras, it is not limited to this. Specifically, the reflected light of the laser irradiated by the laser light emitting portion L1 is measured by the camera LCA using a three-dimensional shape measuring instrument constituted by the laser light emitting portion L1 and the camera LCA as shown in FIG. By doing so, the three-dimensional shape information of the face of the person to be registered HMa or the person to be authenticated HMb may be acquired. However, according to the method of acquiring three-dimensional shape information using an input device including two cameras as in the above embodiment, a three-dimensional shape can be obtained with a relatively simple configuration compared to an input device using laser light. Shape information can be acquired.

また、上記実施形態においては、顔写真52をIDカード9上に付するとともに、顔画像(入力画像EB1)の画像データをテクスチャ情報に関するID情報としてIDカード9内に記録していたが、これに限定されない。   Further, in the above embodiment, the face photograph 52 is attached on the ID card 9 and the image data of the face image (input image EB1) is recorded in the ID card 9 as ID information related to texture information. It is not limited to.

例えば、顔写真52をIDカード9上に付することなく、顔画像の画像データをテクスチャ情報に関するID情報としてIDカード9内に記録するようにしてもよい。また、この場合において、コントローラ10bの表示部5等(図9参照)にID情報に含まれる登録画像EB1aの画像データを可視化して顔写真として表示するようにしてもよい。これによれば、IDカード9上の顔写真52を用いることなく第三者の目視による照合が可能となる。詳細には、IDカード9を所持する認証対象者が当該IDカード9の真の所有者か否かを容易に判断することなどが可能になる。   For example, the image data of the face image may be recorded in the ID card 9 as the ID information regarding the texture information without attaching the face photograph 52 on the ID card 9. In this case, the image data of the registered image EB1a included in the ID information may be visualized and displayed as a face photograph on the display unit 5 or the like (see FIG. 9) of the controller 10b. According to this, verification by a third party can be performed without using the face photograph 52 on the ID card 9. In detail, it is possible to easily determine whether or not the person to be authenticated who owns the ID card 9 is the true owner of the ID card 9.

あるいは、逆に、テクスチャ情報に関する画像データをIDカード9内に記録することなく、当該IDカード9に印刷等によって付されている顔写真自体をテクスチャ情報に関するID情報としてIDカード9上に記録するようにしてもよい。また、この場合には、IDカードリーダ9bに内蔵されたスキャナ等でIDカード9表面の顔写真を読み取ることによって、当該顔写真から2次元情報を取得することができる。これによれば、画像データをIDカードに記録しておくことを要しないため、IDカード9の記憶容量(メモリ容量)が少ない場合に有効である。なお、高精度の2次元情報を取得するため、IDカード9に付された顔写真は精緻な(高解像度の)画像であることが好ましい。   Or, conversely, without recording image data related to texture information in the ID card 9, the face photo attached to the ID card 9 by printing or the like is recorded on the ID card 9 as ID information related to the texture information. You may do it. In this case, two-dimensional information can be acquired from the face photograph by reading the face photograph on the surface of the ID card 9 with a scanner or the like built in the ID card reader 9b. According to this, since it is not necessary to record the image data on the ID card, it is effective when the storage capacity (memory capacity) of the ID card 9 is small. In order to acquire highly accurate two-dimensional information, the face photograph attached to the ID card 9 is preferably a fine (high resolution) image.

また、上記実施形態においては、ID情報の3次元情報EA1として入力画像EB1から算出される顔の各特徴点の3次元座標を用いていたが、これに限定されない。具体的には、上述の最適化部31(図11)と補正部32と特徴抽出部33と情報圧縮部34と同様の機能部をコントローラ10aに設け、図12に示されるステップSP17からステップSP20までの各処理と同様の処理がコントローラ10aによって実行されるようにし、3次元情報EA1として予め圧縮された情報(3次元顔特徴量dS等)をIDカード9に記録するようにしてもよい。 In the above embodiment, the three-dimensional coordinates of each feature point of the face calculated from the input image EB1 are used as the three-dimensional information EA1 of the ID information. However, the present invention is not limited to this. Specifically, functional units similar to the optimization unit 31 (FIG. 11), the correction unit 32, the feature extraction unit 33, and the information compression unit 34 described above are provided in the controller 10a, and steps SP17 to SP20 shown in FIG. Processes similar to the above-described processes may be executed by the controller 10a, and pre-compressed information (such as the three-dimensional face feature amount d S ) may be recorded on the ID card 9 as the three-dimensional information EA1. .

また、上記実施形態においては、ID情報として登録画像EB1aを用いていたが、これに限定されない。具体的には、上述の最適化部31と補正部32と特徴抽出部33と情報圧縮部34と同様の機能部をコントローラ10aに設け、図12に示されるステップSP17からステップSP20までの各処理と同様の処理がコントローラ10aによって実行されるようにし、予め圧縮された2次元情報(局所2次元顔特徴量d(k)等)をIDカード9に記録するようにしてもよい。 Moreover, in the said embodiment, although registration image EB1a was used as ID information, it is not limited to this. Specifically, functional units similar to the optimization unit 31, the correction unit 32, the feature extraction unit 33, and the information compression unit 34 are provided in the controller 10a, and each process from step SP17 to step SP20 shown in FIG. The controller 10a may execute the same processing as that described above, and two-dimensional information (local two-dimensional face feature amount d (k), etc.) compressed in advance may be recorded on the ID card 9.

また、上記実施形態においては、ID情報をIDカード9内部のICチップ等の記録部54に記録していたが、これに限定されず、当該ID情報をIDカード9の表面にコード化してプリントしてもよく、或いは、磁気ストライプ等に記録する態様であってもよい。   In the above embodiment, the ID information is recorded on the recording unit 54 such as an IC chip inside the ID card 9. However, the present invention is not limited to this, and the ID information is encoded on the surface of the ID card 9 and printed. Alternatively, it may be recorded on a magnetic stripe or the like.

また、上記実施形態においては、ID情報を保持(登録)する証明用情報記録媒体(証明用媒体)としてIDカード9を用いていたが、これに限定されず、ICタグ等を用いてもよい。   In the above embodiment, the ID card 9 is used as a proof information recording medium (proof medium) for holding (registering) ID information. However, the present invention is not limited to this, and an IC tag or the like may be used. .

本発明の実施形態に係る顔認証システムを示す概念図である。It is a conceptual diagram which shows the face authentication system which concerns on embodiment of this invention. 顔登録システムを示す構成図である。It is a block diagram which shows a face registration system. コントローラの構成概要を示す図である。It is a figure which shows the structure outline | summary of a controller. コントローラが備える各種機能を示すブロック図である。It is a block diagram which shows the various functions with which a controller is provided. IDカードの構成を示す図である。It is a figure which shows the structure of ID card. 顔登録システムコントローラの動作を示すフローチャートであるIt is a flowchart which shows operation | movement of a face registration system controller. 顔画像における特徴的な部位の特徴点を示す図である。It is a figure which shows the feature point of the characteristic site | part in a face image. 2次元画像中の特徴点から3次元座標を算出する模式図である。It is a schematic diagram which calculates a three-dimensional coordinate from the feature point in a two-dimensional image. 顔照合システムを示す構成図である。It is a block diagram which shows a face collation system. コントローラが備える各種機能を示す図である。It is a figure which shows the various functions with which a controller is provided. 個人認証部の詳細な機能構成を示すブロック図である。It is a block diagram which shows the detailed functional structure of a personal authentication part. 登録顔特徴量生成動作を示すフローチャートである。It is a flowchart which shows registration face feature-value production | generation operation | movement. 3次元の顔の標準モデルを示す図である。It is a figure which shows the standard model of a three-dimensional face. 所定パッチにおけるテクスチャ情報の正規化を示す概念図である。It is a conceptual diagram which shows normalization of the texture information in a predetermined patch. テクスチャ情報を示す図である。It is a figure which shows texture information. 正規化後の特徴的な部位の個別制御点を示す図である。It is a figure which shows the individual control point of the characteristic site | part after normalization. 認証(照合)動作を示すフローチャートである。It is a flowchart which shows authentication (collation) operation | movement. レーザ光出射部とカメラとから構成される3次元形状測定器を示す図である。It is a figure which shows the three-dimensional shape measuring device comprised from a laser beam emission part and a camera.

符号の説明Explanation of symbols

1 顔認証システム
SYS1 顔登録システム
SYS2 顔照合システム
52 顔写真
53 電極端子
9 IDカード
9a カードライタ
9b カードリーダ
CA1 カメラ
CA2 カメラ
HMa 登録対象者
HMb 認証対象者
DESCRIPTION OF SYMBOLS 1 Face authentication system SYS1 Face registration system SYS2 Face collation system 52 Face photograph 53 Electrode terminal 9 ID card 9a Card writer 9b Card reader CA1 Camera CA2 Camera HMa Registration person HMb Authentication person

Claims (9)

本人証明用のID情報を記録した証明用媒体を用いた認証システムであって、
前記証明用媒体から前記ID情報を読み取る手段と、
前記ID情報に基づいて、前記証明用媒体に記録された人物の特徴を表す第1の特徴情報を取得する手段と、
前記証明用媒体を所持する認証対象者の特徴を表す第2の特徴情報を取得する手段と、
前記第1の特徴情報と前記第2の特徴情報とを用いて、前記証明用媒体に記録された人物と前記認証対象者とが同一人物であるか否かについての認証動作を行う認証手段と、
を備え、
前記第1の特徴情報及び前記第2の特徴情報は、それぞれ、顔の3次元情報と顔の2次元情報とを含むように構成され、
前記認証手段は、前記第1の特徴情報に含まれる3次元情報と前記第2の特徴情報に含まれる3次元情報とを照合するとともに、前記第1の特徴情報に含まれる2次元情報と前記第2の特徴情報に含まれる2次元情報とを照合することによって、前記認証動作を行うことを特徴とする認証システム。
An authentication system using a certification medium in which ID information for personal identification is recorded,
Means for reading the ID information from the proof medium;
Means for obtaining first feature information representing a feature of a person recorded on the proof medium based on the ID information;
Means for acquiring second characteristic information representing characteristics of a person to be authenticated who possesses the certification medium;
Authentication means for performing an authentication operation as to whether or not the person recorded on the certification medium and the person to be authenticated are the same person using the first feature information and the second feature information; ,
With
The first feature information and the second feature information are each configured to include face three-dimensional information and face two-dimensional information,
The authentication means collates the three-dimensional information included in the first feature information with the three-dimensional information included in the second feature information, and the two-dimensional information included in the first feature information An authentication system, wherein the authentication operation is performed by collating with two-dimensional information included in the second feature information.
請求項1に記載の認証システムにおいて、
前記ID情報は、前記証明用媒体に登録されている所定人物の顔における複数の代表点の3次元座標情報と前記所定人物の顔を撮影した少なくとも1枚の画像とを含むことを特徴とする認証システム。
The authentication system according to claim 1,
The ID information includes three-dimensional coordinate information of a plurality of representative points on the face of the predetermined person registered in the certification medium and at least one image obtained by photographing the face of the predetermined person. Authentication system.
請求項2に記載の認証システムにおいて、
前記少なくとも1枚の画像は、前記証明用媒体上に顔写真として付されていることを特徴とする認証システム。
The authentication system according to claim 2,
The authentication system according to claim 1, wherein the at least one image is attached as a face photograph on the certification medium.
請求項2に記載の認証システムにおいて、
前記少なくとも1枚の画像は、前記証明用媒体において画像データとして記録されていることを特徴とする認証システム。
The authentication system according to claim 2,
The authentication system, wherein the at least one image is recorded as image data in the certification medium.
請求項4に記載の認証システムにおいて、
前記証明用媒体から読み出された画像データを可視化して表示する表示手段、
をさらに備えることを特徴とする認証システム。
The authentication system according to claim 4,
Display means for visualizing and displaying image data read from the proof medium;
An authentication system further comprising:
請求項2から請求項5のいずれかに記載の認証システムにおいて、
前記ID情報は、前記複数の代表点の前記画像上における位置を表す2次元座標を含むことを特徴とする認証システム。
In the authentication system according to any one of claims 2 to 5,
2. The authentication system according to claim 1, wherein the ID information includes two-dimensional coordinates representing positions of the plurality of representative points on the image.
請求項2から請求項5のいずれかに記載の認証システムにおいて、
前記ID情報は、前記少なくとも1枚の画像を撮影したときのカメラの位置姿勢を示すパラメータを含むことを特徴とする認証システム。
In the authentication system according to any one of claims 2 to 5,
2. The authentication system according to claim 1, wherein the ID information includes a parameter indicating a position and orientation of a camera when the at least one image is taken.
本人証明用の情報を記録する証明用媒体であって、
所定人物の顔における複数の代表点の3次元座標情報と前記所定人物の顔を撮影した少なくとも1枚の画像とを含む情報を記録することを特徴とする証明用媒体。
A proof medium for recording personal proof information,
An information medium for recording information including three-dimensional coordinate information of a plurality of representative points on a face of a predetermined person and at least one image obtained by photographing the face of the predetermined person.
顔認証用の情報を証明用媒体へ登録する登録システムであって、
登録対象者の顔を異なる位置から撮影した複数の画像を取得する手段と、
前記複数の画像に基づいて登録対象者の顔における複数の代表点の3次元座標情報を取得する手段と、
前記複数の画像のうち少なくとも1枚の画像と前記3次元座標情報とを含む情報を前記証明用媒体に記録する手段と、
を備えることを特徴とする登録システム。
A registration system for registering face authentication information in a certification medium,
Means for acquiring a plurality of images obtained by capturing the face of the person to be registered from different positions;
Means for acquiring three-dimensional coordinate information of a plurality of representative points on the face of the person to be registered based on the plurality of images;
Means for recording information including at least one image of the plurality of images and the three-dimensional coordinate information on the proof medium;
A registration system comprising:
JP2005240955A 2005-08-23 2005-08-23 Authentication system, registration system, and medium for certificate Pending JP2007058397A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005240955A JP2007058397A (en) 2005-08-23 2005-08-23 Authentication system, registration system, and medium for certificate

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005240955A JP2007058397A (en) 2005-08-23 2005-08-23 Authentication system, registration system, and medium for certificate

Publications (1)

Publication Number Publication Date
JP2007058397A true JP2007058397A (en) 2007-03-08

Family

ID=37921873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005240955A Pending JP2007058397A (en) 2005-08-23 2005-08-23 Authentication system, registration system, and medium for certificate

Country Status (1)

Country Link
JP (1) JP2007058397A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013250856A (en) * 2012-06-01 2013-12-12 Mitsubishi Electric Corp Monitoring system
JP2017162489A (en) * 2007-09-24 2017-09-14 アップル インコーポレイテッド Embedded authentication systems in electronic device
US10262182B2 (en) 2013-09-09 2019-04-16 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US10334054B2 (en) 2016-05-19 2019-06-25 Apple Inc. User interface for a device requesting remote authorization
US10395128B2 (en) 2017-09-09 2019-08-27 Apple Inc. Implementation of biometric authentication
US10419933B2 (en) 2011-09-29 2019-09-17 Apple Inc. Authentication with secondary approver
US10438205B2 (en) 2014-05-29 2019-10-08 Apple Inc. User interface for payments
US10484384B2 (en) 2011-09-29 2019-11-19 Apple Inc. Indirect authentication
US10521579B2 (en) 2017-09-09 2019-12-31 Apple Inc. Implementation of biometric authentication
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306095A (en) * 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system
JP2002183734A (en) * 2000-12-15 2002-06-28 Toshiba Corp Face authentication device and face authentication method
JP2005158042A (en) * 2003-10-30 2005-06-16 Konica Minolta Holdings Inc Subject authenticating system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306095A (en) * 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system
JP2002183734A (en) * 2000-12-15 2002-06-28 Toshiba Corp Face authentication device and face authentication method
JP2005158042A (en) * 2003-10-30 2005-06-16 Konica Minolta Holdings Inc Subject authenticating system

Cited By (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10956550B2 (en) 2007-09-24 2021-03-23 Apple Inc. Embedded authentication systems in an electronic device
US10275585B2 (en) 2007-09-24 2019-04-30 Apple Inc. Embedded authentication systems in an electronic device
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
JP2017162489A (en) * 2007-09-24 2017-09-14 アップル インコーポレイテッド Embedded authentication systems in electronic device
US11676373B2 (en) 2008-01-03 2023-06-13 Apple Inc. Personal computing device control using face detection and recognition
US11200309B2 (en) 2011-09-29 2021-12-14 Apple Inc. Authentication with secondary approver
US10419933B2 (en) 2011-09-29 2019-09-17 Apple Inc. Authentication with secondary approver
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US10484384B2 (en) 2011-09-29 2019-11-19 Apple Inc. Indirect authentication
US10516997B2 (en) 2011-09-29 2019-12-24 Apple Inc. Authentication with secondary approver
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11989394B2 (en) 2012-05-18 2024-05-21 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
JP2013250856A (en) * 2012-06-01 2013-12-12 Mitsubishi Electric Corp Monitoring system
US11287942B2 (en) 2013-09-09 2022-03-29 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US10410035B2 (en) 2013-09-09 2019-09-10 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10372963B2 (en) 2013-09-09 2019-08-06 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10803281B2 (en) 2013-09-09 2020-10-13 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10262182B2 (en) 2013-09-09 2019-04-16 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US10902424B2 (en) 2014-05-29 2021-01-26 Apple Inc. User interface for payments
US10796309B2 (en) 2014-05-29 2020-10-06 Apple Inc. User interface for payments
US10748153B2 (en) 2014-05-29 2020-08-18 Apple Inc. User interface for payments
US10977651B2 (en) 2014-05-29 2021-04-13 Apple Inc. User interface for payments
US10438205B2 (en) 2014-05-29 2019-10-08 Apple Inc. User interface for payments
US11836725B2 (en) 2014-05-29 2023-12-05 Apple Inc. User interface for payments
US10749967B2 (en) 2016-05-19 2020-08-18 Apple Inc. User interface for remote authorization
US11206309B2 (en) 2016-05-19 2021-12-21 Apple Inc. User interface for remote authorization
US10334054B2 (en) 2016-05-19 2019-06-25 Apple Inc. User interface for a device requesting remote authorization
US10872256B2 (en) 2017-09-09 2020-12-22 Apple Inc. Implementation of biometric authentication
US10410076B2 (en) 2017-09-09 2019-09-10 Apple Inc. Implementation of biometric authentication
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication
US11386189B2 (en) 2017-09-09 2022-07-12 Apple Inc. Implementation of biometric authentication
US10395128B2 (en) 2017-09-09 2019-08-27 Apple Inc. Implementation of biometric authentication
US10783227B2 (en) 2017-09-09 2020-09-22 Apple Inc. Implementation of biometric authentication
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US10521579B2 (en) 2017-09-09 2019-12-31 Apple Inc. Implementation of biometric authentication
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US11928200B2 (en) 2018-06-03 2024-03-12 Apple Inc. Implementation of biometric authentication
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
US11809784B2 (en) 2018-09-28 2023-11-07 Apple Inc. Audio assisted enrollment
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11619991B2 (en) 2018-09-28 2023-04-04 Apple Inc. Device control using gaze information

Similar Documents

Publication Publication Date Title
JP2007058397A (en) Authentication system, registration system, and medium for certificate
JP4645411B2 (en) Authentication system, registration system and program
JP4696778B2 (en) Authentication apparatus, authentication method, and program
JP4539494B2 (en) Authentication apparatus, authentication method, and program
JP4752433B2 (en) Modeling system, modeling method and program
JP4992289B2 (en) Authentication system, authentication method, and program
JP4780198B2 (en) Authentication system and authentication method
JP4653606B2 (en) Image recognition apparatus, method and program
Smeets et al. meshSIFT: Local surface features for 3D face recognition under expression variations and partial data
Bronstein et al. Three-dimensional face recognition
JP4950787B2 (en) Image processing apparatus and method
TWI394093B (en) An image synthesis method
JP4539519B2 (en) Stereo model generation apparatus and stereo model generation method
WO2006049147A1 (en) 3d shape estimation system and image generation system
JP2012221061A (en) Image recognition apparatus, image recognition method and program
JPWO2009004916A1 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
JP5018029B2 (en) Authentication system and authentication method
JP4379459B2 (en) Object collation method, object collation apparatus, and recording medium recording the program
JP4956983B2 (en) Authentication system, authentication method and program
CN112990047A (en) Multi-pose face verification method combining face angle information
JP4525523B2 (en) Authentication system, authentication method and program
JP2012221053A (en) Image recognition apparatus, image recognition method and program
JP4956967B2 (en) Authentication system, authentication method and program
Huber Real-time 3D morphable shape model fitting to monocular in-the-wild videos
Ekenel et al. 3-D face recognition using local appearance-based models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080424

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100222

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100518