JP4929828B2 - Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program - Google Patents

Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program Download PDF

Info

Publication number
JP4929828B2
JP4929828B2 JP2006131677A JP2006131677A JP4929828B2 JP 4929828 B2 JP4929828 B2 JP 4929828B2 JP 2006131677 A JP2006131677 A JP 2006131677A JP 2006131677 A JP2006131677 A JP 2006131677A JP 4929828 B2 JP4929828 B2 JP 4929828B2
Authority
JP
Japan
Prior art keywords
dimensional
dimensionality
plane
points
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006131677A
Other languages
Japanese (ja)
Other versions
JP2007304801A (en
Inventor
敦 丸亀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006131677A priority Critical patent/JP4929828B2/en
Publication of JP2007304801A publication Critical patent/JP2007304801A/en
Application granted granted Critical
Publication of JP4929828B2 publication Critical patent/JP4929828B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、顔画像による個人認証時の不正認証を検出する立体性認証方法、立体性認証装置および立体性認証プログラムに関する。   The present invention relates to a three-dimensional authentication method, a three-dimensional authentication apparatus, and a three-dimensional authentication program for detecting fraud authentication during personal authentication using a face image.

顔画像による個人認証時の問題として、クラッキングによる不正認証がある。クラッキングによる不正認証とは、本人以外の人物がなんらかの手段で本人に「なりすまし」て認証システムを通過することである。具体的な方法としては、実行の容易さから、本人が撮影された写真を用いることが多い。写真を利用したなりすましは、紙のような媒体に印刷して用いるか、モニタのような表示装置に映して用いることが考えられる。   As a problem at the time of personal authentication using a face image, there is an unauthorized authentication using cracking. Unauthorized authentication by cracking means that a person other than the person “spoofs” the person by some means and passes through the authentication system. As a specific method, a photograph taken by the person is often used because of the ease of execution. Impersonation using a photo can be used by printing on a medium such as paper or using it on a display device such as a monitor.

表示物上の顔は3次元世界では平面である。すなわち、現実の世界である3次元世界において、紙やモニタなどに表示された顔は2次元の情報(平面)である。また、現実の世界では、動作もあるのでこれを利用することが考えられる。特許文献1には、顔の部分領域の動きで判定する方法の一つが記載されている。特許文献1では、目や口の閉開に着目している。目や口は顔の特徴の中でも見つけやすいものであり、動きが生じやすい部分であるのでこの方法は一つの対処策である。   The face on the display object is a plane in the three-dimensional world. That is, in the three-dimensional world that is the real world, the face displayed on paper or a monitor is two-dimensional information (plane). Also, in the real world, there are movements that can be used. Japanese Patent Application Laid-Open No. 2004-151561 describes one method of determining based on the movement of a partial area of a face. In Patent Document 1, attention is paid to the opening and closing of eyes and mouths. This method is one countermeasure because the eyes and mouth are easy to find among the facial features and easily move.

他のアプローチとして、表示物上の顔は3次元世界では平面であるのに対し、実物の顔は立体的であることを利用する方法がある。   As another approach, there is a method using the fact that the face on the display object is a plane in the three-dimensional world, whereas the real face is three-dimensional.

特許文献2には、この方針による方法として、光を照射する方法、ステレオ視による方法、複数の特定動作時の顔画像を登録する方法が記載されている。また、特許文献3には、より直接的に距離測定用センサを用いる方法があげられている。   Patent Document 2 describes a method based on this policy, a method of irradiating light, a method of stereo vision, and a method of registering a plurality of face images during specific operations. Japanese Patent Application Laid-Open No. H10-228561 discloses a method of using a distance measurement sensor more directly.

光を照射する方法では、顔が3次元形状をもつことから生じる陰影を利用する。ステレオ視による方法は、位置関係が既知の複数のカメラによって撮影された画像のそれぞれを用いて、もしくは位置制御がされた1台のカメラによって異なる視点で撮影された複数画像を用いて、三角測量原理により3次元形状を計測する方法である。   In the method of irradiating light, the shadow generated from the fact that the face has a three-dimensional shape is used. The method using stereo vision is triangulation using each of images taken by a plurality of cameras whose positional relationships are known, or using a plurality of images taken from different viewpoints by one camera whose position is controlled. This is a method for measuring a three-dimensional shape based on the principle.

複数の特定動作時の顔画像を登録する方法では、登録時に複数姿勢の画像を登録しておき、認証時に正面画像とある一定以上の姿勢変化画像を用いれば、写真などの平面物によるなりすましを排除するのは容易である。距離測定用センサには、パターン光を照射してその画像で計測するものなどがあり、原理的には光を照射する方法とステレオ視による方法の組み合わせに近い。   In the method of registering multiple face images for specific actions, if images of multiple postures are registered at the time of registration and a front image and a certain or more posture change image are used at the time of authentication, impersonation by a plane object such as a photo is performed. It is easy to eliminate. The distance measuring sensor includes a sensor that irradiates pattern light and measures the image, and in principle, is close to a combination of a light irradiation method and a stereo method.

特開2002−251614号公報(段落0045−0055)JP 2002-251614 A (paragraphs 0045-0055) 特開2003−178306号公報(段落0015,0039,0055)JP 2003-178306 A (paragraphs 0015, 0039, 0055) 特開2005−135271号公報(段落0022−0026)Japanese Patent Laying-Open No. 2005-135271 (paragraphs 0022-0026)

しかし、特許文献1に記載された方式では、次のような問題がある。瞼の動作は人、もしくは撮像画像によっては小さくて見つけづらいこともある。目と口の動作は人の顔の表情も大きく変えるため、周囲の目が気になるところでは行いにくい心理的な抵抗もあり、携帯端末のようなさまざまな使用場所が想定されるものには実装しづらい。   However, the method described in Patent Document 1 has the following problems. The movement of the kite is small and difficult to find depending on the person or the captured image. The movement of the eyes and mouth greatly changes the facial expression of the person, so there is also a psychological resistance that is difficult to do where the surrounding eyes are concerned. Difficult to implement.

また、特許文献2に記載された方法である光を照射する方法は、照明条件に影響されやすいため使用場所が限定され、性能の安定度も期待しづらい。ステレオ視による方法は、ステレオ視による形状計測の問題がそのままあてはまり、複数の位置関係が定まったカメラか、1台のカメラの位置を制御する装置が必要になり、使用場所や実装条件が制限される。   In addition, the method of irradiating light, which is the method described in Patent Document 2, is easily affected by illumination conditions, so the place of use is limited and it is difficult to expect stability of performance. In the stereo method, the problem of shape measurement by stereo view is applied as it is, and a camera with multiple positional relationships or a device for controlling the position of one camera is required, and the use place and mounting conditions are limited. The

特許文献3に記載された方法である複数の特定動作時の顔画像を登録する方法では、複数の特定動作時の登録が面倒であり、正面以外の顔認証は困難である問題もある。距離測定用センサを用いる方法は確実であるが、コストがかかり、携帯端末など小さなものへの実装は難しい。   In the method of registering face images at a plurality of specific operations, which is a method described in Patent Document 3, registration at a plurality of specific operations is troublesome, and there is a problem that face authentication other than the front is difficult. Although the method using the distance measuring sensor is reliable, it is expensive and difficult to mount on a small device such as a portable terminal.

本発明の目的の一つは、顔認証における写真などによる不正認証を防止する立体性認証方法、立体性認証装置および立体性認証プログラムを提供することにある。   One of the objects of the present invention is to provide a three-dimensional authentication method, a three-dimensional authentication device, and a three-dimensional authentication program for preventing unauthorized authentication by a photograph or the like in face authentication.

本発明の目的の一つは、携帯端末などの小型の装置での顔認証における写真などによる不正認証を防止する立体性認証方法、立体性認証装置および立体性認証プログラムを提供することにある。   One of the objects of the present invention is to provide a three-dimensional authentication method, a three-dimensional authentication device, and a three-dimensional authentication program for preventing unauthorized authentication by a photograph or the like in face authentication in a small device such as a portable terminal.

本発明の目的の一つは、単一のカメラのみで顔認証における写真などによる不正認証を防止する立体性認証方法、立体性認証装置および立体性認証プログラムを提供することにある。   One of the objects of the present invention is to provide a three-dimensional authentication method, a three-dimensional authentication device, and a three-dimensional authentication program that prevent unauthorized authentication by a photograph or the like in face authentication using only a single camera.

本発明による立体性認証方法は、撮影対象物の立体性を判断する立体性認証方法であって、撮影対象物が異なる複数の視点から単一の撮影装置で撮影された複数の撮影画像を取得する入力ステップと、3次元座標系において同一平面上にないと推測される撮影対象物上の4つ以上の点に対応する特徴点を、入力ステップにおいて取得された撮影画像から抽出し、各特徴点の座標を取得する特徴点抽出ステップと、特徴点抽出ステップにおいて抽出された各特徴点のうち、平面を構成する特徴点として選択された平面構成点により構成されるその平面外の特徴点である立体性評価点の立体性を評価する量として定義される立体性評価量を計算する立体量計算ステップと、立体量計算ステップにおいて計算された立体性評価量にもとづいて撮影対象物の立体性を判定する立体性判定ステップとを含み、立体量計算ステップで、立体性評価点の3次元座標系における特徴点の座標を2次元座標系に変換した座標と、各平面構成点の3次元座標系における特徴点の座標を2次元座標系に変換した座標との差を撮影画像ごとに算出し、その撮影画像ごとに算出された差を要素ととして1つにまとめた行列である判定用行列のランク立体性評価量として算出し、立体性判定ステップで、判定用行列のランクが3である場合に、立体性評価点が平面上にないと判定することを特徴とする。 The three-dimensional authentication method according to the present invention is a three-dimensional authentication method for determining the three-dimensionality of a photographing object, and acquires a plurality of photographed images photographed by a single photographing device from a plurality of viewpoints having different photographing objects. And feature points corresponding to four or more points on the object to be photographed that are not on the same plane in the three-dimensional coordinate system are extracted from the photographed image acquired in the input step, A feature point extraction step for acquiring the coordinates of the point, and among the feature points extracted in the feature point extraction step, a feature point outside the plane constituted by the plane constituent points selected as the feature points constituting the plane A solid amount calculation step for calculating a three-dimensionality evaluation amount defined as an amount for evaluating the three-dimensionality of a certain three-dimensional evaluation point, and a photographing pair based on the three-dimensionality evaluation amount calculated in the three-dimensional amount calculation step. A three-dimensionality determination step for determining the three-dimensionality of the object, and the coordinates of the feature point in the three-dimensional coordinate system of the three-dimensional evaluation point converted into the two-dimensional coordinate system in the three-dimensional amount calculation step; The difference between the coordinate of the feature point in the three-dimensional coordinate system and the coordinate converted into the two-dimensional coordinate system is calculated for each captured image, and the difference calculated for each captured image is combined into one as a matrix. calculating a rank of a judgment matrix as a stereoscopic evaluation quantity, with the three-dimensional determination step, when the rank of the judgment matrix is 3, the three-dimensional evaluation point and judging not on a plane .

入力ステップにおいて、撮影対象物として人物の顔が撮影された撮影画像を取得してもよい。そのような構成によれば、人物の顔の立体性を判断することができ、撮影画像が、人物の顔写真が被写体として撮像された画像か、現実の立体的な顔が被写体として撮像された画像かを判断することができる。   In the input step, a photographed image obtained by photographing a person's face as a photographing object may be acquired. According to such a configuration, it is possible to determine the three-dimensionality of a person's face, and the photographed image is an image in which a person's face photograph is captured as a subject, or a real three-dimensional face is captured as a subject. It can be determined whether the image.

特徴点抽出ステップにおいて、人物の顔の左目の中心、右目の中心、唇の左端、唇の右端、鼻の頂点、鼻の下および唇の上端のいずれか4つ以上の点に対応する特徴点を抽出してもよい。そのような構成によれば、顔の表情を変えることなく、立体性を判断することができる。   In the feature point extraction step, feature points corresponding to four or more points of the center of the left eye of the human face, the center of the right eye, the left end of the lips, the right end of the lips, the apex of the nose, the bottom of the nose, and the upper end of the lips May be extracted. According to such a configuration, the three-dimensionality can be determined without changing the facial expression.

本発明による立体性認証装置は、撮影対象物の立体性を判断する立体性認証装置であって、撮影対象物が異なる複数の視点から単一の撮影装置で撮影された複数の撮影画像を取得する入力手段と、3次元座標系において同一平面上にないと推測される撮影対象物上の4つ以上の点に対応する特徴点を、入力手段によって取得された撮影画像から抽出し、各特徴点の座標を取得する特徴点抽出手段と、特徴点抽出手段によって抽出された各特徴点のうち、平面を構成する特徴点として選択された平面構成点により構成されるその平面外の特徴点である立体性評価点の立体性を評価する量として定義される立体性評価量を計算する立体量計算手段と、立体量計算手段によって計算された立体性評価量にもとづいて撮影対象物の立体性を判定する立体性判定手段とを備え、立体量計算手段が、立体性評価点の3次元座標系における特徴点の座標を2次元座標系に変換した座標と、各平面構成点の3次元座標系における特徴点の座標を2次元座標系に変換した座標との差を撮影画像ごとに算出し、その撮影画像ごとに算出された差を要素として1つにまとめた行列である判定用行列のランク立体性評価量として算出し、立体性判定手段が、判定用行列のランクが3である場合に、立体性評価点が平面上にないと判定することを特徴とする。 The three-dimensional authentication apparatus according to the present invention is a three-dimensional authentication apparatus for determining the three-dimensionality of a photographing object, and acquires a plurality of photographed images photographed by a single photographing apparatus from a plurality of viewpoints having different photographing objects. And feature points corresponding to four or more points on the object to be photographed that are not in the same plane in the three-dimensional coordinate system are extracted from the photographed image acquired by the input means, A feature point extracting means for acquiring the coordinates of the point, and among the feature points extracted by the feature point extracting means, a feature point outside the plane constituted by the plane constituent points selected as the feature points constituting the plane. A three-dimensional amount calculation means for calculating a three-dimensionality evaluation amount defined as an amount for evaluating the three-dimensionality of a certain three-dimensional evaluation point, and a three-dimensionality of an object to be photographed based on the three-dimensionality evaluation amount calculated by the three-dimensional amount calculation means To determine And a three-dimensional calculation unit that converts the coordinates of the feature points in the three-dimensional coordinate system of the three-dimensional evaluation points into a two-dimensional coordinate system, and the feature points in the three-dimensional coordinate system of each plane component point. The difference between the coordinates of the two-dimensional coordinate system and the coordinates converted into a two-dimensional coordinate system is calculated for each captured image, and the rank of the determination matrix, which is a matrix in which the differences calculated for each captured image are combined into one element, is represented by three-dimensionality. It is calculated as an evaluation amount, and the three-dimensionality determination means determines that the three-dimensionality evaluation point is not on a plane when the rank of the determination matrix is 3.

入力手段は、撮影対象物として人物の顔が撮影された撮影画像を取得してもよい。そのような構成によれば、人物の顔の立体性を判断することができ、撮影画像が、人物の顔写真が被写体として撮像された画像か、現実の立体的な顔が被写体として撮像された画像かを判断することができる。   The input unit may acquire a captured image in which a person's face is captured as a capturing target. According to such a configuration, it is possible to determine the three-dimensionality of a person's face, and the photographed image is an image in which a person's face photograph is captured as a subject, or a real three-dimensional face is captured as a subject. It can be determined whether the image.

特徴点抽出手段は、人物の顔の左目の中心、右目の中心、唇の左端、唇の右端、鼻の頂点、鼻の下および唇の上端のいずれか4つ以上の点に対応する特徴点を抽出してもよい。そのような構成によれば、顔の表情を変えることなく、立体性を判断することができる。   The feature point extraction means is a feature point corresponding to any four or more points of the center of the left eye of the person's face, the center of the right eye, the left end of the lips, the right end of the lips, the top of the nose, the bottom of the nose, and the top of the lips May be extracted. According to such a configuration, the three-dimensionality can be determined without changing the facial expression.

本発明は、撮影対象物の立体性を判断するコンピュータに搭載される立体性認証プログラムであって、コンピュータに、撮影対象物が異なる複数の視点から単一の撮影装置で撮影された複数の撮影画像を取得する入力処理と、3次元座標系において同一平面上にないと推測される撮影対象物上の4つ以上の点に対応する特徴点を、入力処理において取得された撮影画像から抽出し、各特徴点の座標を取得する特徴点抽出処理と、特徴点抽出処理において抽出された各特徴点のうち、平面を構成する特徴点として選択された平面構成点により構成されるその平面外の特徴点である立体性評価点の立体性を評価する量として定義される立体性評価量を計算する立体量計算処理と、立体量計算処理において計算された立体性評価量にもとづいて撮影対象物の立体性を判定する立体性判定処理とを実行させ、立体量計算処理で、立体性評価点の3次元座標系における特徴点の座標を2次元座標系に変換した座標と、各平面構成点の3次元座標系における特徴点の座標を2次元座標系に変換した座標との差を撮影画像ごとに算出させ、その撮影画像ごとに算出された差を要素として1つにまとめた行列である判定用行列のランク立体性評価量として算出させ、立体性判定処理で、判定用行列のランクが3である場合に、立体性評価点が平面上にないと判定させることを特徴とする。 The present invention relates to a three-dimensional authentication program installed in a computer for determining the three-dimensionality of an object to be imaged, and a plurality of images captured by a single image capturing device from a plurality of viewpoints with different object to be imaged. Extracting feature points corresponding to four or more points on the object to be photographed that are assumed not to be on the same plane in the three-dimensional coordinate system from the photographed image obtained in the input process A feature point extraction process for obtaining the coordinates of each feature point, and out of the plane constituted by the plane constituent points selected as the feature points constituting the plane among the feature points extracted in the feature point extraction process Shooting based on the three-dimensionality calculation processing for calculating the three-dimensionality evaluation amount defined as the amount to evaluate the three-dimensionality of the three-dimensional evaluation point, which is a feature point, and the three-dimensionality evaluation amount calculated in the three-dimensional calculation processing And a three-dimensionality determination process for determining the three-dimensionality of the figurine, and the coordinates of the feature points in the three-dimensional coordinate system of the three-dimensionality evaluation point converted into the two-dimensional coordinate system in the three-dimensional amount calculation process, and each plane A matrix in which the difference between the coordinate of the feature point in the three-dimensional coordinate system of the component point and the coordinate converted into the two-dimensional coordinate system is calculated for each captured image, and the difference calculated for each captured image is combined into one matrix the rank of the judgment matrix is then calculated as a stereoscopic evaluation quantity, with the three-dimensional determination process, when the rank of the judgment matrix is 3, and characterized in that the three-dimensional evaluation point is determined not on a plane To do.

本発明による立体性認証方法の好ましい一態様は、例えば、単一のカメラで認証者の姿勢を変えた複数の顔画像を撮像し、それぞれで3点以上の特徴点と3次元空間においてそれらの3点で構成される平面上にない1点以上の特徴点を取得する。通常のステレオ視は、距離や形状を測定するものであるので、特許文献2の記載のようにカメラの位置関係が既知の複数のカメラを用いるか、単一のカメラを位置制御しながら移動させ撮像する必要がある。しかしながら、立体性の判定は、正確な距離や形状を測定する必要はなく、平面性を判定できれば十分であり、距離や形状の変わりに立体性評価量を定義し、これを計算した結果で写真など人工物上の顔か実物の顔かを判定する。特に、顔の中でも、比較的抽出が容易な両目中心と唇の左右両端のいずれかで作る平面と、鼻の頂点、鼻の下点、上唇上端の中央点などは、実物の顔では明白な立体性があるのでこれを検出できれば良い。複数の位置関係が定まったカメラや、1台のカメラの位置を制御する装置がない、1台のアンキャリブレートによるステレオ視でも、両目中心、唇の左右両端などのうちの3点で構成される平面に対する鼻の頂点などいずれかによる1点の立体性は、上記の立体性評価量で検出できるのでこれを利用する。以上により、本発明の目的を達成することができる。   A preferable aspect of the three-dimensional authentication method according to the present invention is, for example, that a plurality of face images with different postures of the authenticator are captured by a single camera, and each of them is characterized by three or more feature points and three-dimensional space. One or more feature points that are not on a plane composed of three points are acquired. Since normal stereo vision measures distance and shape, use a plurality of cameras with known camera positional relationships as described in Patent Document 2, or move a single camera while controlling the position. Need to image. However, it is not necessary to measure the exact distance and shape for the determination of the three-dimensionality, and it is sufficient if the flatness can be determined. Whether it is a face on an artificial object or a real face. In particular, in the face, the plane created by the center of both eyes and the left and right ends of the lips, which is relatively easy to extract, and the top of the nose, the lower point of the nose, and the central point of the upper end of the upper lip are obvious on the real face. It is only necessary to detect this because of the three-dimensionality. There is no camera with multiple positional relationships or a device that controls the position of one camera. Even in stereo viewing with one uncalibrated camera, it is composed of three points: the center of both eyes and the left and right ends of the lips. One point of three-dimensionality due to the apex of the nose with respect to the plane can be detected by the above three-dimensionality evaluation amount, and this is utilized. As described above, the object of the present invention can be achieved.

本発明の第1の効果は、顔画像による個人認証時に写真による不正認証を検出、防止する点にある。その理由は、認証時に撮影画像中の顔の立体性を計算するからである。   The first effect of the present invention is to detect and prevent unauthorized authentication using a photograph during personal authentication using a face image. This is because the three-dimensionality of the face in the captured image is calculated at the time of authentication.

本発明の第2の効果は、携帯端末など小型の装置上で顔画像による個人認証時に写真による不正認証を検出、防止する点にある。その理由は、携帯端末などに付属の小型のカメラで撮影した顔画像のみで不正認証を検出、防止するからである。   The second effect of the present invention is to detect and prevent unauthorized authentication using a photograph during personal authentication using a face image on a small device such as a portable terminal. The reason is that fraud authentication is detected and prevented only with a face image taken with a small camera attached to a portable terminal or the like.

本発明の第3の効果は、周囲の目が気になる場所でも写真による不正認証を検出、防止した顔画像認証が可能な点にある。その理由は、認証時に撮影画像中の顔の立体性を計算し、目や口のような顔の表情が変わるような顔動作を必要としないことにある。   The third effect of the present invention is that it is possible to perform face image authentication in which unauthorized authentication by a photograph is detected and prevented even in places where surrounding eyes are concerned. The reason is that, during authentication, the three-dimensionality of the face in the photographed image is calculated, and a face motion that changes the facial expression such as eyes and mouth is not required.

本発明の第4の効果は、低コストで顔画像による個人認証時に写真による不正認証を検出、防止する点にある。その理由は、単一のカメラで実現可能で、ステレオカメラやカメラ制御装置、光照射器、距離センサなどを必要としないからである。   The fourth effect of the present invention is to detect and prevent fraud authentication using photographs at the time of personal authentication using face images at low cost. The reason is that it can be realized by a single camera and does not require a stereo camera, a camera control device, a light irradiator, a distance sensor, or the like.

本発明の第5の効果は、顔認証時の計算処理を軽減しつつ個人認証時に写真による不正認証を検出、防止する点にある。その理由は、登録画像は正面顔単一でよく、顔認証が困難になる横向き顔画像を用いる必要がないからである。さらに、目や口の動作のような人によっては検出しづらい動作を検出する必要も無い。   A fifth effect of the present invention is to detect and prevent unauthorized authentication by a photo at the time of personal authentication while reducing calculation processing at the time of face authentication. The reason is that the registered image may be a single front face, and there is no need to use a side face image that makes face authentication difficult. Furthermore, it is not necessary to detect movements that are difficult to detect depending on the person such as the movements of the eyes and mouth.

実施の形態1.
以下、本発明の第1の実施の形態を図面を参照して説明する。図1は、本発明による立体性認証装置の第1の実施の形態を示すブロック図である。
Embodiment 1 FIG.
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a first embodiment of a three-dimensional authentication apparatus according to the present invention.

図1に示す立体性認証装置は、複数の姿勢の顔画像群S10a,S10bを撮像、蓄積する撮像手段10と、顔画像S10a,S10bのそれぞれにおいて画像間で対応づけられた特定の特徴点S20a,S20bを取得する特徴点抽出手段20と、それらの特徴点座標値S20a,S20bから平面外にある特徴点の立体性評価量S30を計算する立体量計算手段30と、その立体性評価量S30から、写真など人工物による不正認証か否かを判定する立体性判定手段40とを備える。   The three-dimensional authentication apparatus shown in FIG. 1 captures and accumulates face image groups S10a and S10b having a plurality of postures, and specific feature points S20a associated between the images in each of the face images S10a and S10b. , S20b, the feature point extraction means 20, the feature quantity coordinate means S20a, S20b, the feature quantity extraction means 30 that computes the feature value S30 of the feature point outside the plane, and the feature value S30. And a three-dimensionality determining means 40 for determining whether or not the unauthorized authentication is performed by an artificial object such as a photograph.

撮像手段10は、姿勢の異なる複数の顔画像S10a,S10bを撮像して蓄積する。すなわち、撮像手段10は、撮像時の視点や構図(姿勢)の異なる顔画像を複数撮像する。撮像手段10は、通常のカメラで実現される。携帯端末に付属の小型のものでも可能である。カメラは静止画用のスチルカメラ、動画用のビデオカメラでも良い。撮像手段10が動画用のビデオカメラである場合には、撮像手段10は、顔画像として、撮像した動画像から顔姿勢の異なるフレームを複数切り出す必要がある。   The imaging unit 10 captures and accumulates a plurality of face images S10a and S10b having different postures. That is, the imaging unit 10 captures a plurality of face images having different viewpoints and compositions (postures) at the time of imaging. The imaging means 10 is realized by a normal camera. A small one attached to the portable terminal is also possible. The camera may be a still camera for still images or a video camera for moving images. When the imaging unit 10 is a video camera for moving images, the imaging unit 10 needs to extract a plurality of frames having different face postures from the captured moving image as a face image.

特徴点抽出手段20は、撮像手段10で撮像された複数の姿勢の顔画像S10a,S10bそれぞれから、顔の中の特徴点を抽出する。特徴点の抽出は、手動でもよいが、応用を考えると特徴抽出フィルタなどを用いて自動的に抽出するほうが望ましい。   The feature point extraction unit 20 extracts feature points in the face from each of the face images S10a and S10b having a plurality of postures imaged by the imaging unit 10. The feature points may be extracted manually, but it is preferable to automatically extract the feature points using a feature extraction filter or the like in consideration of application.

本発明において、特徴点は、ステレオ視における対応点として用いられるので、正確な特徴位置の取得よりも、画像間での対応が重要である。抽出する特徴点としては、任意の3つの特徴点(以下、平面構成点と表記する。)と、実物の顔においてその3点で構成される平面外の点(以下、立体性評価点と表記する。)が1点以上必要である。すなわち、立体性評価点は、3次元世界における実物の顔上の点に対応する点であって、3次元世界において抽出された3つの特徴点で構成される平面上にない点に対応する点である。   In the present invention, feature points are used as corresponding points in stereo vision, so correspondence between images is more important than accurate feature position acquisition. As feature points to be extracted, arbitrary three feature points (hereinafter referred to as plane composing points) and out-of-plane points (hereinafter referred to as three-dimensional evaluation points) constituted by the three points in the real face. ) Is required at least one point. That is, the three-dimensional evaluation point is a point corresponding to a point on the real face in the three-dimensional world and corresponding to a point that is not on the plane composed of the three feature points extracted in the three-dimensional world. It is.

理論上は、任意の3つの特徴点および立体性評価点の組み合わせは無限にあるが、特徴抽出フィルタなどを用いて自動的に特徴点抽出する場合は、抽出対象の点が限られてくる。図2は、特徴点抽出手段20が抽出する特徴点の例を示す説明図である。図2に例示するように、自動抽出で容易な特徴点候補として、平面構成点としては、例えば、右目の中心、左目の中心、唇の右端および唇の左端の計4点のうちのいずれか3点があげられる。立体性評価点としては、例えば、鼻の頂点、鼻の下、唇上端中央などがあげられる。   Theoretically, there are an infinite number of combinations of three arbitrary feature points and three-dimensionality evaluation points. However, when feature points are automatically extracted using a feature extraction filter or the like, the points to be extracted are limited. FIG. 2 is an explanatory diagram illustrating an example of feature points extracted by the feature point extraction unit 20. As illustrated in FIG. 2, as a feature point candidate that can be easily extracted by automatic extraction, as a plane composing point, for example, any one of a total of four points including the center of the right eye, the center of the left eye, the right end of the lips, and the left end of the lips. Three points are given. Examples of the three-dimensionality evaluation point include the apex of the nose, the bottom of the nose, and the center of the upper end of the lips.

実物の人の顔であれば、前者で構成される平面に対して、後者の立体性が認められる。すなわち、顔画像S10a,S10bが、顔写真が被写体として撮像された画像ではなく、現実の立体的な顔が被写体として撮像された画像であれば、特徴点抽出手段20によって抽出される立体性評価点は、3つの平面構成点で構成される平面上の点ではないと算出される。   In the case of a real human face, the latter three-dimensionality is recognized with respect to the former plane. That is, if the face images S10a and S10b are not images in which face photographs are taken as subjects, but are images in which a real three-dimensional face is taken as a subject, the three-dimensionality evaluation extracted by the feature point extraction means 20 The point is calculated not to be a point on a plane constituted by three plane composing points.

立体量計算手段30は、特徴点抽出手段20で抽出された各画像の特徴点座標S20a,S20bから立体性評価点の立体性評価量S30を計算する。図2に示すように、平面構成点として、右目中心(P)、左目中心(P)、唇右端(P)を用い、立体性評価点Pとして、上の3点(例えば、鼻の頂点、鼻の下、唇上端中央)のいずれかを選択し、顔の姿勢1,2を撮影した画像(画像1,2とする)を用いる場合を例示して説明する。 The three-dimensional amount calculation unit 30 calculates the three-dimensionality evaluation amount S30 of the three-dimensionality evaluation point from the feature point coordinates S20a and S20b of each image extracted by the feature point extraction unit 20. As shown in FIG. 2, using the right eye center (P 0 ), the left eye center (P 1 ), and the right lip edge (P 2 ) as the plane composing points, the three points (for example, the nose) as the three-dimensionality evaluation points P are used. In the following, an example will be described in which images of the face postures 1 and 2 (images 1 and 2) are used.

また、以下の説明は、カメラモデル(透視投影モデル)として、ステレオ視で一般的なピンホールカメラモデルにより近似できる場合を例示して行う。図3は、ピンホールカメラモデルの例を説明するための説明図である。ピンホールカメラモデルは、ステレオ視で一般的なカメラモデルであって、3次元空間における撮像対象が2次元の画像へ投影される場合において、撮像対象と画像への結像との位置関係を単純に理想化したモデルである。ピンホールカメラは、ピンホール(ピンで開けられたような小さな穴)を通して入射する光のみが撮像面に到達するカメラである。ピンホールカメラにおいては、ピンホールを焦点と考えることができる。なお、ピンホールカメラでは、撮像面に投影される像の上下が逆になることから、図3に示すように、撮像面をピンホールと撮像対象との間に移動したモデルを使用する。   In the following description, a case where the camera model (perspective projection model) can be approximated by a general pinhole camera model in stereo view will be exemplified. FIG. 3 is an explanatory diagram for explaining an example of a pinhole camera model. The pinhole camera model is a general camera model in stereo view, and when an imaging target in a three-dimensional space is projected onto a two-dimensional image, the positional relationship between the imaging target and image formation on the image is simplified. This is an ideal model. A pinhole camera is a camera in which only light incident through a pinhole (a small hole opened by a pin) reaches the imaging surface. In a pinhole camera, the pinhole can be considered as the focal point. In the pinhole camera, since the image projected on the imaging surface is upside down, a model in which the imaging surface is moved between the pinhole and the imaging target is used as shown in FIG.

図3に示すように、ピンホールを原点とする3次元座標系(X,Y,Z)を取るとともに、撮像面上に2次元の画像座標系(u,v)を取る。平面構成点P(i=0,1,2)の3次元空間上の座標をP(X,Y,Z)とし、立体性評価点Pの3次元空間上の座標をP(X,Y,Z)とする。 As shown in FIG. 3, a three-dimensional coordinate system (X, Y, Z) having a pinhole as an origin is taken, and a two-dimensional image coordinate system (u, v) is taken on the imaging surface. The coordinates of the plane composing point P i (i = 0, 1, 2) in the three-dimensional space are P i (X i , Y i , Z i ), and the coordinates of the three-dimensional evaluation point P in the three-dimensional space are P (X, Y, Z).

また、P(i=0,1,2)の姿勢j(j=1,2)の画像中での座標を(u ,v )、Pの姿勢j(j=1,2)の画像中での座標を(u,v)とする。すなわち、3次元座標系におけるP(X,Y,Z)が、画像座標系における(u ,v )に写像されるとする。なお、図3には、姿勢j(j=1,2)の撮像面を例示し、P(X,Y,Z)が(u,v)に写像され、P(X,Y,Z)が(u ,v )に写像される場合を例示する。 Also, the coordinates in the image of the posture j (j = 1, 2) of P i (i = 0, 1, 2) are (u i j , v i j ), and the posture j of P (j = 1, 2). ) In the image is (u j , v j ). That is, it is assumed that P i (X i , Y i , Z i ) in the three-dimensional coordinate system is mapped to (u i j , v i j ) in the image coordinate system. FIG. 3 illustrates an imaging surface of posture j (j = 1, 2), P (X, Y, Z) is mapped to (u j , v j ), and P 0 (X 0 , Y The case where 0 , Z 0 ) is mapped to (u 0 j , v 0 j ) is illustrated.

カメラをピンホールカメラと仮定したときの焦点距離をfとしたとき、以下の式1が成り立つ。なお、Tは転置を意味する。また、焦点距離fは、ピンホールから撮像面までの距離である。   When the focal length when the camera is assumed to be a pinhole camera is f, the following formula 1 is established. T means transposition. The focal length f is a distance from the pinhole to the imaging surface.

Figure 0004929828
Figure 0004929828

なお、式(1)において、ξ =Z /fであり、式(2)において、ξ=Z/fである。式(1),(2)に示す変換は、透視投影(透視変換)と呼ばれる。ξ ,ξ は、透視投影における倍率値である。 In Expression (1), ξ i j = Z i j / f, and in Expression (2), ξ j = Z j / f. The transformations shown in equations (1) and (2) are called perspective projection (perspective transformation). ξ 1 j and ξ 2 j are magnification values in perspective projection.

ここで、立体性評価点Pが、平面構成点P,P,Pでなす平面上にあるとき、A,Bを実数とすると Here, when the three-dimensionality evaluation point P is on the plane formed by the plane constituent points P 0 , P 1 , P 2 , A and B are real numbers.

Figure 0004929828
Figure 0004929828

なる線形従属な関係が成りたつ。そこで、式(1),(2)を式(3)に代入し、S =ξ /ξ ,S =ξ /ξ ,S=ξ/ξ とすると、以下の式(4)が得られる。 This is a linearly dependent relationship. Therefore, the expressions (1) and (2) are substituted into the expression (3), and S 1 j = ξ 1 j / ξ 0 j , S 2 j = ξ 2 j / ξ 0 j , S j = ξ j / ξ Assuming 0 j , the following equation (4) is obtained.

Figure 0004929828
Figure 0004929828

式(4)の3行目を展開すると、   Expanding the third line of equation (4),

Figure 0004929828
Figure 0004929828

が成り立つので、C=1−A−Bとして実数Cを定義し、式(5)を式(4)の1,2行目に代入して整理すると、式(4)の1,2行目について、   Therefore, if the real number C is defined as C = 1−A−B, and the formula (5) is substituted into the first and second rows of the formula (4) and rearranged, the first and second rows of the formula (4) about,

Figure 0004929828
Figure 0004929828

が成立する。姿勢1,2(j=1,2)から計算される式(6)をまとめると、以下の式(7)が得られる。   Is established. When the formula (6) calculated from the postures 1 and 2 (j = 1, 2) is put together, the following formula (7) is obtained.

Figure 0004929828
Figure 0004929828

式(7)中の行列をDとして、式(8)に示す。   The matrix in equation (7) is represented by equation (8), where D is D.

Figure 0004929828
Figure 0004929828

式(7)中のベクトル[AS ,BS ,C]は、C=1−A−Bから0ベクトルにはなりえないので、式(8)に示す行列Dのランク(階数)は次の理由から2になる。 Since the vector [AS 1 j , BS 2 j , C] T in equation (7) cannot be a 0 vector from C = 1−A−B, the rank (rank) of the matrix D shown in equation (8) ) Becomes 2 for the following reason.

行列Dは3次元空間Vに作用する写像である。点Pが平面構成点P,P,Pでなす平面上にある場合、ベクトル[AS ,BS ,C]の第3次元Cは1−A−Bであることから、実数A,Bに依存する1次元の拘束をもち、その結果、行列Dの核であるker(D)の次元は、dim(ker(D))=1になる。また、dimV=3である。次元定理 The matrix D is a mapping acting on the three-dimensional space V. When the point P is on the plane formed by the plane constituent points P 0 , P 1 , P 2 , the third dimension C of the vector [AS 1 j , BS 2 j , C] T is 1-A-B. As a result, the dimension of ker (D), which is the core of the matrix D, is dim (ker (D)) = 1. Also, dimV = 3. Dimensional theorem

dimV=dim(ker(D))+dim(D(V)) 式(9)   dimV = dim (ker (D)) + dim (D (V)) Equation (9)

を用いると、dim(D(V))つまり行列Dのランクは2になる。   , Dim (D (V)), that is, the rank of the matrix D is 2.

次に、立体性評価点Pが、平面構成点P,P,Pでなす平面上にない場合における行列Dのランクを求める。行列Dのランクから点Pが平面上にない場合も判定でき、この場合は、ベクトル[AS ,BS ,C]の第3次元Cの拘束はないので、dim(ker(D))=0になり、式(9)に示す次元定理から、dim(D(V))つまり行列Dのランクは3になる。 Next, the rank of the matrix D in the case where the three-dimensionality evaluation point P is not on the plane formed by the plane configuration points P 0 , P 1 , P 2 is obtained. It can also be determined from the rank of the matrix D that the point P is not on the plane. In this case, since there is no constraint in the third dimension C of the vector [AS 1 j , BS 2 j , C] T , dim (ker (D )) = 0, and dim (D (V)), that is, the rank of the matrix D is 3, from the dimensional theorem shown in Equation (9).

以上に説明したように、立体性評価点の立体性を評価する立体性評価量S30としては、行列Dのランクを示す量を採用すればよい。行列Dのランクを示す量の候補としては、例えば、行列Dの最小特異値、行列DDの最小固有値(Dの最小特異値の2乗に一致)、行列DDの特性多項式の0付近の値の変動などがあげられる。 As described above, an amount indicating the rank of the matrix D may be adopted as the three-dimensional evaluation amount S30 for evaluating the three-dimensionality of the three-dimensional evaluation point. Examples of candidates for the quantity indicating the rank of the matrix D include, for example, the smallest singular value of the matrix D, the smallest eigenvalue of the matrix D T D (matches the square of the smallest singular value of D), and 0 of the characteristic polynomial of the matrix D T D There are fluctuations in nearby values.

行列Dの要素を見ると、通常S /S ,S /S は未知である。しかしながら、ξ ,ξ は透視投影による倍率値であり、S =ξ /ξ ,S =ξ /ξ は平面構成点間のその値の比である。すなわち、S はξ とξ との比であって、S はξ とξ との比である。また、ξ ,ξ は透視投影による倍率値であることから、S はZとZとの比であり、S はZとZとの比である。したがって、未知量S /S ,S /S は、顔の平面構成点とカメラの撮像面の関係においては1付近の値であり、上にあげた鼻の頂点、鼻の下、唇上端中央程度の立体性が認められる立体性評価点を用いる限りは、1と見なして差し支えない。 Looking at the elements of the matrix D, S 1 2 / S 1 1 and S 2 2 / S 2 1 are usually unknown. However, ξ 1 j and ξ 2 j are magnification values obtained by perspective projection, and S 1 j = ξ 1 j / ξ 0 j , S 2 j = ξ 2 j / ξ 0 j is the value between plane composing points. Is the ratio. That is, S 1 j is a ratio between ξ 1 j and ξ 0 j, and S 2 j is a ratio between ξ 2 j and ξ 0 j . Since ξ 1 j and ξ 2 j are magnification values obtained by perspective projection, S 1 j is a ratio between Z 1 and Z 0, and S 2 j is a ratio between Z 2 and Z 0 . Therefore, the unknown quantities S 1 2 / S 1 1 and S 2 2 / S 2 1 are values in the vicinity of 1 in the relationship between the plane plane composing point and the imaging surface of the camera, As long as the three-dimensional evaluation point that shows the three-dimensionality around the center of the upper edge of the lips under the nose is used, it can be regarded as 1.

これにより、行列Dの最小特異値、行列DDの最小固有値(Dの最小特異値の2乗に一致)を立体性評価量S30に用いる場合は、単純な座標間の差を要素にもつ行列Dの特異値、固有値計算により求めることが可能になる。 As a result, when the minimum singular value of the matrix D and the minimum eigenvalue of the matrix D T D (matching the square of the minimum singular value of D) are used for the three-dimensionality evaluation amount S30, a simple coordinate difference is used as an element. It can be obtained by calculating singular values and eigenvalues of the matrix D.

行列DDの特性多項式の0付近の値を立体性評価量S30に用いる場合には、計算を整数演算だけで行うことが可能であるため、計算量を削減したい場合に効果がある。 When the value near 0 of the characteristic polynomial of the matrix D T D is used for the three-dimensionality evaluation amount S30, it is possible to perform the calculation only by integer arithmetic, which is effective when it is desired to reduce the calculation amount.

以下、立体性評価量S30として、行列DDの最小固有値および行列DDの特性多項式の0付近の値を用いることができることについて説明する。行列DDの特性多項式をf(x)とし、f(x)=0の解をλとする。λは、行列DDの固有値である。なお、行列DDの特性多項式の0付近の値とは、x=0の付近のf(x)の値である。 Hereinafter, as a stereoscopic evaluation amount S30, will be described that may be a value near 0 in the smallest eigenvalue and the characteristic polynomial of the matrix D T D of the matrix D T D. The characteristic polynomial of the matrix D T D is f (x), and the solution of f (x) = 0 is λ. λ is an eigenvalue of the matrix D T D. Note that the value near 0 in the characteristic polynomial of the matrix D T D is the value of f (x) near x = 0.

図4は、行列DDの特性多項式f(x)の例を示す説明図である。図4には、立体性評価点Pが平面構成点P,P,Pでなす平面内にある場合のf(x)の値が実線で表され、立体性評価点Pが鼻の下や上唇上端中央の点である場合のf(x)の値が破線で表され、立体性評価点Pが鼻の上の点である場合のf(x)の値が一点鎖線で表されている。 FIG. 4 is an explanatory diagram illustrating an example of the characteristic polynomial f (x) of the matrix D TD . In FIG. 4, the value of f (x) when the three-dimensional evaluation point P is in the plane formed by the plane constituent points P 0 , P 1 and P 2 is represented by a solid line, and the three-dimensional evaluation point P is the nose. The value of f (x) when the point is the center of the lower or upper lip upper end is represented by a broken line, and the value of f (x) when the three-dimensional evaluation point P is a point on the nose is represented by a dashed line. ing.

行列DDは、半正値対象行列であるため、すべての固有値は負の値を取らない。したがって、行列DDの最小固有値は0以上の値を取ることから、f(x)は、例えば図4に示すような値を取る。ここで、立体性評価点Pが平面構成点P,P,Pでなす平面内にある場合における行列DDの最小固有値をλとし、立体性評価点Pが鼻の下や上唇上端中央の点である場合における行列DDの最小固有値をλとし、立体性評価点Pが鼻の上の点である場合における行列DDの最小固有値をλとする。λ、λ、λは、それぞれ、図4においてf(x)が横軸(x軸)と交わる点のxの値である。 Since the matrix D T D is a semi-positive target matrix, all eigenvalues do not take negative values. Therefore, since the minimum eigenvalue of the matrix D T D takes a value of 0 or more, f (x) takes a value as shown in FIG. 4, for example. Here, the minimum eigenvalue of the matrix D T D when the three-dimensional evaluation point P is in the plane formed by the plane constituent points P 0 , P 1 , P 2 is λ 1 , and the three-dimensional evaluation point P is Let λ 2 be the minimum eigenvalue of the matrix D T D when it is the center of the upper lip upper end, and let λ 3 be the minimum eigenvalue of the matrix D T D when the three-dimensionality evaluation point P is a point on the nose. λ 1 , λ 2 , and λ 3 are values of x at the point where f (x) intersects the horizontal axis (x-axis) in FIG.

行列DDの固有値、すなわちf(x)=0の解であるλは、Dの特異値の2乗に一致することを考慮すると、立体性評価点Pが平面構成点P,P,Pでなす平面内にあるとき、最小固有値λは0付近の値になる。また、立体性評価点Pが平面構成点P,P,Pでなす平面外にあるとき、最小固有値λ,λは、ある程度0より大きい値になる。すなわち、行列DDの最小固有値にもとづいて、立体性評価点Pが平面構成点P,P,Pでなす平面内にあるか否かを判定することができる。 Considering that the eigenvalue of the matrix D T D, that is, λ, which is a solution of f (x) = 0, coincides with the square of the singular value of D, the three-dimensional evaluation point P becomes the plane constituent point P 0 , P 1. , P 2 , the minimum eigenvalue λ 1 is a value near zero. Further, when the three-dimensionality evaluation point P is outside the plane formed by the plane constituent points P 0 , P 1 , P 2 , the minimum eigenvalues λ 2 , λ 3 become values larger than 0 to some extent. That is, based on the minimum eigenvalue of the matrix D T D, it can be determined whether or not the three-dimensionality evaluation point P is within the plane formed by the plane constituent points P 0 , P 1 , P 2 .

また、固有値を通るとき(x=λのとき)、関数値が0になる特性多項式f(x)は、図4に示すように、立体性評価点Pが平面内外のいずれにあるかで、x=0付近の挙動が変わる。すなわち、立体性評価点Pが平面内にあるか否かにより、x=0の近傍において、f(x)の符号が変化するか否かが異なる。そこで、x=0付近の関数値f(−ε)とf(ε)(εは小さい正整数)を計算すれば、整数演算のみで実行可能である。立体性の判定は、これらの値が送られる立体性判定手段40で両者の値の符合変化で行われる。   Further, when passing through the eigenvalue (when x = λ), the characteristic polynomial f (x) whose function value is 0 is, as shown in FIG. The behavior near x = 0 changes. That is, whether or not the sign of f (x) changes near x = 0 depends on whether or not the three-dimensional evaluation point P is in the plane. Therefore, if function values f (−ε) and f (ε) (where ε is a small positive integer) near x = 0 are calculated, the calculation can be performed only by integer arithmetic. The determination of the three-dimensionality is performed by the sign change of both values by the three-dimensionality determination means 40 to which these values are sent.

すなわち、εの値を適切に取ることにより、f(ε)が正であってf(−ε)が負の値である場合には、立体性評価点Pが平面構成点P,P,Pでなす平面内にあると判定することができる。また、f(ε)およびf(−ε)がともに負の値である場合には、立体性評価点Pが平面構成点P,P,Pでなす平面上にないと判定することができる。 That is, by appropriately taking the value of ε, when f (ε) is positive and f (−ε) is a negative value, the three-dimensionality evaluation point P becomes the plane constituent points P 0 and P 1. , P 2 . When both f (ε) and f (−ε) are negative values, it is determined that the three-dimensionality evaluation point P is not on the plane formed by the plane constituent points P 0 , P 1 , P 2. Can do.

立体性判定手段40は、立体量計算手段30で計算された立体性評価量S30と、あらかじめ与えられた閾値とにもとづいて、立体性評価点の立体性、つまり写真などによる人工物上の顔か実物の顔かを判定する。   Based on the three-dimensional evaluation amount S30 calculated by the three-dimensional calculation unit 30 and a predetermined threshold value, the three-dimensionality determination unit 40 determines the three-dimensionality of the three-dimensional evaluation point, that is, the face on the artifact by a photograph or the like. Whether it is a real face or not.

判定の方法は、立体量計算手段30で計算された立体性評価量S30によって異なる。立体性評価量S30が、Dの最小特異値の場合は、その値の絶対値が一定の値(閾値)未満であれば平面的とみなし人工物であると判定し、絶対値が一定の値以上であれば立体的とみなし実物と判定する。   The determination method differs depending on the three-dimensionality evaluation amount S30 calculated by the three-dimensional amount calculation means 30. When the three-dimensionality evaluation amount S30 is the minimum singular value of D, if the absolute value of the value is less than a certain value (threshold value), the three-dimensionality evaluation amount S30 is regarded as a planar object, and the absolute value is constant. If it is more than that, it is regarded as a three-dimensional object and is determined to be real.

立体性評価量S30が、行列DDの最小固有値(Dの最小特異値の2乗に一致)の場合は、その値が一定の値未満であれば平面的とみなし人工物であると判定し、一定の値以上であれば立体的とみなし実物と判定する。 If the three-dimensionality evaluation amount S30 is the minimum eigenvalue of the matrix D T D (matches the square of the minimum singular value of D), if the value is less than a certain value, it is considered to be a plane and is determined to be an artifact. If it is equal to or greater than a certain value, it is regarded as a three-dimensional object and is determined to be real.

図4に示す例では、閾値をεとした場合に、例えば、行列DDの最小固有値がλの値を取れば、λはε未満の値であるので、立体性評価点Pは平面構成点P,P,Pでなす平面内にあると判断される。したがって、顔画像は、顔写真が被写体として撮像された画像であると判断される。また、例えば、行列DDの最小固有値がλの値を取れば、λはε以上の値であるので、立体性評価点Pは平面構成点P,P,Pでなす平面上にないと判断される。したがって、顔画像は、現実の立体的な顔が被写体として撮像された画像であると判断される。 In the example illustrated in FIG. 4, when the threshold is ε, for example, if the minimum eigenvalue of the matrix D T D is λ 1 , λ 1 is a value less than ε. It is determined that it is in the plane formed by the plane composing points P 0 , P 1 , P 2 . Therefore, the face image is determined to be an image obtained by capturing a face photograph as a subject. Further, for example, taking the minimum eigenvalue lambda 2 values of the matrix D T D, lambda 2 is because it is a value greater than epsilon, stereo evaluation point P formed by the planar configuration point P 0, P 1, P 2 It is determined that it is not on the plane. Therefore, the face image is determined to be an image obtained by capturing an actual three-dimensional face as a subject.

立体性評価量S30が、行列DDの特性多項式の0付近の値の変動の場合は、立体性の有無によって、特性方程式f(x)は、図4に示すように異なる値を取る。したがって、x=0付近の関数値f(−ε)とf(ε)の符号の変化があれば平面的とみなし人工物であると判定し、なければ立体的とみなし実物と判定する。 When the three-dimensionality evaluation amount S30 is a fluctuation of a value near 0 of the characteristic polynomial of the matrix D T D, the characteristic equation f (x) has different values as shown in FIG. Therefore, if there is a change in the sign of the function values f (−ε) and f (ε) near x = 0, it is determined as a planar object, and if not, it is determined as a three-dimensional object and determined as a real object.

図4に示す例では、例えば、行列DDの特性多項式f(x)のx=0付近の値であるf(−ε)が負の値を取り、かつf(ε)が正の値を取れば、立体性評価点Pは平面構成点P,P,Pでなす平面内にあると判断される。したがって、顔画像は、顔写真が被写体として撮像された画像であると判断される。また、例えば、f(−ε)が負の値を取り、かつf(ε)も負の値を取れば、立体性評価点Pは平面構成点P,P,Pでなす平面上にないと判断される。したがって、顔画像は、現実の立体的な顔が被写体として撮像された画像であると判断される。 In the example shown in FIG. 4, for example, f (−ε), which is a value near x = 0, of the characteristic polynomial f (x) of the matrix D T D takes a negative value, and f (ε) is a positive value. If it is taken, the three-dimensional evaluation point P is determined to be in the plane formed by the plane constituent points P 0 , P 1 , P 2 . Therefore, the face image is determined to be an image obtained by capturing a face photograph as a subject. For example, if f (−ε) takes a negative value and f (ε) also takes a negative value, the three-dimensionality evaluation point P is on the plane formed by the plane constituent points P 0 , P 1 , P 2. It is judged that it is not. Therefore, the face image is determined to be an image obtained by capturing an actual three-dimensional face as a subject.

以上に説明したように、第1の実施の形態によれば、撮像画像の被写体の立体性を算出することにより、被写体が顔写真であるか否かを判定することができるため、顔写真を用いた不正認証を検出することができる。   As described above, according to the first embodiment, it is possible to determine whether or not the subject is a facial photograph by calculating the three-dimensionality of the subject of the captured image. The unauthorized authentication used can be detected.

実施の形態2.
次に、本発明の第2の実施の形態を図面を参照して説明する。第2の実施の形態では、第1の実施の形態の各手段が立体性認証方法における各方法を実施する立体性認証装置について説明する。図5は、本発明による立体性認証装置の第2の実施の形態を示すブロック図である。図5に示す立体性認証装置は、撮像装置100と、特徴点抽出装置200と、立体量計算装置300と、立体性判定装置400とを備える。
Embodiment 2. FIG.
Next, a second embodiment of the present invention will be described with reference to the drawings. In the second embodiment, a three-dimensional authentication apparatus will be described in which each unit of the first embodiment performs each method in the three-dimensional authentication method. FIG. 5 is a block diagram showing a second embodiment of the three-dimensional authentication apparatus according to the present invention. 5 includes an imaging device 100, a feature point extraction device 200, a three-dimensional amount calculation device 300, and a three-dimensionality determination device 400.

撮像装置100は、普及型のデジタルカメラで良く、静止画用のスチルカメラ、動画用のビデオカメラでも良い。スチルカメラであれば、顔姿勢が異なる時に2回以上撮像し、2つ以上の画像を特徴点抽出装置200に送る。ビデオカメラであれば、顔姿勢動作時の動画をそのまま特徴点抽出装置200に送る。   The imaging apparatus 100 may be a popular digital camera, a still camera for still images, or a video camera for moving images. In the case of a still camera, two or more images are taken when the face posture is different, and two or more images are sent to the feature point extraction apparatus 200. In the case of a video camera, the moving image during the face posture operation is sent to the feature point extraction device 200 as it is.

図6は、特徴点抽出装置200の例を示す説明図である。特徴点抽出装置200は、図6に示すように、撮像装置100で撮像された画像データを蓄積するメモリやディスクなどのストレージ装置と、画像中の特徴点抽出の計算を行うCPUなどの演算装置とで実現可能である。撮像装置100がビデオカメラで構成されている場合は、動画中で顔姿勢が異なる2つ以上のフレームを、CPUによる演算により静止画像として切り出す。顔姿勢が異なる2つ以上の静止画像に対して、第1の実施の形態の特徴点抽出手段20が特徴点を抽出する方法により、CPUが特徴点座標抽出のための演算を行った後、特徴点座標データが立体量計算装置300に送られる。   FIG. 6 is an explanatory diagram illustrating an example of the feature point extraction apparatus 200. As shown in FIG. 6, the feature point extraction device 200 is a storage device such as a memory or a disk that stores image data captured by the imaging device 100, and an arithmetic device such as a CPU that performs calculation of feature point extraction in the image. And can be realized. When the imaging apparatus 100 is configured by a video camera, two or more frames having different face postures in a moving image are cut out as still images by calculation by the CPU. After two or more still images having different face postures, the feature point extraction means 20 of the first embodiment extracts the feature points, and the CPU performs calculation for feature point coordinate extraction. The feature point coordinate data is sent to the three-dimensional amount calculation device 300.

図7は、立体量計算装置300の例を示す説明図である。立体量計算装置300は、図7に示すように、特徴点抽出装置200で抽出された特徴点座標データを蓄積するメモリやディスクなどのストレージ装置と、立体性評価量を計算するCPUなどの演算装置で実現可能である。2つの静止画像から抽出された特徴点座標データに対して、第1の実施の形態の立体量計算手段30が立体性評価量を算出する方法により、CPUが立体性評価量算出のための演算を行った後、立体性評価量を示すデータが立体性判定装置400に送られる。   FIG. 7 is an explanatory diagram illustrating an example of the three-dimensional amount calculation apparatus 300. As shown in FIG. 7, the three-dimensional amount calculation device 300 includes a storage device such as a memory or a disk that stores the feature point coordinate data extracted by the feature point extraction device 200, and an operation such as a CPU that calculates a three-dimensionality evaluation amount. It can be realized with a device. For the feature point coordinate data extracted from the two still images, the CPU calculates the three-dimensional evaluation amount by the method of calculating the three-dimensional evaluation amount by the three-dimensional amount calculation unit 30 of the first embodiment. After performing the above, data indicating the three-dimensionality evaluation amount is sent to the three-dimensionality determination device 400.

立体性判定装置400は、立体量計算装置300で計算された立体性評価量が、あらかじめ与えられた閾値より上か下かを判定する単純なLSIなどのロジック回路で実現可能である。第1の実施の形態における立体性評価量S30として、0付近の関数値f(−ε)とf(ε)を用いる場合は閾値を必要とせず、その場合、ロジック回路は符号の変化の有無で判定する。   The three-dimensionality determination device 400 can be realized by a simple logic circuit such as an LSI that determines whether the three-dimensionality evaluation amount calculated by the three-dimensional amount calculation device 300 is above or below a predetermined threshold value. When the function values f (−ε) and f (ε) in the vicinity of 0 are used as the three-dimensionality evaluation amount S30 in the first embodiment, no threshold value is required. Judge with.

実施の形態3.
次に、本発明の第3の実施の形態を図面を参照して説明する。第3の発明の実施の形態では、第1の実施の形態の特徴点抽出方法を計算機上で実行可能なプログラムとして構成し、そのプログラムを計算機で読み取り自在な情報記憶媒体に格納して、その計算機上において図8で示される手順で実行する。
Embodiment 3 FIG.
Next, a third embodiment of the present invention will be described with reference to the drawings. In an embodiment of the third invention, the feature point extraction method of the first embodiment is configured as a program executable on a computer, and the program is stored in an information storage medium readable by a computer. It is executed on the computer in the procedure shown in FIG.

図8は、第3の実施の形態の動作を示すフローチャートである。最初に、姿勢の異なる顔画像を撮影する(ステップS100)。図6に示す手順では、最小限の2姿勢を撮影する場合として、顔姿勢を変えて(ステップS101)、2回撮像したか否かを判定し(ステップS102)、2回撮像した場合には(はい)、ステップS200に移行し、2回撮像していない場合には(いいえ)、ステップS100に移行する場合を例示しているが、これより多くても問題はない。   FIG. 8 is a flowchart showing the operation of the third embodiment. First, face images with different postures are photographed (step S100). In the procedure shown in FIG. 6, as a case where the minimum two postures are photographed, the face posture is changed (step S101), it is determined whether or not the image is taken twice (step S102), and when the image is taken twice. (Yes) When the process proceeds to step S200 and the image is not captured twice (No), the case is illustrated where the process proceeds to step S100.

次に、ステップS200において、2つ以上の顔画像のそれぞれから、第1の実施の形態の特徴点抽出手段20による方法で特徴点の座標値を抽出する。特徴点の座標値が抽出されると、それらを用いて第1の実施の形態の立体量計算手段30による方法で立体性評価量を計算する(ステップS300)。最後に、その立体性評価量とあらかじめ与えた閾値との大小関係等により、実物の顔か写真などの人工物によるなりすましの顔かを判定する(ステップS400)。第1の実施の形態における立体性評価量S30として、0付近の関数値f(−ε)とf(ε)を用いる場合は閾値を必要とせず、その場合、ロジック回路は符号の変化の有無で判定する。   Next, in step S200, the coordinate value of the feature point is extracted from each of the two or more face images by the method using the feature point extraction unit 20 of the first embodiment. When the coordinate values of the feature points are extracted, the three-dimensionality evaluation amount is calculated by the method using the three-dimensional amount calculation unit 30 of the first embodiment using them (step S300). Finally, it is determined whether the face is an actual face or a face impersonated by an artificial object such as a photograph, based on the magnitude relationship between the three-dimensionality evaluation amount and a predetermined threshold (step S400). When the function values f (−ε) and f (ε) in the vicinity of 0 are used as the three-dimensionality evaluation amount S30 in the first embodiment, no threshold value is required. Judge with.

なお、第1から第3の実施の形態では、顔画像の立体性の認証について説明したが、同様の実施の形態は、監視などの目的で一般シーンの写真と実際のシーンの判別に対しても行うことが可能である。   In the first to third embodiments, the authentication of the three-dimensionality of the face image has been described. However, the similar embodiment can be used for discrimination between a photograph of a general scene and an actual scene for the purpose of monitoring or the like. Can also be done.

本発明によれば、顔画像による個人認証時の不正認証を検出する場合に適用することができる。例えば、無人の入退場システムなどでの顔画像認証、携帯端末など小型機器での顔画像認証などでの利用が可能である。   According to the present invention, the present invention can be applied when detecting unauthorized authentication at the time of personal authentication using a face image. For example, it can be used for face image authentication in an unattended entrance / exit system or the like, and face image authentication in a small device such as a portable terminal.

本発明による立体性認証装置の第1の実施の形態を示すブロック図である。It is a block diagram which shows 1st Embodiment of the three-dimensional authentication apparatus by this invention. 特徴点抽出手段が抽出する特徴点の例を示す説明図である。It is explanatory drawing which shows the example of the feature point which a feature point extraction means extracts. ピンホールカメラモデルの例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a pinhole camera model. 特性方程式f(x)の例を示す説明図である。It is explanatory drawing which shows the example of characteristic equation f (x). 本発明による立体性認証装置の第2の実施の形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of the three-dimensional authentication apparatus by this invention. 特徴点抽出装置の例を示す説明図である。It is explanatory drawing which shows the example of a feature point extraction apparatus. 立体量計算装置の例を示す説明図である。It is explanatory drawing which shows the example of a solid amount calculation apparatus. 第3の実施の形態の動作を示すフローチャートである。It is a flowchart which shows operation | movement of 3rd Embodiment.

符号の説明Explanation of symbols

10 撮像手段
20 特徴点抽出手段
30 立体量計算手段
40 立体性判定手段
DESCRIPTION OF SYMBOLS 10 Imaging means 20 Feature point extraction means 30 Three-dimensional amount calculation means 40 Three-dimensionality determination means

Claims (7)

撮影対象物の立体性を判断する立体性認証方法であって、
撮影対象物が異なる複数の視点から単一の撮影装置で撮影された複数の撮影画像を取得する入力ステップと、
3次元座標系において同一平面上にないと推測される撮影対象物上の4つ以上の点に対応する特徴点を、前記入力ステップにおいて取得された撮影画像から抽出し、各特徴点の座標を取得する特徴点抽出ステップと、
前記特徴点抽出ステップにおいて抽出された各特徴点のうち、平面を構成する特徴点として選択された平面構成点により構成される当該平面外の特徴点である立体性評価点の立体性を評価する量として定義される立体性評価量を計算する立体量計算ステップと、
前記立体量計算ステップにおいて計算された立体性評価量にもとづいて撮影対象物の立体性を判定する立体性判定ステップとを含み、
前記立体量計算ステップで、立体性評価点の3次元座標系における特徴点の座標を2次元座標系に変換した座標と、前記各平面構成点の3次元座標系における特徴点の座標を2次元座標系に変換した座標との差を撮影画像ごとに算出し、当該撮影画像ごとに算出された差を要素として1つにまとめた行列である判定用行列のランク立体性評価量として算出し、
前記立体性判定ステップで、前記判定用行列のランクが3である場合に、前記立体性評価点が平面上にないと判定する
ことを特徴とする立体性認証方法。
A three-dimensional authentication method for determining the three-dimensionality of a shooting object,
An input step of acquiring a plurality of photographed images photographed by a single photographing device from a plurality of viewpoints having different photographing objects;
Feature points corresponding to four or more points on the object to be photographed that are not on the same plane in the three-dimensional coordinate system are extracted from the photographed image acquired in the input step, and the coordinates of each feature point are obtained. A feature point extraction step to be acquired;
Among the feature points extracted in the feature point extraction step, the three-dimensionality of the three-dimensionality evaluation point that is a feature point outside the plane constituted by the plane constituent points selected as the feature points constituting the plane is evaluated. A solid quantity calculation step for calculating a three-dimensionality evaluation quantity defined as a quantity;
A three-dimensionality determination step for determining the three-dimensionality of the object to be photographed based on the three-dimensionality evaluation amount calculated in the three-dimensional amount calculation step,
In the three-dimensional amount calculation step, the coordinates of the feature points in the three-dimensional coordinate system of the three-dimensional evaluation point converted into the two-dimensional coordinate system, and the coordinates of the feature points in the three-dimensional coordinate system of the respective plane constituent points are two-dimensional. The difference from the coordinate converted into the coordinate system is calculated for each captured image, and the rank of the determination matrix, which is a matrix in which the difference calculated for each captured image is combined into one element, is calculated as the stereoscopic evaluation amount. ,
In the three-dimensionality determination step, when the rank of the determination matrix is 3, it is determined that the three-dimensional evaluation point is not on a plane.
入力ステップにおいて、撮影対象物として人物の顔が撮影された撮影画像を取得する
請求項1記載の立体性認証方法。
The three-dimensionality authentication method according to claim 1, wherein in the input step, a captured image in which a person's face is captured as a capturing object is acquired.
特徴点抽出ステップにおいて、人物の顔の左目の中心、右目の中心、唇の左端、唇の右端、鼻の頂点、鼻の下および唇の上端のいずれか4つ以上の点に対応する特徴点を抽出する
請求項2記載の立体性認証方法。
In the feature point extraction step, feature points corresponding to four or more points of the center of the left eye of the human face, the center of the right eye, the left end of the lips, the right end of the lips, the apex of the nose, the bottom of the nose, and the upper end of the lips The three-dimensionality authentication method according to claim 2, wherein:
撮影対象物の立体性を判断する立体性認証装置であって、
撮影対象物が異なる複数の視点から単一の撮影装置で撮影された複数の撮影画像を取得する入力手段と、
3次元座標系において同一平面上にないと推測される撮影対象物上の4つ以上の点に対応する特徴点を、前記入力手段によって取得された撮影画像から抽出し、各特徴点の座標を取得する特徴点抽出手段と、
前記特徴点抽出手段によって抽出された各特徴点のうち、平面を構成する特徴点として選択された平面構成点により構成される当該平面外の特徴点である立体性評価点の立体性を評価する量として定義される立体性評価量を計算する立体量計算手段と、
前記立体量計算手段によって計算された立体性評価量にもとづいて撮影対象物の立体性を判定する立体性判定手段とを備え、
前記立体量計算手段は、立体性評価点の3次元座標系における特徴点の座標を2次元座標系に変換した座標と、前記各平面構成点の3次元座標系における特徴点の座標を2次元座標系に変換した座標との差を撮影画像ごとに算出し、当該撮影画像ごとに算出された差を要素として1つにまとめた行列である判定用行列のランク立体性評価量として算出し、
前記立体性判定手段は、前記判定用行列のランクが3である場合に、前記立体性評価点が平面上にないと判定する
ことを特徴とする立体性認証装置。
A three-dimensional authentication device for determining the three-dimensionality of a photographing object,
Input means for acquiring a plurality of photographed images photographed by a single photographing device from a plurality of viewpoints having different photographing objects;
Feature points corresponding to four or more points on the object to be photographed that are not on the same plane in the three-dimensional coordinate system are extracted from the photographed image acquired by the input means, and the coordinates of the feature points are extracted. A feature point extraction means to obtain;
Among the feature points extracted by the feature point extracting means, the three-dimensionality of the three-dimensionality evaluation point which is a feature point outside the plane constituted by the plane constituent points selected as the feature points constituting the plane is evaluated. A solid amount calculation means for calculating a three-dimensionality evaluation amount defined as a quantity;
Three-dimensionality determination means for determining the three-dimensionality of the object to be photographed based on the three-dimensionality evaluation amount calculated by the three-dimensional amount calculation means;
The three-dimensional amount calculation means is configured to two-dimensionally convert the coordinates of the feature points in the three-dimensional coordinate system of the three-dimensional evaluation point into the two-dimensional coordinate system and the coordinates of the feature points in the three-dimensional coordinate system of the respective plane constituent points. The difference from the coordinate converted into the coordinate system is calculated for each captured image, and the rank of the determination matrix, which is a matrix in which the difference calculated for each captured image is combined into one element, is calculated as the stereoscopic evaluation amount. ,
The three-dimensionality determination unit determines that the three-dimensional evaluation point is not on a plane when the rank of the determination matrix is three.
入力手段は、撮影対象物として人物の顔が撮影された撮影画像を取得する
請求項記載の立体性認証装置。
The three-dimensional authentication apparatus according to claim 4 , wherein the input unit acquires a captured image in which a person's face is captured as an object to be captured.
特徴点抽出手段は、人物の顔の左目の中心、右目の中心、唇の左端、唇の右端、鼻の頂点、鼻の下および唇の上端のいずれか4つ以上の点に対応する特徴点を抽出する
請求項記載の立体性認証装置。
The feature point extraction means is a feature point corresponding to any four or more points of the center of the left eye of the person's face, the center of the right eye, the left end of the lips, the right end of the lips, the top of the nose, the bottom of the nose, and the top of the lips The three-dimensional authentication device according to claim 5 , wherein the three-dimensional authentication device is extracted.
撮影対象物の立体性を判断するコンピュータに搭載される立体性認証プログラムであって、
前記コンピュータに、
撮影対象物が異なる複数の視点から単一の撮影装置で撮影された複数の撮影画像を取得する入力処理と、
3次元座標系において同一平面上にないと推測される撮影対象物上の4つ以上の点に対応する特徴点を、前記入力処理において取得された撮影画像から抽出し、各特徴点の座標を取得する特徴点抽出処理と、
前記特徴点抽出処理において抽出された各特徴点のうち、平面を構成する特徴点として選択された平面構成点により構成される当該平面外の特徴点である立体性評価点の立体性を評価する量として定義される立体性評価量を計算する立体量計算処理と、
前記立体量計算処理において計算された立体性評価量にもとづいて撮影対象物の立体性を判定する立体性判定処理とを実行させ、
前記立体量計算処理で、立体性評価点の3次元座標系における特徴点の座標を2次元座標系に変換した座標と、前記各平面構成点の3次元座標系における特徴点の座標を2次元座標系に変換した座標との差を撮影画像ごとに算出させ、当該撮影画像ごとに算出された差を要素として1つにまとめた行列である判定用行列のランク立体性評価量として算出させ、
前記立体性判定処理で、前記判定用行列のランクが3である場合に、前記立体性評価点が平面上にないと判定させる
ための立体性認証プログラム。
A three-dimensional authentication program installed in a computer for determining the three-dimensionality of a shooting object,
In the computer,
An input process for acquiring a plurality of captured images captured by a single imaging device from a plurality of viewpoints having different imaging objects;
Feature points corresponding to four or more points on the object to be photographed that are not on the same plane in the three-dimensional coordinate system are extracted from the photographed image acquired in the input process, and the coordinates of each feature point are obtained. A feature point extraction process to be acquired;
Among the feature points extracted in the feature point extraction process, the three-dimensionality of the three-dimensionality evaluation point which is a feature point outside the plane constituted by the plane constituent points selected as the feature points constituting the plane is evaluated. Solid amount calculation processing for calculating a three-dimensionality evaluation amount defined as a quantity;
A three-dimensionality determination process for determining the three-dimensionality of the object to be photographed based on the three-dimensionality evaluation amount calculated in the three-dimensional amount calculation process;
In the three-dimensional amount calculation process, the coordinates of the feature points in the three-dimensional coordinate system of the three-dimensional evaluation point converted into the two-dimensional coordinate system, and the coordinates of the feature points in the three-dimensional coordinate system of the respective plane constituent points are two-dimensional. The difference between the coordinates converted into the coordinate system is calculated for each captured image, and the rank of the determination matrix, which is a matrix in which the differences calculated for each captured image are combined into one element, is calculated as the three-dimensionality evaluation amount. ,
In the three-dimensionality determination process, when the rank of the determination matrix is 3, the three-dimensionality authentication program for determining that the three-dimensionality evaluation point is not on a plane.
JP2006131677A 2006-05-10 2006-05-10 Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program Active JP4929828B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006131677A JP4929828B2 (en) 2006-05-10 2006-05-10 Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006131677A JP4929828B2 (en) 2006-05-10 2006-05-10 Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011232592A Division JP5035467B2 (en) 2011-10-24 2011-10-24 Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program

Publications (2)

Publication Number Publication Date
JP2007304801A JP2007304801A (en) 2007-11-22
JP4929828B2 true JP4929828B2 (en) 2012-05-09

Family

ID=38838680

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006131677A Active JP4929828B2 (en) 2006-05-10 2006-05-10 Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program

Country Status (1)

Country Link
JP (1) JP4929828B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101798132B1 (en) * 2016-12-26 2017-11-16 한국생산기술연구원 Modeling apparatus and method of work environment for high-speed collision detection of robot
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010050206A1 (en) * 2008-10-28 2010-05-06 日本電気株式会社 Spoofing detection system, spoofing detection method and spoofing detection program
JPWO2010134200A1 (en) * 2009-05-22 2012-11-08 株式会社東芝 Image processing apparatus, method, and program
WO2010137157A1 (en) 2009-05-28 2010-12-02 株式会社東芝 Image processing device, method and program
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
CA3186147A1 (en) * 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
CN107679861B (en) * 2017-08-30 2022-11-11 创新先进技术有限公司 Resource transfer method, fund payment method, device and electronic equipment
WO2023281743A1 (en) * 2021-07-09 2023-01-12 日本電気株式会社 Authentication system, authentication device, authentication method, and recording medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3590321B2 (en) * 2000-03-28 2004-11-17 株式会社メディックエンジニアリング Person verification system
JP2003178306A (en) * 2001-12-12 2003-06-27 Toshiba Corp Personal identification device and personal identification method
JP4016180B2 (en) * 2002-03-15 2007-12-05 ソニー株式会社 Planar extraction method, apparatus thereof, program thereof, recording medium thereof, and imaging apparatus
JP3738320B2 (en) * 2003-10-10 2006-01-25 バブコック日立株式会社 Method for collating a subject displayed in a specific stereoscopic image and a two-dimensional image
WO2005119507A1 (en) * 2004-06-03 2005-12-15 Japan Science And Technology Agency High-speed high-accuracy matrix singular value decomposition method, program, and device.
JP2007241402A (en) * 2006-03-06 2007-09-20 Sharp Corp Pretense decision device in face authentication and face authentication device using it

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101798132B1 (en) * 2016-12-26 2017-11-16 한국생산기술연구원 Modeling apparatus and method of work environment for high-speed collision detection of robot
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2007304801A (en) 2007-11-22

Similar Documents

Publication Publication Date Title
JP4929828B2 (en) Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program
JP5035467B2 (en) Three-dimensional authentication method, three-dimensional authentication device, and three-dimensional authentication program
US8170297B2 (en) Face authentication system and face authentication method
TWI554976B (en) Surveillance systems and image processing methods thereof
JP5106459B2 (en) Three-dimensional object determination device, three-dimensional object determination method, and three-dimensional object determination program
JP5493108B2 (en) Human body identification method and human body identification device using range image camera
CN107480613A (en) Face identification method, device, mobile terminal and computer-readable recording medium
CN107018323B (en) Control method, control device and electronic device
JP5170094B2 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
JP2002298142A (en) Person image detecting method, storage medium recording program for executing the method, person image detecting device, and image pick-up device having this device
CN109670390A (en) Living body face recognition method and system
CN112926464B (en) Face living body detection method and device
TW201044858A (en) Imaging apparatus, imaging control method, and recording medium
JP6282377B2 (en) Three-dimensional shape measurement system and measurement method thereof
JP2018156408A (en) Image recognizing and capturing apparatus
JP4367010B2 (en) System, program and method
JP6749498B2 (en) Imaging target tracking device and imaging target tracking method
JP2012057974A (en) Photographing object size estimation device, photographic object size estimation method and program therefor
JP4193342B2 (en) 3D data generator
Angladon et al. The toulouse vanishing points dataset
JP2018009927A (en) Image processing device, image processing method and program
JP4914870B2 (en) Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program
CN115862124B (en) Line-of-sight estimation method and device, readable storage medium and electronic equipment
JP2004046464A (en) Apparatus and method for estimating three-dimensional position of mobile object, program, and recording medium thereof
JP2007199766A (en) Face image recording device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120130

R150 Certificate of patent or registration of utility model

Ref document number: 4929828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3