JP6679291B2 - Applicant authentication device, authentication method, and security authentication system using the method - Google Patents

Applicant authentication device, authentication method, and security authentication system using the method Download PDF

Info

Publication number
JP6679291B2
JP6679291B2 JP2015235164A JP2015235164A JP6679291B2 JP 6679291 B2 JP6679291 B2 JP 6679291B2 JP 2015235164 A JP2015235164 A JP 2015235164A JP 2015235164 A JP2015235164 A JP 2015235164A JP 6679291 B2 JP6679291 B2 JP 6679291B2
Authority
JP
Japan
Prior art keywords
information
applicant
image
background
facial expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015235164A
Other languages
Japanese (ja)
Other versions
JP2017102684A (en
Inventor
庄司 渉
渉 庄司
美佐子 左近
美佐子 左近
Original Assignee
庄司 渉
渉 庄司
美佐子 左近
美佐子 左近
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 庄司 渉, 渉 庄司, 美佐子 左近, 美佐子 左近 filed Critical 庄司 渉
Priority to JP2015235164A priority Critical patent/JP6679291B2/en
Publication of JP2017102684A publication Critical patent/JP2017102684A/en
Application granted granted Critical
Publication of JP6679291B2 publication Critical patent/JP6679291B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、申請者の認証装置、及び認証方法、並びにその方法を用いたセキュリティ認証システムに関し、特に、申請者が本人であることを正しく判定するための認証技術に関する。   The present invention relates to an applicant authentication device, an authentication method, and a security authentication system using the method, and more particularly, to an authentication technique for correctly determining the identity of the applicant.

従来、金品取引におけるカードレス決済やキャッシュレス決済のような場面では、本人確認のための身分証明書の提示やサイン、押印等の煩わしい手続きが必要である。また、金品取引とは別に、旅行における入国審査や、特定の施設への入場手続き、応募や受験のための本人確認等、様々な局面で本人であることの認証手続きが要求される。更に、これらの局面で必要とされるのが本人を証明するためのパスワードで、その管理は本人に委ねられているのが現状である。   2. Description of the Related Art Conventionally, in situations such as cardless payment and cashless payment in hardware transactions, it is necessary to carry out troublesome procedures such as presentation of an identification card for identity verification, signing, and stamping. In addition to the gold merchandise transaction, it is also necessary to verify the identity of the person in various situations, such as immigration examinations during travel, entrance procedures to specific facilities, and identity verification for applications and examinations. Furthermore, what is needed in these situations is a password for certifying the person himself, and the management of the password is currently entrusted to him.

これらの煩わしい手続きを簡素化する手段として、昨今、生体認証に関する技術が各種提案されている。特に、画像解析技術の進歩に伴い、顔認証の技術を使うことで決済手続きや審査手続き、承認手続き等の簡素化を図る提案もなされている。しかしながら、画像解析技術が進歩したとはいえ、顔認証の精度が完成された訳ではなく、偽造や成りすましによる犯罪が後を絶たないのもまた事実である。特に従来提案されている顔認証技術は、カメラ等で撮影した画像から人物の顔を抽出して、その特徴要素を解析し、予め登録されている情報と照合することで本人確認をするものが多い。しかし、このように人物を一次元の静止画として捉える技術では、偽造や本人の顔写真を使った偽装を見抜くことが難しく、成りすましによる犯罪を防止するには難がある。   As a means for simplifying these troublesome procedures, various technologies related to biometric authentication have been proposed recently. In particular, with the progress of image analysis technology, it has been proposed to use face recognition technology to simplify the settlement procedure, examination procedure, and approval procedure. However, although the image analysis technology has advanced, the accuracy of face recognition has not been completed, and it is also true that crimes due to forgery and impersonation are endless. In particular, the face authentication technology that has been conventionally proposed is one that identifies a person by extracting a person's face from an image captured by a camera or the like, analyzing the characteristic elements of the person's face, and collating it with information registered in advance. Many. However, with such a technique of capturing a person as a one-dimensional still image, it is difficult to detect forgery or camouflage using a facial photograph of the person, and it is difficult to prevent a crime due to impersonation.

そこで、特許文献1に開示されているように、人の表情を変化させて(例えば、笑顔やウィンク)、変化前の顔(普通の顔)と変化後の顔(笑顔やウィンク顔)の同一性を判定するようにした技術も提案されている。この技術によれば、本人がその場で顔の表情を変えなければならないため、表情を変化させることが出来ない偽造写真や本人の写真を使った成りすましを見破ることが可能である。   Therefore, as disclosed in Patent Document 1, by changing the facial expression of a person (for example, a smile or a wink), the face before the change (normal face) and the face after the change (a smile or a wink face) are the same. Techniques for determining sex have also been proposed. According to this technique, since the person must change the facial expression on the spot, it is possible to see a spoofed photograph using the photograph of the person or the person who cannot change the facial expression.

なお、顔の表情を変化させて人物の同一性を判定する技術としては、例えば、特許文献2に記載されているような方法も提案されている。   As a technique for determining the identity of a person by changing the facial expression, for example, a method described in Patent Document 2 has been proposed.

しかしながら、顔の表情を変化させると言っても、その認証の仕組みが分ってしまえば、変化後の顔画像を予め用意しておくことで成りすますことは可能である。   However, even if the facial expression is changed, it is possible to pretend by preparing a changed face image in advance if the authentication mechanism is understood.

このような抜け道を防止するために、特許文献3に記載されているように広角カメラと反射鏡を使って人物を3次元の角度から撮影し、その画像に写っている背景に違いを持たせることで偽造や偽装を識別するようにした技術が提案されている。ここでは、顔画像だけではなくその背景画像も使うことで、成りすましを排除するように考えられているが、認証のためのシステム構成が複雑かつ大型化するという欠点がある。   In order to prevent such a loophole, a person is photographed from a three-dimensional angle using a wide-angle camera and a reflector as described in Patent Document 3, and the background shown in the image is made different. Therefore, a technique for identifying forgery or forgery has been proposed. Here, it is considered that the impersonation is eliminated by using not only the face image but also the background image thereof, but there is a drawback that the system configuration for authentication is complicated and large.

一方、システム構成の複雑化を招くことなく、人物と背景とを組み合わせて認証する技術として、特許文献4に開示されている方法もある。ここに開示されている技術は、認証の対象となる人物の顔をカメラで撮影する際、その背景を変化させることを特徴としている。具体的には、同じ場所で背景を変えた2枚の写真を撮影して、これら2枚の写真に同一人物が映っているかどうかを判定することで、その人物が同じ場所で撮影されたことを立証しようというものである。   On the other hand, there is also a method disclosed in Patent Document 4 as a technique for performing authentication by combining a person and a background without inviting a complicated system configuration. The technique disclosed here is characterized in that when the face of a person to be authenticated is photographed by a camera, the background is changed. Specifically, by taking two pictures with different backgrounds at the same place and determining whether or not the same person appears in these two pictures, it was confirmed that the person was taken at the same location. Is to prove that.

この方法によれば、3次元に配置されたカメラや反射鏡等の大掛かりな設備を用いることなく、人物をカメラの前に立たせた状態で、後ろの背景を変えて2つの写真を撮影すればよいので、システム構成を簡素化することができる。しかしながら、どの背景が使われるのかが分ってしまえば、偽造や偽装も簡単である。   According to this method, without using large-scale equipment such as a three-dimensionally arranged camera or reflecting mirror, you can take two pictures by changing the background behind the person while standing in front of the camera. Since it is good, the system configuration can be simplified. However, forgery and disguise is easy once you know which background will be used.

特開2012−109976号公報JP 2012-109976 A 特開2003−233816号公報JP, 2003-233816, A 特開2007−11456号公報JP 2007-11456 A 特開2007−26330号公報JP, 2007-26330, A

以上のように、従来提案されている認証技術は、どれを取っても完成度が高いとは言い難い。これは、認証の対象を特定のタイミングで撮影された1次元の静止画として扱う静的判定をその基本的な技術思想としているところに原因があると言える。従って、人物とその背景を如何に組み合わせようとも、また、何枚もの画像を認証の対象に加えようとも、その人物と背景さえ分ってしまえば、比較的容易に偽造や偽装を許してしまうという不所望な結果を招くことになる。   As described above, it is hard to say that any of the conventionally proposed authentication techniques has a high degree of perfection. It can be said that this is because the basic technical idea is static determination that treats the authentication target as a one-dimensional still image captured at a specific timing. Therefore, no matter how the person and the background are combined, or how many images are added to the authentication target, if the person and the background are known, it is relatively easy to forge or camouflage. This leads to the undesired result.

さらに、従来の認証技術は、撮影した画像とデータベースに蓄積されている情報との比較・照合処理を基本的な概念として設計されているため、認証に必要な比較情報もしくは照合情報を予めデータベースに登録しておく必要がある。このため、認証の精度を向上させようとすればするほど登録しておくべき情報の量が増大し、大容量のデータベースを必要としたり、あるいは、データベースの容量を何度もスケールアウトしなければならないというシステム構成上の煩わしさがある。   Furthermore, the conventional authentication technology is designed based on the basic concept of comparing and collating the captured image with the information stored in the database, so that the comparison information or collation information required for authentication is stored in the database in advance. You need to register. For this reason, the amount of information to be registered increases as the accuracy of authentication is improved, and a large-capacity database is required, or the database capacity must be scaled out many times. There is a trouble in the system configuration that it does not happen.

また、従来において、認証のための情報として背景画像を利用する目的は、多くの場合、その人物が撮影された場所の正当性を確認するためである。故に、認証が行われる場所が特定されれば、その背景画像を入手することは、さほど困難なことではない。更に、背景画像と人物画像とを合成することも、周知の画像合成技術で容易に為し得ることである。これが、成りすましを防止することが出来ない主要な要因でもある。これを解決するために、特許文献4に記載されているように、背景を変化させる技術が提案されているが、変化前の背景画像と変化後の背景画像との関連性が何等考慮されていないため、前述した静的判定に起因する欠点を解決する有効な手段とはなり得ない。   Further, conventionally, the purpose of using a background image as information for authentication is to confirm the correctness of the place where the person was photographed in many cases. Therefore, if the place where the authentication is performed is specified, it is not so difficult to obtain the background image. Furthermore, it is also possible to easily combine the background image and the person image with a known image combining technique. This is also the main factor that cannot prevent impersonation. In order to solve this, a technique of changing the background has been proposed as described in Patent Document 4, but the relationship between the background image before the change and the background image after the change is considered. Since it does not exist, it cannot be an effective means for solving the above-mentioned drawbacks caused by the static determination.

加えて、特許文献4では、背景を変えても、そこに写っている人物の表情は同じ表情であるため、実際に撮影場所にいる人物が本人なのか、あるいは、本当に生存しているのかを正確に判定することが出来ないという欠点もある。この欠点は、インターネット通信のように、送信されてきた顔画像だけで本人かどうかを遠隔地で確認する場合には、致命的な判断ミスを引き起こす原因ともなり得る。特に、生存の確認が要求される場面では、判断の正確性が著しく低下するという大きな欠点がある。   In addition, in Patent Document 4, even if the background is changed, the facial expressions of the person in the image are the same, so whether the person actually in the shooting location is the person himself or is he really alive? There is also a drawback that it cannot be accurately determined. This drawback may cause a fatal misjudgment in the case of confirming the identity of a person at a remote place only by the transmitted face image like the Internet communication. In particular, in a situation where confirmation of survival is required, there is a major drawback that the accuracy of judgment is significantly reduced.

本発明の目的は、上述した欠点を解決し、本人確認の精度を大幅に向上することが出来る新規な認証技術を提供することである。   An object of the present invention is to solve the above-mentioned drawbacks and to provide a new authentication technique capable of greatly improving the accuracy of identity verification.

本発明の他の目的は、認証時における被認証者の負担を軽減しつつ、認証の信頼性を向上した認証技術を提供することである。   It is another object of the present invention to provide an authentication technique that improves the reliability of authentication while reducing the burden on the person to be authenticated during authentication.

本発明の更に他の目的は、装置構成の大型化や複雑化を招くことなく、安全かつ確実な認証結果が得られるセキュリティ認証システムを提供することである。   Still another object of the present invention is to provide a security authentication system that can obtain a safe and reliable authentication result without increasing the size and complexity of the device configuration.

上記目的を達成するため、請求項1に記載の本発明による申請者認証装置は、申請者の表情とその背景を第1のタイミングで撮影した第1の画像と、申請者の表情を変化させ、変化後の表情とその背景を第2のタイミングで撮影した第2の画像とを受信する画像情報受信部と、第1の画像及び第2の画像から表情に関する情報と背景に関する情報とを抽出する要素抽出部と、第1の画像から抽出された表情情報及び第2の画像から抽出された表情情報に基いて申請者の同一性を判定する表情判定部と、第1の画像から抽出された背景情報及び第2の画像から抽出された背景情報に基いて撮影場所の同一性を判定する背景判定部と、表情判定部及び背景判定部の判定結果に応答して申請者の本人確認を行う認証判定部とを具備し、背景判定部は、第1のタイミングから第2のタイミングに至る時間経過情報を判定要件とすることを特徴とする。   In order to achieve the above object, the applicant authentication apparatus according to the present invention as set forth in claim 1 changes the expression of the applicant and the background of the background at a first timing and the expression of the applicant. An image information receiving unit that receives a changed facial expression and a second image of the background taken at a second timing, and extracts facial expression information and background information from the first image and the second image. And an element extraction unit that determines the identity of the applicant based on the facial expression information extracted from the first image and the facial expression information extracted from the second image, and the element extraction unit extracted from the first image. The background determination unit that determines the identity of the shooting location based on the background information extracted from the second image and the background information extracted from the second image, and the applicant's identity verification in response to the determination results of the facial expression determination unit and the background determination unit. The background determination unit includes an authentication determination unit that performs Characterized by a determination requirement time information from a first timing reaches the second timing.

請求項2記載の申請者認証装置は、背景が静止画であることを特徴とする。   The applicant authentication apparatus according to claim 2 is characterized in that the background is a still image.

請求項3記載の申請者認証装置は、背景判定部が、第1の画像における背景情報と第2の画像における背景情報とを照合して撮影場所の同一性を判定することを特徴とする。   The applicant authentication apparatus according to claim 3 is characterized in that the background determination unit determines the identity of the shooting location by comparing the background information in the first image with the background information in the second image.

請求項4記載の申請者認証装置は、背景が動画であることを特徴とする。   The applicant authentication apparatus according to claim 4 is characterized in that the background is a moving image.

請求項5記載の申請者認証装置は、背景判定部が、第2の画像から抽出された背景情報と、第1のタイミングから第2のタイミングに至る時間経過に伴って現れる動画情報とを照合して撮影場所の同一性を判定することを特徴とする。   In the applicant authentication apparatus according to claim 5, the background determination unit collates the background information extracted from the second image with the moving image information that appears with the lapse of time from the first timing to the second timing. It is characterized by determining the identity of the shooting location.

請求項6記載の申請者認証装置は、第2の画像から抽出された表情情報及び背景情報と、第1の画像から抽出された表情情報及び背景情報とが共に変化していることを確認することで撮影場所の同一性を判定することを特徴とする。   The applicant authentication apparatus according to claim 6 confirms that both the facial expression information and background information extracted from the second image and the facial expression information and background information extracted from the first image have changed. This is characterized by determining the identity of the shooting locations.

請求項7記載の申請者認証装置は、背景が静止画と動画とを含むことを特徴とする。   The applicant authentication apparatus according to claim 7 is characterized in that the background includes a still image and a moving image.

請求項8記載の申請者認証装置は、背景判定部が、静止画の背景判定処理と動画の背景判定処理とを組み合わせて撮影場所の同一性を判定することを特徴とする。   The applicant authentication apparatus according to claim 8 is characterized in that the background determination unit determines the identity of the shooting location by combining the background determination process of the still image and the background determination process of the moving image.

請求項9記載の申請者認証装置は、背景判定部において撮影場所の同一性が確認出来なかった場合には、表情判定部の判定を無視して認証不適合とすることを特徴とする。   The applicant authentication apparatus according to claim 9 is characterized in that, when the background determination section cannot confirm the identity of the shooting location, the determination by the facial expression determination section is ignored and the authentication is not suitable.

請求項10記載の申請者認証装置は、申請者の表情を撮影した画像とその撮影時の環境情報とを第1のタイミングで収集し、次に申請者の表情を変化させ、変化した表情を撮影した画像とその撮影時の環境情報とを第2のタイミングで収集する情報収集部と、第1のタイミングで収集した画像と第2のタイミングで収集した画像との関連性から申請者の同一性を判定する表情判定部と、第1のタイミングで収集した環境情報と第2のタイミングで収集した環境情報とを時間軸に沿った動的情報として対比することで申請者の場所の同一性を判定する環境判定部と、表情判定部および環境判定部の判定結果を受けて申請者の認証を行う認証判定部とを有することを特徴とする。   The applicant authentication apparatus according to claim 10 collects an image of a facial expression of the applicant and environmental information at the time of the imaging at a first timing, then changes the facial expression of the applicant, and displays the changed facial expression. The information collecting unit that collects the captured image and the environmental information at the time of the capturing at the second timing, and the relationship between the image captured at the first timing and the image captured at the second timing is the same for the applicant. The facial expression determination unit that determines the sex, and the environmental information collected at the first timing and the environmental information collected at the second timing are compared as dynamic information along the time axis to determine the identity of the applicant's place. It is characterized in that it has an environment judging section for judging, and an authentication judging section for authenticating the applicant based on the judgment results of the facial expression judging section and the environment judging section.

請求項11記載の申請者認証装置は、環境情報として、申請者を撮影する環境から得られた音情報、振動情報、あるいは、気圧情報等、センサーを使って検知可能な情報を使用することを特徴とする。   The applicant authentication apparatus according to claim 11 uses, as the environmental information, information that can be detected by a sensor, such as sound information, vibration information, or atmospheric pressure information obtained from the environment in which the applicant is photographed. Characterize.

請求項12に記載された本発明では、定められた場所で申請者の表情とその背景を撮影した画像に基いて申請者の本人確認を行う認証方法において、申請者の表情とその背景を第1のタイミングで撮影した第1の画像情報と、申請者の表情を変化させて、変化後の表情とその背景を撮影した第2の画像情報とを受信する第1のステップと、第1の画像情報及び第2の画像情報から表情に関する情報と背景に関する情報とをそれぞれ抽出する第2のステップと、第1の画像情報から抽出された表情情報と第2の画像情報から抽出された表情情報と類似度を算出して(又はこれらの相互関連性に基いて)申請者の同一性を判定する表情判定ステップと、第1の画像情報から抽出された背景情報と第2の画像情報から抽出された背景情報とを、第1のタイミングから第2のタイミングに至る時間経過と関連付けて撮影場所の同一性を判定する背景判定ステップとを有し、表情判定ステップ及び背景判定ステップにおける判定結果に基いて申請者の認証を行うことを特徴とする申請者認証方法が開示されている。   According to the present invention as set forth in claim 12, in the authentication method for confirming the identity of the applicant based on an image obtained by photographing the expression of the applicant and the background thereof at a predetermined place, the expression of the applicant and the background thereof are A first step of receiving the first image information photographed at the timing 1 and the second image information obtained by changing the facial expression of the applicant and the changed facial expression and the background thereof; A second step of extracting information about a facial expression and information about a background from the image information and the second image information, the facial expression information extracted from the first image information and the facial expression information extracted from the second image information. And a facial expression determination step of determining the identity of the applicant by calculating the degree of similarity (or based on the mutual relevance thereof), and the background information extracted from the first image information and the second image information. The background information A background determination step of determining the identity of the shooting location in association with the passage of time from the timing to the second timing, and authenticating the applicant based on the determination results in the facial expression determination step and the background determination step. The characteristic applicant authentication method is disclosed.

請求項13記載の申請者認証方法は、背景判定ステップにおける撮影場所の同一性の確認と、表情判定ステップにおける申請者の同一性の確認との両方の確認が成立した時に、申請者が本人であると認証することを特徴とする。   In the applicant authentication method according to claim 13, the applicant is the person himself / herself when both the confirmation of the identity of the shooting location in the background determination step and the confirmation of the identity of the applicant in the facial expression determination step are established. It is characterized by authenticating that there is.

請求項14記載の申請者認証方法は、第1のタイミングで撮影された申請者の表情に関する情報と、その撮影時の環境に関する情報とを収集する第1のステップと、第1のタイミングに続く第2のタイミングで撮影された申請者の表情に関する情報と、第2のタイミングにおける環境に関する情報とを収集する第2のステップと、第1のステップおよび第2のステップで収集された表情に関する情報に基いて申請者の同一性を判定する第3のステップと、第1のタイミングおよび第2のタイミングで収集された環境に関する情報を照合して申請者の場所の同一性を判定する第4のステップと、第3および第4のステップで得られた判定結果に応答して申請者の認証判定を行う第5のステップとを有することを特徴とする。   The applicant authentication method according to claim 14 follows a first step of collecting information regarding an expression of the applicant photographed at a first timing and information regarding an environment at the time of the photographing, and the first timing. A second step of collecting information about the facial expression of the applicant taken at the second timing and information about the environment at the second timing, and information about the facial expression collected at the first step and the second step. The third step of determining the identity of the applicant based on the above, and the fourth step of determining the identity of the location of the applicant by collating the information about the environment collected at the first timing and the second timing. It is characterized by including a step and a fifth step of making an applicant authentication determination in response to the determination results obtained in the third and fourth steps.

請求項15記載の認証方法は、第1のタイミングから第2のタイミングに至る時間を任意に変更することを特徴とする。   The authentication method according to a fifteenth aspect is characterized in that the time from the first timing to the second timing is arbitrarily changed.

請求項16記載の認証方法は、環境情報として、撮影が行われる場所からセンサーにて検知可能な情報を使用することを特徴とする。   The authentication method according to a sixteenth aspect is characterized in that, as the environmental information, information that can be detected by a sensor from a place where the image is taken is used.

請求項17記載のセキュリティ認証システムは、第1のタイミングで申請者の表情に関する画像と申請者がいる場所の環境に関する情報とを収集し、第1のタイミングに続く第2のタイミングで申請者の表情に関する画像とその場所に関する環境情報とを収集する情報収集部と、情報収集部で収集した情報を受信し、受信した情報から表情に関する画像情報と場所に関する環境情報とを抽出し、抽出された2つの表情に関する情報に基いて第1のタイミングおよび第2のタイミングで収集された画像が同一人物の画像か否かを判定する第1の判定と、抽出された2つの環境に関する情報に基いて申請者が同一の場所に存在するか否かを判定する第2の判定とを実行する情報判定部と、情報判定部による判定結果に基いて、申請者が同一人物であると判定され、かつ、申請者の場所が同一場所であると判定された時に認証許可を指示する認証判定部と、認証判定部からの指示を受けて申請者に対してセキュリティサービスを実行するサービス実行部とを有することを特徴とする。   The security authentication system according to claim 17 collects an image regarding the facial expression of the applicant and information regarding the environment of the place where the applicant is at the first timing, and at the second timing subsequent to the first timing, An information collecting unit that collects images related to facial expressions and environmental information related to the location, information received by the information collecting unit, image information related to facial expressions and environmental information related to the location are extracted from the received information, and the extracted information is extracted. Based on the first determination that determines whether the images collected at the first timing and the second timing are images of the same person based on the information about the two facial expressions, and the extracted information about the two environments Based on the judgment result by the information judgment unit and the information judgment unit that executes the second judgment for judging whether or not the applicant exists in the same place, the applicant is the same person. If it is determined that the applicant's place is the same place, the authentication determination unit for instructing the authentication permission and the security service is executed to the applicant in response to the instruction from the authentication determination unit. And a service execution unit.

請求項18記載の認証システムは、前記第1のタイミングから前記第2のタイミングに至る時間を変更可能としたことを特徴とする。   The authentication system according to claim 18 is characterized in that the time from the first timing to the second timing can be changed.

上述した本発明において、「申請者」という単語は、金品取引における決済者、入国審査や入場審査を受ける者、さらには、受験や応募等を申請する者、あるいは、申し込みや依頼等で承認手続きを必要とする者等、本人証明を必要とする者を全て含むものである。   In the present invention described above, the word "applicant" means a settler in a money transaction, a person who undergoes immigration or entrance examination, a person who applies for an examination or application, or an approval procedure for an application or request. It includes all those who need proof of identity, such as those who need

また、「表情」という単語は、顔の表情だけでなく、動作を伴うポーズや仕草、体の動き等、画像情報としてその変化が識別可能な身体の各部位に表出される変化を意図するものである。たとえば、顔の表情の例としては笑顔やウィンク、口の開閉等を含み、身体の表情としては、手の上げ下げや首のひねり等を指す。   The word "expression" is intended to mean not only facial expressions, but also changes such as poses, gestures, and body movements that accompany movements that are expressed in each part of the body that can be identified as image information. Is. For example, examples of facial expressions include smiles, winks, opening and closing of mouths, etc., and facial expressions include raising and lowering of hands and twisting of the neck.

さらに、「時間経過」という単語は、例えば同じ場所において異なるタイミングで収集した2つの情報AとBを、互いに独立した静的な情報として捉えるのではなく、同じ時間軸によって繋がれた相互に関連する動的な情報として捉えることを指す。換言すれば、あるタイミングでは情報A、また別のタイミングでは情報Bとして夫々を個別に認識するのではなく、情報Aは時間を経過して情報Bに変化する(あるいは、変化しない)という時間経過情報を加味した動的な情報として捉えることで、情報AとBに時間的な繋がりを持たせることを意味する。詳細は、以下の記載を参照されたい。   Furthermore, the word “time lapse” does not mean, for example, two pieces of information A and B collected at different timings at the same place as static information independent of each other, but is related to each other connected by the same time axis. It refers to capturing as dynamic information. In other words, instead of individually recognizing the information A as the information A at a certain timing and the information B at another timing, the information A changes (or does not change) to the information B over time. By considering the information as dynamic information, it means that the information A and B have a temporal connection. For details, refer to the following description.

また、「環境」という単語は、申請者の表情を撮影する際に同時に撮影可能な背景画像、あるいは、申請者の表情を撮影する場所の周囲からセンサー(集音マイクも含む)を使って検知可能な情報を含み、例えば、音、振動、気圧、温度、湿度、位置等の情報を指す。   In addition, the word "environment" is detected by using a sensor (including a sound collection microphone) from the background image that can be taken at the same time when the facial expression of the applicant is taken, or from around the place where the facial expression of the applicant is taken. It includes possible information, for example, information on sound, vibration, atmospheric pressure, temperature, humidity, position and the like.

本発明の大きな特徴は、第1及び第2のタイミングで取得した環境情報の時間的関連性(時間経過情報)を判定要件としている点である。従って、この経過時間を任意に設定・変更することで、判定処理で使用される情報を秘密裏に変更させることができる。言い換えれば、時間で繋がれている2つの環境情報を隠されたパスワードとして利用するもので、時間を変更することによりパスワード自体の変更を行うようにしたものである。通常、パスワードは被認証者(申請者)が使用するものであるが、本発明では、これを認証側に持たせるという新たな発想で、パスワード管理に対する被認証者の負担を大幅に軽減している。   A major feature of the present invention is that the temporal relevance (time elapsed information) of the environmental information acquired at the first and second timings is a determination requirement. Therefore, by arbitrarily setting / changing the elapsed time, it is possible to secretly change the information used in the determination process. In other words, two pieces of environment information connected by time are used as a hidden password, and the password itself is changed by changing the time. Normally, the password is used by the person to be authenticated (applicant), but in the present invention, the new idea of having this on the authenticating side greatly reduces the burden on the person to be authenticated for password management. There is.

請求項1記載の認証装置は、申請者の「表情の変化」と「背景画像」とを用いて、表情の変化で申請者の同一性を判定し、背景画像で場所の同一性を判定することを特徴とする。特に、背景画像の時間経過、すなわち、表情が変化する前後の背景画像に時間的連続性があるか否かを判定の要件とすることで、申請者が同一場所に存在し、かつ生存している(動いている)かどうかを確認することができる。具体的には、表情変化前後の2つの背景画像同士を比較・照合することで、申請者が時間的に連続する同一の場所に存在するか否かの判定を可能としている。従って、装置構成を複雑化することなく、精度の高い本人確認と生存確認が出来るという効果を得ることが出来る。   The authentication device according to claim 1 determines the identity of the applicant based on the change in facial expression by using the “change in facial expression” and the “background image” of the applicant, and determines the identity between places by using the background image. It is characterized by In particular, the applicant's existence at the same place and being alive by making the judgment of the time elapse of the background image, that is, whether there is temporal continuity in the background image before and after the facial expression changes. You can check if you are (moving). Specifically, by comparing and collating two background images before and after the facial expression change, it is possible to determine whether or not the applicant exists at the same temporally continuous place. Therefore, it is possible to obtain the effect that it is possible to perform highly accurate personal identification and survival confirmation without complicating the device configuration.

請求項2及び3記載の認証装置は、背景画像として静止画を使用するものである。この場合、表情変化前の背景画像と変化後の背景画像が同一の画像であるか否かを判定することで場所の同一性の確認ができる。もしも、背景に変化があれば、異なる場所で撮影された合成画像であると識別される。従って、ここでは時間が経過しても背景が変化していないことを判定すれば場所の同一性の確認が可能である。この判定は、変化前後の2つの画像の比較・照合処理で可能であり、3次元解析のように複雑な設備や処理を必要としないという利点がある。   The authentication device according to claims 2 and 3 uses a still image as a background image. In this case, the identity of the place can be confirmed by determining whether the background image before the facial expression change is the same as the background image after the facial expression change. If there is a change in the background, it is identified as a composite image taken at a different location. Therefore, here, it is possible to confirm the identity of the place by determining that the background has not changed over time. This determination can be performed by comparing / collating two images before and after the change, and has an advantage of not requiring complicated equipment or processing unlike three-dimensional analysis.

請求項4乃至6記載の認証装置は、背景画像として動画を使用するものである。静止画と同じように動画においても時間経過との関連性を判定要件とすることで、高精度の認証が可能となる。これは、第1のタイミングから第2のタイミングに至る経過時間(t)を基に、経過時間後に現れるべき動画と第2のタイミングで取得した動画との一致を判定してもよいし、あるいは、第1のタイミングを基準として、第2のタイミングで表情と背景とが共に変化しているか否かを判定して同一場所における申請者の存在を確認するようにしてもよい。いずれにおいても、時間軸に沿った動的な判定により正確性の高い認証結果を得ることが出来る。   The authentication device according to claims 4 to 6 uses a moving image as a background image. As in the case of still images, moving images can be authenticated with high accuracy by using the relationship with the passage of time as a determination requirement. This may be based on the elapsed time (t) from the first timing to the second timing, and may determine the match between the moving image that should appear after the elapsed time and the moving image acquired at the second timing, or The presence of the applicant at the same place may be confirmed by determining whether or not the facial expression and the background have both changed at the second timing with reference to the first timing. In either case, a highly accurate authentication result can be obtained by dynamic determination along the time axis.

請求項7及び8記載の認証装置には、背景画像として静止画と動画の両方を使用することで認証の信頼性を更に高めることが可能である。   In the authentication device according to the seventh and eighth aspects, the reliability of the authentication can be further enhanced by using both the still image and the moving image as the background image.

請求項9記載の認証装置によれば、時間的に繋がりのある2つの背景画像をパスワードとして使用することで、正しいパスワードが検出されなければ認証不適合と見なすことができるので、申請者本人の同一性を判定することなく(あるいは、判定結果を待つことなく)認証を完了することが可能となり、入国審査や入場審査のように申請者が列をなす場面では、特に有効である。   According to the authentication device of claim 9, by using two background images that are temporally connected as a password, it can be considered that the authentication is incompatible unless a correct password is detected. It becomes possible to complete the certification without judging the gender (or without waiting for the judgment result), which is particularly effective in the case where the applicants line up like immigration and admission.

請求項10及び11記載の認証装置によれば、申請者が認証を受ける場所の環境情報(音、振動、気圧等)を場所の同一性判定の要素として使用することで、認証可能な場所を拡大することが出来るという効果が得られる。   According to the authentication device of claims 10 and 11, by using the environment information (sound, vibration, atmospheric pressure, etc.) of the place where the applicant is authenticated as an element for determining the identity of the place, the place that can be authenticated is identified. The effect that it can be enlarged is obtained.

請求項12及び13記載の本発明は、申請者の表情の変化と時間経過に伴う背景の変化を基に認証を行う方法を開示している。ここでは、背景情報の時間経過情報を申請者のためのパスワード判定ツールとして認証側で設定し管理することができるので、申請者に課せられるパスワード管理負担を排除できるという効果を得ることが出来る。   The present invention according to claims 12 and 13 discloses a method for performing authentication based on a change in the facial expression of the applicant and a change in the background over time. Here, the elapsed time information of the background information can be set and managed on the authenticating side as a password judgment tool for the applicant, so that it is possible to obtain the effect of eliminating the password management burden imposed on the applicant.

請求項14乃至16記載の本発明は、第1のタイミングから第2のタイミングまでの時間を認証判定の要件としているので、第1のタイミングと第2のタイミングで収集した環境情報を照合することで申請者が同一場所に存在しているか否かを判定することができる。さらに、この時間を任意に変更することで、仮に撮影場所が特定されたとしてもこの時間の長さが分からない限り申請者本人に成りすますことは出来ない。故に、認証方法の秘匿性を著しく高めることができる。また、認証場所から得られる背景画像や、音や、振動や、気圧等のセンサーで検知可能な環境情報を使用しているため、複雑な設備の増加を招くこともない。加えて、前述と同様、環境情報をパスワードとして使用できるので、申請者に負担を与えることなく信頼性の高い認証を行うことができる。   Since the present invention according to claims 14 to 16 uses the time from the first timing to the second timing as a requirement for the authentication determination, it is necessary to collate the environment information collected at the first timing and the second timing. Can determine whether or not the applicant is present in the same place. Furthermore, by changing this time arbitrarily, even if the shooting location is specified, it is not possible to impersonate the applicant unless the length of this time is known. Therefore, the confidentiality of the authentication method can be significantly enhanced. Further, since the background image obtained from the authentication place and the environmental information such as sound, vibration, and atmospheric pressure that can be detected by the sensor are used, there is no increase in complicated equipment. In addition, since environmental information can be used as a password as in the case described above, highly reliable authentication can be performed without imposing a burden on the applicant.

請求項17及び18には、前述の本発明に係る認証方法や認証装置を用いた認証システムが開示されている。ここでは、画像、音、振動、気圧等、申請者の居場所の周囲環境から得られる環境情報、及び、この環境情報を収集する時間をパスワードとして利用しているので、応用範囲が広く、かつ高信頼性、高秘匿性のセキュリティ認証システムを提供することができる。   Claims 17 and 18 disclose an authentication system using the authentication method and the authentication device according to the present invention. Here, since the environmental information obtained from the surrounding environment of the applicant's whereabouts such as images, sounds, vibrations, and atmospheric pressure, and the time for collecting this environmental information are used as a password, the application range is wide and high. It is possible to provide a reliable and highly confidential security authentication system.

上述したように、パスワードとして使用される背景情報(環境情報)は、特定のタイミングにおける静的な情報ではなく、時間軸で繋がれた動的な情報として取り扱っているため、経過時間(t)自体がパスワードの一部を構成しており、この時間を任意に変えることでパスワードの秘匿性を大幅に高められることが本発明の大きな特徴である。故に、高価で大掛かりな装置を設置することなく、安全かつ高信頼度の認証機能を、申請者に対してパスワード管理の負担を与えることなく、あらゆる場所および場面で提供することができるという格別の効果を得ることが可能となる。   As described above, the background information (environmental information) used as the password is not static information at a specific timing but is treated as dynamic information linked by a time axis, and therefore the elapsed time (t) The password itself is a part of the password, and it is a great feature of the present invention that the confidentiality of the password can be greatly improved by arbitrarily changing the time. Therefore, it is possible to provide a secure and highly reliable authentication function at any place and in any place without imposing a password management burden on the applicant without installing an expensive and large-scale device. It is possible to obtain the effect.

本発明が適用されるセキュリティ認証システムの概略構成図である。1 is a schematic configuration diagram of a security authentication system to which the present invention is applied. 本発明を実施する際に実行される申請者に対する撮影のタイミングを示す図である。It is a figure which shows the timing of imaging with respect to an applicant performed when implementing this invention. 本発明を実施するための第1の形態の申請者認証装置の機能ブロック図である。It is a functional block diagram of the applicant authentication device of the 1st form for implementing the present invention. 本発明の第1の形態に関する認証処理の手順を示すフロー図である。It is a flowchart which shows the procedure of the authentication process regarding the 1st form of this invention. 本発明の第1の形態の表情判定部及び背景判定部の内部機能ブロック図である。It is an internal functional block diagram of the facial expression determination part and the background determination part of the 1st form of this invention. 本発明の第1の形態の背景判定処理における時間経過の流れを示すタイムチャートである。It is a time chart which shows the flow of time progress in the background determination process of the 1st form of this invention. 本発明の第1の形態における認証画像の模式図である。It is a schematic diagram of the authentication image in the 1st form of this invention. 本発明を実施するための第2の形態に関する認証処理手順を示すフロー図である。It is a flowchart which shows the authentication processing procedure regarding the 2nd form for implementing this invention. 本発明の第2の形態における背景判定処理の時間経過の流れを示すタイムチャートである。It is a time chart which shows the flow of the time passage of the background determination process in the 2nd form of this invention. 本発明の第2の形態に関する認証画像の模式図である。It is a schematic diagram of the authentication image regarding the 2nd form of this invention. 本発明を実施するための第3の形態に関する認証処理手順を示すフロー図である。It is a flowchart which shows the authentication processing procedure regarding the 3rd form for implementing this invention. 本発明の第3の形態に関する認証画像の模式図である。It is a schematic diagram of the authentication image regarding the 3rd form of this invention. 本発明に送る表情と環境の係わる情報の取得タイミングと取得パターンを示す図である。It is a figure which shows the acquisition timing and acquisition pattern of the information regarding the facial expression and environment which are sent to this invention. 本発明を実施するための第4の形態におけるセキュリティ認証システムの機能ブロック図である。It is a functional block diagram of the security authentication system in the 4th form for implementing this invention. 本発明の第4の形態に関する認証処理手順のフロー図である。It is a flowchart of the authentication processing procedure regarding the 4th form of this invention. 本発明の第4の形態における人物判定と場所判定の仕組みを示すタイムチャートである。It is a time chart which shows the mechanism of person determination and place determination in the 4th form of the present invention.

以下に本発明の実施の形態に関して、図を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図1のシステム構成図を参照して、本発明が適用されるセキュリティ認証システムの概略を説明する。本システムは、申請者10に対するセキュリティサービス実行部20と、申請者の表情を撮影するカメラ30と、撮影した画像を受信して申請者の認証を行う認証センター40とを備えている。また、申請者を認証するための環境情報を収集する手段として、必要に応じて集音マイク50やセンサー60等を設けても良い。カメラ30は、主として申請者の表情をその背景と共に撮影するために使用され、撮影した画像は通信回線を介して認証センター40に送信される。撮影場所の周囲の音は、集音マイク50により収集される。また、撮影場所の振動や気圧は、センサー60によって検出される。収集された音情報や検出された振動、気圧情報は、通信回線を介して認証センターへ転送される。ここでは、申請者の表情以外の背景画像、光、音(楽曲)、振動、気圧等に関する情報を含めて「環境情報」として定義することとする。なお、最近では、スマートホン等の携帯端末に、マイクや振動センサー、気圧センサー、GPS等の各種センサーが搭載されているので、環境情報収集の手段としてかかる携帯端末を使用することも可能である。   First, an outline of a security authentication system to which the present invention is applied will be described with reference to the system configuration diagram of FIG. The system includes a security service execution unit 20 for the applicant 10, a camera 30 that captures the facial expression of the applicant, and an authentication center 40 that receives the captured image and authenticates the applicant. Further, as a means for collecting environmental information for authenticating the applicant, a sound collecting microphone 50, a sensor 60, or the like may be provided as necessary. The camera 30 is mainly used to photograph the facial expression of the applicant together with the background, and the photographed image is transmitted to the authentication center 40 via a communication line. The sound around the shooting location is collected by the sound collecting microphone 50. Further, the vibration and the atmospheric pressure at the shooting location are detected by the sensor 60. The collected sound information, detected vibration, and atmospheric pressure information are transferred to the authentication center via a communication line. Here, the background image other than the applicant's facial expression, light, sound (song), vibration, atmospheric pressure, and other information are defined as “environmental information”. In addition, recently, since various sensors such as a microphone, a vibration sensor, an atmospheric pressure sensor, and a GPS are mounted on a mobile terminal such as a smart phone, the mobile terminal can be used as a means for collecting environmental information. .

本発明の適用が可能なセキュリティサービスとして、カードレス決済を行う申請者(購入者)を例にとり、申請者の振る舞いとその認証手順について説明する。まず、図1において、申請者10は、サービス実行部(例えば、売り場のサービスカウンター)の前でカメラ撮影を受ける。その撮影手順は、図2に示されるように、申請者10がカメラの前に立つことでスタートされる。カメラ30は、申請者10の顔の表情(普通の顔)をとらえると、第1のタイミングT1で1回目の撮影を実施する(1st撮影)。このタイミングT1では、申請者の顔の表情とその背景が同時に撮影される。次に、チャイムやランプ表示等で申請者10に対して顔の表情を変えるよう合図が送られる。この合図を基に、申請者10は顔の表情を変える(たとえば、笑顔やウィンクでよい)。カメラ30は、第1の撮影タイミングから時間tが経過し、合図によって申請者の表情が変化した第2のタイミングT2で表情変化後の申請者の顔とその背景を撮影する(2nd撮影)。カードレス決済における申請者の振る舞いは、以上で終了となる。図2において、第1のタイミングで撮影された表情変化前の画像は、背景が静止画の場合は情報P1として、背景が動画の場合は情報P3として、また背景が静止画と動画の場合は情報P5として通信回線を介して認証センター40に送信される。同様に、第2のタイミングで撮影された表情変化後の画像は、背景が静止画の場合は情報P2として、動画の場合は情報P4として、また静止画と動画の場合は情報P6として認証センターに送信される。   As a security service to which the present invention can be applied, the behavior of the applicant and the authentication procedure thereof will be described by taking an applicant (purchaser) performing cardless payment as an example. First, in FIG. 1, the applicant 10 is photographed by a camera in front of a service execution unit (for example, a service counter at a sales floor). The shooting procedure is started when the applicant 10 stands in front of the camera, as shown in FIG. When the camera 30 captures the facial expression of the applicant 10 (normal face), the camera 30 performs the first shooting at the first timing T1 (first shooting). At this timing T1, the facial expression of the applicant and its background are photographed at the same time. Next, a signal is sent to the applicant 10 to change the facial expression by displaying a chime or a lamp. Based on this signal, the applicant 10 changes the facial expression (e.g., smile or wink). The camera 30 photographs the face and the background of the applicant after the facial expression change at the second timing T2 when the time t has elapsed from the first photographing timing and the facial expression of the applicant has changed due to the signal (second photographing). The applicant's behavior in cardless payment is over. In FIG. 2, the image before the facial expression change captured at the first timing is the information P1 when the background is a still image, the information P3 when the background is a moving image, and the information P3 when the background is a still image and a moving image. The information P5 is transmitted to the authentication center 40 via the communication line. Similarly, the image after the facial expression change captured at the second timing is the information P2 when the background is a still image, the information P4 when the background is a moving image, and the information P6 when the background is a still image and a moving image. Sent to.

次に、図3を参照して認証センター40に設けられている認証装置40Aの構成を説明する。認証装置40Aは、撮影部(カメラ)30から送信された画像情報を受信する撮影情報受信部41と、受信された画像情報から申請者の顔の表情情報及び背景情報を各要素として抽出する要素抽出部42と、抽出された表情情報に基いて申請者10の表情の判定を行う表情判定部43と、背景情報に基いて撮影場所の判定を行う背景判定部44と、表情判定部43及び背景判定部44の判定結果に基いて申請者の本人確認を行う認証判定部45とを有する。   Next, the configuration of the authentication device 40A provided in the authentication center 40 will be described with reference to FIG. The authentication device 40A includes a photographing information receiving unit 41 that receives the image information transmitted from the photographing unit (camera) 30, and an element that extracts facial expression information and background information of the applicant from the received image information as respective elements. An extraction unit 42, a facial expression determination unit 43 that determines the facial expression of the applicant 10 based on the extracted facial expression information, a background determination unit 44 that determines a shooting location based on the background information, a facial expression determination unit 43, and An authentication determination unit 45 that confirms the identity of the applicant based on the determination result of the background determination unit 44.

次に、図3の認証装置の処理フローを図4を参照して説明する。ここでは、背景が静止画の場合、すなわち画像情報P1とP2について説明する。第1のタイミングで撮影された表情変化前の画像情報P1に対して、要素抽出部42において第1の要素抽出処理が実行され、変化前の表情画像情報(1st表情)と、その時に撮影された背景画像情報(1st背景)とが切り分けられる。さらに、変化後に撮影された表情画像情報P2に対しては、第2の要素抽出処理によって表情変化後の表情画像情報(2nd表情)と、同時に撮影された表情変化後の背景画像情報(2nd背景)とが切り分けられる。   Next, a processing flow of the authentication device of FIG. 3 will be described with reference to FIG. Here, the case where the background is a still image, that is, the image information P1 and P2 will be described. The first element extraction processing is executed in the element extraction unit 42 on the image information P1 before the facial expression change captured at the first timing, and the facial expression image information before the change (1st facial expression) and the image captured at that time. The background image information (1st background) is separated. Further, for the facial expression image information P2 captured after the change, the facial expression image information (2nd facial expression) after the facial expression change by the second element extraction processing and the background image information (2nd background) after the facial expression captured simultaneously. ) And are separated.

変化前の1st表情と変化後の2nd表情に対して、申請者の同一性確認のための表情判定処理が実行される。ここで、表情を変化させる目的は、撮影場所にいる人物が変化前と変化後で同一人物か否か、及び生存(動いている)しているか否かを判定することである。例えば、人が普通の表情から笑ったり、ウィンクをした時等に共通して起きる表情変化の動きを基本に、笑顔の変化関数やウィンクの変化関数を算出して、実際に撮影した画像との類似度を求め、その差が所定の範囲内にあるか否かを分析することで判定することができる。なお、この方式以外にも前述した特許文献1あるいは2に開示されているような技術を使ってもよい。かかる表情判定により、2つの異なるタイミングで撮影された人物が同一人物で、かつその場に生存している(動いている)ことが分かる。   The facial expression determination process for confirming the identity of the applicant is executed on the first facial expression before the change and the second facial expression after the change. Here, the purpose of changing the facial expression is to determine whether the person at the shooting location is the same person before and after the change, and whether or not the person is alive (moving). For example, based on the movement of facial expression changes that commonly occur when a person smiles or winks from a normal facial expression, the smile change function and wink change function are calculated and compared with the actually captured image. It can be determined by obtaining the degree of similarity and analyzing whether or not the difference is within a predetermined range. In addition to this method, the technique disclosed in Patent Document 1 or 2 may be used. By such facial expression determination, it can be seen that the persons photographed at two different timings are the same person and are alive (moving) on the spot.

引き続き、図4に示されている背景判定について説明する。第1及び第2のタイミングで申請者と共に撮影された背景情報は、要素抽出処理により1st背景と2nd背景として切り出される。これらの背景情報は、この実施例では静止画を対象としているので、背景判定ステップにおいて、これら2つの背景情報の照合処理が行われ、照合の結果として一致もしくは不一致が検出される。   Subsequently, the background determination shown in FIG. 4 will be described. The background information captured with the applicant at the first and second timings is cut out as the 1st background and the 2nd background by the element extraction processing. Since the background information is for a still image in this embodiment, a matching process of these two pieces of background information is performed in the background determination step, and a match or a mismatch is detected as a result of the matching.

表情判定及び背景判定により夫々検出された一致、不一致の信号に応答して、認証判定部45は適正対応処置もしくは不適正対応処置を指示する信号をサービス実行部20に送信する。この際、適正対応処置(申請者が本人であると判定された場合の処置)を判定する条件は、表情判定が一致し、かつ背景判定も一致することである。一方、表情判定及び背景判定の少なくとも一方が不一致であれば強制的に不適正対応処置(申請者が本人ではないと判定された場合の処置)となる。   In response to the coincidence and non-coincidence signals respectively detected by the facial expression determination and the background determination, the authentication determination unit 45 transmits a signal instructing the appropriate countermeasure or the inappropriate countermeasure to the service execution unit 20. At this time, the condition for determining the appropriate response action (the action when the applicant is determined to be the principal) is that the facial expression determination matches and the background determination also matches. On the other hand, if at least one of the facial expression determination and the background determination does not match, the improper handling is forcibly performed (the processing when the applicant is determined not to be the principal).

上述した表情判定及び背景判定の処理に関して、図5の機能ブロック図を用いて、より詳細に説明する。図5に示されているように、表情判定部43は、申請者確認部431と表情変化判定部432を有し、一方、背景判定部44は、背景確認部441と背景変化判定部442を有している。登録データベース(登録DB)70には、申請者10の普通の顔(変化前の顔)を撮影した画像情報が予め登録されている。登録DB70に画像を登録するには、普通の表情を撮影した画像を申請者が予め認証センター40に送信して事前登録しておけばよい。この場合、背景画像はどの様な画像であっても構わない。例えば、携帯端末のカメラ機能を使って自分の表情を撮影し、インターネット回線を介して認証センター40に送信することもできる。登録DB70としては、送信されてきた画像情報の記憶、蓄積が可能な磁気ディスクやファイルサーバ、クラウドデータベースサーバ等が利用可能である。更に、登録データベース70には、認証場所で実際に申請者を撮影する時に使用される背景画像を予め登録しておいても良い。なお、認証場所を判定するために使用される背景画像情報は、表情変化前後の背景画像情報同士を照合することで判定可能であるため、必ずしも登録DB70に事前に登録しておく必要はない。   The above-described facial expression determination processing and background determination processing will be described in more detail with reference to the functional block diagram of FIG. As shown in FIG. 5, the facial expression determination unit 43 includes an applicant confirmation unit 431 and a facial expression change determination unit 432, while the background determination unit 44 includes a background confirmation unit 441 and a background change determination unit 442. Have In a registration database (registration DB) 70, image information of a normal face (face before change) of the applicant 10 is registered in advance. To register an image in the registration DB 70, the applicant may send an image of a normal facial expression to the authentication center 40 in advance and pre-register it. In this case, the background image may be any image. For example, it is possible to take a picture of one's facial expression using the camera function of the mobile terminal and send it to the authentication center 40 via the Internet line. As the registration DB 70, a magnetic disk, a file server, a cloud database server or the like capable of storing and accumulating transmitted image information can be used. Further, in the registration database 70, a background image used when actually photographing the applicant at the authentication location may be registered in advance. The background image information used to determine the authentication location can be determined by comparing the background image information before and after the facial expression change, and thus does not necessarily need to be registered in the registration DB 70 in advance.

図5に示されるように、表情判定部43及び背景判定部44は、第1のタイミングで撮影された表情画像(1st表情)と背景画像(1st背景)を入力して登録DB70に記憶されている情報と比較・照合を行う申請者確認部431および背景確認部441を夫々有している。これらは、図1のセキュリティ認証システムに設置されているカメラ30で実際に撮影された画像に対して、それが登録DB70に予め登録されている申請者か否か、および、撮影場所が正しい場所か否かの確認をするためのものである。申請者確認部431による照合処理の結果、1st表情が登録DB70に登録されている申請者の表情情報と異なる場合、あるいは、背景確認部441による照合処理の結果、1st背景が登録されている背景情報と異なる場合には、不一致と判定され強制的に認証不可(NG)の処理がなされる。
以上の処理は、表情および背景の変化判定処理の前処理として位置付けることが出来る。この前処理を導入することで、その後の変化判定処理が必要か否かの事前確認が出来るため、巧妙性に欠ける成りすましを短時間で振い落とすことができ、次の申請者の待ち時間を短縮できることが可能となる。しかしながら、前述したとおり、前処理としての背景確認は必ずしも必要なものではない。
As shown in FIG. 5, the facial expression determination unit 43 and the background determination unit 44 input the facial expression image (1st facial expression) and the background image (1st background) taken at the first timing and store them in the registration DB 70. It has an applicant confirmation unit 431 and a background confirmation unit 441 that compare and collate with the existing information. These are, for images actually taken by the camera 30 installed in the security authentication system of FIG. 1, whether or not they are applicants registered in the registration DB 70 in advance, and a place where the shooting location is correct. It is for confirming whether or not. As a result of the matching process by the applicant confirmation unit 431, if the first facial expression is different from the facial expression information of the applicant registered in the registration DB 70, or as a result of the matching process by the background confirmation unit 441, the first background is registered. If it is different from the information, it is determined that they do not match, and the process of forced authentication (NG) is forced.
The above process can be positioned as a pre-process for the facial expression and background change determination process. By introducing this pre-processing, it is possible to confirm in advance whether or not the subsequent change judgment processing is necessary, so it is possible to shake off impersonation lacking in cleverness in a short time, and reduce the waiting time for the next applicant. It can be shortened. However, as described above, the background confirmation as the preprocessing is not always necessary.

以上の前処理で一致が確認された時、一致検出信号により表情変化判定部432及び背景変化判定部442が起動される。表情変化判定部432には第1及び第2のタイミングで取得された1st表情情報と2nd表情情報が入力され、前述した表情変化判定処理によって第1および第2のタイミングで撮影された申請者が同一か否かの判定が行われる。   When a match is confirmed by the above pre-processing, the expression change determination unit 432 and the background change determination unit 442 are activated by the match detection signal. The 1st facial expression information and the 2nd facial expression information acquired at the 1st and 2nd timings are input to the facial expression change determination unit 432, and the applicant photographed at the 1st and 2nd timings by the facial expression change determination process described above It is determined whether they are the same.

一方、背景確認部441からの一致検出信号により起動された背景変化判定部442は、1st背景情報と2nd背景情報を入力して変化判定処理を実行する。背景変化判定部442が、1st背景情報と2nd背景情報とを時間軸に沿った動的情報として判定する手順について、図6を参照してより詳しく説明する。   On the other hand, the background change determination unit 442 activated by the coincidence detection signal from the background confirmation unit 441 inputs the 1st background information and the 2nd background information and executes the change determination process. A procedure in which the background change determination unit 442 determines the 1st background information and the 2nd background information as dynamic information along the time axis will be described in more detail with reference to FIG.

第1の撮影タイミング(時刻T1)で所得された1st背景画像情報と、それから時間tが経過した後の第2の撮影タイミングで所得された2nd背景情報に対して、これら背景情報の同一性を判定するために、両者の比較・照合が行われる。ここで、背景が静止画の場合は、時間tが経過しても2つの背景画像に変化がない(即ち、1st背景画像情報と2nd背景画像情報が同一画像である)と判定されることが、申請者が同一の撮影場所で撮影されたことを証明する条件となる。一方、背景が動画の場合には、これら2つの画像が異なる画像であることが証明の条件となる。すなわち、背景が静止画の場合と動画の場合とでは判定条件が逆になる場合もあり得る。ここで、成りすまし等の不正行為を企てた者が、認証場所で使用される背景を仮に知り得たとしても、この時間tの値が分からない限り、どのタイミングの画像を偽造すればよいか判断することはできない。また、背景が静止画だとしても、時間tの経過時点でなお以前の静止画が続いているかどうかの判断は困難である。このように、時間tを隠れたパスワードとして使用することで、極めて秘匿性の高い認証技術を提供することができる。   For the 1st background image information obtained at the first shooting timing (time T1) and the 2nd background information obtained at the second shooting timing after the time t has passed, the sameness of these background information is determined. Both are compared and collated to make a determination. Here, when the background is a still image, it may be determined that the two background images have not changed even after the time t has passed (that is, the 1st background image information and the 2nd background image information are the same image). , It is a condition to prove that the applicant was filmed at the same filming location. On the other hand, when the background is a moving image, the proof condition is that these two images are different images. That is, the determination conditions may be opposite when the background is a still image and when the background is a moving image. Here, even if a person who has attempted a fraudulent act such as impersonation knows the background used at the authentication place, at what timing should the image be forged unless the value of the time t is known? I can't judge. Further, even if the background is a still image, it is difficult to determine whether or not the previous still image continues at the time t. In this way, by using the time t as a hidden password, it is possible to provide an authentication technique with extremely high confidentiality.

次に、図7を参照して、実施例1における認証の具体例について説明する。図7の(a)および(c)は第1のタイミング(表情変化前)で取得された画像を示しており、申請者の表情は変化前の表情A、その背景は画像Cとして認証センターに送信される。次に、申請者の表情をAからBに変化させ、第2のタイミングで撮影した画像が(b)もしくは(d)だとすれば、(b)は表情が変化し、かつ背景は変化していないことから、申請者は同一の場所で撮影された同一人物であるということが確認できる。これに対して、画像(d)は表情Bが正しく変化しているものの、背景がCとは異なる背景のDであるため、偽造と判定される。なお、時間t経過後、背景がDに変化しているのが正しいとすれば、逆に(b)が不正であると判定される。従って、認証センターがどの背景を設定したのかが分からない以上、また、2つのタイミングの間の時間が分からない以上、背景情報が極めて秘匿性の高い有効なパスワードとして機能することが理解出来よう。   Next, a specific example of authentication in the first embodiment will be described with reference to FIG. 7. 7 (a) and 7 (c) show images acquired at the first timing (before facial expression change). The facial expression of the applicant is facial expression A before the change, and the background thereof is the image C at the authentication center. Sent. Next, if the applicant's expression is changed from A to B, and the image taken at the second timing is (b) or (d), (b) the expression changes and the background changes. Therefore, it can be confirmed that the applicant is the same person photographed in the same place. On the other hand, in the image (d), although the facial expression B is correctly changed, the background is the background D different from the background C, and thus the image (d) is determined to be forged. If it is correct that the background changes to D after the time t has passed, conversely, it is determined that (b) is incorrect. Therefore, as long as the authentication center does not know which background is set and the time between the two timings is unknown, it can be understood that the background information functions as an effective password with extremely high confidentiality.

図8は、背景画像を動画とした時の判定処理手順を示す。図2で撮影された画像は、背景が動画であるため、第1のタイミングでは表情変化前の情報P3、第2のタイミングでは表情変化後の情報P4として送信される。表情変化前の情報P3は、第1の要素抽出処理で1st表情情報と1st動画情報に区別され、表情変化後の情報P4は、第2の要素抽出処理で2nd表情情報と2nd動画情報に区別される。表情判定処理では、先の実施例1と同様に申請者の同一性が判定され、一致/不一致検出信号が生成される。一方、背景動画判定処理では、後述するように時間経過後の動画像が適正な画像か否かが判定され、適正を示すOK検出信号、もしくは不適正を示すNG検出信号が生成される。認証判定部45は、表情判定結果の一致検出信号及び背景動画判定結果のOK検出信号の両方が成立した時、適正対応処置を指示する信号を発生する。表情判定が不一致、もしくは、背景動画判定がNGの時は、不適正対応処置を指示する信号が発生される。   FIG. 8 shows a determination processing procedure when the background image is a moving image. Since the background of the image captured in FIG. 2 is a moving image, it is transmitted as information P3 before the facial expression change at the first timing and as information P4 after the facial expression change at the second timing. The information P3 before the facial expression change is distinguished into the 1st facial expression information and the 1st moving picture information by the first element extraction processing, and the information P4 after the facial expression change is distinguished into the 2nd facial expression information and the 2nd moving picture information by the second element extraction processing. To be done. In the facial expression determination process, the identity of the applicant is determined and a match / mismatch detection signal is generated as in the first embodiment. On the other hand, in the background moving image determination processing, as will be described later, it is determined whether or not the moving image after the lapse of time is a proper image, and an OK detection signal indicating properness or an NG detection signal indicating improperness is generated. When both the match detection signal of the facial expression determination result and the OK detection signal of the background moving image determination result are satisfied, the authentication determination unit 45 generates a signal for instructing appropriate measures. When the facial expression determination does not match or the background moving image determination is NG, a signal instructing the improper handling is generated.

図9を参照して、背景が動画の場合に対する判定処理について詳述する。判定処理に用いられる情報は、第1のタイミング(時刻T1)で取得した第1の背景動画情報P3と、その後、時間t経過後の第2のタイミング(時刻T2)で取得した背景動画情報P4である。この2つの動画情報をパスワードとして用いて、申請者が同一の場所に存在するか否かを判定する方法としては、以下に述べる2つの方法が有効である。   The determination process for the case where the background is a moving image will be described in detail with reference to FIG. The information used for the determination process is the first background moving image information P3 acquired at the first timing (time T1) and the background moving image information P4 acquired at the second timing (time T2) after the lapse of time t. Is. The following two methods are effective as a method of determining whether or not the applicant exists in the same place by using these two moving image information as passwords.

第1の方法は、第1の動画情報が取得された第1の時刻(T1)から時間tが経過した時に現れる動画の画面情報と第2のタイミング(時刻T2)で実際に取得した動画情報とを比較・照合して同一性を判定する方法である(図9の処理i)。第2の方法は、表情の変化と背景の変化の両立性(2つの情報が共に変化していること)を判定する方法である。   The first method is the screen information of the moving image that appears when the time t has elapsed from the first time (T1) when the first moving image information was acquired and the moving image information that was actually acquired at the second timing (time T2). This is a method of comparing and collating and to determine the identity (processing i in FIG. 9). The second method is a method of determining compatibility between a change in facial expression and a change in background (that two pieces of information change together).

図10を用いて上記の判定方法による判定画像の推移を説明する。図10(a)は第1のタイミング(時刻T1)で取得した画像で、変化前の表情画像Aとその時の動画画像Eを示している。その後、時間tが経過した後、第2のタイミングT2で取得した画像(b)に対して、前記第1の方法で背景動画Gが時間t経過時に現れる動画画像と一致するか否かを判定し、一致すれば申請者が同一場所に存在することが判る。動画画像がG以外の画像であれば、場所の同一性が否定され本人認証不可と判定される。また、第2の判定方法を使えば、図10(c)が第1のタイミングで取得した情報であるのに対して、表情は変化しているが、背景は変化していない(Eのまま)ことが確認され、場所の同一性が否定され、本人認証不可として処理される。   The transition of the determination image by the above determination method will be described with reference to FIG. FIG. 10A is an image acquired at the first timing (time T1) and shows a facial expression image A before change and a moving image E at that time. After that, after a lapse of time t, it is determined whether or not the background moving image G matches the moving image image appearing when the time t elapses by the first method for the image (b) acquired at the second timing T2. However, if they match, it can be seen that the applicant exists in the same place. If the moving image is an image other than G, the identity of the place is denied and it is determined that the person cannot be authenticated. Further, when the second determination method is used, the facial expression has changed but the background has not changed (while E remains, while FIG. 10C shows the information acquired at the first timing). ) Is confirmed, the identity of the place is denied, and it is processed as being unable to authenticate the person.

以上のように、背景画像として動画を用いることで、時間軸に沿って変化する背景と第2のタイミングまでの時間tとを組み合わせて、秘匿性の高い背景パスワードを提供することができる。特に、認証に使用されている背景動画が、万が一流出したとしても、時間tを変更することで安全性を維持することができる。   As described above, by using the moving image as the background image, it is possible to provide a highly confidential background password by combining the background that changes along the time axis and the time t until the second timing. In particular, even if the background moving image used for authentication leaks, the safety can be maintained by changing the time t.

図11には、背景画像として静止画と動画を組み合わせた画像を用いて認証判定を行う時の処理フローが示されている。ここでは、第1のタイミングで取得される情報P5(表情変化前に撮影された画像)と第2のタイミングで取得された情報P6(表情変化後に撮影された画像)が第1及び第2の要素抽出処理で、表情、静止画、動画の3つの要素に切り分けられる。その後、各要素として抽出された3つの画像情報に対して、表情判定、背景静止画判定、及び背景動画判定の3つの判定が行われる。この例において、認証判定で本人であると判定される条件は、表情判定、背景静止画判定、及び背景動画判定が全て一致検出信号を出力した時である。   FIG. 11 shows a processing flow when the authentication determination is performed using an image in which a still image and a moving image are combined as a background image. Here, the information P5 (the image captured before the facial expression change) acquired at the first timing and the information P6 (the image captured after the facial expression change) acquired at the second timing are the first and second information. The element extraction processing divides the facial expression, still image, and moving image into three elements. After that, three determinations of facial expression determination, background still image determination, and background moving image determination are performed on the three pieces of image information extracted as each element. In this example, the condition for determining the person in the authentication determination is when the facial expression determination, the background still image determination, and the background moving image determination all output a match detection signal.

例えば、図12(a)及び(c)に示す表情変化前の画像(表情A、背景静止画C、背景動画Eの組み合わせ)に対して、同図(b)に示す表情変化後の画像(表情Bに変化、背景静止画Cのまま、背景動画Gに変化)が正しい画像であるとすれば、動画Eが変化していない画像(d)に対して、この画像(d)が同一場所で撮影されたものではないこと(あるいは偽造されたものであること)が容易に検出できる。当然、表情変化後の画像で、背景静止画C及び背景動画Gのいずれか一方、あるいは両方が不一致検出されれば、撮影場所の申請者は本人ではないことを簡単に確認することができる。このように、背景判定のパスワードとして静止画と動画の両方を組み合わせて使うことで成りすまし防止効果は一段と向上することが明らかである。更に、時間tを任意に変化させることで、パスワードの秘匿性も大幅に高めることが可能となり、極めて信頼性の高い認証技術の提供が可能となる。   For example, with respect to the image before expression change (combination of expression A, background still image C, and background video E) shown in FIGS. 12A and 12C, the image after expression change shown in FIG. Assuming that the facial expression B is changed and the background still image C is still changed to the background moving image G), the image (d) is the same as the image (d) where the moving image E is not changed. It is possible to easily detect that the image was not captured (or is a forged one). Of course, if any one or both of the background still image C and the background moving image G are detected as inconsistent in the image after the facial expression change, it is possible to easily confirm that the applicant at the shooting location is not the person himself / herself. As described above, it is apparent that the impersonation prevention effect is further improved by using both the still image and the moving image in combination as the background determination password. Furthermore, by arbitrarily changing the time t, the confidentiality of the password can be significantly improved, and an extremely reliable authentication technique can be provided.

なお、以上の説明では、申請者撮影時に同時に撮影可能な背景画像を、場所判定のためのパスワードとして活用する技術について述べたが、本発明によれば、画像に限らず、認証場所で検出可能な周囲の音(楽曲)、振動、気圧、撮影位置等、周知のセンサーを使って収集することができる環境情報であっても画像と同様にパスワードとして活用できることは、当業者であれば容易に想到し得ることである。   In the above description, the technique of utilizing the background image that can be photographed at the same time as the applicant's photographing as a password for location determination has been described. It is easy for those skilled in the art that even environmental information that can be collected using well-known sensors such as ambient sound (music), vibration, atmospheric pressure, shooting position, etc. can be used as a password like an image. It is conceivable.

また、認証場所を申請者本人確認のための単なる静的空間として捉えるのではなく、時間的に繋がりのある動的空間として捉えるという本発明の新たな発想によれば、申請者の表情及び環境のいずれか一方、もしくは両方に対して、時間的な関連性を持ってこれらを動的に変化させることで、精度と秘匿性が従来よりも優れ、かつ拡張性のある認証技術を提供することが可能である。以下に、図13乃至図16を用いて、これら表情と環境の変化に関する適用例について説明する。   In addition, according to the new idea of the present invention that the authentication place is not regarded as a simple static space for confirming the identity of the applicant, but as a dynamic space that is temporally connected, the facial expression and environment of the applicant. Providing an authentication technology that is superior in accuracy and confidentiality and expandable by dynamically changing one or both of them with a temporal relationship. Is possible. Hereinafter, application examples regarding changes in the facial expression and the environment will be described with reference to FIGS. 13 to 16.

図13には、本発明の適用例として、代表的な3つのパターンが示されている。S1のパターンは表情を変化させずに環境を変化させるケースを、S2のパターンは環境を変化させずに表情を変化させるケースを、更に、S3のパターンは表情および環境の両方を変化させるケースを夫々示している。   FIG. 13 shows three typical patterns as an application example of the present invention. The S1 pattern is a case where the environment is changed without changing the facial expression, the S2 pattern is a case where the environment is changed without changing the environment, and the S3 pattern is a case where both the facial expression and the environment are changed. Each one is shown.

環境情報としては、例えば、認証場所に存在する自然由来の音(あるいは、楽曲)や振動等の周波数情報や、気圧、温度、湿度等の数値化可能な情報、あるいは、GPSやジャイロセンサー等で収集可能な緯度、経度に関する位置情報等のように、機械的、電気的、磁気的、音響的、もしくは化学的に検知可能な情報を使用することができる。更に、ここでは、これらの情報に意図的(人工的)な加工を加えることなく環境空間から自然に取得した情報を「変化なし」の情報と称し、意図的な加工(例えば、音を変えたり、特殊な振動を与えたり、撮影のための立ち位置を変えたりすること)を施して動的に変化させた情報を「変化あり」の情報と称する。   As the environmental information, for example, frequency information such as natural sound (or music) or vibration existing at the authentication place, quantifiable information such as atmospheric pressure, temperature, humidity, GPS, gyro sensor, etc. Information that can be detected mechanically, electrically, magnetically, acoustically, or chemically can be used, such as position information about latitude and longitude that can be collected. Furthermore, here, information obtained naturally from the environmental space without intentional (artificial) processing of these information is referred to as "no change" information, and intentional processing (for example, changing the sound Information that is dynamically changed by applying special vibration or changing the standing position for shooting is referred to as "changed" information.

次に、撮影された申請者画像と収集された環境情報との時間的整合について説明する。環境情報として申請者撮影時の背景画像を使用する場合には、人物と背景とが同一の画面内に存在するが、上記の音、振動、気圧等々、画像とは個別に収集される情報の場合には、申請者画像情報と環境情報に時間的関連性(マッチング)を持たせる必要がある。時間的関連性を持たせるには、例えば、環境情報を所定のタイミング(図13の時間軸上の●)で継続的に検出して認証センターの受信部に送信し、この所定のタイミングと同期した2つのタイミングポイント(T1とT2)を申請者撮影のための第1及び第2の撮影タイミングとして任意に割り当てることで、撮影画像情報と環境情報とを同期化させることができる。更に、時間tの間隔を任意に変更することで、環境情報を変更することができる(パスワードの変更)。   Next, the temporal matching between the photographed applicant image and the collected environmental information will be described. When using the background image at the time of shooting by the applicant as environmental information, the person and the background exist in the same screen, but the above-mentioned sounds, vibrations, atmospheric pressure, etc. are collected separately from the image. In this case, it is necessary to make the applicant's image information and environmental information have temporal relevance (matching). In order to provide temporal relevance, for example, environmental information is continuously detected at a predetermined timing (● on the time axis in FIG. 13) and transmitted to the receiving unit of the authentication center, and synchronized with this predetermined timing. By arbitrarily assigning the two timing points (T1 and T2) as the first and second photographing timings for photographing the applicant, it is possible to synchronize the photographed image information and the environment information. Furthermore, the environment information can be changed by changing the interval of time t arbitrarily (change of password).

さて、実際に申請者を認証する場合、図13のパターンS1では、環境に動的変化を与えているので、申請者は撮影カメラ(図1の30)の前に立つだけでよい。カメラ30は、環境情報の取得タイミングに同期して任意に指定された2つのタイミング(T1、T2)で申請者の顔画像を撮影し、表情情報F1及びF2として認証センターに送信する。また、環境情報としては、同じタイミングの情報K1及びK2が認証用パスワードとして使用される。このようにすれば、図2に示されているような申請者に対する「合図」が不要となる。   Now, in the case of actually authenticating the applicant, in the pattern S1 of FIG. 13, since the environment is dynamically changed, the applicant need only stand in front of the photographing camera (30 in FIG. 1). The camera 30 shoots the face image of the applicant at two arbitrarily designated timings (T1, T2) in synchronization with the acquisition timing of the environment information, and sends it to the authentication center as facial expression information F1 and F2. Further, as the environment information, the information K1 and K2 at the same timing are used as the authentication password. In this way, the “cue” for the applicant as shown in FIG. 2 becomes unnecessary.

図13のパターンS2は、環境を変化させずに、表情を変化させる例を示しており、実施例1に記載した効果と同様の効果を得ることができるのは、容易に理解できる。特に、表情の変化で申請者の生存を確認することができ、かつ、その生存場所が認証場所と一致しているか否かも同時に確認できるという点で優れている。   The pattern S2 in FIG. 13 shows an example in which the facial expression is changed without changing the environment, and it can be easily understood that the same effect as the effect described in the first embodiment can be obtained. In particular, it is excellent in that it is possible to confirm the survival of the applicant by the change in facial expression, and it is possible to confirm at the same time whether or not the survival place matches the authentication place.

さらに、図13のパターンS3のように、表情と環境の両方を変化させることで、本人確認と併せて、その生存の有無及び生存場所(認証場所)の確認をも同時に行うことができる。しかも、表情と背景の両方の変化に加えて、時間の変更までもが可能なため、パスワードとしての秘匿性を格段に向上させることができるという、これまでにない高精度かつ堅牢な認証システムを構築することができる。従って、特に厳しいセキュリティが要求される空港の入国審査や関係者外立ち入り禁止区域等でのセキュリティ認証システムに好適である。   Further, by changing both the facial expression and the environment as in the pattern S3 of FIG. 13, it is possible to confirm the person's existence and the existence place (authentication place) as well as the person's confirmation. Moreover, in addition to changing both facial expression and background, it is possible to change the time, so the confidentiality as a password can be significantly improved. Can be built. Therefore, it is suitable for the immigration control of airports that require particularly strict security and the security authentication system in the off-limits area for those concerned.

ここでは、特に高いレベルの認証が要求される空港の入国審査に本発明の認証システムを適用する例を、図14乃至16を参照して説明する。図14は、この認証システムにおいて必要な認証機能を示すブロック図である。撮影部30として、審査場所に設置されている入国者撮影用のカメラを、また環境情報収集センサー50/60として、審査場所の周囲の環境から得られる音(楽曲)、振動、気圧、位置等の環境情報を感知する機能を有するセンサーを使用することができる。審査のための入国者を撮影するタイミングは、認証センター40のタイミング制御部141からの撮影指示信号c1によって決定される。撮影された画像情報Fは、インターネット回線等を介して認証センター40に送信される。一方、センサー50/60が検知した環境情報Kは、予め定められた時間間隔で認証センターに送信されるが、撮影指示信号c1に同期させて環境情報を送信するようにしてもよい。認証センター40に送信された画像情報Fと環境情報Kは、画像及び環境情報受信部142のサーバ(図示せず)等にて格納され保管される。入国者確認のための撮影は、前述の実施例1乃至4と同様に所定の時間間隔(時間t)を設けて2回行われる。   Here, an example in which the authentication system of the present invention is applied to immigration inspection of an airport that requires a particularly high level of authentication will be described with reference to FIGS. FIG. 14 is a block diagram showing an authentication function required in this authentication system. A camera for photographing immigrants installed at the examination place as the photographing unit 30, and a sound (song), vibration, atmospheric pressure, position, etc. obtained from the environment around the examination place as a camera for photographing the immigrants, and an environmental information collection sensor 50/60. It is possible to use a sensor having a function of sensing the environmental information. The timing of photographing the immigrant for examination is determined by the photographing instruction signal c1 from the timing control unit 141 of the authentication center 40. The captured image information F is transmitted to the authentication center 40 via the Internet line or the like. On the other hand, the environmental information K detected by the sensor 50/60 is transmitted to the authentication center at a predetermined time interval, but the environmental information may be transmitted in synchronization with the photographing instruction signal c1. The image information F and the environment information K transmitted to the authentication center 40 are stored and stored in a server (not shown) of the image and environment information receiving unit 142. The photographing for confirming the entry of the person is performed twice at a predetermined time interval (time t) as in the first to fourth embodiments.

画像及び環境情報受信部142に記録された情報は、タイミング制御部141からの制御信号c2に応答して要素抽出部143に送られ、人物情報F及び環境情報Kとして抽出され、それぞれ人物同一性判定部144及び場所同一性判定部145に転送される。人物の同一性判定及び環境の同一性判定の結果に従って認証判定部146で最終判定が実行され、これら2つの判定結果が共に一致した時に入国者の本人確認が成立する。なお、人物判定(場合によっては、環境判定も)では、入国者の人物画像が予め登録されている登録データベース(登録DB)70の人物情報と照合され入国者の人物確認が行われる。また、これと同時に環境判定を実施して、審査撮影場所の確認を行うようにしても良い。   The information recorded in the image / environment information receiving unit 142 is sent to the element extracting unit 143 in response to the control signal c2 from the timing control unit 141, and extracted as the personal information F and the environmental information K, respectively. It is transferred to the determination unit 144 and the location identity determination unit 145. The authentication determination unit 146 makes a final determination according to the results of the person identity determination and the environment identity determination, and the identity of the immigrant is confirmed when these two determination results match. In the person determination (and in some cases, the environment determination), the person image of the immigrant is checked against the person information in the registration database (registration DB) 70 in which the person image of the immigrant is registered in advance. At the same time, the environment determination may be performed to confirm the examination shooting location.

次に、図15を参照して認証センター40における認証処理の手順について説明する。ここでは、人物判定と環境判定を並列に実行する手順を例として説明するが、これらの判定を直列、あるいは組み合わせて実行するようにしてもよい。   Next, the procedure of the authentication process in the authentication center 40 will be described with reference to FIG. Here, the procedure for performing the person determination and the environment determination in parallel will be described as an example, but these determinations may be performed in series or in combination.

タイミング制御部141からの撮影指示に基き、時間tの間隔をもって撮影された2つの画像は、人物画像F1及びF2として取得され、人物照合処理が行われる。この処理では、登録DB70に事前登録されている入国者の人物画像(例えば、パスポートの顔画像)と1回目(第1のタイミング)に撮影された人物画像が前処理として照合される。この段階で、画像の不一致が検出されると入国拒否の処置が取られる。一方、環境情報受信指示によって撮影タイミングと同期して抽出された2つの環境情報K1、K2を用いて環境同一性判定処理が実行されるが、その前処理として、人物照合と同様に、1回目の撮影と同期して取得された環境情報が審査場所の環境情報として予め登録されている環境情報と一致するか否かの場所照合を行っても良い。この照合で、場所不一致と判定された場合には、やはり入国拒否の処置が取られる。ただし、その後に行われる2つの環境情報(K1、K2)を使った環境同一性判定により場所の確認も可能であるため、登録データベースを使った場所照合のための前処理は省略することが可能である。   Based on the photographing instruction from the timing control unit 141, the two images photographed at intervals of time t are acquired as person images F1 and F2, and person collation processing is performed. In this processing, the person image of the immigrant who has been registered in the registration DB 70 in advance (for example, the face image of the passport) and the person image captured at the first time (first timing) are collated as preprocessing. At this stage, if an image inconsistency is detected, the action for refusal of immigration is taken. On the other hand, the environment identity determination processing is executed using the two environment information K1 and K2 extracted in synchronization with the shooting timing in response to the environment information reception instruction. Location verification may be performed as to whether or not the environmental information acquired in synchronization with the shooting of No. 1 matches the environmental information registered in advance as the environmental information of the examination location. In this collation, if it is determined that the locations do not match, the action of refusing entry is taken. However, since it is possible to confirm the location by determining the environmental identity using the two pieces of environmental information (K1, K2) that follow, it is possible to omit the preprocessing for location verification using the registration database. Is.

続いて行われる人物同一性判定処理では、図16のタイミング図に示されるように、第1のタイミングT1と第2のタイミングT2で取得された撮影画像(人物画像)F1とF2の照合処理が行われる。この処理では、人物の表情変化が無い場合には、両画像の同一性が判定され、表情変化がある場合には、両者の類似性が判定される。さらに、場所同一性判定処理では、図16に示されているように、第1のタイミングT1と第2のタイミングT2に同期して抽出された環境情報K1とK2の照合処理が行われ、環境変化のない場合には両者の同一性が、また環境変化のある場合には、タイミングT1から時間t経過後の環境情報(登録DBに事前登録しておけばよい)と実際に取得された環境情報K2との照合処理が行われ、場所の同一性が判定される。上記の判定処理の結果を受けて、図14の認証判定部146では、人物の同一性と場所の同一性の両方が確認された時点で入国者の本人確認が終了し、入国許可の処置が取られる。しかし、それ以外の結果場合には、いずれも入国禁止の処置が取られる。   In the person identity determination process that is performed subsequently, as shown in the timing chart of FIG. 16, the collation process of the captured images (person images) F1 and F2 acquired at the first timing T1 and the second timing T2 is performed. Done. In this processing, if there is no change in the facial expression of the person, the identities of the two images are determined, and if there is a change in the facial expression, the similarity between the two is determined. Further, in the place identity determination process, as shown in FIG. 16, the collation process of the environment information K1 and K2 extracted in synchronization with the first timing T1 and the second timing T2 is performed to If there is no change, the two are the same, and if there is a change in the environment, the environment information (which should be registered in the registration DB in advance) after the time t from the timing T1 and the actually acquired environment The matching process with the information K2 is performed, and the identity of the place is determined. In response to the result of the above determination process, the authentication determination unit 146 in FIG. 14 finishes the identity verification of the immigrant at the time when both the identity of the person and the identity of the place are confirmed, and the immigration permit is processed. Taken. However, in all other cases, immigration measures will be taken.

このように、時間間隔tで取得された2つの人物情報と環境情報とをその時間的繋がり(関連性)をベースにして本人の確認と場所の確認を行うことで、撮影された人物の同一性と撮影場所の同一性を判定することができる。この場合、環境情報が前述したパスワードの役目を果たす事は容易に理解されよう。更に、タイミングT1とT2で取得された2つの情報に時間的な繋がりを持たせることで本人の生存確認も同時に行うことができる。   In this way, by confirming the person and the place based on the temporal connection (relevance) between the two person information and the environment information acquired at the time interval t, it is possible to identify the photographed person. It is possible to determine the identity of the sex and the shooting location. In this case, it will be easily understood that the environmental information serves as the password described above. Furthermore, by making the two pieces of information acquired at the timings T1 and T2 have a temporal connection, it is possible to confirm the existence of the person at the same time.

ここで、入国者認証のために撮影した画像の背景画像を環境情報として使用する場合には、この背景画像を認証用のパスワードとして活用できるが、音や振動等の撮影画像とは独立した情報を使用する場合には、環境情報と撮影画像との関連性を紐付ける必要がある。このためには、撮影者の表情を変化させた画像を使うか、あるいは、撮影時の背景画像と環境情報に特定の関連性を持たせるようにすればよい。特に、後者の場合には、背景画像を動画にしたり、背景画像のパターンに応じて環境情報を変化させるようにすることで、環境情報と撮影画像を紐付けることができる。   Here, when using the background image of an image taken for immigration authentication as environmental information, this background image can be used as a password for authentication, but information such as sound and vibration that is independent of the captured image When using, it is necessary to associate the relationship between the environmental information and the captured image. For this purpose, an image in which the facial expression of the photographer is changed may be used, or a background image at the time of photographing and environment information may have a specific relationship. Especially in the latter case, the environment information and the captured image can be linked by making the background image a moving image or changing the environment information according to the pattern of the background image.

以上の記載から明らかなように、本発明は、本人の認証が必要とされるあらゆる場所及び場面に適用することが可能である。特に、本人の認証を遠隔地で行う必要がある場合(例えば、インターネット通信販売における決済や、病院等での自動会計処理、駐車場での入退管理、等々)には有効である。   As is clear from the above description, the present invention can be applied to any place and scene where the authentication of the person is required. In particular, it is effective when it is necessary to authenticate the person in a remote place (for example, settlement in Internet mail order, automatic accounting processing in hospitals, entrance / exit management in parking lots, etc.).

10 申請者
20 サービス実行部
30 撮影用カメラ
40 認証センター
40A 認証装置
41 撮影情報受信部
42 要素抽出部
43 表情判定部
44 背景判定部
45 認証判定部
431 申請者確認部
432 表情変化判定部
441 背景確認部
442 背景変化判定部
50 集音マイク
60 センサー
70 登録データベース
141 タイミング制御部
142 画像および環境情報受信部
143 要素抽出部
144 人物同一性判定部
145 場所同一性判定部
146 認証判定部
10 Applicant 20 Service Execution Section 30 Camera for Photography 40 Authentication Center 40A Authentication Device 41 Imaging Information Receiving Section 42 Element Extraction Section 43 Facial Expression Determining Section 44 Background Determining Section 45 Authentication Determining Section 431 Applicant Confirming Section 432 Facial Expression Change Determining Section 441 Background Confirmation unit 442 Background change determination unit 50 Sound collection microphone 60 Sensor 70 Registration database 141 Timing control unit 142 Image and environment information reception unit 143 Element extraction unit 144 Person identity determination unit 145 Location identity determination unit 146 Authentication determination unit

Claims (18)

申請者の表情とその背景を第1のタイミングで撮影した第1の画像と、申請者の表情を変化させ、変化後の表情とその背景を第2のタイミングで撮影した第2の画像とを受信する画像情報受信部と、
第1の画像及び第2の画像から表情に関する情報と背景に関する情報とを抽出する要素抽出部と、
前記第1の画像から抽出された表情情報及び前記第2の画像から抽出された表情情報に基いて前記申請者の同一性を判定する表情判定部と、
前記第1の画像から抽出された背景情報及び前記第2の画像から抽出された背景情報に基いて撮影場所の同一性を判定する背景判定部と、
前記表情判定部及び前記背景判定部の判定結果に応答して前記申請者の本人確認を行う認証判定部と、を具備し、
前記背景判定部は、前記第1のタイミングから前記第2のタイミングに至る時間情報を判定要件とすることを特徴とする申請者認証装置。
A first image of the applicant's facial expression and its background taken at the first timing, and a second image of the applicant's facial expression changed and its background taken at the second timing. An image information receiving unit for receiving,
An element extraction unit that extracts information about facial expressions and information about backgrounds from the first image and the second image;
A facial expression determination unit that determines the identity of the applicant based on the facial expression information extracted from the first image and the facial expression information extracted from the second image;
A background determination unit that determines the identity of the shooting location based on the background information extracted from the first image and the background information extracted from the second image;
An authentication determination unit that confirms the identity of the applicant in response to the determination results of the facial expression determination unit and the background determination unit,
The applicant authentication apparatus, wherein the background determination unit uses time information from the first timing to the second timing as a determination requirement.
前記背景が静止画であることを特徴とする請求項1記載の申請者認証装置。   The applicant authentication apparatus according to claim 1, wherein the background is a still image. 前記背景判定部は、前記第1の画像における背景情報と前記第2の画像における背景情報とを照合して前記撮影場所の同一性を判定することを特徴とする請求項2記載の申請者認証装置。   The applicant authentication according to claim 2, wherein the background determination unit determines the identity of the shooting location by collating the background information in the first image with the background information in the second image. apparatus. 前記背景が動画であることを特徴とする請求項1記載の申請者認証装置。   The applicant authentication apparatus according to claim 1, wherein the background is a moving image. 前記背景判定部は、前記第2の画像から抽出された背景情報と、前記第1のタイミングから前記第2のタイミングに至る時間経過に伴って現れる動画情報とを照合して前記撮影場所の同一性を判定することを特徴とする請求項4記載の申請者認証装置。   The background determination unit compares the background information extracted from the second image with moving image information that appears with the lapse of time from the first timing to the second timing, and identifies the same shooting location. The applicant authentication apparatus according to claim 4, wherein the applicant authentication apparatus determines the sex. 前記第2の画像から抽出された表情情報及び背景情報が、前記第1の画像から抽出された表情情報及び背景情報に対して共に変化していることを確認することで撮影場所の同一性を判定することを特徴とする請求項4記載の申請者認証装置。   By confirming that the facial expression information and the background information extracted from the second image both change with respect to the facial expression information and the background information extracted from the first image, the identity of the shooting location can be confirmed. The applicant authentication apparatus according to claim 4, wherein the determination is made. 前記背景が静止画と動画とを含むことを特徴とする請求項1記載の申請者認証装置。   The applicant authentication apparatus according to claim 1, wherein the background includes a still image and a moving image. 前記背景判定部は、静止画の背景と動画の背景とを組み合わせて撮影場所の同一性を判定することを特徴とする請求項7記載の申請者認証装置。   The applicant authentication apparatus according to claim 7, wherein the background determination unit determines the identity of a shooting location by combining a background of a still image and a background of a moving image. 前記背景判定部において撮影場所の同一性が確認出来なかった場合には、前記表情判定部の判定を無視して認証不適合とすることを特徴とする請求項1乃至8記載の申請者認証装置。   9. The applicant authentication apparatus according to claim 1, wherein when the background determination unit cannot confirm the identity of the shooting location, the determination by the facial expression determination unit is ignored and authentication is not performed. 申請者の表情を撮影した画像とその撮影時の環境情報とを第1のタイミングで収集し、前記申請者の表情を変化させ、変化した表情を撮影した画像とその撮影時の環境情報とを第2のタイミングで収集する情報収集部と、
前記第1のタイミングで収集した画像と前記第2のタイミングで収集した画像との関連性から前記申請者の同一性を判定する表情判定部と、
前記第1のタイミングで収集した環境情報と前記第2のタイミングで収集した環境情報とを時間軸に沿った動的情報として対比することで前記申請者の場所の同一性を判定する環境判定部と、
前記表情判定部および前記環境判定部の判定結果を受けて申請者の認証を判定する認証判定部と、を有することを特徴とする申請者認証装置。
An image of the facial expression of the applicant and environmental information at the time of the imaging are collected at a first timing, the facial expression of the applicant is changed, and the image of the changed facial expression and the environmental information at the time of the imaging are collected. An information collecting unit that collects at the second timing,
A facial expression determination unit that determines the identity of the applicant based on the relationship between the image acquired at the first timing and the image acquired at the second timing;
An environment determination unit that determines the identity of the location of the applicant by comparing the environment information collected at the first timing with the environment information collected at the second timing as dynamic information along the time axis. When,
An applicant authentication apparatus, comprising: an authentication determination unit that receives the determination results of the facial expression determination unit and the environment determination unit and determines the authentication of the applicant.
前記環境情報として、申請者を撮影する環境から得られた音情報、振動情報、あるいは、気圧情報等、センサーを使って検知可能な情報を使用することを特徴とする請求項10記載の申請者認証装置。   11. The applicant according to claim 10, wherein the environmental information is information that can be detected by a sensor, such as sound information, vibration information, or atmospheric pressure information obtained from the environment in which the applicant is photographed. Authentication device. 定められた場所で申請者の表情とその背景を撮影した画像情報に基いて申請者の本人確認を行う認証方法において、
申請者の表情及びその背景を第1のタイミングで撮影した第1の画像と、申請者の表情を変化させて、変化後の表情及びその背景を第2のタイミングで撮影した第2の画像とを受信する第1のステップと、
前記第1の画像及び前記第2の画像から表情に関する情報と背景に関する情報とをそれぞれ抽出する第2のステップと、
前記第1の画像から抽出された表情情報と前記第2の画像から抽出された表情情報との相互関連性に基いて申請者の同一性を判定する表情判定ステップと、
前記第1の画像から抽出された背景情報と前記第2の画像から抽出された背景情報とを、前記第1のタイミングから前記第2のタイミングに至る時間経過と関連付けて撮影場所の同一性を判定する背景判定ステップと、を有し、
前記表情判定ステップ及び前記背景判定ステップにおける判定結果に基いて前記申請者の認証を行うことを特徴とする申請者認証方法。

In the authentication method that confirms the identity of the applicant based on the image information of the facial expression of the applicant and the background of the applicant at the designated place
A first image of the applicant's facial expression and its background taken at the first timing, and a second image of the applicant's facial expression and its background taken at the second timing by changing the facial expression of the applicant. A first step of receiving
A second step of extracting information about a facial expression and information about a background from the first image and the second image, respectively;
A facial expression determination step of determining the identity of the applicant based on the correlation between the facial expression information extracted from the first image and the facial expression information extracted from the second image;
The background information extracted from the first image and the background information extracted from the second image are associated with the passage of time from the first timing to the second timing to identify the shooting location. A background determination step of determining,
An applicant authentication method, characterized in that the applicant is authenticated based on the determination results in the facial expression determination step and the background determination step.

前記背景判定ステップにおける撮影場所の同一性の確認と、前記表情判定ステップにおける申請者の同一性の確認との両方の確認が成立した時に、前記申請者が本人であると認証することを特徴とする請求項12記載の申請者認証方法。   When both the confirmation of the identity of the shooting location in the background determination step and the confirmation of the identity of the applicant in the facial expression determination step are established, the applicant is authenticated as the person himself / herself. The applicant authentication method according to claim 12. 第1のタイミングで撮影された申請者の表情に関する情報と、その撮影時の環境に関する情報とを収集する第1のステップと、
前記第1のタイミングに続く第2のタイミングで撮影された申請者の表情に関する情報と、当該第2のタイミングにおける環境に関する情報とを収集する第2のステップと、
前記第1のステップおよび前記第2のステップで収集された表情に関する情報に基いて申請者の同一性を判定する第3のステップと、
前記第1のタイミングおよび前記第2のタイミングで収集された環境に関する情報を照合して前記申請者の場所の同一性を判定する第4のステップと、
前記第3および第4のステップで得られた判定結果に応答して申請者の認証判定を行う第5のステップと、を有することを特徴とする申請者認証方法。
A first step of collecting information regarding the facial expression of the applicant photographed at the first timing and information regarding the environment at the time of the photographing;
A second step of collecting information about the facial expression of the applicant photographed at a second timing following the first timing and information about the environment at the second timing;
A third step of determining the identity of the applicant based on the facial expression information collected in the first step and the second step;
A fourth step of determining the identity of the applicant's location by collating the information about the environment collected at the first timing and the second timing;
A fifth step of making an authentication determination of the applicant in response to the determination results obtained in the third and fourth steps, the applicant authentication method.
前記第1のタイミングから前記第2のタイミングに至る時間を任意に変更することを特徴とする請求項14記載の申請者認証方法。   15. The applicant authentication method according to claim 14, wherein the time from the first timing to the second timing is arbitrarily changed. 前記環境に関する情報として、撮影が行われる場所からセンサーを使って検知可能な情報を使用することを特徴とする請求項14記載の申請者認証方法。   15. The applicant authentication method according to claim 14, wherein information that can be detected by a sensor from a place where an image is taken is used as the information about the environment. 第1のタイミングで申請者の表情に関する画像と申請者がいる場所の環境に関する情報とを収集し、第1のタイミングに続く第2のタイミングで前記申請者の表情に関する画像とその場所に関する環境情報とを収集する情報収集部と、
前記情報収集部で収集した情報を受信し、受信した情報から前記表情に関する画像情報と前記場所に関する環境情報とを抽出し、抽出された2つの表情に関する情報に基いて前記第1のタイミングおよび前記第2のタイミングで収集された画像が同一人物の画像か否かを判定する第1の判定と、抽出された2つの環境に関する情報に基いて前記申請者が同一の場所に存在するか否かを判定する第2の判定とを実行する情報判定部と、
前記情報判定部による判定結果に基いて、前記申請者が同一人物であると判定され、かつ、当該申請者の場所が同一場所であると判定された時に認証許可を指示する認証判定部と、
前記認証判定部からの指示を受けて前記申請者に対してセキュリティサービスを実行するサービス実行部と、を有することを特徴とするセキュリティ認証システム。
An image regarding the facial expression of the applicant and information regarding the environment of the place where the applicant is present are collected at a first timing, and an image regarding the facial expression of the applicant and environmental information regarding the place are collected at a second timing following the first timing. An information collection unit that collects and
The information collected by the information collecting unit is received, image information about the facial expression and environment information about the place are extracted from the received information, and the first timing and the information are extracted based on the extracted information about the two facial expressions. Whether the applicant exists in the same place based on the first determination that determines whether the images collected at the second timing are images of the same person and the extracted information about the two environments An information determination unit that performs a second determination that determines
Based on the determination result by the information determination unit, the applicant is determined to be the same person, and an authentication determination unit for instructing authentication permission when it is determined that the applicant's place is the same place,
And a service execution unit that executes a security service to the applicant in response to an instruction from the authentication determination unit.
前記第1のタイミングから前記第2のタイミングに至る時間を変更可能としたことを特徴とする請求項17記載のセキュリティ認証システム。   18. The security authentication system according to claim 17, wherein the time from the first timing to the second timing can be changed.
JP2015235164A 2015-12-01 2015-12-01 Applicant authentication device, authentication method, and security authentication system using the method Active JP6679291B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015235164A JP6679291B2 (en) 2015-12-01 2015-12-01 Applicant authentication device, authentication method, and security authentication system using the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015235164A JP6679291B2 (en) 2015-12-01 2015-12-01 Applicant authentication device, authentication method, and security authentication system using the method

Publications (2)

Publication Number Publication Date
JP2017102684A JP2017102684A (en) 2017-06-08
JP6679291B2 true JP6679291B2 (en) 2020-04-15

Family

ID=59018171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015235164A Active JP6679291B2 (en) 2015-12-01 2015-12-01 Applicant authentication device, authentication method, and security authentication system using the method

Country Status (1)

Country Link
JP (1) JP6679291B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10839238B2 (en) * 2018-03-23 2020-11-17 International Business Machines Corporation Remote user identity validation with threshold-based matching

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007026330A (en) * 2005-07-20 2007-02-01 Olympus Imaging Corp Personal identification system and personal identification method
BRPI0924540A2 (en) * 2009-06-16 2015-06-23 Intel Corp Camera applications on a portable device

Also Published As

Publication number Publication date
JP2017102684A (en) 2017-06-08

Similar Documents

Publication Publication Date Title
US11023757B2 (en) Method and apparatus with liveness verification
CN106599772B (en) Living body verification method and device and identity authentication method and device
CN105513221B (en) A kind of ATM machine antifraud apparatus and system based on three-dimensional face identification
US8818052B2 (en) Fraud resistant biometric financial transaction system and method
WO2018192448A1 (en) People-credentials comparison authentication method, system and camera
TW201401186A (en) System and method for identifying human face
US20110013812A1 (en) Entrance control system having a camera and control method thereof
KR102079952B1 (en) Method of managing access using face recognition and apparatus using the same
CN108959884B (en) Human authentication verification device and method
US20140071293A1 (en) Method and device for authintication of live human faces using infra red images
KR101724971B1 (en) System for recognizing face using wide angle camera and method for recognizing face thereof
US11348370B2 (en) Iris authentication device, iris authentication method, and recording medium
WO2019216091A1 (en) Face authentication device, face authentication method, and face authentication system
US20180232569A1 (en) System and method for in motion identification
JP2006235718A (en) Facial authentication device, its facial authentication method, electronic equipment integrated with the facial authentication device and recording medium with the facial authentication program stored thereon
JP2007156974A (en) Personal identification/discrimination system
JP7428242B2 (en) Authentication device, authentication system, authentication method and authentication program
JP2006309562A (en) Biological information registering device
WO2020065954A1 (en) Authentication device, authentication method, and storage medium
CN111462417A (en) Multi-information verification system and multi-information verification method for unmanned bank
CN205318544U (en) Device and system are prevented cheaing by ATM based on three dimensional face identification
JP6679291B2 (en) Applicant authentication device, authentication method, and security authentication system using the method
CN105897747A (en) Data storage method and device based on digital biological signatures, and intelligent device
WO2018179723A1 (en) Facial authentication processing apparatus, facial authentication processing method, and facial authentication processing system
CN112069915A (en) ATM with face recognition system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191024

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200318

R150 Certificate of patent or registration of utility model

Ref document number: 6679291

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250