JP7363455B2 - Authentication system, authentication device and authentication method - Google Patents

Authentication system, authentication device and authentication method Download PDF

Info

Publication number
JP7363455B2
JP7363455B2 JP2019229230A JP2019229230A JP7363455B2 JP 7363455 B2 JP7363455 B2 JP 7363455B2 JP 2019229230 A JP2019229230 A JP 2019229230A JP 2019229230 A JP2019229230 A JP 2019229230A JP 7363455 B2 JP7363455 B2 JP 7363455B2
Authority
JP
Japan
Prior art keywords
face
unit
authentication
feature points
facial feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019229230A
Other languages
Japanese (ja)
Other versions
JP2020115334A (en
Inventor
由利 谷藤
壮一 田野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to US17/424,031 priority Critical patent/US12019722B2/en
Priority to CN202080009218.7A priority patent/CN113316781A/en
Priority to PCT/JP2020/001180 priority patent/WO2020149339A1/en
Priority to EP20741224.8A priority patent/EP3913575A4/en
Priority to TW109101709A priority patent/TWI729679B/en
Publication of JP2020115334A publication Critical patent/JP2020115334A/en
Application granted granted Critical
Publication of JP7363455B2 publication Critical patent/JP7363455B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • G06V40/53Measures to keep reference information secret, e.g. cancellable biometrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • G06V40/55Performing matching on a personal external card, e.g. to avoid submitting reference information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、情報コードを用いた認証システム、認証装置及び認証方法に関するものである。 The present invention relates to an authentication system, an authentication device, and an authentication method using an information code.

従来、高度なセキュリティ性が求められる認証システムとして、顔認証を利用したシステムが採用される場合がある。このような顔認証を利用したシステムは、大掛かりなシステム構成が必要となるため、高度なセキュリティ性が求められる場所に据え置かれて利用されていた。その一方で、大学で行われる資格試験や、ホール会場で行われるコンサート・イベント等、認証システムとして簡素な構成にて比較的高いセキュリティ性が求められるニーズもある。このような簡素な構成にて比較的高いセキュリティ性を実現するためのシステムとして、例えば、下記特許文献1に開示される認証システムが知られている。 BACKGROUND ART Conventionally, as an authentication system that requires a high level of security, a system that uses facial recognition is sometimes adopted. Systems using such face recognition require large-scale system configurations, so they have been used in places where a high level of security is required. On the other hand, there are also needs for relatively high security with a simple configuration as an authentication system, such as for qualification examinations held at universities and concerts and events held at hall venues. As a system for achieving relatively high security with such a simple configuration, for example, an authentication system disclosed in Patent Document 1 listed below is known.

この認証システムでは、利用者の顔特徴点に関する情報を記録した認証用コードがサーバにて生成され、この認証用コードが利用者の携帯端末に記憶される。そして、認証装置において、情報コード読取部により携帯端末に表示された認証用コードが撮像されるとともに撮像部により利用者の顔が撮像されると、撮像された認証用コードから読み取られた顔特徴点と、撮像された利用者の顔の画像から抽出された顔特徴点とが照合され、その照合結果に基づいて利用者の認証が行われる。これにより、利用者は、予め取得した認証用コードと自身の顔とを認証装置に撮像させるだけで、顔特徴点を利用した認証を行うことができる。 In this authentication system, a server generates an authentication code that records information regarding the user's facial feature points, and this authentication code is stored in the user's mobile terminal. In the authentication device, when the authentication code displayed on the mobile terminal is imaged by the information code reading unit and the user's face is imaged by the imaging unit, facial features are read from the imaged authentication code. The points are compared with facial feature points extracted from the captured image of the user's face, and the user is authenticated based on the comparison results. Thereby, the user can perform authentication using facial feature points simply by having the authentication device take an image of the authentication code obtained in advance and his or her own face.

特開2014-222445号公報Japanese Patent Application Publication No. 2014-222445

ところで、上記特許文献1では、認証用コードを情報コード読取部により撮像し、利用者の顔を撮像部により撮像することで、認証用の情報を取得するように構成されている。このように撮像手段が2つ必要となるため、それぞれの撮像手段の設置場所が限定される場合があった。また、2つの撮像手段があることにより、両撮像手段を備える認証装置の設置状況等によっては、利用者の撮像がうまくできない場合が想定される等の課題があった。 By the way, in Patent Document 1, the authentication code is imaged by an information code reading section, and the user's face is imaged by the imaging section, so that authentication information is acquired. Since two imaging means are thus required, the installation location of each imaging means may be limited. Furthermore, since there are two imaging means, there is a problem that depending on the installation situation of the authentication device including both imaging means, it may be difficult to take an image of the user.

本発明は、上述した課題を解決するためになされたものであり、その目的とするところは、利用者が意識することなくその利用者の顔を撮像し、その顔画像から抽出した顔特徴点を利用した認証を実現可能な構成を提供することにある。 The present invention has been made to solve the above-mentioned problems, and its purpose is to capture an image of the user's face without the user being consciously aware of it, and to extract facial feature points from the facial image. The purpose of this invention is to provide a configuration that allows authentication using .

上記目的を達成するため、特許請求の範囲の請求項1に記載の発明は、
利用者が携帯する情報コード記録媒体(30)と、
前記利用者の認証を行う認証装置(20)と、
を備える認証システム(10)であって、
前記情報コード記録媒体は、
前記利用者の顔画像から抽出された顔特徴点が記録される情報コード(C)を備え、
前記認証装置は、
撮像部(23)と、
前記撮像部により人の顔が認識可能に撮像されている顔認識可能状態であるか否かについて判定する判定部(21)と、
前記判定部により前記顔認識可能状態と判定された後に前記人の顔を前記撮像部にて撮像した撮像画像から顔特徴点を抽出する抽出部(21)と、
前記情報コード記録媒体に表示された前記情報コードを前記撮像部にて撮像した撮像画像から当該情報コードに記録される前記顔特徴点に関する情報を読み取る読取部(21)と、
前記抽出部により抽出した前記顔特徴点と前記読取部により読み取られた前記顔特徴点とを照合する照合部(21)と、
前記照合部の照合結果に基づいて前記利用者の認証を行う認証部(21)と、
を備えることを特徴とする。
In order to achieve the above object, the invention described in claim 1 of the claims is as follows:
an information code recording medium (30) carried by the user;
an authentication device (20) that authenticates the user;
An authentication system (10) comprising:
The information code recording medium is
comprising an information code (C) in which facial feature points extracted from the user's facial image are recorded;
The authentication device includes:
An imaging unit (23);
a determination unit (21) that determines whether or not a face recognition possible state is in which a person's face is imaged in a recognizable manner by the imaging unit;
an extraction unit (21) that extracts facial feature points from a captured image of the person's face captured by the imaging unit after the face recognition is determined by the determination unit;
a reading unit (21) that reads information regarding the facial feature points recorded in the information code from an image captured by the imaging unit of the information code displayed on the information code recording medium;
a matching unit (21) that matches the facial feature points extracted by the extraction unit and the facial feature points read by the reading unit;
an authentication unit (21) that authenticates the user based on the verification result of the verification unit;
It is characterized by having the following.

請求項10に記載の発明は、
情報コード(C)をかざした利用者の認証を行う認証装置(20)であって、
前記情報コードには、前記利用者の顔画像から抽出された顔特徴点が記録され、
撮像部(23)と、
前記撮像部により人の顔が認識可能に撮像されている顔認識可能状態であるか否かについて判定する判定部(21)と、
前記判定部により前記顔認識可能状態と判定された後に前記人の顔を前記撮像部にて撮像した撮像画像から顔特徴点を抽出する抽出部(21)と、
前記情報コードを前記撮像部にて撮像した撮像画像から当該情報コードに記録される前記顔特徴点に関する情報を読み取る読取部(21)と、
前記抽出部により抽出した前記顔特徴点と前記読取部により読み取られた前記顔特徴点とを照合する照合部(21)と、
前記照合部の照合結果に基づいて前記利用者の認証を行う認証部(21)と、
を備えることを特徴とする。
The invention according to claim 10 is
An authentication device (20) that authenticates a user who holds up an information code (C),
Facial feature points extracted from the facial image of the user are recorded in the information code,
An imaging unit (23);
a determination unit (21) that determines whether or not a face recognition possible state is in which a person's face is imaged in a recognizable manner by the imaging unit;
an extraction unit (21) that extracts facial feature points from a captured image of the person's face captured by the imaging unit after the face recognition is determined by the determination unit;
a reading unit (21) that reads information regarding the facial feature points recorded in the information code from a captured image captured by the imaging unit;
a matching unit (21) that matches the facial feature points extracted by the extraction unit and the facial feature points read by the reading unit;
an authentication unit (21) that authenticates the user based on the verification result of the verification unit;
It is characterized by having the following.

請求項11に記載の発明は、
情報コード(C)をかざした利用者の認証を行う認証方法であって、
前記情報コードには、前記利用者の顔画像から抽出された顔特徴点が記録され、
撮像部(23)により撮像画像を生成する撮像ステップと、
前記撮像ステップにて人の顔が認識可能に撮像されている顔認識可能状態であるか否かについて判定する判定ステップと、
前記判定ステップにて前記顔認識可能状態と判定された後に前記人の顔を前記撮像部にて撮像した撮像画像から顔特徴点を抽出する抽出ステップと、
前記情報コードを前記撮像部にて撮像した撮像画像から当該情報コードに記録される前記顔特徴点に関する情報を読み取る読取ステップと、
前記抽出ステップにて抽出した前記顔特徴点と前記読取ステップにて読み取られた前記顔特徴点とを照合する照合ステップと、
前記照合ステップの照合結果に基づいて前記利用者の認証を行う認証ステップと、
を備えることを特徴とする。
なお、上記各括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。
The invention according to claim 11 is
An authentication method for authenticating a user who holds up an information code (C),
Facial feature points extracted from the facial image of the user are recorded in the information code,
an imaging step of generating a captured image by an imaging unit (23);
a determination step of determining whether or not the human face is in a face-recognizable state where the human face is recognizably imaged in the imaging step;
an extraction step of extracting facial feature points from a captured image of the person's face captured by the imaging unit after the face recognition is possible in the determination step;
a reading step of reading information regarding the facial feature points recorded in the information code from a captured image captured by the imaging unit;
a matching step of matching the facial feature points extracted in the extraction step and the facial feature points read in the reading step;
an authentication step of authenticating the user based on the verification result of the verification step;
It is characterized by having the following.
Note that the reference numerals in parentheses above indicate correspondence with specific means described in the embodiments described later.

請求項1の発明では、情報コード記録媒体は、利用者の顔画像から抽出された顔特徴点が記録される情報コードを備えている。そして、認証装置では、判定部により顔認識可能状態と判定された後に人の顔を撮像部にて撮像した撮像画像から顔特徴点が抽出部により抽出されるとともに、情報コード記録媒体に表示された情報コードを撮像部にて撮像した撮像画像から当該情報コードに記録される顔特徴点に関する情報が読取部により読み取られる。そして、抽出部により抽出した顔特徴点と読取部により読み取られた顔特徴点とが照合部により照合されて、この照合結果に基づいて、認証部により利用者の認証が行われる。 In the first aspect of the invention, the information code recording medium includes an information code in which facial feature points extracted from a user's facial image are recorded. Then, in the authentication device, the extracting unit extracts facial feature points from an image captured by the imaging unit after the determination unit determines that the face can be recognized, and the facial feature points are displayed on the information code recording medium. A reading unit reads information regarding facial feature points recorded in the information code from an image captured by the imaging unit. Then, the facial feature points extracted by the extraction section and the facial feature points read by the reading section are compared by the matching section, and the user is authenticated by the authentication section based on the matching result.

これにより、利用者は、自身の顔と情報コード記録媒体に表示される情報コードとを認証装置の撮像部に撮像させるだけで、顔特徴点を利用した認証を行うことができる。特に、利用者の顔を撮像するための撮像手段と情報コード記録媒体に表示された情報コードを撮像するための撮像手段とが1つの撮像部で兼用されるため、利用者は撮像部を見ながらその撮像部に情報コードをかざす動作をすることとなる。このような場合には、情報コードを撮像する前に、情報コードをかざそうとしている利用者の顔を、利用者が意識することなく撮像部にて認識可能に撮像することができる。また、利用者の顔を撮像するために利用者が撮像部に対して静止する動作を行う必要もない。このため、情報コードを読み取る前に、利用者の顔を撮像してその顔特徴点を抽出するための処理を開始できるので、情報コードを撮像部にかざしてから照合部による照合結果を得るまでの時間が短くなり、利用者が認識する認証時間を短縮することができる。 Thereby, the user can perform authentication using facial feature points simply by having the imaging unit of the authentication device take an image of his or her own face and the information code displayed on the information code recording medium. In particular, since one imaging section serves as both the imaging means for imaging the user's face and the imaging means for imaging the information code displayed on the information code recording medium, the user cannot see the imaging section. At the same time, the user must hold the information code over the imaging unit. In such a case, before capturing an image of the information code, the image capturing section can capture a recognizable image of the face of the user who is about to hold up the information code without the user being conscious of it. Furthermore, there is no need for the user to stand still relative to the imaging unit in order to capture an image of the user's face. Therefore, before reading the information code, it is possible to take an image of the user's face and start processing to extract its facial feature points, so there is no need to wait until the information code is held up to the imaging unit and the matching result is obtained by the matching unit. The authentication time required by the user can be shortened.

請求項2の発明では、情報コードを読み取り可能な状態を所定の表示状態にて示す表示部が設けられ、撮像部は、表示部を見ている利用者の視野範囲内となる位置に配置される。これにより、利用者は、撮像部に情報コードをかざそうとする際、表示部が所定の表示状態となっていることを視認するので、利用者の視野範囲内となっている撮像部にて利用者の顔をより認識しやすい状態で撮像することができ、認証精度を高めることができる。 In the invention of claim 2, a display section is provided that shows a state in which the information code can be read in a predetermined display state, and the imaging section is arranged at a position within the field of view of a user looking at the display section. Ru. As a result, when the user tries to hold the information code over the imaging unit, the user can visually confirm that the display unit is in the predetermined display state, so the user can use the imaging unit that is within the user's field of vision. The user's face can be imaged in a state where it is easier to recognize, and authentication accuracy can be improved.

請求項3の発明では、抽出部により抽出された顔特徴点が記憶部に一時的に記憶されて一定時間経過後に消去される。これにより、例えば、情報コード記録媒体のかざし方が適切でなかったために情報コードが読み取られなくても、抽出された顔特徴点が一定時間保持されるので、この一定時間内で情報コードが適切に読み取られることで、利用者の顔を再度認識可能に撮像する手間をなくすことができる。その一方で、抽出された顔特徴点は、一定時間経過後には記憶されなくなるので、認証対象と異なる他人の顔が意図せずに撮像されたとしても、適切に消去することができる。 In the third aspect of the invention, the facial feature points extracted by the extraction section are temporarily stored in the storage section and deleted after a certain period of time has elapsed. As a result, even if the information code cannot be read because, for example, the information code recording medium is not held up in an appropriate manner, the extracted facial feature points will be retained for a certain period of time, and the information code will be properly read within this certain period of time. This eliminates the need to take a recognizable image of the user's face. On the other hand, the extracted facial feature points are no longer stored after a certain period of time has elapsed, so even if the face of another person who is different from the authentication target is unintentionally captured, it can be appropriately deleted.

請求項4の発明では、所定の条件において、撮像部にて人の顔を撮像する際の照射状態と、撮像部にて情報コードを撮像する際の照射状態とが異なるように照明部が制御部により制御される。これにより、例えば、周囲の明るさなどの所定の条件において、同じ撮像部を利用する場合でも、人の顔を撮像するために適した撮像状態と情報コードを撮像するために適した撮像状態とを切り替えることができるので、顔特徴点の抽出精度や情報コードの読取精度が向上し、その結果、認証精度を高めることができる。 In the invention of claim 4, the illumination unit controls the illumination state so that, under predetermined conditions, the irradiation state when the imaging unit images a person's face is different from the irradiation state when the imaging unit images the information code. controlled by the department. As a result, for example, under predetermined conditions such as ambient brightness, even when using the same imaging unit, an imaging state suitable for imaging a person's face and an imaging state suitable for imaging an information code can be determined. can be switched, the extraction accuracy of facial feature points and the reading accuracy of information codes can be improved, and as a result, the authentication accuracy can be improved.

請求項5の発明では、判定部は、撮像部による連続画像において、認識可能に撮像された人の顔が徐々に大きくなる場合に、顔認識可能状態であると判定する。第三者が携帯端末に画面表示された顔写真等を撮像部に撮像させた場合には、人の顔として認識されてもその人の顔が徐々に大きくならない限り顔認識可能状態であると判定されることもない。このため、不正目的で顔写真を撮像させた場合でも、顔認識可能状態であると誤判定され難くなるので、なりすましを防止することができる。 In the fifth aspect of the present invention, the determination unit determines that the face recognition is possible when the face of the person captured in a recognizable manner gradually increases in size in the continuous images taken by the imaging unit. When a third party uses the imaging unit to capture a face photo displayed on a mobile device, even if it is recognized as a person's face, it is assumed that face recognition is possible unless the person's face gradually increases in size. There will be no judgment. Therefore, even if a face photograph is taken for fraudulent purposes, it is less likely to be erroneously determined that the face is in a state where face recognition is possible, thereby making it possible to prevent spoofing.

請求項6の発明では、判定部は、撮像部の撮像画像における基準線に対して、認識可能に撮像された人の顔に関する中心線の傾きが所定の角度範囲内となる場合に、顔認識可能状態であると判定する。 In the invention according to claim 6, the determination unit performs face recognition when the inclination of the center line of the person's face captured in a recognizable manner with respect to the reference line in the image captured by the imaging unit is within a predetermined angular range. It is determined that the state is possible.

第三者が携帯端末に画面表示された顔写真等を撮像部に撮像させた際に、その顔写真が傾いていると、撮像画像においてその顔に関する中心線が鉛直線(重力方向に沿う線)に対して傾くことになる。一方、撮像部に向かって歩いている人を撮像するとき、撮像画像においてその顔に関する中心線の鉛直線に対する傾きは十分に小さくなる。すなわち、撮像部の撮像画像における上記鉛直線等の基準線に対して認識可能に撮像された人の顔に関する中心線の傾きが所定の角度範囲内とならない場合には、顔写真を撮像している可能性がある。このため、認識可能に撮像された人の顔に関する中心線の傾きが所定の角度範囲内となる場合に顔認識可能状態であると判定し、上記中心線が所定の角度範囲内とならない場合に顔認識可能状態でないと判定することで、不正目的で顔写真を撮像させた場合でも、その顔写真が大きく傾いていると顔認識可能状態であると誤判定され難くなるので、なりすましを防止することができる。 When a third party uses the imaging unit to capture a face photo displayed on the screen of a mobile device, if the face photo is tilted, the center line of the face in the captured image may be a vertical line (a line along the direction of gravity). ). On the other hand, when capturing an image of a person walking toward the imaging unit, the inclination of the center line of the face relative to the vertical line in the captured image is sufficiently small. In other words, if the inclination of the center line of the person's face that is recognizably imaged with respect to the reference line such as the vertical line in the image captured by the imaging unit does not fall within a predetermined angular range, the photograph of the face is not captured. There is a possibility that there are. For this reason, it is determined that the face can be recognized when the inclination of the center line of a person's face that is imaged in a recognizable manner falls within a predetermined angular range, and when the center line does not fall within the predetermined angular range. By determining that the face is not in a state where face recognition is possible, even if a face photo is taken for fraudulent purposes, if the face picture is tilted significantly, it will be difficult to misjudge that the face is in a state where face recognition is possible, thereby preventing spoofing. be able to.

請求項7の発明では、判定部は、撮像部による連続画像において、認識可能に撮像された人の顔が瞬きしていると認識可能な場合に、顔認識可能状態であると判定する。第三者が携帯端末に画面表示された顔写真等を撮像部に撮像させた場合には、人の顔として認識されても瞬きできないため顔認識可能状態であると判定されることもない。このため、不正目的で顔写真を撮像させた場合でも、顔認識可能状態であると誤判定されないので、なりすましを防止することができる。 In the seventh aspect of the present invention, the determination unit determines that the face recognition is possible when the face of the person imaged in a recognizable manner can be recognized as blinking in the continuous images taken by the imaging unit. When a third party causes the image capturing unit to capture a face photo or the like displayed on the screen of a mobile terminal, even if it is recognized as a human face, it is not determined that the face is in a face-recognizable state because the person cannot blink. Therefore, even if a face photograph is taken for illicit purposes, it will not be erroneously determined that the face is in a state where face recognition is possible, and therefore, spoofing can be prevented.

請求項8の発明では、撮像部による連続画像において、認識可能に撮像された人の顔にかかる影の範囲が変化する場合に、顔認識可能状態であると判定する。第三者が携帯端末に画面表示された顔写真等を撮像部に撮像させた場合には、人の顔として認識されても顔にかかる影の範囲が変化しないため顔認識可能状態であると判定されることもない。このため、不正目的で顔写真を撮像させた場合でも、顔認識可能状態であると誤判定されないので、なりすましを防止することができる。 In the eighth aspect of the present invention, it is determined that the face recognition is possible when the range of the shadow of the person's face, which is photographed in a recognizable manner, changes in the continuous images taken by the imaging unit. When a third party uses the imaging unit to capture a photo of a face displayed on a mobile device, the area of the shadow cast on the face does not change even if it is recognized as a human face, so the face can be recognized. There will be no judgment. Therefore, even if a face photograph is taken for illicit purposes, it will not be erroneously determined that the face is in a state where face recognition is possible, and therefore, spoofing can be prevented.

請求項9の発明では、判定部は、撮像部にて認識可能に撮像された人の顔に関して奥行きが認識される場合に、顔認識可能状態であると判定する。第三者が携帯端末に画面表示された顔写真等を撮像部に撮像させた場合には、人の顔として認識されてもその顔に関して奥行きが認識されないため顔認識可能状態であると判定されることもない。このため、不正目的で顔写真を撮像させた場合でも、顔認識可能状態であると誤判定されないので、なりすましを防止することができる。 In the ninth aspect of the present invention, the determination unit determines that the face recognition is possible when the depth of the human face that is recognizably captured by the imaging unit is recognized. When a third party causes the imaging unit to capture a face photo displayed on the screen of a mobile device, even if it is recognized as a human face, the depth of that face is not recognized, so it is determined that face recognition is possible. There's nothing wrong with that. Therefore, even if a face photograph is taken for illicit purposes, it will not be erroneously determined that the face is in a state where face recognition is possible, and therefore, spoofing can be prevented.

請求項10の発明では、請求項1と同様の効果を奏する認証装置を実現できる。
請求項11の発明では、請求項1と同様の効果を奏する認証方法を実現できる。
According to the tenth aspect of the invention, an authentication device having the same effects as the first aspect can be realized.
According to the eleventh aspect of the invention, an authentication method having the same effects as the first aspect can be realized.

第1実施形態に係る認証システムの構成を概略的に示す説明図である。FIG. 1 is an explanatory diagram schematically showing the configuration of an authentication system according to a first embodiment. 撮像された顔画像データから顔特徴点を抽出する箇所の一部を例示する説明図である。FIG. 2 is an explanatory diagram illustrating a part of the location where facial feature points are extracted from captured facial image data. 認証装置の電気的構成を概略的に示すブロック図である。FIG. 2 is a block diagram schematically showing the electrical configuration of an authentication device. 携帯端末の電気的構成を概略的に示すブロック図である。FIG. 2 is a block diagram schematically showing the electrical configuration of a mobile terminal. 認証装置による認証処理の流れを例示するフローチャートである。3 is a flowchart illustrating the flow of authentication processing by an authentication device. 携帯端末に画面表示された顔写真が認証装置の撮像部に撮像された状態を説明する説明図である。FIG. 2 is an explanatory diagram illustrating a state in which a face photo displayed on a screen of a mobile terminal is captured by an imaging unit of an authentication device. 携帯端末に画面表示された顔写真が傾いて認証装置の撮像部に撮像された状態を説明する説明図である。FIG. 3 is an explanatory diagram illustrating a state in which a facial photograph displayed on a screen of a mobile terminal is tilted and captured by an imaging unit of an authentication device. 顔の一部に影がかかった顔写真が画面表示された状態を説明する説明図である。FIG. 6 is an explanatory diagram illustrating a state in which a face photograph in which a part of the face is shaded is displayed on the screen.

以下、本発明に係る認証システム、認証装置及び認証方法を具現化した一実施形態について、図面を参照して説明する。
図1に示す認証システム10は、主として、認証装置20を備えており、利用者の顔画像から抽出された顔特徴点や個人情報等が記録される情報コード(以下、認証用コードCともいう)を利用してその利用者の個人認証を行うシステムとして構成されている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an authentication system, an authentication device, and an authentication method according to the present invention will be described below with reference to the drawings.
The authentication system 10 shown in FIG. 1 mainly includes an authentication device 20, and an information code (hereinafter also referred to as authentication code C) in which facial feature points and personal information extracted from a user's face image are recorded. ) is configured as a system that performs personal authentication of the user.

本実施形態では、認証システム10は、例えば、顔認証が成功した利用者が特定の部屋への入室を許可される入退管理システムに採用されている。利用者は、認証用コードCを備える情報コード記録媒体として携帯端末30を携帯しており、上記特定の部屋への出入口に設置される認証装置20に対して携帯端末30に画面表示された認証用コードCを撮像させる動作を行うことで、認証成功時に上記特定の部屋への入室が許可される。具体的には、認証装置20から認証成功情報が出入口の扉に設けられる電気錠の施解錠を制御する施解錠制御装置に送信されることで、施解錠制御装置によって電気錠が解錠状態になることで、上記特定の部屋への入室が許可される。 In this embodiment, the authentication system 10 is employed, for example, in an access control system in which a user whose face authentication is successful is permitted to enter a specific room. The user carries a mobile terminal 30 as an information code recording medium including an authentication code C, and the authentication displayed on the screen of the mobile terminal 30 is sent to the authentication device 20 installed at the entrance to the specific room. By performing an operation to image the business code C, entry to the specific room is permitted upon successful authentication. Specifically, authentication success information is transmitted from the authentication device 20 to a locking/unlocking control device that controls locking/unlocking of an electric lock provided on an entrance/exit door, so that the electric lock is placed in an unlocked state by the locking/unlocking control device. This will allow you to enter the specific room mentioned above.

認証用コードCは、個人認証を申請する利用者からその顔画像データを取得した所定のコード生成装置によって生成される。このコード生成装置は、利用者から取得した顔画像データから顔特徴点を抽出し、この顔特徴点に関する情報や個人情報等を情報コード化して認証用コードCを生成する。本実施形態では、顔特徴点として、目、眉、鼻、耳、口などの顔器官のそれぞれの大きさや形状、輪郭や顔器官同士の配置位置等の項目が採用されている。そして、コード生成装置により実施される公知の顔特徴点を抽出するための顔特徴点抽出処理に応じて、例えば、図2に例示するように取得した顔画像データDについて、項目ごとの特徴、例えば、「D1:目が切れ長」や「D2:口が大きめ」等のデータが顔特徴点としてそれぞれ算出されて抽出される。 The authentication code C is generated by a predetermined code generation device that has acquired facial image data from a user applying for personal authentication. This code generation device extracts facial feature points from facial image data acquired from a user, converts information regarding the facial feature points, personal information, etc. into an information code, and generates an authentication code C. In this embodiment, items such as the size, shape, outline, and arrangement position of facial organs such as eyes, eyebrows, nose, ears, and mouth are adopted as facial feature points. Then, in accordance with a known facial feature point extraction process for extracting facial feature points performed by the code generation device, for example, the features of each item for the acquired facial image data D as illustrated in FIG. For example, data such as "D1: long eyes" and "D2: large mouth" are calculated and extracted as facial feature points.

そして、コード生成装置により実施される公知の情報コード生成処理に応じて、上述のように抽出された顔特徴点に関する情報や個人情報等に基づいて、復号鍵(暗号鍵)を用いて復号可能に暗号化して認証用コードCが生成される。本実施形態では、認証用コードCとして、例えば、暗号化することでセキュリティ性が高められたQRコード(登録商標)が採用される。 Then, according to the publicly known information code generation process performed by the code generation device, it can be decrypted using a decryption key (encryption key) based on the information related to the facial feature points extracted as described above, personal information, etc. The authentication code C is generated by encrypting the code. In this embodiment, as the authentication code C, for example, a QR code (registered trademark) whose security is enhanced by encryption is employed.

次に、認証装置20について、図1および図3を用いて説明する。
認証装置20は、携帯端末30に画面表示された認証用コードCを利用して利用者の認証を行う装置として構成されるものであり、上記特定の部屋への出入口、具体的には、出入口に設けられる扉近傍の壁面にて利用者の目線の高さとなる位置に設置されている。この認証装置20は、図3に示すように、制御部21、記憶部22、撮像部23、表示部24、照明部25、操作部26、通信部27などを備えている。
Next, the authentication device 20 will be explained using FIGS. 1 and 3.
The authentication device 20 is configured as a device that authenticates the user using the authentication code C displayed on the screen of the mobile terminal 30, and is configured as a device that authenticates the user by using the authentication code C displayed on the screen of the mobile terminal 30. It is installed on the wall near the door at the user's eye level. As shown in FIG. 3, the authentication device 20 includes a control section 21, a storage section 22, an imaging section 23, a display section 24, a lighting section 25, an operation section 26, a communication section 27, and the like.

制御部21は、マイコンを主体として構成されて、認証装置20の全体的制御や各種演算を行うものであり、例えば後述する認証処理を実行するように機能する。記憶部22は、ROM、RAM、HDD、不揮発性メモリなどの公知の記憶媒体によって構成されており、認証処理を実行するためのアプリケーションプログラムや所定のデータベース等が、制御部21により利用可能に予め格納されている。また、記憶部22には、認証用コードCを解読するための復号鍵が予め記憶されている。 The control unit 21 is mainly configured with a microcomputer, and performs overall control of the authentication device 20 and various calculations, and functions, for example, to execute authentication processing to be described later. The storage unit 22 is made up of a known storage medium such as ROM, RAM, HDD, and non-volatile memory, and has application programs, predetermined databases, etc. for executing authentication processing made available to the control unit 21 in advance. Stored. Furthermore, the storage unit 22 stores in advance a decryption key for decrypting the authentication code C.

撮像部23は、受光センサ(例えば、C-MOSエリアセンサ、CCDエリアセンサ等)を備えたカメラであって、読取窓(撮像窓)を介して撮像した画像データが制御部21に出力されるように構成されている。この撮像部23により撮像された顔画像データに基づいて、抽出部として機能する制御部21により上記コード生成装置と同様に顔特徴点抽出処理が実施されることで、顔特徴点が抽出される。また、撮像部23により撮像された認証用コードCに基づいて、読取部として機能する制御部21により記憶部22に記憶されている復号鍵を用いて暗号化された認証用コードCを復号するように情報コード読取処理(デコード処理)が実施されることで、認証用コードCに記録された顔特徴点が読み取られる。 The imaging unit 23 is a camera equipped with a light receiving sensor (for example, a C-MOS area sensor, a CCD area sensor, etc.), and image data captured through a reading window (imaging window) is output to the control unit 21. It is configured as follows. Based on the facial image data captured by the imaging unit 23, the control unit 21 functioning as an extraction unit performs facial feature point extraction processing in the same manner as the code generation device described above, thereby extracting facial feature points. . Further, based on the authentication code C imaged by the imaging unit 23, the control unit 21 functioning as a reading unit decrypts the encrypted authentication code C using the decryption key stored in the storage unit 22. By performing the information code reading process (decoding process) as described above, the facial feature points recorded in the authentication code C are read.

表示部24は、例えば、LEDであって、図1に示すように撮像部23の読取窓を囲うように略四角環状に配置されており、制御部21により制御されて、顔特徴点の抽出の成否や認証処理の結果等に応じて、その点灯・点滅状態が変化するように構成されている。このような配置構成のため、撮像部23は、表示部24を見ている利用者の視野範囲内となる位置に配置されることとなる。 The display unit 24 is, for example, an LED, and is arranged in a substantially rectangular ring shape surrounding the reading window of the imaging unit 23 as shown in FIG. 1, and is controlled by the control unit 21 to extract facial feature points. The lighting/blinking state is configured to change depending on the success or failure of the authentication process, the result of the authentication process, etc. Due to this arrangement, the imaging section 23 is arranged at a position within the field of view of the user looking at the display section 24.

照明部25は、照明光源や照明レンズ等を備えており、制御部21により制御されて、撮像部23の撮像範囲に向けて照明光を照射するように構成されている。操作部26は、入力操作に応じた操作信号を制御部21に対して出力する構成をなしており、制御部21は、この操作信号を受けて入力操作に応じた処理を行うようになっている。通信部27は、上記施解錠制御装置や入退管理用のサーバなどの外部装置との間でデータ通信を行うための通信インタフェースとして構成されており、制御部21と協働して通信処理を行うように構成されている。 The illumination unit 25 includes an illumination light source, an illumination lens, and the like, and is configured to be controlled by the control unit 21 to irradiate the imaging range of the imaging unit 23 with illumination light. The operation unit 26 is configured to output an operation signal according to an input operation to the control unit 21, and the control unit 21 receives this operation signal and performs processing according to the input operation. There is. The communication unit 27 is configured as a communication interface for performing data communication with external devices such as the above-mentioned locking/unlocking control device and an entrance/exit management server, and cooperates with the control unit 21 to perform communication processing. is configured to do so.

次に、携帯端末30について図1および図4を用いて説明する。
図1および図4に示す携帯端末30は、例えば、スマートフォンであって、CPU等からなる制御部31、メモリ32、カメラとして構成される撮像部33、制御部31によって表示内容が制御されるタッチパネル34、タッチパネル34に対するタッチ操作やキー操作に信号を制御部31に出力する操作部35、外部機器等と通信するための通信部36などを備えている。
Next, the mobile terminal 30 will be explained using FIGS. 1 and 4.
The mobile terminal 30 shown in FIGS. 1 and 4 is, for example, a smartphone, and includes a control unit 31 including a CPU, a memory 32, an imaging unit 33 configured as a camera, and a touch panel whose display contents are controlled by the control unit 31. 34, an operation section 35 that outputs a signal to the control section 31 in response to a touch operation on the touch panel 34 or a key operation, a communication section 36 for communicating with an external device, etc.

このように構成される携帯端末30のメモリ32には、上述したコード生成装置にて生成された認証用コードCが予め記憶されている。そして、利用者による操作部35に対する所定の操作等に応じて、メモリ32から読み出された認証用コードCがタッチパネル34に表示された状態になる(図1参照)。 The authentication code C generated by the code generation device described above is stored in advance in the memory 32 of the mobile terminal 30 configured as described above. Then, in response to a predetermined operation on the operation unit 35 by the user, the authentication code C read out from the memory 32 is displayed on the touch panel 34 (see FIG. 1).

次に、認証方法として認証装置20にてなされる認証処理について、図5に示すフローチャートを参照して詳述する。
認証装置20の制御部21により認証処理が開始されると、図5のステップS101に示す撮像処理がなされる。この処理では、照明部25により読取窓を介して照明光が照射された状態で撮像部23による撮像がなされる。続いて、ステップS103の判定処理にて、撮像部23により人の顔が認識可能に撮像されている状態(以下、顔認識可能状態ともいう)であるか否かについて判定され、人の顔が撮像されておらず顔認識可能状態でないと判定される場合には(S103でNo)、撮像部23による撮像が継続される。なお、上記撮像処理は、撮像部23により撮像画像を生成する「撮像ステップ」の一例に相当し得る。また、上記ステップS103の判定処理は、「判定ステップ」の一例に相当し、この判定処理を実行する制御部21は、「判定部」の一例に相当し得る。
Next, the authentication process performed by the authentication device 20 as an authentication method will be described in detail with reference to the flowchart shown in FIG.
When the authentication process is started by the control unit 21 of the authentication device 20, the imaging process shown in step S101 in FIG. 5 is performed. In this process, the imaging unit 23 captures an image while the illumination unit 25 illuminates the image with illumination light through the reading window. Subsequently, in the determination process of step S103, it is determined whether or not the image capturing unit 23 is in a state in which a human face is captured in a recognizable manner (hereinafter also referred to as a face recognition possible state), and whether or not the human face is recognized is determined. If it is determined that no image has been taken and the face recognition is not possible (No in S103), the imaging unit 23 continues to take an image. Note that the imaging process described above may correspond to an example of an "imaging step" in which the imaging unit 23 generates a captured image. Further, the determination process in step S103 above may correspond to an example of a "determination step", and the control unit 21 that executes this determination process may correspond to an example of a "determination unit".

上記特定の部屋へ入室する利用者は、携帯端末30に画面表示された認証用コードCを認証装置20の読取窓にかざそうとする。その際、読取窓を見た利用者の顔が撮像部23により撮像されることで顔認識可能状態となると、ステップS103にてYesと判定されて、ステップS105に示す顔画像データ生成処理がなされる。この処理では、撮像部23により顔特徴点を抽出するための画像が新たに撮像されて顔画像データが生成される。なお、顔画像データ生成処理では、顔特徴点を抽出するための画像を新たに複数撮像して、それらの画像データの中から顔特徴点を抽出容易な1つを顔画像データとしてもよい。 A user entering the specific room attempts to hold the authentication code C displayed on the screen of the mobile terminal 30 over the reading window of the authentication device 20. At this time, when the face of the user looking at the reading window is imaged by the imaging unit 23 and the face becomes ready for face recognition, a determination of Yes is made in step S103, and the face image data generation process shown in step S105 is performed. Ru. In this process, an image for extracting facial feature points is newly captured by the imaging unit 23, and facial image data is generated. Note that in the face image data generation process, a plurality of new images for extracting facial feature points may be taken, and one of the image data from which the facial feature points can be easily extracted may be used as the facial image data.

続いて、ステップS107に示す顔特徴点抽出処理がなされ、上述のように生成された顔画像データから、上記コード生成装置と同様にして、顔特徴点が抽出されて、記憶部22に一時的に記憶される。なお、上記顔特徴点抽出処理は、「抽出ステップ」の一例に相当し得る。 Subsequently, facial feature point extraction processing shown in step S107 is performed, and facial feature points are extracted from the facial image data generated as described above in the same manner as the code generation device described above, and are temporarily stored in the storage unit 22. is memorized. Note that the facial feature point extraction process described above may correspond to an example of an "extraction step."

このように顔特徴点が抽出されると、顔特徴点の抽出が完了して認証用コードCを読取可能な状態になっていることを示すため、表示部24が第1点灯状態(例えば、青色点灯状態)となる(S109)。続いて、ステップS111に示す情報コード読取処理がなされる。この処理では、記憶部22に記憶されている復号鍵を用いて、撮像部23により撮像された情報コードを読み取るためのデコード処理がなされる。なお、上記情報コード読取処理は、「読取ステップ」の一例に相当し得る。 When the facial feature points are extracted in this way, the display unit 24 is turned on in the first lighting state (for example, (blue lighting state) (S109). Subsequently, an information code reading process shown in step S111 is performed. In this process, a decoding process is performed using the decryption key stored in the storage unit 22 to read the information code imaged by the imaging unit 23. Note that the above information code reading process may correspond to an example of a "reading step".

次に、ステップS113の判定処理にて、認証用コードCの読み取りに成功したか否かについて判定される。ここで、認証用コードCが撮像されていないか、認証用コードCと異なる情報コードが読み取られている場合には、ステップS113にてNoと判定され、第1点灯状態になってから一定時間を経過していない場合には(S115でNo)、上記ステップS111の情報コード読取処理がなされ、情報コードを読取可能な状態が維持される。 Next, in the determination process of step S113, it is determined whether or not the authentication code C has been successfully read. Here, if the authentication code C is not imaged or an information code different from the authentication code C is read, it is determined as No in step S113, and a certain period of time has elapsed since the first lighting state. If the time has not passed (No in S115), the information code reading process of step S111 is performed, and the state in which the information code can be read is maintained.

そして、第1点灯状態になってから一定時間を経過していない状態にて(S115でNo)、上述のように顔画像が撮像された利用者が携帯端末30に画面表示された認証用コードCを認証装置20の読取窓にかざすことで認証用コードCが撮像され、顔特徴点に関する情報や個人情報等の読み取りが成功すると(S113でYes)、ステップS117に示す照合処理がなされる。この処理では、顔画像データから抽出した顔特徴点と認証用コードCから読み取られた顔特徴点とに基づいて、顔特徴点における全ての項目について一致するか否か照合される。なお、上記照合処理は、「照合ステップ」の一例に相当し、この照合処理を実行する制御部21は、「照合部」の一例に相当し得る。 Then, when a certain period of time has not elapsed since the first lighting state was entered (No in S115), the user whose face image was captured as described above receives the authentication code displayed on the screen of the mobile terminal 30. The authentication code C is imaged by holding C over the reading window of the authentication device 20, and if the information regarding facial feature points, personal information, etc. is successfully read (Yes in S113), a verification process shown in step S117 is performed. In this process, based on the facial feature points extracted from the facial image data and the facial feature points read from the authentication code C, a check is made to see if all items in the facial feature points match. Note that the above-mentioned verification process corresponds to an example of a "verification step", and the control unit 21 that executes this verification process may correspond to an example of a "verification unit".

そして、顔特徴点における全ての項目が一致する場合には、ステップS119の判定処理にてYesと判定されて、認証成功であることを示すため、表示部24が一定時間第2点灯状態(例えば、緑色点灯状態)となる(S123)。続いて、ステップS125に示す送信処理がなされ、認証成功を示す認証成功情報が通信部27を介して施解錠制御装置に送信されるとともに、認証成功情報や読み取った個人情報等が通信部27を介して入退管理用のサーバ等に送信される。そして、上記ステップS101からの処理がなされ、入室を希望する次の利用者の顔を撮像可能な状態になる。なお、上記ステップS119の判定処理では、顔特徴点における全ての項目が一致する場合にYesと判定されることに限らず、顔特徴点における所定数の項目が一致する場合にYesと判定されてもよい。また、上記ステップS119の判定処理は、「認証ステップ」の一例に相当し、この判定処理を実行する制御部21は、「認証部」の一例に相当し得る。 If all the items in the facial feature points match, the determination process in step S119 is determined as Yes, indicating that the authentication has been successful, so that the display unit 24 remains in the second lighting state for a certain period of time (e.g. , green lighting state) (S123). Subsequently, a transmission process shown in step S125 is performed, and authentication success information indicating successful authentication is transmitted to the lock/unlock control device via the communication unit 27, and the authentication success information and the read personal information are transmitted to the communication unit 27. The information is sent to a server for access management via the host computer. Then, the process from step S101 described above is performed, and the face of the next user who wishes to enter the room can be imaged. Note that in the determination process in step S119, the determination is not limited to Yes when all the items in the facial feature points match, but also the determination is Yes when a predetermined number of items in the facial feature points match. Good too. Further, the determination process in step S119 above may correspond to an example of an "authentication step", and the control unit 21 that executes this determination process may correspond to an example of an "authentication unit".

上述のように認証装置20から認証成功情報が送信されて、この認証成功情報を受信した施解錠制御装置により電気錠が解錠状態になることで、利用者は、上記特定の部屋への入室が可能となる。 As described above, the authentication device 20 transmits authentication success information, and the lock/unlock control device that receives this authentication success information unlocks the electric lock, allowing the user to enter the specific room. becomes possible.

一方、第三者が他人の携帯端末30に画面表示された認証用コードCを認証装置20の読取窓にかざしている場合には、顔特徴点における各項目が一致しないため、ステップS119にてNoと判定されて、認証失敗であることを示すため、表示部24が一定時間第3点灯状態(例えば、赤色点灯状態)となる(S127)。この場合には、認証装置20から認証成功情報が送信されることもないため、施解錠制御装置により電気錠が解錠状態になることはない。なお、このような場合には、認証失敗情報や読み取った個人情報等が通信部27を介して入退管理用のサーバ等に送信されてもよい。 On the other hand, if the third party is holding up the authentication code C displayed on the screen of the other person's mobile terminal 30 over the reading window of the authentication device 20, each item in the facial feature points does not match, so in step S119 Since the determination is No and indicates that the authentication has failed, the display unit 24 is in the third lighting state (for example, red lighting state) for a certain period of time (S127). In this case, since authentication success information is not transmitted from the authentication device 20, the electric lock will not be unlocked by the lock/unlock control device. Note that in such a case, the authentication failure information, the read personal information, etc. may be transmitted to a server for entry/exit management, etc. via the communication unit 27.

また、認証用コードCが撮像されていない状態にて第1点灯状態になってから一定時間が経過すると(S115でYes)、上述のように抽出されて記憶された顔特徴点が記憶部22から消去されて、上記ステップS101からの処理が再度なされる。 Further, when a certain period of time has elapsed after the authentication code C enters the first lighting state without being imaged (Yes in S115), the facial feature points extracted and stored as described above are stored in the storage unit 22. , and the processing from step S101 described above is performed again.

以上説明したように、本実施形態に係る認証システム10では、携帯端末30には、利用者の顔画像から抽出された顔特徴点が記録される認証用コードCが画面表示可能にメモリ32に記憶されている。そして、認証装置20では、顔認識可能状態と判定された後に人の顔を撮像部23にて撮像した撮像画像から顔特徴点が抽出されるとともに、携帯端末30に画面表示された認証用コードCを撮像部23にて撮像した撮像画像から当該認証用コードCに記録される顔特徴点に関する情報が読み取られる。そして、抽出した顔特徴点と読み取られた顔特徴点とが照合されて、この照合結果に基づいて、利用者の認証が行われる。 As explained above, in the authentication system 10 according to the present embodiment, the authentication code C in which the facial feature points extracted from the user's face image are recorded is stored in the memory 32 of the mobile terminal 30 so as to be displayable on the screen. remembered. Then, in the authentication device 20 , facial feature points are extracted from the captured image of the human face captured by the imaging unit 23 after it is determined that the face recognition is possible, and an authentication code is displayed on the screen of the mobile terminal 30 . Information regarding the facial feature points recorded in the authentication code C is read from the captured image captured by the imaging unit 23. Then, the extracted facial feature points and the read facial feature points are compared, and the user is authenticated based on the comparison result.

これにより、利用者は、自身の顔と携帯端末30に画面表示される認証用コードCとを認証装置20の撮像部23に撮像させるだけで、顔特徴点を利用した認証を行うことができる。特に、利用者の顔を撮像するための撮像手段と携帯端末30に画面表示される認証用コードCを撮像するための撮像手段とが1つの撮像部23で兼用されるため、利用者は撮像部23の読取窓を見ながらその読取窓に認証用コードCをかざす動作をすることとなる。このような場合には、認証用コードCを撮像する前に、認証用コードCをかざそうとしている利用者の顔を、利用者が意識することなく撮像部23にて認識可能に撮像することができる。また、利用者の顔を撮像するために利用者が撮像部23に対して静止する動作を行う必要もない。このため、認証用コードCを読み取る前に、利用者の顔を撮像してその顔特徴点を抽出するための処理を開始できるので、認証用コードCを撮像部23にかざしてから照合処理による照合結果を得るまでの時間が短くなり、利用者が認識する認証時間を短縮することができる。 As a result, the user can perform authentication using facial feature points by simply having the imaging unit 23 of the authentication device 20 capture an image of his or her own face and the authentication code C displayed on the screen of the mobile terminal 30. . In particular, since one imaging section 23 serves as both the imaging means for imaging the user's face and the imaging means for imaging the authentication code C displayed on the screen of the mobile terminal 30, the user can While looking at the reading window of the section 23, the user holds the authentication code C over the reading window. In such a case, before capturing an image of the authentication code C, the image capturing unit 23 should capture an image of the face of the user who is about to hold the authentication code C so that the user can recognize it without the user being conscious of it. Can be done. Furthermore, there is no need for the user to stand still relative to the imaging unit 23 in order to capture an image of the user's face. Therefore, before reading the authentication code C, it is possible to start the process of capturing an image of the user's face and extracting its facial feature points. The time it takes to obtain a verification result is shortened, and the authentication time required by the user can be shortened.

特に、上記顔特徴点抽出処理により抽出された顔特徴点が、第1点灯状態になってから一定時間を経過するまで(S115にてYesと判定されるまで)、記憶部22に一時的に記憶されて一定時間経過後に消去される。これにより、例えば、携帯端末30に画面表示される認証用コードCのかざし方が適切でなかったために認証用コードCが読み取られなくても、抽出された顔特徴点が一定時間保持されるので、この一定時間内で認証用コードCが適切に読み取られることで、利用者の顔を再度認識可能に撮像する手間をなくすことができる。その一方で、抽出された顔特徴点は、一定時間経過後には(S115でYes)、消去されて記憶されなくなるので、認証対象と異なる他人の顔が意図せずに撮像されたとしても、適切に消去することができる。 In particular, the facial feature points extracted by the facial feature point extraction process are temporarily stored in the storage unit 22 until a certain period of time has elapsed since the first lighting state (until it is determined Yes in S115). It is stored and deleted after a certain period of time. As a result, even if the authentication code C displayed on the screen of the mobile terminal 30 is not read because the authentication code C is not held up in an appropriate manner, the extracted facial feature points are retained for a certain period of time. By appropriately reading the authentication code C within this certain period of time, it is possible to eliminate the trouble of taking a recognizable image of the user's face. On the other hand, the extracted facial feature points will be deleted and no longer stored after a certain period of time has passed (Yes in S115), so even if the face of another person who is different from the authentication target is unintentionally captured, can be erased.

本実施形態の第1変形例として、表示部24は、制御部21により制御されて、上記ステップS103にてNoとの判定が繰り返される処理中、すなわち、顔認識可能状態となる前に、認証用コードCを読取可能な状態になっていることを示すため、第1~第3点灯状態と異なる所定の表示状態(例えば、青色点滅状態)になってもよい。このため、認証用コードCを読み取り可能な状態を上記所定の表示状態にて示す表示部24が設けられ、撮像部23は、表示部24を見ている利用者の視野範囲内となる位置に配置されることとなる。 As a first modification of the present embodiment, the display unit 24 is controlled by the control unit 21 to perform authentication during the process in which the determination of No in step S103 is repeated, that is, before the face recognition becomes possible. In order to indicate that the code C can be read, a predetermined display state (for example, a blue flashing state) different from the first to third lighting states may be used. For this reason, a display section 24 is provided which shows the readable state of the authentication code C in the predetermined display state, and the imaging section 23 is positioned within the field of view of the user looking at the display section 24. It will be placed.

これにより、利用者は、撮像部23に認証用コードCをかざそうとする際、表示部24が上記所定の表示状態となっていることを視認するので、利用者の視野範囲内となっている撮像部23にて利用者の顔をより認識しやすい状態で撮像することができ、認証精度を高めることができる。なお、第1~第3点灯状態や上記所定の表示状態は、一例であって、色変更や所定間隔の点滅、点灯・点滅箇所の変更などを利用してもよい。また、第1~第3点灯状態や上記所定の表示状態時に、音声等を利用してその旨を報知してもよい。 As a result, when the user attempts to hold the authentication code C over the imaging unit 23, the user can visually confirm that the display unit 24 is in the above-mentioned predetermined display state, so that it is within the user's field of vision. The user's face can be imaged in a state where the user's face is more easily recognized by the image capturing unit 23, and authentication accuracy can be improved. Note that the first to third lighting states and the above-mentioned predetermined display states are just examples, and changing colors, blinking at predetermined intervals, changing lighting/blinking locations, etc. may also be used. Further, during the first to third lighting states or the above-mentioned predetermined display states, a notification may be made using audio or the like.

本実施形態の第2変形例として、所定の条件において、撮像部23にて人の顔を撮像する際の照射状態と、撮像部23にて認証用コードCを撮像する際の照射状態とが異なるように、照明部25が制御部21により制御されてもよい。例えば、照明部25が可視光に加えて赤外光を照射可能に構成されることを前提に、周囲が暗い夜間等の所定の条件では、人の顔を撮像する際に赤外光を照射し、認証用コードCを撮像する際に明るさを抑えるように調整した可視光を照射するようにしてもよい。周囲が暗い状態で明るい可視光を照射すると利用者が眩しく感じてしまう場合があり、この赤外光で認証用コードCを撮像する場合に、認証用コードCが表示される情報コード記録媒体の種別等によっては読み取り可能に撮像できない場合があるからである。 As a second modification of the present embodiment, under predetermined conditions, the irradiation state when the imaging unit 23 images a person's face and the irradiation state when the imaging unit 23 images the authentication code C are different. The illumination unit 25 may be controlled by the control unit 21 differently. For example, assuming that the illumination unit 25 is configured to be able to emit infrared light in addition to visible light, under certain conditions such as nighttime when the surroundings are dark, infrared light may be emitted when capturing an image of a person's face. However, when the authentication code C is imaged, visible light whose brightness is adjusted to be suppressed may be emitted. If bright visible light is irradiated in a dark environment, the user may feel dazzled, and when capturing an image of the authentication code C using this infrared light, the information code recording medium on which the authentication code C is displayed may be This is because depending on the type, etc., it may not be possible to capture an image in a readable manner.

このように、周囲の明るさなどの所定の条件において、同じ撮像部23を利用する場合でも、人の顔を撮像するために適した撮像状態(照射状態)と認証用コードCを撮像するために適した撮像状態(照射状態)とを切り替えることができるので、顔特徴点の抽出精度や認証用コードCの読取精度が向上し、その結果、認証精度を高めることができる。 In this way, even when using the same imaging unit 23 under predetermined conditions such as ambient brightness, the imaging state (irradiation state) suitable for imaging a human face and the authentication code C can be captured. Since the imaging state (irradiation state) suitable for the image can be switched, the extraction accuracy of facial feature points and the reading accuracy of the authentication code C can be improved, and as a result, the authentication accuracy can be improved.

なお、顔特徴点に関する情報の秘匿性をさらに高めるため、上記認証用コードCとして一部非公開コードを採用することができる。この一部非公開コードは、公開領域と、復号鍵を用いて復号可能に暗号化された情報が記録される非公開領域とを有する情報コードとして構成される。このため、非公開領域に顔特徴点に関する情報を記録することで、復号鍵を有しないコードリーダでは、公開領域に記録された情報しか読み取ることができず、他に情報が記録されていることさえ認識できないため、顔特徴点に関する情報の秘匿性を高めることができる。一方、本認証システム10がセキュリティ性の要求が比較的低い環境にて使用される場合には、上述のように抽出された顔特徴点に関する情報に基づいて、暗号化することなく認証用コードCを生成してもよい。 Note that in order to further enhance the confidentiality of information regarding facial feature points, a partially non-disclosed code may be employed as the authentication code C. This partially private code is configured as an information code having a public area and a private area in which information that is decryptably encrypted using a decryption key is recorded. Therefore, by recording information about facial feature points in a private area, a code reader that does not have a decryption key can only read the information recorded in the public area, and it is possible to prevent other information from being recorded. Since even facial feature points cannot be recognized, the confidentiality of information regarding facial feature points can be increased. On the other hand, when the present authentication system 10 is used in an environment with relatively low security requirements, the authentication code C is used without encryption based on the information regarding the facial feature points extracted as described above. may be generated.

[第2実施形態]
次に、本第2実施形態に係る認証システム、認証装置及び認証方法について、図面を参照して説明する。
本第2実施形態では、顔認識可能状態と判定される判定条件をより厳密にした点が、上記第1実施形態と主に異なる。したがって、第1実施形態と実質的に同一の構成部分には、同一符号を付し、その説明を省略する。
[Second embodiment]
Next, an authentication system, an authentication device, and an authentication method according to the second embodiment will be described with reference to the drawings.
The second embodiment differs from the first embodiment mainly in that the conditions for determining whether the face is in a recognition possible state are made more strict. Therefore, components that are substantially the same as those in the first embodiment are designated by the same reference numerals, and their descriptions will be omitted.

上述した認証処理におけるステップS103の判定処理(判定部として機能する制御部21にてなされる処理)では、撮像部23により人の顔が認識可能に撮像されている状態(顔認識可能状態)であるか否かについて判定される。このため、第三者が不正目的で携帯端末に画面表示された顔写真等を撮像部23に撮像させた場合に、顔認識可能状態であると誤判定される可能性がある。特に、本発明のように、携帯端末にて画面表示させた認証用コードC等の情報コードを読み取らせて認証を行うシステムでは、その携帯端末に顔写真等を画面表示させて不正に使用することが容易に想定される。 In the determination process in step S103 in the authentication process described above (the process performed by the control unit 21 functioning as a determination unit), the human face is imaged in a recognizable manner by the imaging unit 23 (face recognition possible state). It is determined whether or not there is. For this reason, if a third party causes the imaging unit 23 to capture a face photo or the like displayed on the screen of the mobile terminal for fraudulent purposes, it may be erroneously determined that the face recognition is possible. In particular, in a system that performs authentication by reading an information code such as an authentication code C displayed on a screen of a mobile terminal, as in the present invention, it is possible to fraudulently use the mobile terminal by displaying a face photo, etc. on the screen. This is easily assumed.

そこで、本実施形態では、顔認識可能状態と判定される判定条件をより厳密にすることで、不正目的で顔写真を撮像部23に撮像させた場合でも、顔認識可能状態であると誤判定され難くして、正当権限者(許可された利用者)のふりをして正当権限者のみに許可された行為を行うなりすましを抑制する。 Therefore, in the present embodiment, by making the criteria for determining whether the face is in a recognition possible state more strict, even if the imaging unit 23 captures a face photograph for fraudulent purposes, it will be erroneously determined that the face is in a recognition possible state. To prevent impersonation by pretending to be a legitimate authority (authorized user) and performing acts permitted only to legitimate authority.

具体的には、上記ステップS103の判定処理では、撮像部23による連続画像において、認識可能に撮像された人の顔が徐々に大きくなる場合に、顔認識可能状態であると判定する。 Specifically, in the determination process in step S103, if the face of a person captured in a recognizable manner gradually increases in size in the continuous images taken by the imaging unit 23, it is determined that the face recognition is possible.

このため、正当権限者が上記特定の部屋への入室時に撮像部23に近づくことで、正当権限者の顔が認識された後、その顔が徐々に大きくなるように撮像されるので、顔認識可能状態であると判定される。一方、図6に例示するように、第三者が携帯端末に画面表示された顔写真Pを撮像部23に撮像させた場合には、人の顔として認識されてもその人の顔が徐々に大きくならない限り顔認識可能状態であると判定されることもない。 For this reason, when a legitimate authority person approaches the imaging unit 23 when entering the specific room, the face of the legitimate authority person is recognized, and then the image is captured so that the face gradually becomes larger. It is determined that the state is possible. On the other hand, as illustrated in FIG. 6, when a third party causes the imaging unit 23 to capture a face photo P displayed on the screen of a mobile terminal, even if it is recognized as a person's face, the person's face gradually changes. It will not be determined that the face recognition is possible unless the face becomes large.

このように、本実施形態では、撮像部23による連続画像において、認識可能に撮像された人の顔が徐々に大きくなる場合に顔認識可能状態であると判定することで、不正目的で顔写真を撮像させた場合でも、顔認識可能状態であると誤判定され難くなるので、なりすましを防止することができる。 As described above, in the present embodiment, in the continuous images taken by the imaging unit 23, when the face of a person photographed in a recognizable manner gradually increases in size, it is determined that the face is in a state where the face can be recognized. Even when an image is captured, it is less likely to be mistakenly determined to be in a state where face recognition is possible, so spoofing can be prevented.

なお、本実施形態の第1変形例として、上記ステップS103の判定処理では、撮像部23の撮像画像における基準線Loに対して、認識可能に撮像された人の顔に関する中心線Lfの傾きが所定の角度範囲内となる場合に、顔認識可能状態であると判定してもよい。 Note that, as a first modification of the present embodiment, in the determination process of step S103, the inclination of the center line Lf of the human face that is imaged in a recognizable manner with respect to the reference line Lo in the image captured by the imaging unit 23 is determined. If the angle falls within a predetermined angle range, it may be determined that the face recognition is possible.

本第1変形例では、上記基準線Loは、鉛直線(重力方向に沿う線)となるように設定されており、第三者が携帯端末に画面表示された顔写真等を撮像部23に撮像させた際に、例えば、図7に例示するように、その顔写真が傾いていると、撮像画像においてその顔に関する中心線Lfが基準線Loとなる鉛直線に対して傾くことになる。一方、撮像部23に向かって歩いている人を撮像するとき、撮像画像においてその顔に関する中心線Lfの基準線Loに対する傾きは十分に小さくなる。すなわち、撮像部23の撮像画像において、基準線Loに対する中心線Lfの傾きθが所定の角度範囲θth(例えば、30°)内とならない場合には、顔写真を撮像している可能性がある。 In this first modification, the reference line Lo is set to be a vertical line (a line along the direction of gravity), and a third party can capture a face photo displayed on the screen of a mobile terminal on the imaging unit 23. For example, if the facial photograph is tilted when the image is captured, as illustrated in FIG. 7, the center line Lf of the face in the captured image will be tilted with respect to the vertical line serving as the reference line Lo. On the other hand, when capturing an image of a person walking toward the imaging unit 23, the inclination of the center line Lf of the face relative to the reference line Lo in the captured image becomes sufficiently small. That is, in the image captured by the imaging unit 23, if the inclination θ of the center line Lf with respect to the reference line Lo is not within the predetermined angular range θth (for example, 30°), there is a possibility that a facial photograph is being captured. .

このため、本第1変形例では、認識可能に撮像された人の顔に関する中心線Lfの基準線Loに対する傾きθが所定の角度範囲θth内となる場合に顔認識可能状態であると判定し、中心線Lfの基準線Loに対する傾きθが所定の角度範囲θth内とならない場合に顔認識可能状態でないと判定する。これにより、不正目的で顔写真を撮像させた場合でも、その顔写真が大きく傾いていると顔認識可能状態であると誤判定され難くなるので、なりすましを防止することができる。 Therefore, in the first modified example, it is determined that the face is in a recognition possible state when the inclination θ of the center line Lf with respect to the reference line Lo with respect to the human face imaged in a recognizable manner is within the predetermined angle range θth. , if the inclination θ of the center line Lf with respect to the reference line Lo is not within the predetermined angle range θth, it is determined that the face recognition is not possible. As a result, even if a face photograph is taken for illicit purposes, if the face photograph is tilted significantly, it will be less likely to be mistakenly determined to be in a face-recognizable state, thereby making it possible to prevent spoofing.

また、本実施形態の第2変形例として、上記ステップS103の判定処理では、撮像部23による連続画像において、認識可能に撮像された人の顔が瞬きしていると認識可能な場合に、顔認識可能状態であると判定してもよい。第三者が携帯端末に画面表示された顔写真等を撮像部に撮像させた場合には、人の顔として認識されても瞬きできないため顔認識可能状態であると判定されることもない。このため、不正目的で顔写真を撮像させた場合でも、顔認識可能状態であると誤判定されないので、なりすましを防止することができる。 Further, as a second modification of the present embodiment, in the determination process of step S103, if the face of the person photographed in a recognizable manner in the continuous images taken by the imaging unit 23 can be recognized as blinking, It may be determined that the state is in a recognizable state. When a third party causes the image capturing unit to capture a face photo or the like displayed on the screen of a mobile terminal, even if it is recognized as a human face, it is not determined that the face is in a face-recognizable state because the person cannot blink. Therefore, even if a face photograph is taken for illicit purposes, it will not be erroneously determined that the face is in a state where face recognition is possible, and therefore, spoofing can be prevented.

また、本実施形態の第3変形例として、上記ステップS103の判定処理では、撮像部23による連続画像において、認識可能に撮像された人の顔にかかる影の範囲が変化する場合に、顔認識可能状態であると判定してもよい。 Further, as a third modification of the present embodiment, in the determination process of step S103, if the range of the shadow cast on the face of a person photographed in a recognizable manner changes in the continuous images taken by the imaging unit 23, face recognition is performed. It may be determined that the state is possible.

例えば、図8に例示するように、人の顔を撮像した顔写真Pでは、その撮像時の周囲の明るさによってその顔の一部に影(図8のハッチング領域S参照)がかかる。そして、その撮像対象となる人が移動すると、顔に対する光の当たり方が変化するために影がかかる範囲が変化する。その一方で、顔写真Pではその顔に影がかかっていてもその範囲が変化することはない。すなわち、連続画像において人の顔にかかる影の範囲が変化しない場合には、顔写真を撮像している可能性が高い。 For example, as illustrated in FIG. 8, in a photograph P of a person's face, a portion of the face is cast in shadow (see hatched area S in FIG. 8) depending on the brightness of the surroundings at the time of photographing. When the person to be imaged moves, the extent to which the shadow is cast changes because the way light hits the face changes. On the other hand, in the face photo P, even if the face is shaded, its range does not change. That is, if the range of the shadow on a person's face does not change in consecutive images, there is a high possibility that a face photograph is being taken.

このため、撮像部23による連続画像において、認識可能に撮像された人の顔にかかる影の範囲が変化する場合に、顔認識可能状態であると判定することで、顔写真等を撮像部23に撮像させた場合には、人の顔として認識されても顔にかかる影の範囲が変化しないため顔認識可能状態であると判定されることもない。このため、不正目的で顔写真を撮像させた場合でも、顔認識可能状態であると誤判定されないので、なりすましを防止することができる。 For this reason, in the continuous images taken by the imaging unit 23, when the range of the shadow cast on the face of a person photographed in a recognizable manner changes, it is determined that the face is in a state where face recognition is possible, and facial photographs, etc. are transferred to the imaging unit 23. In the case where the image is captured as a human face, the range of the shadow cast on the face does not change even if it is recognized as a human face, so it is not determined that the face is in a face-recognizable state. Therefore, even if a face photograph is taken for illicit purposes, it will not be erroneously determined that the face is in a state where face recognition is possible, and therefore, spoofing can be prevented.

また、本実施形態の第4変形例として、上記ステップS103の判定処理では、撮像部23にて認識可能に撮像された人の顔に関して奥行きが認識される場合に、顔認識可能状態であると判定してもよい。第三者が携帯端末に画面表示された顔写真等を撮像部に撮像させた場合には、人の顔として認識されてもその顔に関して奥行きが認識されないため顔認識可能状態であると判定されることもない。このため、不正目的で顔写真を撮像させた場合でも、顔認識可能状態であると誤判定されないので、なりすましを防止することができる。 In addition, as a fourth modification of the present embodiment, in the determination process of step S103, if the depth is recognized regarding the face of a person photographed in a recognizable manner by the imaging unit 23, it is determined that the face recognition is possible. You may judge. When a third party causes the imaging unit to capture a face photo displayed on the screen of a mobile device, even if it is recognized as a human face, the depth of that face is not recognized, so it is determined that face recognition is possible. There's nothing wrong with that. Therefore, even if a face photograph is taken for illicit purposes, it will not be erroneously determined that the face is in a state where face recognition is possible, and therefore, spoofing can be prevented.

なお、本発明は上記各実施形態及び変形例等に限定されるものではなく、例えば、以下のように具体化してもよい。
(1)認証用コードCは、携帯端末30のタッチパネル34に対して画面表示可能にメモリ32に記憶されることに限らず、例えば、紙媒体等の情報コード記録媒体の一面に撮像可能に印刷されることで備えられてもよい。
Note that the present invention is not limited to the above-described embodiments and modifications, and may be embodied as follows, for example.
(1) The authentication code C is not limited to being stored in the memory 32 so that it can be displayed on the touch panel 34 of the mobile terminal 30, but can also be printed on one side of an information code recording medium such as a paper medium so that it can be imaged. You may also be prepared by being asked to do so.

(2)本発明に係る認証システム10は、特定の部屋への入室を許可される入退管理システムに適用されることに限らず、例えば、コンサート会場の入場ゲートを管理する管理システムに採用されてもよいし、小売店等で認証が必要なサービス提供時に利用されるシステムに採用されてもよい。 (2) The authentication system 10 according to the present invention is not limited to being applied to an entrance/exit control system that allows entry into a specific room, but can be adopted, for example, to a management system that manages the entrance gate of a concert venue. Alternatively, it may be adopted in a system used at a retail store or the like when providing a service that requires authentication.

(3)認証装置20の制御部21にてなされる認証処理では、顔特徴点が抽出された後に認証用コードCを読み取るための処理を開始することに限らず、顔認識可能状態となる前に認証用コードCを読み取るようにしてもよい。すなわち、顔認識可能状態となる前に認証用コードCが読み取られた場合、以降に顔認識可能状態となった後に撮像された顔画像データから顔特徴点を抽出して、この抽出した顔特徴点と先に認証用コードCから読み取られた顔特徴点とに基づいて照合処理を行うことができる。 (3) The authentication process performed by the control unit 21 of the authentication device 20 is not limited to starting the process to read the authentication code C after the facial feature points are extracted, but also before the face recognition becomes possible. The authentication code C may be read at the same time. In other words, if the authentication code C is read before the face recognition becomes possible, facial feature points are extracted from the facial image data captured after the face recognition becomes possible, and the extracted facial features are Verification processing can be performed based on the points and the facial feature points previously read from the authentication code C.

(4)認証装置20の制御部21にてなされる認証処理では、上述したように撮像した顔画像データから抽出した顔特徴点と認証用コードCから読み取られた顔特徴点とに基づいて照合処理を行うことに限らず、撮像した顔画像データ又は抽出した顔特徴点や撮像した認証用コードCの画像データ又は読み取られた顔特徴点をサーバ等に送信することで、サーバ等にて照合処理を行い、その照合結果等を得るようにしてもよい。 (4) In the authentication process performed by the control unit 21 of the authentication device 20, matching is performed based on the facial feature points extracted from the captured facial image data and the facial feature points read from the authentication code C as described above. In addition to processing, by sending captured facial image data or extracted facial feature points, captured image data of authentication code C, or read facial feature points to a server, etc., it can be verified on the server, etc. It is also possible to perform the processing and obtain the verification results.

10…認証システム
20…認証装置
21…制御部(判定部,抽出部,読取部,照合部,認証部)
22…記憶部
23…撮像部
24…表示部
25…照明部
30…携帯端末(情報コード記録媒体)
C…認証用コード(情報コード)
10...Authentication system 20...Authentication device 21...Control unit (determination unit, extraction unit, reading unit, verification unit, authentication unit)
22...Storage unit 23...Imaging unit 24...Display unit 25...Lighting unit 30...Mobile terminal (information code recording medium)
C...Authentication code (information code)

Claims (11)

利用者が携帯する情報コード記録媒体と、
前記利用者の認証を行う認証装置と、
を備える認証システムであって、
前記情報コード記録媒体は、
前記利用者の顔画像から抽出された顔特徴点が記録される情報コードを備え、
前記認証装置は、
撮像部と、
前記撮像部により人の顔が認識可能に撮像されている顔認識可能状態であるか否かについて判定する判定部と、
前記判定部により前記顔認識可能状態と判定された後に前記人の顔を前記撮像部にて撮像した撮像画像から顔特徴点を抽出する抽出部と、
前記情報コード記録媒体に表示された前記情報コードを前記撮像部にて撮像した撮像画像から当該情報コードに記録される前記顔特徴点に関する情報を読み取る読取部と、
前記抽出部により抽出した前記顔特徴点と前記読取部により読み取られた前記顔特徴点とを照合する照合部と、
前記照合部の照合結果に基づいて前記利用者の認証を行う認証部と、
を備えることを特徴とする認証システム。
an information code recording medium carried by the user;
an authentication device that authenticates the user;
An authentication system comprising:
The information code recording medium is
comprising an information code in which facial feature points extracted from the user's facial image are recorded;
The authentication device includes:
an imaging unit;
a determination unit that determines whether or not the human face is in a face-recognizable state where the human face is recognizably imaged by the imaging unit;
an extraction unit that extracts facial feature points from a captured image of the person's face captured by the imaging unit after the determination unit determines that the face recognition is possible;
a reading unit that reads information regarding the facial feature points recorded in the information code from a captured image captured by the imaging unit of the information code displayed on the information code recording medium;
a matching unit that matches the facial feature points extracted by the extraction unit and the facial feature points read by the reading unit;
an authentication unit that authenticates the user based on the verification result of the verification unit;
An authentication system comprising:
前記情報コードを読み取り可能な状態を所定の表示状態にて示す表示部を備え、
前記撮像部は、前記表示部を見ている前記利用者の視野範囲内となる位置に配置されることを特徴とする請求項1に記載の認証システム。
comprising a display section that indicates a readable state of the information code in a predetermined display state;
2. The authentication system according to claim 1, wherein the imaging unit is arranged at a position within a field of view of the user viewing the display unit.
前記抽出部により抽出された前記顔特徴点が一時的に記憶されて一定時間経過後に消去される記憶部を備えることを特徴とする請求項1又は2に記載の認証システム。 The authentication system according to claim 1 or 2, further comprising a storage unit in which the facial feature points extracted by the extraction unit are temporarily stored and deleted after a certain period of time has elapsed. 前記撮像部による撮像範囲に向けて照明光を照射する照明部と、
前記照明部における前記照明光の照射状態を制御する制御部と、
を備え、
前記制御部は、所定の条件において、前記撮像部にて前記人の顔を撮像する際の照射状態と、前記撮像部にて前記情報コードを撮像する際の照射状態とが異なるように前記照明部を制御することを特徴とする請求項1~3のいずれか一項に記載の認証システム。
an illumination unit that irradiates illumination light toward an imaging range by the imaging unit;
a control unit that controls the irradiation state of the illumination light in the illumination unit;
Equipped with
The control unit controls the illumination so that, under predetermined conditions, an irradiation state when the imaging unit images the person's face is different from an irradiation state when the imaging unit images the information code. The authentication system according to any one of claims 1 to 3, characterized in that the authentication system controls a portion of the authentication system.
前記判定部は、前記撮像部による連続画像において、認識可能に撮像された人の顔が徐々に大きくなる場合に、前記顔認識可能状態であると判定することを特徴とする請求項1~4のいずれか一項に記載の認証システム。 Claims 1 to 4, wherein the determination unit determines that the face recognition is possible when the face of a person photographed in a recognizable manner gradually becomes larger in the continuous images taken by the imaging unit. The authentication system described in any one of the following. 前記判定部は、前記撮像部の撮像画像における基準線に対して、認識可能に撮像された人の顔に関する中心線の傾きが所定の角度範囲内となる場合に、前記顔認識可能状態であると判定することを特徴とする請求項1~4のいずれか一項に記載の認証システム。 The determination unit determines that the face is in the face recognition possible state when the inclination of the center line of the person's face that is recognizably imaged is within a predetermined angle range with respect to a reference line in the image captured by the imaging unit. The authentication system according to any one of claims 1 to 4, wherein the authentication system determines that. 前記判定部は、前記撮像部による連続画像において、認識可能に撮像された人の顔が瞬きしていると認識可能な場合に、前記顔認識可能状態であると判定することを特徴とする請求項1~4のいずれか一項に記載の認証システム。 The determining unit determines that the face is in the face-recognizable state when the face of the person imaged in a recognizable manner can be recognized as blinking in the continuous images taken by the imaging unit. The authentication system according to any one of Items 1 to 4. 前記判定部は、前記撮像部による連続画像において、認識可能に撮像された人の顔にかかる影の範囲が変化する場合に、前記顔認識可能状態であると判定することを特徴とする請求項1~4のいずれか一項に記載の認証システム。 The determining unit determines that the face is in the face recognition possible state when a range of a shadow cast on a person's face photographed in a recognizable manner changes in the continuous images taken by the imaging unit. The authentication system according to any one of 1 to 4. 前記判定部は、前記撮像部にて認識可能に撮像された人の顔に関して奥行きが認識される場合に、前記顔認識可能状態であると判定することを特徴とする請求項1~4のいずれか一項に記載の認証システム。 5. The determination unit determines that the face recognition is possible when the depth of the person's face photographed in a recognizable manner by the imaging unit is determined to be in the face recognition possible state. The authentication system described in paragraph (1) above. 情報コードをかざした利用者の認証を行う認証装置であって、
前記情報コードには、前記利用者の顔画像から抽出された顔特徴点が記録され、
撮像部と、
前記撮像部により人の顔が認識可能に撮像されている顔認識可能状態であるか否かについて判定する判定部と、
前記判定部により前記顔認識可能状態と判定された後に前記人の顔を前記撮像部にて撮像した撮像画像から顔特徴点を抽出する抽出部と、
前記情報コードを前記撮像部にて撮像した撮像画像から当該情報コードに記録される前記顔特徴点に関する情報を読み取る読取部と、
前記抽出部により抽出した前記顔特徴点と前記読取部により読み取られた前記顔特徴点とを照合する照合部と、
前記照合部の照合結果に基づいて前記利用者の認証を行う認証部と、
を備えることを特徴とする認証装置。
An authentication device that authenticates a user who holds up an information code,
Facial feature points extracted from the facial image of the user are recorded in the information code,
an imaging unit;
a determination unit that determines whether or not the human face is in a face-recognizable state where the human face is recognizably imaged by the imaging unit;
an extraction unit that extracts facial feature points from a captured image of the person's face captured by the imaging unit after the determination unit determines that the face recognition is possible;
a reading unit that reads information regarding the facial feature points recorded in the information code from a captured image captured by the imaging unit;
a matching unit that matches the facial feature points extracted by the extraction unit and the facial feature points read by the reading unit;
an authentication unit that authenticates the user based on the verification result of the verification unit;
An authentication device comprising:
情報コードをかざした利用者の認証を行う認証方法であって、
前記情報コードには、前記利用者の顔画像から抽出された顔特徴点が記録され、
撮像部により撮像画像を生成する撮像ステップと、
前記撮像ステップにて人の顔が認識可能に撮像されている顔認識可能状態であるか否かについて判定する判定ステップと、
前記判定ステップにて前記顔認識可能状態と判定された後に前記人の顔を前記撮像部にて撮像した撮像画像から顔特徴点を抽出する抽出ステップと、
前記情報コードを前記撮像部にて撮像した撮像画像から当該情報コードに記録される前記顔特徴点に関する情報を読み取る読取ステップと、
前記抽出ステップにて抽出した前記顔特徴点と前記読取ステップにて読み取られた前記顔特徴点とを照合する照合ステップと、
前記照合ステップの照合結果に基づいて前記利用者の認証を行う認証ステップと、
を備えることを特徴とする認証方法。
An authentication method for authenticating a user who holds up an information code,
Facial feature points extracted from the facial image of the user are recorded in the information code,
an imaging step of generating a captured image by an imaging unit;
a determination step of determining whether or not the human face is in a face-recognizable state where the human face is recognizably imaged in the imaging step;
an extraction step of extracting facial feature points from a captured image of the person's face captured by the imaging unit after the face recognition is possible in the determination step;
a reading step of reading information regarding the facial feature points recorded in the information code from a captured image captured by the imaging unit;
a matching step of matching the facial feature points extracted in the extraction step and the facial feature points read in the reading step;
an authentication step of authenticating the user based on the verification result of the verification step;
An authentication method comprising:
JP2019229230A 2019-01-17 2019-12-19 Authentication system, authentication device and authentication method Active JP7363455B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US17/424,031 US12019722B2 (en) 2019-01-17 2020-01-16 System, device and method for authentication with use of information code
CN202080009218.7A CN113316781A (en) 2019-01-17 2020-01-16 Authentication system, authentication device, and authentication method
PCT/JP2020/001180 WO2020149339A1 (en) 2019-01-17 2020-01-16 Authentication system, authentication device, and authentication method
EP20741224.8A EP3913575A4 (en) 2019-01-17 2020-01-16 Authentication system, authentication device, and authentication method
TW109101709A TWI729679B (en) 2019-01-17 2020-01-17 Authentication system, authentication device, and authentication method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019005859 2019-01-17
JP2019005859 2019-01-17

Publications (2)

Publication Number Publication Date
JP2020115334A JP2020115334A (en) 2020-07-30
JP7363455B2 true JP7363455B2 (en) 2023-10-18

Family

ID=71778610

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019229230A Active JP7363455B2 (en) 2019-01-17 2019-12-19 Authentication system, authentication device and authentication method

Country Status (3)

Country Link
JP (1) JP7363455B2 (en)
CN (1) CN113316781A (en)
TW (1) TWI729679B (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123103A (en) 2001-10-10 2003-04-25 Casio Comput Co Ltd Ticket processing system and ticket processing method
JP2007122143A (en) 2005-10-25 2007-05-17 Kddi Corp Electronic ticket distribution method, mobile terminal, server, system and program
US20180189551A1 (en) 2015-06-30 2018-07-05 Nec Corporation Of America Facial recognition system

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092491A (en) * 2004-09-27 2006-04-06 Glory Ltd Personal authentication apparatus, personal authentication system, personal authentication method and personal authentication program
JP4899551B2 (en) * 2006-03-15 2012-03-21 オムロン株式会社 Authentication device, authentication method, authentication program, and computer-readable recording medium
CN102622588B (en) * 2012-03-08 2013-10-09 无锡中科奥森科技有限公司 Dual-certification face anti-counterfeit method and device
JP6148065B2 (en) * 2013-04-30 2017-06-14 セコム株式会社 Face recognition system
JP6124124B2 (en) * 2013-05-14 2017-05-10 株式会社デンソーウェーブ Authentication system
US10614204B2 (en) * 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
JP6163239B1 (en) * 2016-07-27 2017-07-12 株式会社テイパーズ Authentication system
CN106875525A (en) * 2017-02-13 2017-06-20 深圳市西莫罗智能科技有限公司 A kind of intelligent channel system and passing method for being applied to anti-terrorism safety-security area
TWI620088B (en) * 2017-03-08 2018-04-01 捷而思股份有限公司 Identity authentication system for avoiding identity theft
JP2020095063A (en) * 2017-03-23 2020-06-18 株式会社Seltech Personal authentication apparatus and personal authentication program
CN107066983B (en) * 2017-04-20 2022-08-09 腾讯科技(上海)有限公司 Identity verification method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123103A (en) 2001-10-10 2003-04-25 Casio Comput Co Ltd Ticket processing system and ticket processing method
JP2007122143A (en) 2005-10-25 2007-05-17 Kddi Corp Electronic ticket distribution method, mobile terminal, server, system and program
US20180189551A1 (en) 2015-06-30 2018-07-05 Nec Corporation Of America Facial recognition system

Also Published As

Publication number Publication date
JP2020115334A (en) 2020-07-30
TW202046162A (en) 2020-12-16
CN113316781A (en) 2021-08-27
TWI729679B (en) 2021-06-01

Similar Documents

Publication Publication Date Title
JP5890033B2 (en) Locking device with enhanced security using iris image
ES2941982T3 (en) Authentication of a person using a virtual identity card
US20160012217A1 (en) Mobile terminal for capturing biometric data
US10257495B1 (en) Three dimensional composite images of digital identifications
US12019722B2 (en) System, device and method for authentication with use of information code
CN111225157B (en) Focus tracking method and related equipment
JP2007135149A (en) Mobile portable terminal
KR20200096136A (en) Method of authentication, server and electronic identity device
JP4837091B2 (en) Imaging apparatus, imaging method, and imaging program
US11245707B2 (en) Communication terminal, communication system, communication control method, and recording medium
US11509477B1 (en) User data validation for digital identifications
US10432618B1 (en) Encrypted verification of digital identifications
JP2023033412A (en) Information processor, and information processing program
KR101725219B1 (en) Method for digital image judging and system tereof, application system, and authentication system thereof
JP4943127B2 (en) Personal authentication device and personal authentication system
KR20150085417A (en) Iris data Registration and Authentication device and the method in the camera of a mobile
JP2007199860A (en) Personal identification system
JP7363455B2 (en) Authentication system, authentication device and authentication method
JP2012009051A (en) Photographing device, photographing method and photographing program
JP4175056B2 (en) Personal authentication device, personal authentication system, portable terminal, personal authentication program
JP2022032529A (en) Facial authentication server, information processing method, and information processing system
US20180013563A1 (en) Method and device for providing a trusted environment for executing an analogue-digital signature
JP7564916B1 (en) Information processing device, information processing method, and information processing program
WO2016209032A1 (en) Digital image determination method and system, application system for same, and authentication system
KR101860227B1 (en) Method and apparatus for performing user authentication by combining the hidden information and authentication information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230918

R150 Certificate of patent or registration of utility model

Ref document number: 7363455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150