JP2014115821A - Face feature extraction device and face authentication system - Google Patents

Face feature extraction device and face authentication system Download PDF

Info

Publication number
JP2014115821A
JP2014115821A JP2012269362A JP2012269362A JP2014115821A JP 2014115821 A JP2014115821 A JP 2014115821A JP 2012269362 A JP2012269362 A JP 2012269362A JP 2012269362 A JP2012269362 A JP 2012269362A JP 2014115821 A JP2014115821 A JP 2014115821A
Authority
JP
Japan
Prior art keywords
face
feature
unit
information
face image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012269362A
Other languages
Japanese (ja)
Other versions
JP6265592B2 (en
Inventor
Naoyuki Takada
直幸 高田
Yusuke Sano
友祐 佐野
Tetsuya Takahashi
哲也 高橋
Hiroyuki Kojima
宏幸 小嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2012269362A priority Critical patent/JP6265592B2/en
Publication of JP2014115821A publication Critical patent/JP2014115821A/en
Application granted granted Critical
Publication of JP6265592B2 publication Critical patent/JP6265592B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a face feature extraction device facilitating work for having an administrator confirm and correct feature points extracted from a face image and a face authentication system using the feature points information extracted by the face feature extraction device.SOLUTION: A feature extraction means 12 of an administrator terminal 1 extracts a plurality of feature points corresponding to respective parts of a face from a face image in which the face of a user is photographed. A generation means 13 generates teaching information indicating the positions of representative feature points corresponding to representative parts which are the feature points extracted from the face image and predetermined among the respective parts of the face. A display control means 14 displays the teaching information superposed on the face image on a display unit 40. In addition, a re-extraction means 16 re-extracts the feature points corresponding to at least that part from the face image based on the part of the face or a correction position in the face image corresponding to the part of the face indicated through an operation unit 50.

Description

本発明は、顔画像から顔の各部位に対応する特徴点を抽出する顔特徴抽出装置、およびその顔特徴抽出装置により抽出された特徴点の情報を用いる顔認証システムに関する。   The present invention relates to a face feature extraction device that extracts feature points corresponding to each part of a face from a face image, and a face authentication system that uses information on feature points extracted by the face feature extraction device.

照合対象者の顔を撮影して得られた顔画像を、予め登録された利用者の顔画像と照合することにより、その照合対象者を認証するか否か判定する顔認証システムが用いられている。顔認証システムは、照合時に得られた顔画像から抽出される顔の特徴情報と登録された顔の特徴情報(以下、登録顔情報という)とを照合して、照合対象者が登録された利用者か否かを判定する。   A face authentication system is used in which a face image obtained by photographing a face of a person to be collated is collated with a face image of a user registered in advance to determine whether or not to authenticate the person to be collated. Yes. The face authentication system compares the face feature information extracted from the face image obtained at the time of matching with the registered face feature information (hereinafter referred to as registered face information), and uses the registered person to be matched. It is determined whether it is a person.

登録顔情報が不適切であると、照合対象者が登録されている利用者本人であるにもかかわらず認証に失敗するおそれがある(いわゆる本人棄却)。そこで、顔画像から抽出された特徴情報に対する、各種の補正パラメータを使った自動補正が行われている。しかしながら、自動補正をしても適切な特徴情報が得られない場合があるため、顔認証システムの管理者が手動操作で特徴情報を修正することが必要になる。   If the registered face information is inadequate, there is a risk that authentication will fail even though the person to be verified is the registered user (so-called “personal rejection”). Therefore, automatic correction using various correction parameters is performed on the feature information extracted from the face image. However, since appropriate feature information may not be obtained even if automatic correction is performed, it is necessary for the administrator of the face authentication system to manually correct the feature information.

いわゆる生体認証では、顔以外にも、指紋や眼球の虹彩などの身体的特徴が、利用者本人か否かの判定に用いられる。どの身体的特徴が用いられる場合でも、十分な認証精度を得るためには特徴情報が適切に求められている必要があり、画像から自動抽出された特徴情報を管理者が手動操作で修正しなければならないことがある。指紋が用いられる場合の例として、特許文献1には、指紋画像から自動抽出された特徴点が指紋画像に重畳されて表示部に表示され、利用者がマウス等で修正の対象となる位置を指示して、指紋画像上で特徴点の修正作業を行うことができる指紋修正システムが開示されている。   In so-called biometric authentication, in addition to the face, physical features such as fingerprints and eyeball irises are used to determine whether or not the user is the user. Regardless of which physical feature is used, the feature information needs to be properly obtained in order to obtain sufficient authentication accuracy, and the administrator must manually correct the feature information automatically extracted from the image. There are things that must be done. As an example of a case where a fingerprint is used, Patent Document 1 discloses that a feature point automatically extracted from a fingerprint image is superimposed on the fingerprint image and displayed on a display unit, and a position to be corrected by a user with a mouse or the like. A fingerprint correction system capable of instructing and performing a feature point correction operation on a fingerprint image is disclosed.

特開平4−306778号公報JP-A-4-306778

しかしながら、自動抽出された特徴点をそのまま全て表示してしまうと、顔認証システムの管理者はそれぞれの特徴点が何を示しているのかを認識するのが難しく、管理者が特徴点の位置を確認し、不適切な特徴点を修正する作業が非常に煩雑になる。   However, if all of the automatically extracted feature points are displayed as they are, it is difficult for the administrator of the face authentication system to recognize what each feature point represents, and the administrator cannot determine the position of the feature point. The work of checking and correcting inappropriate feature points becomes very complicated.

そこで、本発明は、顔画像から抽出された特徴点を管理者が確認し修正する作業を容易にした顔特徴抽出装置、およびその顔特徴抽出装置により抽出された特徴点の情報を用いる顔認証システムを提供することを目的とする。   Therefore, the present invention provides a face feature extraction device that facilitates an administrator to check and correct feature points extracted from a face image, and face authentication using feature point information extracted by the face feature extraction device The purpose is to provide a system.

かかる課題を解決するために、本発明は、利用者の顔が写された顔画像から顔の各部位に対応する複数の特徴点を抽出する特徴抽出手段と、顔画像から抽出された特徴点であって、顔の各部位のうち予め定められた代表部位に対応する代表特徴点の顔画像上における位置を示す教示情報を、顔画像に重畳させて表示部に表示する教示処理手段と、を有することを特徴とする顔特徴抽出装置を提供する。   In order to solve such a problem, the present invention provides feature extraction means for extracting a plurality of feature points corresponding to each part of a face from a face image in which a user's face is copied, and feature points extracted from the face image. Teaching information indicating a position of a representative feature point corresponding to a predetermined representative part of each part of the face on the face image is superimposed on the face image and displayed on the display unit; There is provided a face feature extraction apparatus characterized by comprising:

教示処理手段は、代表部位に対応する複数の特徴点のうち一部の特徴点を代表特徴点として、教示情報を表示することが好ましい。   The teaching processing means preferably displays the teaching information with some feature points among the plurality of feature points corresponding to the representative site as representative feature points.

操作部を介して指示された、代表部位の顔画像上における修正位置を取得し、修正位置に基づいて顔画像から少なくとも代表部位に対応する特徴点を再抽出する再抽出手段をさらに有することが好ましい。   It further has re-extracting means for acquiring a correction position on the face image of the representative part instructed via the operation unit, and re-extracting at least a feature point corresponding to the representative part from the face image based on the correction position. preferable.

教示処理手段は、教示情報および顔画像とともに、操作部を介して代表部位を示す項目を選択可能なように表示部に表示し、再抽出手段は、操作部を介して選択された項目に対応する代表部位について指示された修正位置に基づき、顔画像から特徴点を再抽出することが好ましい。   The teaching processing means displays teaching information and a face image on the display unit so that an item indicating the representative part can be selected via the operation unit, and the re-extraction means corresponds to the item selected via the operation unit. It is preferable to re-extract the feature points from the face image based on the correction position instructed for the representative part to be performed.

操作部を介して指示された、代表特徴点の顔画像上における修正位置を取得し、修正位置を顔画像上における代表特徴点の位置として決定する再抽出手段をさらに有することが好ましい。   It is preferable to further include a re-extracting unit that acquires a correction position on the face image of the representative feature point, which is instructed via the operation unit, and determines the correction position as the position of the representative feature point on the face image.

また、本発明は、記憶手段と、利用者の顔が写された顔画像から顔の各部位に対応する複数の特徴点を抽出する特徴抽出手段と、顔画像から抽出された特徴点であって、顔の各部位のうち予め定められた代表部位に対応する代表特徴点の顔画像上における位置を示す教示情報を、顔画像に重畳させて表示部に表示する教示処理手段と、操作部を介して入力された指示に応じて、複数の特徴点の情報を利用者の登録顔情報として記憶手段に記憶させる登録手段と、撮影画像から抽出された照合対象者の顔情報を登録顔情報と照合して、照合対象者が利用者であるか判定する認証手段と、を有することを特徴とする顔認証システムを提供する。   The present invention also includes a storage means, a feature extraction means for extracting a plurality of feature points corresponding to each part of the face from a face image in which a user's face is copied, and a feature point extracted from the face image. A teaching processing means for superimposing the teaching information indicating the position on the face image of the representative feature point corresponding to a predetermined representative part of each part of the face on the face image, and the operation unit; In accordance with an instruction input via the registration means for storing information of a plurality of feature points in the storage means as registered face information of the user, and the face information of the person to be collated extracted from the photographed image And an authentication unit that determines whether the person to be verified is a user.

本発明の顔特徴抽出装置および顔認証システムによれば、顔画像から抽出された特徴点を管理者が確認し修正する作業が容易になる。   According to the face feature extraction apparatus and the face authentication system of the present invention, it is easy for an administrator to check and correct feature points extracted from a face image.

本発明の一実施形態の顔認証システムにおける管理端末の概略構成図である。It is a schematic block diagram of the management terminal in the face authentication system of one Embodiment of this invention. 教示情報の例を説明するための図である。It is a figure for demonstrating the example of teaching information. 顔データ確認画面と顔データ修正画面の例を示した図である。It is the figure which showed the example of the face data confirmation screen and the face data correction screen. 管理端末による登録処理の動作例を示したフローチャートである。It is the flowchart which showed the operation example of the registration process by a management terminal. 本発明の一実施形態の顔認証システムにおける認証端末の概略構成図である。It is a schematic block diagram of the authentication terminal in the face authentication system of one Embodiment of this invention.

以下、本発明の実施形態について、図面を用いて説明する。本実施形態の顔認証システムは、管理端末と、複数の認証端末とを有する。これらの端末は、例えばローカルエリアネットワーク(LAN)などの通信回線を介して、相互に通信可能に接続される。あるいは、管理端末と認証端末は、USBケーブルを介して互いに接続されてもよい。なお、管理端末と認証端末とを一体の構成としてもよい。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The face authentication system of this embodiment has a management terminal and a plurality of authentication terminals. These terminals are communicably connected to each other via a communication line such as a local area network (LAN). Alternatively, the management terminal and the authentication terminal may be connected to each other via a USB cable. The management terminal and the authentication terminal may be integrated.

まず、管理端末について説明する。管理端末は、顔認証システムの管理者によって顔認証システムを管理するために利用される端末であり、例えば、管理用ソフトウェアが実行されているパーソナルコンピュータである。管理端末は、顔認証システムに利用者の特徴情報(例えば、利用者の顔画像から抽出された特徴点の位置情報など)を登録するために、または登録されている特徴情報(登録顔情報)を修正するために用いられる。また、管理端末は、認証端末から認証の記録データを取得し、そのデータを表示部に表示し、またはそのデータを記録部に記録する。   First, the management terminal will be described. The management terminal is a terminal used for managing the face authentication system by the administrator of the face authentication system, for example, a personal computer on which management software is executed. The management terminal registers feature information of a user (for example, position information of feature points extracted from a user's face image) in the face authentication system, or registered feature information (registered face information) Used to correct Further, the management terminal acquires authentication record data from the authentication terminal, displays the data on the display unit, or records the data on the recording unit.

本実施形態の管理端末は、顔特徴抽出装置の一例である。管理端末は、利用者の顔画像から抽出された複数の特徴点のうち、目視により容易に識別可能な例えば目、鼻および口などの顔の代表的な部位(以下、代表部位という)に対応する特徴点の位置を管理者に教示する教示情報を生成する。管理端末は、抽出されたすべての特徴点を表示部に表示するのではなく、抽出された特徴点の中から代表部位の特徴点である代表特徴点を選択し、この代表特徴点に関する教示情報を顔画像に重畳して表示する。また、管理端末は、教示情報が示す特定の部位の顔画像上における位置の修正が管理者により指示された場合に、特徴点を再抽出する。これにより、特徴点の確認および修正の作業にかかる管理者の負担が軽減され、また、顔画像上の位置が適切な特徴点が得られる。   The management terminal of this embodiment is an example of a face feature extraction device. The management terminal supports representative parts of the face such as eyes, nose and mouth (hereinafter referred to as representative parts) that can be easily identified by visual observation among a plurality of feature points extracted from the user's face image. Teaching information for teaching the administrator the position of the feature point to be generated is generated. The management terminal does not display all the extracted feature points on the display unit, but selects a representative feature point that is a feature point of the representative part from the extracted feature points, and teaching information about the representative feature point Is superimposed on the face image. In addition, the management terminal re-extracts the feature points when the manager instructs to correct the position of the specific part indicated by the teaching information on the face image. As a result, the burden on the administrator for checking and correcting the feature point is reduced, and a feature point with an appropriate position on the face image is obtained.

図1は、本発明の一実施形態の顔認証システムにおける管理端末1の概略構成図を示す。管理端末1は、登録処理部10と、記憶部20と、入出力部30と、表示部40と、操作部50とを有する。   FIG. 1 is a schematic configuration diagram of a management terminal 1 in a face authentication system according to an embodiment of the present invention. The management terminal 1 includes a registration processing unit 10, a storage unit 20, an input / output unit 30, a display unit 40, and an operation unit 50.

登録処理部10は、1個または複数個のプロセッサおよびその周辺回路を有する。登録処理部10は、顔認証システムに登録される利用者の顔を撮影した画像から利用者の顔の特徴点を抽出する。登録処理部10は、抽出された特徴点について管理者が確認および修正指示を行うための画面を表示部40に表示させ、管理者が操作部50を介して入力した修正指示を受け付ける。また、登録処理部10は、管理者の操作により確定された、登録対象の利用者の識別情報、顔画像および特徴情報などの登録データを、認証端末に送信する。   The registration processing unit 10 includes one or a plurality of processors and their peripheral circuits. The registration processing unit 10 extracts feature points of the user's face from an image obtained by photographing the user's face registered in the face authentication system. The registration processing unit 10 causes the display unit 40 to display a screen for the administrator to check and correct the extracted feature points, and receives a correction instruction input by the administrator via the operation unit 50. In addition, the registration processing unit 10 transmits registration data such as identification information, face images, and feature information of the user to be registered, which is determined by the operation of the administrator, to the authentication terminal.

登録処理部10による処理対象の画像は、デジタルカメラ等の外部撮影機器により撮影され、それらの機器から取り込まれた画像とする。なお、登録処理部10による処理対象の画像は、後述する認証端末の撮像部により撮影された画像でもよい。   An image to be processed by the registration processing unit 10 is taken by an external photographing device such as a digital camera and is taken in from these devices. Note that the image to be processed by the registration processing unit 10 may be an image taken by an imaging unit of an authentication terminal described later.

記憶部20は、半導体メモリ、磁気記録媒体およびそのアクセス装置ならびに光記録媒体およびそのアクセス装置のうちの少なくとも1つを有する。記憶部20は、管理端末1を制御するためのコンピュータプログラム、各種パラメータおよびデータなどを記憶する。また、記憶部20は、顔認証システムのマスタデータとして、各利用者の登録データを記憶する。   The storage unit 20 includes at least one of a semiconductor memory, a magnetic recording medium and its access device, and an optical recording medium and its access device. The storage unit 20 stores a computer program, various parameters, data, and the like for controlling the management terminal 1. In addition, the storage unit 20 stores registration data of each user as master data of the face authentication system.

入出力部30は、認証端末などの外部装置に接続する通信インターフェースと、その制御回路とを有する。表示部40は、例えば液晶ディスプレイで構成され、登録処理部10により抽出された特徴点を管理者が確認するための顔データ確認画面、および管理者が特徴点の修正を指示するための顔データ修正画面を表示する。操作部50は、例えばマウスで構成され、特徴点を確定する指示またはある部位の特徴点を修正する指示を管理者が登録処理部10に入力するために用いられる。表示部40と操作部50は、タッチパネルディスプレイとして一体的に構成されてもよい。   The input / output unit 30 includes a communication interface connected to an external device such as an authentication terminal, and a control circuit thereof. The display unit 40 is composed of, for example, a liquid crystal display, and a face data confirmation screen for the administrator to confirm the feature points extracted by the registration processing unit 10 and face data for the administrator to instruct correction of the feature points Display the correction screen. The operation unit 50 is composed of, for example, a mouse, and is used by an administrator to input an instruction to determine a feature point or an instruction to correct a feature point of a certain part to the registration processing unit 10. The display unit 40 and the operation unit 50 may be integrally configured as a touch panel display.

次に、登録処理部10が有する各手段の機能について説明する。登録処理部10は、顔検出手段11と、特徴抽出手段12と、生成手段13と、表示制御手段14と、登録手段15と、再抽出手段16とを有する。登録処理部10のこれらの手段は、例えば、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される。なお、これらの手段は、独立した集積回路、ファームウェア、マイクロプロセッサなどで構成してもよい。   Next, functions of each unit included in the registration processing unit 10 will be described. The registration processing unit 10 includes a face detection unit 11, a feature extraction unit 12, a generation unit 13, a display control unit 14, a registration unit 15, and a re-extraction unit 16. These units of the registration processing unit 10 are implemented as a functional module of a program that operates on the microprocessor unit, for example. These means may be constituted by independent integrated circuits, firmware, a microprocessor, and the like.

顔検出手段11は、入出力部30を介して取得した処理対象の画像から利用者の顔が写っている領域である顔領域を検出し、その画像から顔領域に含まれる画素のみを含む画像を顔画像として切り出す。顔検出手段11は、顔領域の大きさが後述のテンプレート顔画像の顔領域と同等になるように、必要に応じて顔領域を拡大縮小する。顔検出手段11は、顔画像を特徴抽出手段12に渡す。   The face detection unit 11 detects a face area, which is an area in which a user's face is shown, from a processing target image acquired via the input / output unit 30, and includes only pixels included in the face area from the image. Is cut out as a face image. The face detection unit 11 enlarges or reduces the face area as necessary so that the size of the face area is equal to the face area of a template face image described later. The face detection unit 11 passes the face image to the feature extraction unit 12.

顔領域を検出するために、顔検出手段11は、例えば、取得した画像中の部分領域から1つもしくは複数の特徴量を算出し、その特徴量が人物の顔に対応すると考えられる所定の条件を満たす場合に、その部分領域を顔領域として検出する。具体的には、顔検出手段11は、例えば、Sobelフィルタなどを用いてエッジ画素抽出を行い、その部分領域内におけるエッジ画素の方向分布、またはそのエッジ近傍の輝度分布などの特徴量を算出する。あるいは、人物の顔を撮影した複数の画像から予めこれらの特徴量の値を求めてその範囲を決定することにより、上述した所定の条件を予め決定してもよい。   In order to detect a face area, the face detection unit 11 calculates, for example, one or a plurality of feature amounts from a partial region in the acquired image, and a predetermined condition that the feature amount is considered to correspond to a human face. If the condition is satisfied, the partial area is detected as a face area. Specifically, the face detection unit 11 performs edge pixel extraction using, for example, a Sobel filter or the like, and calculates a feature amount such as a direction distribution of the edge pixel in the partial region or a luminance distribution near the edge. . Alternatively, the predetermined conditions described above may be determined in advance by obtaining the values of these feature values in advance from a plurality of images obtained by photographing a person's face and determining the range thereof.

特徴抽出手段12は、顔検出手段11から取得した顔画像から、顔の各部位に対応する複数の特徴点を抽出する。特徴抽出手段12は、従来から提案されている様々な特徴点の抽出方法のどれを用いてもよい。本実施形態では、特徴抽出手段12は、顔検出手段11から取得した顔画像と、予め用意されたテンプレート顔画像との間で、顔を構成する各部位の画像特徴の類似性を評価することにより、特徴点を探索する。   The feature extraction unit 12 extracts a plurality of feature points corresponding to each part of the face from the face image acquired from the face detection unit 11. The feature extracting unit 12 may use any of various conventionally proposed methods for extracting feature points. In this embodiment, the feature extraction unit 12 evaluates the similarity of the image features of each part constituting the face between the face image acquired from the face detection unit 11 and a template face image prepared in advance. To search for feature points.

具体的には、特徴抽出手段12は、目、鼻、口、眉、顔の輪郭などの各部位を構成する詳細部位について、複数のテンプレート顔画像におけるその詳細部位の周辺領域を、参照画像として用いる。この詳細部位の例を挙げると、例えば部位「右目」には、目頭、目尻、目上端、目下端などが含まれる。「左目」も同様である。また、部位「鼻」には、鼻尖(鼻頂点)、鼻背、鼻右端、鼻左端などが含まれる。部位「口」には、口右端、口左端、口上端、口下端などが含まれる。部位「右眉」には、眉頭、眉尻などが含まれる。「左眉」も同様である。部位「輪郭」には、顎中央、顎右側部、顎左側部などが含まれる。特徴抽出手段12は、この他に、上記の部位間に位置する頬などの部位についても、テンプレート顔画像におけるその周辺領域を参照画像として用いる。   Specifically, the feature extraction unit 12 uses, as a reference image, the peripheral regions of the detailed portions of the plurality of template face images for the detailed portions constituting each portion such as the eyes, nose, mouth, eyebrows, and facial contours. Use. As an example of this detailed part, for example, the part “right eye” includes the top of the eye, the corner of the eye, the upper end of the eye, and the lower end of the eye. The same applies to the “left eye”. The site “nose” includes the tip of the nose (nose apex), the back of the nose, the right end of the nose, the left end of the nose, and the like. The part “mouth” includes the right end of the mouth, the left end of the mouth, the upper end of the mouth, the lower end of the mouth, and the like. The part “right eyebrow” includes an eyebrow head, an eyebrow butt, and the like. The same applies to “left eyebrow”. The site “contour” includes the center of the jaw, the right side of the jaw, the left side of the jaw, and the like. In addition to this, the feature extraction unit 12 uses the peripheral area of the template face image as a reference image for a part such as a cheek located between the parts.

そして特徴抽出手段12は、顔画像上の1つの位置において、顔検出手段11から取得した顔画像の画像特徴と参照画像の画像特徴との相違度である評価値をテンプレートごとに求め、その評価値の総和Sを算出する。ここでの画像特徴の例には、各画素の輝度値や色相値などが含まれる。特徴抽出手段12は、顔画像上の各位置で評価値の総和Sを算出し、評価値の総和Sの値が最小となる位置を探索する。そして特徴抽出手段12は、その最小となる位置を、対象となっている詳細部位を示す特徴点として抽出する。なお、テンプレートが1つしかない場合は、特徴抽出手段12は、そのテンプレートに関する上記の評価値が最小となる位置を、特徴点として抽出する。   Then, the feature extraction unit 12 obtains, for each template, an evaluation value that is a difference between the image feature of the face image acquired from the face detection unit 11 and the image feature of the reference image at one position on the face image. The sum S of values is calculated. Examples of image features here include the luminance value and hue value of each pixel. The feature extraction unit 12 calculates the sum S of evaluation values at each position on the face image, and searches for a position where the value of the sum S of evaluation values is minimum. Then, the feature extraction unit 12 extracts the minimum position as a feature point indicating the target detailed part. When there is only one template, the feature extraction unit 12 extracts a position where the above-described evaluation value regarding the template is minimum as a feature point.

特徴抽出手段12は、抽出した特徴点ごとに、その特徴点を識別するためのコード、顔画像上におけるその特徴点の位置情報(座標情報)、その特徴点が対応する部位または詳細部位を表す部位情報、およびその詳細部位の画像特徴(周辺の画像特徴)を対応付ける。そして特徴抽出手段12は、特徴点ごとにこれらのデータを合わせた特徴点リストを作成する。この特徴点リストが特徴情報である。特徴抽出手段12は、この特徴点リストを、記憶部20に記憶するとともに生成手段13に渡す。   The feature extraction unit 12 represents, for each extracted feature point, a code for identifying the feature point, position information (coordinate information) of the feature point on the face image, and a part or a detailed part corresponding to the feature point. The part information and the image feature of the detailed part (peripheral image feature) are associated with each other. Then, the feature extraction unit 12 creates a feature point list combining these data for each feature point. This feature point list is feature information. The feature extraction unit 12 stores the feature point list in the storage unit 20 and passes it to the generation unit 13.

特徴抽出手段12は、詳細部位間の相対的な位置関係を考慮して、上記の評価値を算出してもよい。例えば、目頭の特徴点が抽出されている状態で特徴抽出手段12が目尻の特徴点を抽出する場合には、目頭の特徴点から平均的な目の大きさだけ離れた一定の範囲内に目尻の特徴点があると考えられるため、特徴抽出手段12は、その範囲内から離れた位置ほど、目尻の特徴点として抽出され難くなるように、上記の評価値をより大きな値に補正してもよい。また、特徴抽出手段12は、後述する代表部位に関する特徴点のみを抽出する構成としてもよい。   The feature extraction unit 12 may calculate the evaluation value in consideration of the relative positional relationship between the detailed parts. For example, when the feature extraction means 12 extracts the feature point of the corner of the eye in a state where the feature point of the eye is extracted, the corner of the eye is within a certain range separated from the feature point of the eye by the average eye size. Therefore, the feature extraction unit 12 corrects the evaluation value to a larger value so that the position farther from the range is less likely to be extracted as the feature point of the corner of the eye. Good. Moreover, the feature extraction means 12 is good also as a structure which extracts only the feature point regarding the representative site | part mentioned later.

生成手段13は、顔画像から抽出された複数の特徴点のうち、例えば目、鼻および口などの、管理者が目視により容易に識別できる予め定められた代表部位に対応する特徴点(代表特徴点)の顔画像上における位置を管理者に教示するための教示情報を生成する。生成手段13は、生成した教示情報を表示制御手段14に渡す。   The generation means 13 is a feature point (representative feature) corresponding to a predetermined representative portion that can be easily identified visually by an administrator, such as eyes, nose and mouth, among a plurality of feature points extracted from the face image. Teaching information for teaching the position of the point) on the face image to the administrator is generated. The generation unit 13 passes the generated teaching information to the display control unit 14.

ここで例示した目、鼻および口は、管理者が画像上でその位置を正確に認識し易いため、代表部位として適している。一方、例えば輪郭は、画像上でもその位置が曖昧になりがちであるから、代表部位として適していない。なお、目、鼻および口の位置は、認証端末による照合処理でも比較的重視される場合が多く、照合への影響が高い重要部位であるともいえる。   The eyes, nose, and mouth illustrated here are suitable as representative parts because the administrator can easily recognize their positions on the image. On the other hand, for example, the position of an outline tends to be ambiguous even on an image, and is not suitable as a representative part. Note that the positions of the eyes, nose and mouth are often considered to be relatively important even in the verification process by the authentication terminal, and can be said to be an important part having a high influence on verification.

ここで、教示情報の2つの例を説明する。第1の例では、生成手段13は、各代表部位について特徴抽出手段12が抽出したすべての特徴点を代表特徴点として、教示情報を生成する。生成手段13は、例えば、「目」については目頭、目尻、目上端および目下端、「鼻」については鼻尖(鼻頂点)、鼻右端および鼻左端、「口」については口右端、口左端、口上端および口下端の特徴点に関して、教示情報を生成する。そして生成手段13は、顔画像上における各代表部位の特徴点の位置座標と、それらの特徴点の位置に合わせて配置される×印などのマークを特定する情報とを教示情報とする。   Here, two examples of teaching information will be described. In the first example, the generation unit 13 generates teaching information using all feature points extracted by the feature extraction unit 12 for each representative part as representative feature points. For example, for the “eyes”, the generating means 13 may include the top of the eyes, the corner of the eyes, the upper and lower ends of the eyes, the nose for the “nose”, the right nose and the left end of the nose, the right end of the nose and the left end of the mouth for the “mouth”. Teach information is generated for the feature points at the upper and lower ends of the mouth. Then, the generation unit 13 uses the position coordinates of the feature points of each representative part on the face image and information for specifying marks such as x marks arranged in accordance with the positions of the feature points as teaching information.

第2の例では、生成手段13は、各代表部位を構成する特徴点のうち、管理者が目視により比較的容易にその位置を認識可能な予め定められた一部の特徴点を代表特徴点として、教示情報を生成する。生成手段13は、例えば、「目」については目頭と目尻を、「鼻」については鼻尖を、「口」については口右端と口左端を代表特徴点とし、これらの代表特徴点に関して教示情報を生成する。そして生成手段13は、顔画像上における代表特徴点の位置座標と、それらの代表特徴点の位置に合わせて配置される×印などのマークを特定する情報とを教示情報とする。   In the second example, the generation unit 13 selects a predetermined feature point that allows the administrator to recognize the position relatively easily by visual observation among the feature points constituting each representative part. The teaching information is generated as follows. For example, the generating means 13 uses the eyes and corners of the eyes for the “eyes”, the nose tip for the “nose”, and the right and left ends of the mouth for the “mouth”. Generate. Then, the generation unit 13 uses, as teaching information, the position coordinates of the representative feature points on the face image and information for specifying marks such as x marks arranged in accordance with the positions of the representative feature points.

なお、上記のマークは各特徴点の位置を示すものであればよく、その形状は×印に限定されない。また、生成手段13は、ある部位には第1の例を適用し別の部位には第2の例を適用してもよい。   The mark may be any mark as long as it indicates the position of each feature point, and its shape is not limited to the x mark. Further, the generation unit 13 may apply the first example to a certain part and apply the second example to another part.

図2(A)〜図2(C)は、教示情報の例を説明するための図である。図2(A)は、特徴抽出手段12により抽出された特徴点を×印211で示す模式図である。このような特徴点について、生成手段13が生成した教示情報の例を、図2(B)および図2(C)に示す。   2A to 2C are diagrams for explaining examples of teaching information. FIG. 2A is a schematic diagram showing the feature points extracted by the feature extraction unit 12 with x marks 211. Examples of teaching information generated by the generating unit 13 for such feature points are shown in FIGS. 2 (B) and 2 (C).

図2(B)は、教示情報の第1の例を示す模式図である。図2(B)では、「右目」の目頭、目尻、目上端および目下端の特徴点を示す×印221が、「左目」の目頭、目尻、目上端および目下端の特徴点を示す×印222が、「鼻」の鼻尖、鼻右端および鼻左端の特徴点を示す×印223が、「口」の口右端、口左端、口上端および口下端の特徴点を示す×印224が、それぞれ教示情報として表示されている。図2(C)は、教示情報の第2の例を示す模式図である。図2(C)では、「右目」の代表特徴点として目頭と目尻を示す×印231が、「左目」の代表特徴点として目頭と目尻を示す×印232が、「鼻」の代表特徴点として鼻尖を示す×印233が、「口」の代表特徴点として口右端と口左端を示す×印234が、それぞれ教示情報として表示されている。図2(B)と図2(C)の例では、右目、左目および口の特徴点の位置は実際の部位の位置と合っていることが、×印221,222,224または×印231,232,234によりわかる。一方、鼻の特徴点の位置がずれていることが、×印223または×印233によりわかる。   FIG. 2B is a schematic diagram showing a first example of teaching information. In FIG. 2B, a cross mark 221 indicating the feature points of the “right eye”, the top of the eyes, the top of the eyes, and the bottom of the eyes, and the cross mark 221 indicating the feature points of the “left eye”, the top of the eyes, the top of the eyes, and the top of the eyes. 222 indicates the characteristic points of the nose apex, right nose and left nose of “nose”, and “x” 224 indicates the characteristic points of the right end of the mouth, the left end of the mouth, the upper end of the mouth, and the lower end of the mouth. It is displayed as teaching information. FIG. 2C is a schematic diagram illustrating a second example of teaching information. In FIG. 2C, a cross mark 231 indicating the eye and the corner of the eye as the representative feature point of the “right eye”, and a cross mark 232 indicating the head and the corner of the eye as the representative feature point of the “left eye” are the representative feature points of the “nose”. Are indicated as teaching information, and an X mark 233 indicating the nose tip is displayed as teaching information, and an X mark 234 indicating the right end of the mouth and the left end of the mouth is displayed as representative feature points of the “mouth”. In the example of FIGS. 2B and 2C, the positions of the feature points of the right eye, the left eye, and the mouth match the positions of the actual parts, that is, the X mark 221, 222, 224 or the X mark 231, 232, 234. On the other hand, it can be seen from the x mark 223 or the x mark 233 that the position of the feature point of the nose is shifted.

表示制御手段14は、教示情報を顔画像に重畳させて表示部40に表示する。表示制御手段14は、抽出された特徴点を管理者が確認できるように、生成された教示情報と顔画像とを含む顔データ確認画面を表示部40に表示させる。管理者は、その画面上で、操作部50を介して、特徴点の位置を修正するか否かを指示することができる。表示制御手段14は、その指示を受け取ると、管理者が代表部位ごとに特徴点の位置を修正するための顔データ修正画面を表示部40に表示させる。管理者は、その画面上で、操作部50を介して、代表部位ごとに特徴点の位置を手動で修正することができる。表示制御手段14は、顔データ修正画面上でも、教示情報を顔画像に重畳させて表示してもよい。管理者が代表部位の位置を修正した場合、後述するように、再抽出手段16が特徴点を再抽出する。そのときは、再抽出された特徴点を基に生成手段13が教示情報を生成した後、表示制御手段14は、再び顔データ確認画面を表示部40に表示させる。なお、生成手段13と表示制御手段14は、教示情報を生成しその教示情報を顔画像に重畳させて表示部に表示する教示処理手段の一例である。   The display control unit 14 superimposes the teaching information on the face image and displays it on the display unit 40. The display control unit 14 causes the display unit 40 to display a face data confirmation screen including the generated teaching information and the face image so that the administrator can confirm the extracted feature points. The administrator can instruct whether or not to correct the position of the feature point via the operation unit 50 on the screen. Upon receiving the instruction, the display control unit 14 causes the display unit 40 to display a face data correction screen for the administrator to correct the position of the feature point for each representative part. The administrator can manually correct the position of the feature point for each representative site via the operation unit 50 on the screen. The display control means 14 may display the teaching information superimposed on the face image even on the face data correction screen. When the manager corrects the position of the representative part, the re-extraction means 16 re-extracts the feature points as will be described later. At that time, after the generation unit 13 generates teaching information based on the re-extracted feature points, the display control unit 14 displays the face data confirmation screen on the display unit 40 again. The generation unit 13 and the display control unit 14 are an example of a teaching processing unit that generates teaching information and superimposes the teaching information on a face image and displays the teaching information on a display unit.

図3(A)〜図3(C)は、顔データ確認画面と顔データ修正画面の例を示した図である。図3(A)は、顔データ確認画面の例である。画面の左側の領域311では、右目、左目、鼻および口の代表部位を示す×印の教示情報312〜315が、顔画像に重畳表示されている。管理者は、これを見て、代表部位ごとに位置の修正が必要か否かを判断することができる。そして管理者は、画面の右側に表示されている「修正する」のボタン316または「確定する」のボタン317を例えばマウスでクリックすることにより、操作部50を介して、特徴点の位置の修正または確定の指示を入力することができる。   FIGS. 3A to 3C are diagrams illustrating examples of a face data confirmation screen and a face data correction screen. FIG. 3A shows an example of a face data confirmation screen. In the region 311 on the left side of the screen, the teaching information 312 to 315 indicated by “x” indicating the representative parts of the right eye, the left eye, the nose and the mouth are superimposed on the face image. The administrator can determine whether or not the position needs to be corrected for each representative part by looking at this. Then, the administrator clicks the “correct” button 316 or the “confirm” button 317 displayed on the right side of the screen with the mouse, for example, to correct the position of the feature point via the operation unit 50. Alternatively, a confirmation instruction can be input.

図3(B)は、顔データ修正画面の例である。図3(A)の顔データ確認画面で管理者が「修正する」のボタン316を選択すると、表示制御手段14は、その指示を受け取り、この顔データ修正画面を表示部40に表示させる。画面の右側には、代表部位を示す「右目」のボタン325、「左目」のボタン326、「鼻」のボタン327および「口」のボタン328がそれぞれ表示されている。管理者は、これらのボタンにより、修正対象の代表部位を順次選択する。そして管理者は、代表部位ごとに、画面の左側の領域321に表示されている顔画像上でその代表部位の正しい位置(その代表部位の真ん中辺りの位置)にカーソルを移動させて、例えばマウスをクリックすることにより、修正位置を入力する。顔画像の右目と左目の上に表示されている黒丸322,323は、管理者により修正位置が入力されたことを示している。また、「鼻」のボタン327が黒く表示され、顔画像上に矢印324が表示されており、図3(B)の画面では、管理者が現在鼻の修正位置を入力する操作中であることを示している。   FIG. 3B is an example of a face data correction screen. When the administrator selects the “correct” button 316 on the face data confirmation screen of FIG. 3A, the display control means 14 receives the instruction and causes the display unit 40 to display this face data correction screen. On the right side of the screen, a “right eye” button 325, a “left eye” button 326, a “nose” button 327, and a “mouth” button 328 indicating representative parts are displayed. The manager sequentially selects the representative parts to be corrected using these buttons. Then, for each representative part, the administrator moves the cursor to the correct position of the representative part (position around the center of the representative part) on the face image displayed in the area 321 on the left side of the screen, for example, a mouse Click to enter the correction position. Black circles 322 and 323 displayed on the right and left eyes of the face image indicate that the correction position has been input by the administrator. The “nose” button 327 is displayed in black and an arrow 324 is displayed on the face image. In the screen of FIG. 3B, the administrator is currently performing an operation of inputting the correction position of the nose. Is shown.

管理者は、全ての代表部位について修正位置を入力した後、「修正実行」のボタン330を選択することができる。すると、入力された修正位置が表示制御手段14を介して再抽出手段16に渡され、その修正位置を基に、再抽出手段16が特徴点を再抽出する。また、管理者は、「取消」のボタン329を選択して、修正作業を中止することもできる。このとき、登録処理部10は処理を中止する。なお、図3(B)には示していないが、例えば顔画像上の各代表部位の中心に印をつけたものをサンプルとして画面の端に表示し、管理者がそのサンプルを参考に操作できるようにしてもよい。   The administrator can select the “Execute correction” button 330 after inputting the correction positions for all the representative parts. Then, the input correction position is transferred to the re-extraction means 16 via the display control means 14, and the re-extraction means 16 re-extracts the feature points based on the correction position. The administrator can also select the “Cancel” button 329 to cancel the correction work. At this time, the registration processing unit 10 stops the process. Although not shown in FIG. 3 (B), for example, the center of each representative part on the face image is displayed as a sample on the edge of the screen, and the administrator can operate with reference to the sample. You may do it.

図3(C)は、顔データ修正画面の別の例である。図3(C)は、図3(A)と同様に、画面左側の領域331上で、×印の教示情報332〜335が顔画像に重畳表示されている。このように、顔データ修正画面上でも教示情報を表示してもよい。また、図3(B)では全ての代表部位の修正位置が入力されるものとして説明したが、管理者は必要と判断した一部の代表部位だけを修正してもよい。例えば、図3(C)では、右目、左目および口の特徴点の位置は実際の部位の位置と合っていることが、右目の教示情報332、左目の教示情報333および口の教示情報335によりわかる。一方、鼻の特徴点の位置がずれていることが、鼻の教示情報334によりわかる。このため、管理者は、画面右側の「鼻」のボタン327を選択して、鼻の位置のみを修正してもよい。顔画像の鼻の上に表示されている黒丸336は、管理者により修正位置が入力されたことを示している。   FIG. 3C is another example of the face data correction screen. In FIG. 3C, as in FIG. 3A, teaching information 332 to 335 indicated by “X” are superimposed on the face image on the area 331 on the left side of the screen. In this way, the teaching information may be displayed on the face data correction screen. Further, although FIG. 3B has been described on the assumption that the correction positions of all the representative parts are input, the administrator may correct only a part of the representative parts determined to be necessary. For example, in FIG. 3C, the right eye, left eye, and mouth feature point positions are in agreement with the actual part positions based on the right eye teaching information 332, the left eye teaching information 333, and the mouth teaching information 335. Recognize. On the other hand, it can be seen from the nose teaching information 334 that the position of the feature point of the nose is shifted. For this reason, the administrator may select the “nose” button 327 on the right side of the screen and correct only the position of the nose. A black circle 336 displayed on the nose of the face image indicates that the correction position has been input by the administrator.

登録手段15は、管理者により特徴点の位置を確定する指示が入力されると、現在の特徴情報を登録対象に決定する。そのとき、登録手段15は、登録される利用者について別途入力されているか、あるいは自動的に割り当てられる識別情報(ID番号)、名前および所属などの利用者情報と、顔画像と、決定された特徴情報とを、登録データとして記憶部20に登録する。また、登録手段15は、入出力部30を介して登録データを認証端末に送信する。   The registration unit 15 determines the current feature information as a registration target when an instruction to determine the position of the feature point is input by the administrator. At that time, the registration means 15 determines whether the user information to be registered is input separately or automatically assigned identification information (ID number), user information such as name and affiliation, and face image. The feature information is registered in the storage unit 20 as registration data. Further, the registration unit 15 transmits registration data to the authentication terminal via the input / output unit 30.

再抽出手段16は、顔画像上に教示され、操作部50を介して管理者により指示された部位の修正位置に基づいて、顔画像から少なくともその部位に対応する特徴点を再抽出する。再抽出手段16は、再抽出した特徴点の情報を生成手段13に渡す。すると、生成手段13は再抽出された特徴点を基に教示情報を生成し、表示制御手段14は再び顔データ確認画面を表示部40に表示させる。ただし、再抽出を1回行えば正しい位置の特徴点が得られると考えられるため、再抽出手段16は、再抽出した特徴点の情報を登録手段15に渡して、再抽出された特徴点を登録手段15がそのまま登録してもよい。   The re-extracting means 16 re-extracts at least feature points corresponding to the part from the face image based on the correction position of the part taught on the face image and instructed by the administrator via the operation unit 50. The re-extracting unit 16 passes the re-extracted feature point information to the generating unit 13. Then, the generation unit 13 generates teaching information based on the re-extracted feature points, and the display control unit 14 displays the face data confirmation screen on the display unit 40 again. However, since it is considered that the feature point at the correct position can be obtained if re-extraction is performed once, the re-extraction means 16 passes the information of the re-extracted feature point to the registration means 15 and re-extracts the feature point. The registration means 15 may register as it is.

再抽出手段16による特徴点の抽出方法は、特徴抽出手段12による特徴点の抽出方法と同じとする。ただし、再抽出手段16は、管理者により指示された修正位置からの距離が近い位置ほどその修正位置が指示された部位に対応する特徴点が抽出され易くなるように、顔画像から特徴点を再抽出する。なお、再抽出手段16は、特徴抽出手段12とは異なる方法で特徴点を抽出してもよい。   The feature point extraction method by the re-extraction means 16 is the same as the feature point extraction method by the feature extraction means 12. However, the re-extracting means 16 extracts the feature points from the face image so that the feature points corresponding to the part for which the correction position is instructed are easier to extract as the position from the correction position instructed by the administrator is closer. Re-extract. Note that the re-extraction unit 16 may extract feature points by a method different from that of the feature extraction unit 12.

具体的には、再抽出手段16は、特徴抽出手段12と同じテンプレートを用いて、顔画像上の特徴点の候補位置において、処理対象の顔画像の画像特徴と、上記の参照画像の画像特徴との相違度をテンプレートごとに求める。再抽出手段16は、管理者により指示された修正位置と候補位置との距離dに応じた補正値Eを求め、上記の相違度に補正値Eを加算した値である評価値を求める。補正値Eは、距離dとともに大きくなる値とする。そして再抽出手段16は、各テンプレートについての評価値の総和S’を算出する。再抽出手段16は、顔画像上の各位置で評価値の総和S’を算出し、評価値の総和S’の値が最小となる位置を探索する。そして再抽出手段16は、その最小となる位置を、対象となっている詳細部位を示す特徴点として抽出する。   Specifically, the re-extraction unit 16 uses the same template as the feature extraction unit 12 and uses the same image feature of the face image to be processed and the image feature of the reference image at the candidate position of the feature point on the face image. Is calculated for each template. The re-extraction means 16 obtains a correction value E according to the distance d between the correction position designated by the administrator and the candidate position, and obtains an evaluation value that is a value obtained by adding the correction value E to the above-described difference. The correction value E is a value that increases with the distance d. Then, the re-extraction means 16 calculates the sum S ′ of evaluation values for each template. The re-extraction means 16 calculates the sum S ′ of evaluation values at each position on the face image, and searches for a position where the value of the sum S ′ of evaluation values is minimum. Then, the re-extraction means 16 extracts the minimum position as a feature point indicating the target detailed part.

再抽出手段16が相違度に補正値Eを加算した評価値を用いるのは、管理者により指示された修正位置から遠い点の評価値を高くして、修正位置に近い点ほど特徴点として抽出され易くなるように重み付けをするためである。なお、再抽出手段16は、相違度に補正値Eを加算して評価値を求めるのではなく、距離dに応じた補正係数αを求め、上記の相違度に補正係数αを掛けた値を評価値としてもよい。補正係数αも、距離dとともに大きくなる値とする。   The re-extracting means 16 uses the evaluation value obtained by adding the correction value E to the degree of difference by increasing the evaluation value at a point far from the correction position instructed by the administrator, and extracting a point closer to the correction position as a feature point This is because weighting is performed so that it is easily performed. Note that the re-extraction means 16 does not obtain the evaluation value by adding the correction value E to the degree of difference, but obtains a correction coefficient α corresponding to the distance d, and obtains a value obtained by multiplying the degree of difference by the correction coefficient α. It may be an evaluation value. The correction coefficient α is also a value that increases with the distance d.

また、再抽出手段16は、修正位置からの距離dだけでなく方向を考慮して、補正値Eまたは補正係数αを求めるとなお好ましい。例えば、右目の位置が修正され右目の特徴点が再抽出される場合、「右目の目尻」は、「右目」の修正位置に対して左方向(すなわち顔の外側)の一定範囲内にある蓋然性が高いため、再抽出手段16は、「右目の目尻」の位置を探索するときに、その左方向の一定範囲内における特徴点の候補位置について小さな値をとるように補正値Eまたは補正係数αを決めるとよい。このとき、逆の右方向の位置については、再抽出手段16は補正値Eまたは補正係数αの値を高くしてもよい。   Further, it is more preferable that the re-extraction means 16 obtains the correction value E or the correction coefficient α in consideration of not only the distance d from the correction position but also the direction. For example, when the position of the right eye is corrected and the feature point of the right eye is re-extracted, the probability that the “right eye corner” is within a certain range in the left direction (that is, outside the face) with respect to the correction position of the “right eye”. Therefore, when the position of the “right eye corner” is searched, the re-extraction means 16 takes the correction value E or the correction coefficient α so as to take a small value for the candidate position of the feature point within a certain range in the left direction. It is good to decide. At this time, the re-extraction means 16 may increase the correction value E or the correction coefficient α for the reverse rightward position.

さらに、再抽出手段16は、代表部位の特徴点について修正位置が指示されたときに、代表部位以外の部位に対応する特徴点については、特徴抽出手段12により抽出されたときの顔画像上における位置である元の位置が代表特徴点の修正前の位置に近いほど、代表特徴点の修正位置に近い位置で抽出され易くなるように、代表部位以外の部位の特徴点を再抽出してもよい。   Further, the re-extracting means 16 has a feature point corresponding to a part other than the representative part on the facial image when extracted by the feature extracting means 12 when the correction position is designated for the characteristic point of the representative part. Even if the feature point of a part other than the representative part is re-extracted so that the original position, which is the position, is closer to the position before the representative feature point is corrected, it is easier to extract the position near the correction position of the representative feature point. Good.

なお、再抽出手段16は、顔の全ての特徴点を再抽出せずに、管理者により修正指示された部位に対応する特徴点だけを再抽出してもよい。   Note that the re-extraction means 16 may re-extract only the feature points corresponding to the part instructed to be corrected by the administrator without re-extracting all the feature points of the face.

図4は、管理端末1による登録処理の動作例を示したフローチャートである。管理者の操作により登録処理の開始が指示されると、まず、入出力部30を介して、顔検出手段11は画像を取得する(ステップS1)。顔検出手段11は、取得した画像から利用者の顔が写っている顔領域を検出し、その画像から顔領域に含まれる画素のみを切り出す(ステップS2)。顔検出手段11は、切り出した画像を、特徴抽出手段12に渡す。   FIG. 4 is a flowchart showing an operation example of registration processing by the management terminal 1. When the start of the registration process is instructed by the administrator's operation, first, the face detection unit 11 acquires an image via the input / output unit 30 (step S1). The face detection unit 11 detects a face area in which the user's face is reflected from the acquired image, and cuts out only pixels included in the face area from the image (step S2). The face detection unit 11 passes the cut image to the feature extraction unit 12.

特徴抽出手段12は、顔画像から対象者の顔の各部位に対応する複数の特徴点を抽出する(ステップS3)。特徴抽出手段12は、得られた特徴点の情報を記憶部20に記憶するとともに生成手段13に渡す。次に、生成手段13は、抽出された特徴点うち代表部位の特徴点の位置を示す教示情報を生成する(ステップS4)。このとき生成手段13は、各代表部位のすべての特徴点の位置を示す教示情報か、または各代表部位の代表特徴点のみの位置を示す教示情報を生成する。そして表示制御手段14は、表示部40に、生成された教示情報と顔画像とを重畳させて表示する(ステップS5)。   The feature extraction unit 12 extracts a plurality of feature points corresponding to each part of the subject's face from the face image (step S3). The feature extraction unit 12 stores the obtained feature point information in the storage unit 20 and passes it to the generation unit 13. Next, the generation unit 13 generates teaching information indicating the position of the feature point of the representative part among the extracted feature points (step S4). At this time, the generation means 13 generates teaching information indicating the positions of all the feature points of each representative part or teaching information indicating the positions of only the representative feature points of each representative part. Then, the display controller 14 superimposes the generated teaching information and the face image on the display unit 40 (step S5).

ここで、管理者が操作部50を介して代表部位の位置を修正する指示を入力した場合(ステップS6でYes)、再抽出手段16は指示された修正位置に基づき特徴点を再抽出する(ステップS7)。その後、生成手段13が教示情報を生成する処理(ステップS4)に戻る。一方、管理者が操作部50を介して特徴点を確定する指示を入力した場合(ステップS6でNo)、登録手段15は、確定した特徴点の情報を登録データとして記憶部20に登録する(ステップS8)。以上で、登録処理部10の動作は終了する。   Here, when the administrator inputs an instruction to correct the position of the representative part via the operation unit 50 (Yes in step S6), the re-extraction means 16 re-extracts the feature points based on the instructed correction position ( Step S7). Thereafter, the generation unit 13 returns to the process of generating teaching information (step S4). On the other hand, when the administrator inputs an instruction to confirm a feature point via the operation unit 50 (No in step S6), the registration unit 15 registers information on the confirmed feature point in the storage unit 20 as registration data ( Step S8). This completes the operation of the registration processing unit 10.

なお、再抽出手段16による再抽出の処理(ステップS7)の後は、生成手段13が教示情報を生成する処理(ステップS4)に戻らず、登録手段15がそのまま特徴点の情報を登録する処理(ステップS8)に進んでもよい。   After the re-extraction process by the re-extraction means 16 (step S7), the registration means 15 does not return to the process of generating the teaching information (step S4), and the registration means 15 registers the feature point information as it is. You may progress to (step S8).

以上説明してきたように、管理端末1では、利用者の顔画像から特徴抽出手段12が抽出したすべての特徴点を表示部40に表示するのではなく、抽出された特徴点のうち、目、鼻および口などの確認に適した代表部位に対応する特徴点の位置を示す教示情報を顔画像に重畳して表示する。これにより、特徴点の確認および修正の作業にかかる管理者の負担が軽減される。また、管理端末1では、教示情報が示すある部位の顔画像上における位置の修正が管理者により指示された場合に、再抽出手段16が特徴点を再抽出する。これにより、顔画像上の位置が適切な特徴点が抽出される。   As described above, the management terminal 1 does not display all the feature points extracted by the feature extraction unit 12 from the user's face image on the display unit 40, but the eyes, Teaching information indicating the position of the feature point corresponding to the representative part suitable for confirmation of the nose and mouth is superimposed and displayed on the face image. As a result, the burden on the administrator for checking and correcting feature points is reduced. In the management terminal 1, the re-extracting unit 16 re-extracts the feature points when the administrator instructs the position correction on the face image of a part indicated by the teaching information. Thereby, feature points with appropriate positions on the face image are extracted.

図3(B)の顔データ修正画面では、管理者が顔の部位ごとに特徴点の位置を修正する例について説明したが、部位単位ではなく、教示情報が表示された個々の特徴点の単位で、管理者が特徴点の位置を修正できるように構成してもよい。例えば、図3(B)の顔データ修正画面の左側の領域321に表示されている顔画像上で、管理者が位置を修正したい特徴点にカーソルを合わせてその特徴点を指定し、管理者が例えばマウスでドラッグおよびドロップすることにより、個々の特徴点の修正位置を指示できるように構成してもよい。あるいは、代表部位を示すボタン325〜328と同様の選択ボタンを、「右目の目頭」や「右目の目尻」などの詳細部位ごとに表示し、図3(B)の顔データ修正画面と同様に、管理者が各詳細部位について修正位置を指示できるようにしてもよい。   In the face data correction screen of FIG. 3B, the example has been described in which the administrator corrects the position of the feature point for each part of the face. However, instead of the part unit, the unit of individual feature points on which the teaching information is displayed. Thus, the administrator may be able to correct the position of the feature point. For example, on the face image displayed in the area 321 on the left side of the face data correction screen in FIG. 3B, the administrator moves the cursor to a feature point whose position is to be corrected and designates the feature point. May be configured such that the correction position of each feature point can be indicated by dragging and dropping with a mouse, for example. Alternatively, a selection button similar to the buttons 325 to 328 indicating the representative part is displayed for each detailed part such as “right eye corner” or “right eye corner”, as in the face data correction screen of FIG. The administrator may be able to indicate the correction position for each detailed part.

なお、このように個々の代表特徴点の単位で位置が修正される場合、再抽出手段16は、指示された修正位置をその代表特徴点の位置と決定し、決定された特徴点の情報を登録手段15が記憶部20に登録してもよい。この場合、再抽出手段16は、代表特徴点の修正位置に基づき代表特徴点以外の特徴点を再抽出してもよい。   When the position is corrected in units of individual representative feature points in this way, the re-extraction means 16 determines the instructed correction position as the position of the representative feature point, and uses the determined feature point information. The registration unit 15 may register in the storage unit 20. In this case, the re-extraction means 16 may re-extract feature points other than the representative feature points based on the correction positions of the representative feature points.

また、管理端末1が用いられる顔認証システムは、3次元化した顔データを利用する認証方式を採る顔認証システムでもよい。この場合、管理端末1は、上記の処理によって得られた特徴情報を、図示しない3D処理手段が顔データを3次元化するために用いてもよい。   Further, the face authentication system in which the management terminal 1 is used may be a face authentication system that employs an authentication method using three-dimensional face data. In this case, the management terminal 1 may use the feature information obtained by the above processing so that 3D processing means (not shown) three-dimensionalizes the face data.

この3D処理手段は、利用者の顔画像と、その画像から特徴抽出手段12により抽出され必要に応じて修正された特徴情報とを基に、3次元モデルを用いて3次元の顔形状を推定し、3次元顔形状データを作成する。3次元モデルとは、登録人物の頭部を再現して様々な向きの顔画像を生成するためのモデルである。3D処理手段は、例えば、特開2011−210114号公報、特開2009−211148号公報、特開2011−215843号公報などに記載されている、様々な公知の3次元モデル生成方法のいずれかを用いることができる。   This 3D processing means estimates a three-dimensional face shape using a three-dimensional model based on the user's face image and feature information extracted from the image by the feature extraction means 12 and modified as necessary. 3D face shape data is created. The three-dimensional model is a model for reproducing a registered person's head and generating face images in various directions. The 3D processing means is, for example, any one of various known three-dimensional model generation methods described in JP2011-210114A, JP2009-2111148A, JP2011-215843A, and the like. Can be used.

そして3D処理手段は、真正面を向いた顔画像を中心に、例えば上下方向と左右方向にそれぞれ15度刻みで±30度まで向きを変えた5×5の25方向から見た顔画像について、それぞれ特徴情報を記憶部20に登録する。このときの特徴情報は、特徴抽出手段12がそれぞれの顔画像から抽出したものである。   Then, the 3D processing means centered on the face image facing directly in front, for example, the face image viewed from 25 × 5 × 5 directions whose directions are changed to ± 30 degrees in 15 degree increments in the vertical and horizontal directions, respectively. The feature information is registered in the storage unit 20. The feature information at this time is extracted from each face image by the feature extraction means 12.

なお、3D処理手段は、基準方向(大抵は真正面を向いた顔画像)の特徴情報をベースとして、特徴抽出手段12が抽出した特徴情報を3次元顔形状データに基づき変換させたものを、各方向の特徴情報としてもよい。また、3D処理手段は、2次元の顔画像から抽出された特徴情報を3次元顔形状データにより3次元座標系に変換したものを、登録される特徴情報としてもよい。また、基準方向の特徴情報だけを登録しておき、認証端末による照合時に、認証端末の処理部がその特徴情報に対して方向を回転させる変換を行って、照合用の特徴情報を生成してもよい。   The 3D processing means converts the feature information extracted by the feature extraction means 12 based on the three-dimensional face shape data based on the feature information in the reference direction (usually a face image facing directly in front). Direction feature information may be used. The 3D processing means may convert the feature information extracted from the two-dimensional face image into the three-dimensional coordinate system using the three-dimensional face shape data as the registered feature information. In addition, only the feature information of the reference direction is registered, and at the time of verification by the authentication terminal, the processing unit of the authentication terminal performs conversion to rotate the direction with respect to the feature information to generate the feature information for verification Also good.

次に、認証端末について説明する。認証端末は、照合時に撮影された画像から得られた照合対象者の顔の特徴情報と、管理端末1を用いて予め登録された利用者の顔の特徴情報(登録顔情報)とを照合して、照合対象者を認証するか否か判定する。認証端末は、例えば通行が規制されるゲートや自動ドアごとに設けられ、認証結果に応じてそれらのゲートや自動ドアなどを制御する。   Next, the authentication terminal will be described. The authentication terminal collates the facial feature information of the person to be collated obtained from the image captured during the collation with the facial feature information (registered facial information) of the user registered in advance using the management terminal 1. Then, it is determined whether or not the person to be verified is authenticated. The authentication terminal is provided, for example, for each gate or automatic door where traffic is restricted, and controls the gate, automatic door, and the like according to the authentication result.

図5は、本発明の一実施形態の顔認証システムにおける認証端末100の概略構成図である。認証端末100は、認証処理部110と、記憶部120と、入出力部130と、登録処理部140とを有する。認証端末100では、撮像部200により撮像された画像が、認証処理部110に入力される。   FIG. 5 is a schematic configuration diagram of the authentication terminal 100 in the face authentication system according to the embodiment of the present invention. The authentication terminal 100 includes an authentication processing unit 110, a storage unit 120, an input / output unit 130, and a registration processing unit 140. In the authentication terminal 100, an image captured by the imaging unit 200 is input to the authentication processing unit 110.

撮像部200は、認証端末100が運用される環境に応じて、照合対象者の顔を撮影できるように設置される。撮像部200は、照合対象者の顔が写った画像を入力顔画像として生成する。そのために、撮像部200は、例えば、CCDまたはCMOSといった固体撮像素子の2次元アレイ上に照合対象者の顔の像を結像する光学系を備えたカメラを有する。撮像部200は、生成した入力顔画像を認証処理部110に出力する。   The imaging unit 200 is installed so that the face of the person to be collated can be photographed according to the environment in which the authentication terminal 100 is operated. The imaging unit 200 generates an image showing the face of the person to be verified as an input face image. For this purpose, the imaging unit 200 includes a camera including an optical system that forms an image of the face of the person to be collated on a two-dimensional array of solid-state imaging elements such as a CCD or a CMOS. The imaging unit 200 outputs the generated input face image to the authentication processing unit 110.

なお、撮像部200は、入力顔画像として、カラーの多階調画像を作成するものであってもよく、または近赤外域に感度を有しグレー画像を作成するカメラであってもよい。また、撮像部200が有する撮像素子アレイは、入力顔画像上に写っている顔の目、鼻、口などの特徴が区別できる程度の画素数を有することが好ましい。   Note that the imaging unit 200 may create a color multi-tone image as an input face image, or may be a camera that has a sensitivity in the near infrared region and creates a gray image. Moreover, it is preferable that the image pick-up element array which the image pick-up part 200 has has the pixel number of the grade which can distinguish the features, such as the eyes of the face reflected in the input face image, a nose, and a mouth.

認証処理部110は、1個または複数個のプロセッサおよびその周辺回路を有する。そして認証処理部110は、撮像部200により入力された顔画像から照合対象者の顔の特徴情報(以下、入力顔情報という)を抽出し、入力顔情報を記憶部120に予め登録された利用者の登録顔情報と照合して、照合対象者を候補者として認証するか否か判定する。認証処理部110は、撮影画像から抽出された照合対象者の顔情報を登録顔情報と照合して、照合対象者が利用者であるか判定する認証手段の一例である。   The authentication processing unit 110 has one or a plurality of processors and their peripheral circuits. Then, the authentication processing unit 110 extracts facial feature information (hereinafter referred to as input face information) of the person to be collated from the face image input by the imaging unit 200, and uses the input face information registered in the storage unit 120 in advance. It is determined whether or not the person to be verified is authenticated as a candidate by comparing with the registered face information of the person. The authentication processing unit 110 is an example of an authentication unit that collates face information of a person to be collated extracted from a captured image with registered face information and determines whether the person to be collated is a user.

記憶部120は、半導体メモリ、磁気記録媒体およびそのアクセス装置ならびに光記録媒体およびそのアクセス装置のうちの少なくとも1つを有する。記憶部20は、認証端末100を制御するためのコンピュータプログラム、各種パラメータおよびデータなどを記憶する。また、記憶部120は、各利用者の登録データを記憶する。記憶部120は、認証結果を認証記録データとして記憶する。   The storage unit 120 includes at least one of a semiconductor memory, a magnetic recording medium and its access device, and an optical recording medium and its access device. The storage unit 20 stores a computer program for controlling the authentication terminal 100, various parameters, data, and the like. In addition, the storage unit 120 stores registration data of each user. The storage unit 120 stores the authentication result as authentication record data.

入出力部130は、例えば、自動ドア、通行ゲートまたは電気錠を制御する外部機器などに接続する通信インターフェースと、その制御回路とを有する。そして入出力部130は、認証処理部110から照合対象者についての認証成功を示す信号を受け取ると、接続された機器に例えば電気錠の解錠を要求する信号を出力する。あるいは、入出力部130は、撮像部200の付近に設置され表示または音声などにより照合対象者に認証結果を通知する表示器などに、認証処理部110による認証結果を示す信号を出力してもよい。   The input / output unit 130 includes, for example, a communication interface connected to an automatic door, a passage gate, or an external device that controls an electric lock, and a control circuit thereof. When the input / output unit 130 receives from the authentication processing unit 110 a signal indicating successful authentication of the verification target person, the input / output unit 130 outputs a signal requesting, for example, unlocking of the electric lock to the connected device. Alternatively, the input / output unit 130 may output a signal indicating the authentication result by the authentication processing unit 110 to a display or the like that is installed in the vicinity of the imaging unit 200 and notifies the person to be verified of the authentication result by display or voice. Good.

また、認証端末100は管理端末1に接続され、入出力部130を介して管理端末1から利用者の登録データを受信する。その際、管理端末1の登録手段15は、管理者により入力された指示に応じて、利用者の登録データを認証端末に送信し、その登録データをその利用者の登録顔情報として記憶部120に記憶させる。これにより、利用者の顔の特徴情報が、登録顔情報として認証端末100に登録される。また、ある利用者について記憶部120に記憶されている登録顔情報を修正する必要があるときも、管理端末1の登録手段15は、管理者により入力された指示に応じて、利用者の登録データを認証端末に送信し、記憶部120に登録されている修正対象の利用者の登録顔情報を、その登録データで修正する。   The authentication terminal 100 is connected to the management terminal 1 and receives user registration data from the management terminal 1 via the input / output unit 130. At that time, the registration unit 15 of the management terminal 1 transmits the registration data of the user to the authentication terminal according to the instruction input by the administrator, and the storage unit 120 stores the registration data as the registered face information of the user. Remember me. Thereby, the feature information of the user's face is registered in the authentication terminal 100 as registered face information. In addition, when it is necessary to correct the registered face information stored in the storage unit 120 for a certain user, the registration unit 15 of the management terminal 1 registers the user according to the instruction input by the administrator. Data is transmitted to the authentication terminal, and the registered face information of the correction target user registered in the storage unit 120 is corrected with the registered data.

次に、認証処理部110が有する各手段の機能について説明する。認証処理部110は、顔検出手段111と、特徴抽出手段112と、照合手段113と、認可手段114とを有する。認証処理部110のこれらの手段は、例えば、マイクロプロセッサユニット上で動作するプログラムの機能モジュールとして実装される。なお、これらの手段は、独立した集積回路、ファームウェア、マイクロプロセッサなどで構成してもよい。   Next, functions of each unit included in the authentication processing unit 110 will be described. The authentication processing unit 110 includes a face detection unit 111, a feature extraction unit 112, a collation unit 113, and an authorization unit 114. These means of the authentication processing unit 110 are mounted as a functional module of a program that operates on the microprocessor unit, for example. These means may be constituted by independent integrated circuits, firmware, a microprocessor, and the like.

顔検出手段111は、管理端末1の顔検出手段11と同様に、入力顔画像から照合対象者の顔が写っている顔領域を検出する。顔検出手段111は、例えば、入力顔画像から顔領域に含まれる画素のみを取り出した画像を、特徴抽出手段112に渡す。   Similar to the face detection unit 11 of the management terminal 1, the face detection unit 111 detects a face area in which the face of the person to be collated is shown from the input face image. For example, the face detection unit 111 passes an image obtained by extracting only pixels included in the face area from the input face image to the feature extraction unit 112.

特徴抽出手段112は、管理端末1の特徴抽出手段12と同様に、入力顔画像の顔領域から入力顔情報を抽出する。特徴抽出手段112は、得られた入力顔情報を照合手段113に渡す。また、特徴抽出手段112は、入力顔情報を記憶部120に記憶する。   The feature extraction unit 112 extracts input face information from the face area of the input face image, like the feature extraction unit 12 of the management terminal 1. The feature extraction unit 112 passes the obtained input face information to the collation unit 113. In addition, the feature extraction unit 112 stores the input face information in the storage unit 120.

照合手段113は、照合対象者の入力顔情報を記憶部120に記憶されている各登録顔情報と照合して、入力顔情報と類似する登録顔情報に対応する利用者を、照合対象者と同一人物である可能性がある候補者として特定する。そのために、照合手段113は、まず、入力顔情報と、各登録顔情報とを比較することにより、利用者ごとに、利用者の顔と照合対象者の顔の類似度合いを表す類似度を算出する。   The collating unit 113 collates the input face information of the person to be collated with each registered face information stored in the storage unit 120, and determines the user corresponding to the registered face information similar to the input face information as the person to be collated. Identify candidates that may be the same person. For this purpose, the collating unit 113 first calculates the similarity representing the degree of similarity between the user's face and the face of the person to be collated for each user by comparing the input face information and each registered face information. To do.

照合手段113は、例えば、入力顔情報と登録顔情報の間で、特徴抽出手段112が抽出した特徴点ごとに周囲の画像特徴を利用して個別の類似度を求め、その総和を全体の類似度として算出する。この場合、入力顔情報と登録顔情報の差が小さいほど、すなわち、照合対象者の顔と利用者の顔が類似しているほど、類似度の値は大きくなる。照合手段113は、他の公知の方法で、登録されている利用者の顔と照合対象者の顔の類似度合いを表す量を算出してもよい。   For example, the matching unit 113 obtains an individual similarity between the input face information and the registered face information by using surrounding image features for each feature point extracted by the feature extraction unit 112, and calculates the sum of the total similarities. Calculate as degrees. In this case, the smaller the difference between the input face information and the registered face information, that is, the greater the similarity between the face of the person to be collated and the face of the user, the greater the similarity value. The collation unit 113 may calculate an amount representing the degree of similarity between the registered user's face and the collation target person's face by another known method.

そして照合手段113は、算出した類似度の最大値を求め、例えばその最大値が閾値以上である場合に、その最大値をもつ登録顔情報が入力顔情報と類似すると判定する。照合手段113は、その類似する登録顔情報に対応する利用者を候補者として特定する。照合手段113は、候補者の識別情報を認可手段114に渡す。一方、照合手段113は、その最大値が閾値未満である場合は、候補者が存在しないことを認可手段114に通知する。   Then, the collating unit 113 obtains the maximum value of the calculated similarity, and determines that the registered face information having the maximum value is similar to the input face information when the maximum value is equal to or greater than a threshold value, for example. The collation means 113 identifies the user corresponding to the similar registered face information as a candidate. The verification unit 113 passes the candidate identification information to the authorization unit 114. On the other hand, when the maximum value is less than the threshold value, the verification unit 113 notifies the authorization unit 114 that there is no candidate.

認可手段114は、照合対象者を、候補者として特定された利用者であるとして認証する。このとき認可手段114は、入出力部130を介して、例えば認証成功を示す信号として電気錠を解錠する信号を出力し、撮像部200の付近に設置された表示器などに認証に成功したことを通知する。一方、照合手段113から候補者が存在しないことを通知された場合、認可手段114はその照合対象者を認証しない。このとき認可手段114は、入出力部130を介して、認証失敗を示す信号を出力する。   The authorization unit 114 authenticates the person to be verified as a user identified as a candidate. At this time, the authorization unit 114 outputs a signal for unlocking the electric lock, for example, as a signal indicating a successful authentication via the input / output unit 130, and succeeds in the authentication on a display or the like installed in the vicinity of the imaging unit 200. Notify that. On the other hand, when notified from the verification unit 113 that there is no candidate, the authorization unit 114 does not authenticate the verification target person. At this time, the authorization unit 114 outputs a signal indicating an authentication failure via the input / output unit 130.

また、顔認証システムは、1つの入力顔画像により照合対象者を認証するものに限らず、例えば撮影時刻が異なる複数の入力顔画像を用いて最終的に照合対象者を認証するものでもよい。例えば、顔認証システムは、監視領域内を歩行する人物が複数の時点で撮影された複数の入力顔画像からその人物の顔領域の画像を抽出し、公知のトラッキング技術を適用することにより同一人物の顔が写っていると判断される顔領域同士について、顔領域の画像と予め登録された複数の登録顔画像のそれぞれとの類似度を時系列の順で算出し、それらの類似度を用いて監視領域内を歩行する人物を認証する顔認証装置(いわゆるウォークスルー型の顔認証装置)であってもよい。   Further, the face authentication system is not limited to authenticating the person to be collated using one input face image, but may be one that finally authenticates the person to be collated using a plurality of input face images having different shooting times. For example, the face authentication system extracts images of a person's face area from a plurality of input face images taken at a plurality of points in time, and applies a known tracking technique to the same person For the face areas that are determined to include the face of the face, the similarity between the face area image and each of a plurality of registered face images registered in advance is calculated in chronological order, and the similarity is used. It may be a face authentication device (so-called walk-through face authentication device) that authenticates a person walking in the monitoring area.

その場合、顔認証システムは、例えば、ある利用者の顔情報と入力顔情報との類似度が利用者間で最大になった回数である1位ヒット数を、利用者ごとにカウントする。顔認証システムは、その照合対象者が写っている期間内における入力顔画像の枚数に対する1位ヒット数の割合である1位ヒット率を、利用者ごとに算出する。そして、ある利用者の1位ヒット率が閾値(例えば7割)以上になった場合に、顔認証システムは照合対象者をその利用者であると判定してもよい。あるいは、ある利用者の1位ヒット数が閾値となる回数(例えば7回)以上になった場合に、顔認証システムは照合対象者をその利用者であると判定してもよい。   In this case, the face authentication system counts, for each user, the number of first hits, which is the number of times that the similarity between the face information of a certain user and the input face information is maximized among the users. The face authentication system calculates, for each user, a first-order hit rate that is a ratio of the number of first-order hits to the number of input face images in a period in which the person to be verified is captured. Then, when the first-rank hit rate of a certain user becomes equal to or higher than a threshold (for example, 70%), the face authentication system may determine that the person to be verified is the user. Alternatively, when the number of first hits of a certain user exceeds the threshold value (for example, 7 times) or more, the face authentication system may determine that the person to be verified is the user.

1 管理端末
10 登録処理部
11 顔検出手段
12 特徴抽出手段
13 生成手段
14 表示制御手段
15 登録手段
16 再抽出手段
20 記憶部
30 入出力部
40 表示部
50 操作部
100 認証端末
110 認証処理部
111 顔検出手段
112 特徴抽出手段
113 照合手段
114 認可手段
120 記憶部
130 入出力部
200 撮像部
DESCRIPTION OF SYMBOLS 1 Management terminal 10 Registration processing part 11 Face detection means 12 Feature extraction means 13 Generation means 14 Display control means 15 Registration means 16 Re-extraction means 20 Storage part 30 Input / output part 40 Display part 50 Operation part 100 Authentication terminal 110 Authentication processing part 111 Face detection unit 112 Feature extraction unit 113 Collation unit 114 Authorization unit 120 Storage unit 130 Input / output unit 200 Imaging unit

Claims (6)

利用者の顔が写された顔画像から当該顔の各部位に対応する複数の特徴点を抽出する特徴抽出手段と、
前記顔画像から抽出された特徴点であって、前記顔の各部位のうち予め定められた代表部位に対応する代表特徴点の当該顔画像上における位置を示す教示情報を、当該顔画像に重畳させて表示部に表示する教示処理手段と、
を有することを特徴とする顔特徴抽出装置。
Feature extraction means for extracting a plurality of feature points corresponding to each part of the face from a face image in which the face of the user is copied;
Feature information extracted from the face image and superimposing on the face image teaching information indicating a position on the face image of a representative feature point corresponding to a predetermined representative part of each part of the face Teaching processing means for displaying on the display unit,
A facial feature extraction apparatus characterized by comprising:
前記教示処理手段は、前記代表部位に対応する複数の特徴点のうち一部の特徴点を前記代表特徴点として、前記教示情報を表示する、請求項1に記載の顔特徴抽出装置。   The facial feature extraction apparatus according to claim 1, wherein the teaching processing unit displays the teaching information by using a part of feature points corresponding to the representative part as the representative feature points. 操作部を介して指示された、前記代表部位の前記顔画像上における修正位置を取得し、当該修正位置に基づいて当該顔画像から少なくとも当該代表部位に対応する特徴点を再抽出する再抽出手段をさらに有する、請求項1または2に記載の顔特徴抽出装置。   Re-extracting means for acquiring a correction position on the face image of the representative part instructed via the operation unit, and re-extracting at least a feature point corresponding to the representative part from the face image based on the correction position The facial feature extraction device according to claim 1, further comprising: 前記教示処理手段は、前記教示情報および前記顔画像とともに、前記操作部を介して前記代表部位を示す項目を選択可能なように前記表示部に表示し、
前記再抽出手段は、前記操作部を介して選択された前記項目に対応する代表部位について指示された修正位置に基づき、前記顔画像から特徴点を再抽出する、請求項3に記載の顔特徴抽出装置。
The teaching processing means displays the teaching information and the face image on the display unit so that an item indicating the representative part can be selected via the operation unit,
The facial feature according to claim 3, wherein the re-extracting unit re-extracts a feature point from the facial image based on a correction position instructed for a representative part corresponding to the item selected via the operation unit. Extraction device.
操作部を介して指示された、前記代表特徴点の前記顔画像上における修正位置を取得し、当該修正位置を当該顔画像上における当該代表特徴点の位置として決定する再抽出手段をさらに有する、請求項1または2に記載の顔特徴抽出装置。   Re-extracting means for obtaining a correction position on the face image of the representative feature point, which is instructed via the operation unit, and determining the correction position as the position of the representative feature point on the face image; The facial feature extraction apparatus according to claim 1 or 2. 記憶手段と、
利用者の顔が写された顔画像から当該顔の各部位に対応する複数の特徴点を抽出する特徴抽出手段と、
前記顔画像から抽出された特徴点であって、前記顔の各部位のうち予め定められた代表部位に対応する代表特徴点の当該顔画像上における位置を示す教示情報を、当該顔画像に重畳させて表示部に表示する教示処理手段と、
操作部を介して入力された指示に応じて、前記複数の特徴点の情報を前記利用者の登録顔情報として前記記憶手段に記憶させる登録手段と、
撮影画像から抽出された照合対象者の顔情報を前記登録顔情報と照合して、当該照合対象者が前記利用者であるか判定する認証手段と、
を有することを特徴とする顔認証システム。
Storage means;
Feature extraction means for extracting a plurality of feature points corresponding to each part of the face from a face image in which the face of the user is copied;
Feature information extracted from the face image and superimposing on the face image teaching information indicating a position on the face image of a representative feature point corresponding to a predetermined representative part of each part of the face Teaching processing means for displaying on the display unit,
In accordance with an instruction input via the operation unit, a registration unit that stores information on the plurality of feature points in the storage unit as registered face information of the user;
Authentication means for collating face information of a person to be collated extracted from a captured image with the registered face information and determining whether the person to be collated is the user;
A face authentication system comprising:
JP2012269362A 2012-12-10 2012-12-10 Facial feature extraction apparatus and face authentication system Active JP6265592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012269362A JP6265592B2 (en) 2012-12-10 2012-12-10 Facial feature extraction apparatus and face authentication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012269362A JP6265592B2 (en) 2012-12-10 2012-12-10 Facial feature extraction apparatus and face authentication system

Publications (2)

Publication Number Publication Date
JP2014115821A true JP2014115821A (en) 2014-06-26
JP6265592B2 JP6265592B2 (en) 2018-01-24

Family

ID=51171758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012269362A Active JP6265592B2 (en) 2012-12-10 2012-12-10 Facial feature extraction apparatus and face authentication system

Country Status (1)

Country Link
JP (1) JP6265592B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167164A (en) * 2015-03-09 2016-09-15 キヤノン株式会社 Image recognition device, image recognition method and image recognition program
WO2017179134A1 (en) * 2016-04-12 2017-10-19 株式会社オプティム Makeup simulation system, makeup simulation method, and makeup simulation program
JP2018156544A (en) * 2017-03-21 2018-10-04 Kddi株式会社 Information processing device and program
JP2018536513A (en) * 2015-10-15 2018-12-13 ドセントアールエックス エルティーディーDosentrx Ltd Formulation dispenser based on image recognition
JP2020038545A (en) * 2018-09-05 2020-03-12 パナソニックIpマネジメント株式会社 Face authentication gate and face authentication system
JP2020075080A (en) * 2018-11-05 2020-05-21 パナソニックIpマネジメント株式会社 Skin analysis device, skin analysis method, and computer program
JP2023035988A (en) * 2021-08-30 2023-03-13 アップル インコーポレイテッド Electronic devices with body composition analysis circuitry
WO2023188160A1 (en) * 2022-03-30 2023-10-05 日本電気株式会社 Input assistance device, input assistance method, and non-transitory computer-readable medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284394A (en) * 2004-03-26 2005-10-13 Matsushita Electric Ind Co Ltd Feature detector
JP2006040228A (en) * 2004-07-30 2006-02-09 Oki Electric Ind Co Ltd Model creation device and data distribution system
JP2007251273A (en) * 2006-03-13 2007-09-27 Oki Electric Ind Co Ltd Image processing device, image processing method, and image transmission system
JP2009211178A (en) * 2008-02-29 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284394A (en) * 2004-03-26 2005-10-13 Matsushita Electric Ind Co Ltd Feature detector
JP2006040228A (en) * 2004-07-30 2006-02-09 Oki Electric Ind Co Ltd Model creation device and data distribution system
JP2007251273A (en) * 2006-03-13 2007-09-27 Oki Electric Ind Co Ltd Image processing device, image processing method, and image transmission system
JP2009211178A (en) * 2008-02-29 2009-09-17 Canon Inc Image processing apparatus, image processing method, program and storage medium

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167164A (en) * 2015-03-09 2016-09-15 キヤノン株式会社 Image recognition device, image recognition method and image recognition program
JP2018536513A (en) * 2015-10-15 2018-12-13 ドセントアールエックス エルティーディーDosentrx Ltd Formulation dispenser based on image recognition
WO2017179134A1 (en) * 2016-04-12 2017-10-19 株式会社オプティム Makeup simulation system, makeup simulation method, and makeup simulation program
JPWO2017179134A1 (en) * 2016-04-12 2018-11-01 株式会社オプティム Makeup simulation system, makeup simulation method, and makeup simulation program
JP2018156544A (en) * 2017-03-21 2018-10-04 Kddi株式会社 Information processing device and program
JP2020038545A (en) * 2018-09-05 2020-03-12 パナソニックIpマネジメント株式会社 Face authentication gate and face authentication system
JP2020075080A (en) * 2018-11-05 2020-05-21 パナソニックIpマネジメント株式会社 Skin analysis device, skin analysis method, and computer program
JP7361264B2 (en) 2018-11-05 2023-10-16 パナソニックIpマネジメント株式会社 Skin analysis device, skin analysis method, and computer program
JP2023035988A (en) * 2021-08-30 2023-03-13 アップル インコーポレイテッド Electronic devices with body composition analysis circuitry
WO2023188160A1 (en) * 2022-03-30 2023-10-05 日本電気株式会社 Input assistance device, input assistance method, and non-transitory computer-readable medium

Also Published As

Publication number Publication date
JP6265592B2 (en) 2018-01-24

Similar Documents

Publication Publication Date Title
JP6265592B2 (en) Facial feature extraction apparatus and face authentication system
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP6610906B2 (en) Activity detection method and device, and identity authentication method and device
US9361507B1 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
US20160078271A1 (en) Touchless fingerprinting acquisition and processing application for mobile devices
US20150186708A1 (en) Biometric identification system
US11006864B2 (en) Face detection device, face detection system, and face detection method
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP2009245338A (en) Face image collating apparatus
JP6969878B2 (en) Discriminator learning device and discriminator learning method
JP5480532B2 (en) Image processing apparatus, image processing method, and program for causing computer to execute the method
TWI557601B (en) A puppil positioning system, method, computer program product and computer readable recording medium
JP2012185769A (en) Authentication device, authentication method, authentication program, and storage medium
JP5975828B2 (en) Facial feature extraction apparatus and face authentication system
JP6150491B2 (en) Face recognition device
JP6873639B2 (en) Image processing equipment, image processing methods and programs
US20160188856A1 (en) Authentication device, authentication method, and non-transitory computer readable medium
KR102483647B1 (en) Method and device to verify liveness
KR20160068311A (en) Method for modifying gradient of facial shape, and system for the same
JPWO2008081527A1 (en) Authentication device, portable terminal device, and authentication method
TWI729679B (en) Authentication system, authentication device, and authentication method
JP5549447B2 (en) ID card creation device and creation method
JP2005141678A (en) Facial image collating system and ic card
JP2006133991A (en) Authentication device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151013

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171121

R150 Certificate of patent or registration of utility model

Ref document number: 6265592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250