JP7133949B2 - Face authentication method and device - Google Patents

Face authentication method and device Download PDF

Info

Publication number
JP7133949B2
JP7133949B2 JP2018042975A JP2018042975A JP7133949B2 JP 7133949 B2 JP7133949 B2 JP 7133949B2 JP 2018042975 A JP2018042975 A JP 2018042975A JP 2018042975 A JP2018042975 A JP 2018042975A JP 7133949 B2 JP7133949 B2 JP 7133949B2
Authority
JP
Japan
Prior art keywords
authentication
face
feature information
recognizer
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018042975A
Other languages
Japanese (ja)
Other versions
JP2018165983A (en
Inventor
承 周 韓
徳 相 金
民 守 高
辰 雨 孫
昌 用 孫
昌 圭 崔
在 濬 韓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2018165983A publication Critical patent/JP2018165983A/en
Application granted granted Critical
Publication of JP7133949B2 publication Critical patent/JP7133949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4014Identity check for transactions
    • G06Q20/40145Biometric identity checks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments

Description

本発明は、顔認証技術に関する。 The present invention relates to face recognition technology.

生体認証技術のうちの1つである顔認証技術は、静画や動画に示された顔に基づいてユーザが正当なユーザであるか否かを決定する認証技術である。顔認証技術は、認証対象者を非接触式で確認できるという長所がある。 Face authentication technology, which is one of biometric authentication technologies, is an authentication technology that determines whether a user is a valid user based on the face shown in a still image or moving image. Face recognition technology has the advantage of being able to confirm the person to be authenticated in a non-contact manner.

本発明の目的は、顔認証技術を提供することにある。 An object of the present invention is to provide face recognition technology.

一実施形態に係る顔認証方法は、プロセッサによって実行され、複数の認証モードのうち顔認証のために実行される現在認証モードを選択するステップと、複数の認識器のうち前記選択された現在認証モードに基づいて顔認証に利用する1つ以上の認識器を決定するステップと、前記決定された1つ以上の認識器のうち、少なくとも1つを用いて顔の情報から特徴情報を抽出するステップと、前記抽出された特徴情報に基づいて認証成功の有無を表示するステップとを含む。 A face authentication method according to one embodiment comprises steps of selecting a current authentication mode to be performed for face authentication from among a plurality of authentication modes, performed by a processor; determining one or more recognizers to be used for face authentication based on the mode; and extracting feature information from face information using at least one of the determined one or more recognizers. and displaying the presence or absence of authentication success based on the extracted feature information.

前記顔認証方法は、1つ以上の認識器の決定に基づいて1つの認識器を取得するステップをさらに含み、前記特徴情報を抽出するステップは、前記抽出された特徴情報を生成するために前記取得された認識器に映像の決定された顔領域からの映像情報を適用するステップを含み得る。 The face authentication method further includes obtaining a recognizer based on determinations of one or more recognizers, and extracting the feature information includes the Applying image information from the determined facial region of the image to the obtained recognizer.

前記顔認証方法は、前記取得された認識器への適用に適するよう予め決定された形態に前記映像情報を生成するために、前記映像の前記決定された顔領域の第1正規化を行うステップをさらに含み、前記取得された認識器は、学習されたニューラルネットワーク又は機械学習モデルであり得る。 The face recognition method includes the step of performing a first normalization of the determined face region of the image to produce the image information in a predetermined form suitable for application to the acquired recognizer. and the obtained recognizer may be a trained neural network or a machine learning model.

前記顔認証方法は、前記現在認証モードに基づいて異なる取得された認識器への適用に適するよう予め決定された形態に各映像情報を生成するために、映像の決定された顔領域に対してそれぞれ正規化を行うステップをさらに含み、前記特徴情報を抽出するステップは、前記異なる取得された認識器を用いて各映像情報からそれぞれの特徴情報を抽出するステップを含み、前記認証成功の有無を表示するステップは、前記抽出されたそれぞれの特徴情報のうち少なくとも1つに基づいて前記認証が成功したか否かを表示するステップを含み得る。 The face recognition method performs the following operations on the determined face region of the image to generate each image information in a predetermined form suitable for application to different acquired recognizers based on the current authentication mode. further comprising a step of normalizing each, wherein the step of extracting the feature information comprises extracting each feature information from each piece of video information using the different acquired recognizers, and determining whether the authentication is successful; The displaying may include displaying whether the authentication was successful based on at least one of the respective extracted feature information.

前記各正規化を行うステップは、前記映像の決定された顔領域で閉塞領域又は閉塞が予想される領域に関する映像情報を合成するステップを含み得る。 Each of the steps of normalizing may include synthesizing image information regarding occluded or expected occluded areas in the determined facial region of the image.

前記顔認証方法は、前記顔認証を行うステップをさらに含み、前記顔認証を行うステップは、前記抽出されたそれぞれの特徴情報のうち抽出された第1特徴情報に基づいて第1認証を行うステップと、前記抽出されたそれぞれの特徴情報のうち抽出された第2特徴情報に基づいて第2認証を選択的に行うステップと、前記第2認証が選択的に実行されたか否かに依存して、前記抽出された第1特徴情報及び前記抽出された第2特徴情報に基づいて第3認証を選択的に行うステップと、前記第3認証の結果に基づいて前記顔認証が成功したか否かを決定するステップとを含み得る。 The face authentication method further includes the step of performing face authentication, wherein the step of performing face authentication is the step of performing first authentication based on first feature information extracted from each of the extracted feature information. and selectively performing a second authentication based on second feature information extracted from each of the extracted feature information; and depending on whether or not the second authentication is selectively performed. selectively performing third authentication based on the extracted first feature information and the extracted second feature information; and determining whether the face authentication is successful based on the result of the third authentication. and determining.

前記特徴情報を抽出するステップは、前記現在認証モードに基づいて異なる決定された認識器を用いて映像の決定された顔領域の各正規化からそれぞれの特徴情報を抽出するステップを含み、前記それぞれの特徴情報を抽出するステップは、現在認証モードに基づいて前記顔認証の使用性及びセキュリティー性のうち1つに加重値を付与して選択的かつ部分的に実行され得る。 The step of extracting feature information includes extracting respective feature information from each normalization of a determined face region of a video using a different determined recognizer based on the current authentication mode; The step of extracting feature information may be selectively and partially performed by giving a weight to one of usability and security of the face authentication based on the current authentication mode.

前記1つ以上の認識器を決定するステップは、前記顔認証のための複数の異なる認識器を決定するステップと、前記現在認証モードに依存して、前記異なる認識器の選択組み合わせ及び/又は配置に基づいて前記顔認証を行うステップを含み得る。 determining the one or more recognizers comprises determining a plurality of different recognizers for the face recognition; performing the face authentication based on

前記顔認証を行うステップは、前記現在認証モードに基づいて前記異なる認識器に対応するそれぞれの認証手続を選択的に行うステップを含み得る。 The step of performing face authentication may include selectively performing respective authentication procedures corresponding to the different recognizers based on the current authentication mode.

前記顔認証方法は、前記それぞれの認証手続は、互いに異なるように抽出された特徴情報及び対応する登録情報の間で対応する閾値でそれぞれの類似度を比較するステップを含み得る。 In the face authentication method, each of the authentication procedures may include a step of comparing similarities between the extracted feature information and the corresponding registered information with corresponding thresholds.

前記複数の異なる認識器は、第1ニューラルネットワークモデル認識器及び第2ニューラルネットワークモデル認識器を含み、前記第1ニューラルネットワークモデル認識器及び前記第2ニューラルネットワークモデル認識器は、学習データを用いてそれぞれ学習され、前記第1ニューラルネットワークモデル認識器は低照度環境の顔認証のために低照度の顔特徴抽出を行い、前記第2ニューラルネットワークモデル認識器は1つ以上の閉塞領域を含む顔領域に関する学習データで学習され得る。 The plurality of different recognizers includes a first neural network model recognizer and a second neural network model recognizer, wherein the first neural network model recognizer and the second neural network model recognizer use training data to: respectively, wherein the first neural network model recognizer performs low-light facial feature extraction for face recognition in a low-light environment, and the second neural network model recognizer trains a face region including one or more occluded regions; can be learned with training data for

前記特徴情報を抽出するステップは、第1認識器を用いて映像の決定された顔領域の映像情報から第1特徴情報を取得するステップを含み、前記顔認証方法は顔認証を行うステップをさらに含み、前記顔認証を行うステップは、前記第1特徴情報に基づいて第1認証結果を決定するステップと、前記第1認証結果と前記現在認証モードに基づいて、第2認識器を用いて第2特徴情報を抽出するか否かを決定するステップとを含み、前記複数の認証モードは、第1認証モード及び第2認証モードのうち少なくとも1つを含み得る。

The step of extracting the feature information includes obtaining the first feature information from image information of the determined face region of the image using a first recognizer, and the face recognition method further comprises the step of performing face recognition. and determining a first authentication result based on the first feature information; and performing a second recognition using a second recognizer based on the first authentication result and the current authentication mode. and determining whether to extract bi-characteristic information, wherein the plurality of authentication modes may include at least one of a first authentication mode and a second authentication mode.

前記特徴情報を抽出するステップは、前記第2特徴情報を抽出するか否かの決定に応答して、前記第2認識器を用いて他の映像の決定された顔領域又は前記映像の前記決定された顔領域からの他の映像情報又は前記映像情報から前記第2特徴情報を抽出するステップを含み、前記第2特徴情報を抽出するか否かの決定は、前記第2特徴情報を抽出するという決定であり、前記顔認証を行うステップは、前記第2特徴情報に基づいて第2認証結果を決定するステップと、前記第2認証結果に基づいて前記認証成功の有無を決定するステップとを含み得る。 The step of extracting the feature information includes determining a determined facial region of another image or the determination of the image using the second recognizer in response to a determination of whether to extract the second feature information. extracting the second feature information from the video information or other video information from the face region, wherein determining whether to extract the second feature information includes extracting the second feature information. The step of performing face authentication includes the step of determining a second authentication result based on the second feature information, and the step of determining whether or not the authentication is successful based on the second authentication result. can contain.

前記顔認証を行うステップは、第1認証モードとして選択された前記現在認証モードに応答して、前記第2認証結果が失敗である場合に応答して、最終認証結果を失敗として決定するステップと、前記第2認証結果が成功である場合に応答して、前記最終認証結果を成功として決定するステップとを含み得る。 The step of performing face authentication includes determining a final authentication result as failure in response to the current authentication mode selected as a first authentication mode, in response to a case where the second authentication result is a failure. and determining the final authentication result as successful in response to the second authentication result being successful.

前記顔認証を行うステップは、前記第2認証モードとして選択された前記現在認証モードに応答して、前記第1認証結果が成功である場合に応答して、前記第2特徴情報が抽出されるものと決定するステップと、前記第2認証結果が成功である場合に応答して、前記最終認証結果を成功として決定するステップとを含み得る。 In the step of performing face authentication, the second feature information is extracted in response to the current authentication mode selected as the second authentication mode and in response to the first authentication result being successful. and determining the final authentication result as successful in response to the second authentication result being successful.

前記顔認証を行うステップは、前記現在認証モードが第1認証モードとして選択された場合、前記第1認証結果が認証失敗である場合、前記第2特徴情報を抽出するものと決定するステップと、前記第1認証結果が認証成功である場合、最終認証結果を認証成功として決定して顔認証手続を終了するステップとを含み得る。 In the step of performing face authentication, if the current authentication mode is selected as a first authentication mode and if the first authentication result is authentication failure, the step of determining to extract the second feature information; determining a final authentication result as successful authentication and ending the face authentication procedure if the first authentication result is successful authentication.

前記第2認証モードとして選択された前記現在認証モードに応答して、前記第1認証結果が認証失敗である場合、最終認証結果を認証失敗として決定して顔認証手続を終了するステップと、前記第1認証結果が認証成功である場合、前記第2特徴情報を抽出するものと決定するステップとを含み得る。 determining a final authentication result as authentication failure in response to the current authentication mode selected as the second authentication mode, if the first authentication result is authentication failure, and ending the face authentication procedure; determining to extract the second characteristic information if the first authentication result is successful authentication.

前記第1認証結果を決定するステップは、前記第1特徴情報と前記第1認識器を用いて予め抽出された第1登録特徴情報の比較に基づいて前記第1認証結果を決定するステップをさらに含み得る。 The step of determining the first authentication result further includes determining the first authentication result based on a comparison of the first feature information and first registered feature information extracted in advance using the first recognizer. can contain.

前記顔認証方法は、前記第1認証結果が認証成功である場合、前記第1特徴情報を用いて前記第1登録特徴情報をアップデートするステップを選択的にさらに含み得る。 The face authentication method may optionally further include updating the first registered feature information using the first feature information when the first authentication result is successful authentication.

前記第2認証結果を決定するステップは、前記第2特徴情報と前記第2認識器を用いて抽出された第2登録特徴情報を比較して前記第2認証結果を決定し得る。 The step of determining the second authentication result may determine the second authentication result by comparing the second feature information and the second registered feature information extracted using the second recognizer.

前記顔認証方法は、前記第2認証結果が認証成功である場合、前記第2特徴情報を用いて前記第2登録特徴情報をアップデートするステップを選択的にさらに含み得る。 The face authentication method may optionally further include updating the second registered feature information using the second feature information when the second authentication result is successful authentication.

前記第1認証結果を決定するステップは、前記第1特徴情報と前記第1認識器を用いて抽出された第1登録特徴情報間の類似度を算出するステップと、前記類似度と予め設定された第1閾値との間の比較結果に基づいて前記第1認証結果を決定するステップとを含み得る。 The step of determining the first authentication result includes calculating a degree of similarity between the first feature information and the first registered feature information extracted using the first recognizer; determining the first authentication result based on a comparison result between the first threshold value obtained.

前記特徴情報を抽出するステップは、入力映像から顔領域を検出するステップと、前記検出された顔領域から顔のランドマークを検出するステップと、前記検出されたランドマークに基づいて前記顔領域を正規化して前記顔の前記情報を生成するステップとを含み得る。 The step of extracting the feature information comprises: detecting a face area from an input video; detecting landmarks of the face from the detected face area; and detecting the face area based on the detected landmarks. and normalizing to generate said information of said face.

コンピュータで読み出し可能な記録媒体は、前記方法をコンピュータで実行するためのプログラムを記録し得る。 A computer-readable recording medium can record a program for executing the method on a computer.

一実施形態に係る顔認証装置は、少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、複数の認証モードのうち顔認証のために実行される現在認証モードを選択し、前記選択された現在認証モードに基づいて複数の認識器のうち1つ以上の認識器を決定し、前記決定された1つ以上の認識器を用いて顔の情報から特徴情報を抽出し、前記抽出された特徴情報に基づいて認証成功の有無を表示するように構成される。 A face authentication device according to one embodiment includes at least one processor, wherein the at least one processor selects a current authentication mode to be performed for face authentication from among a plurality of authentication modes, and selects the selected current authentication mode. determining one or more recognizers among a plurality of recognizers based on an authentication mode; extracting feature information from face information using the determined one or more recognizers; and extracting the extracted feature information It is configured to display the presence or absence of authentication success based on.

前記1つ以上のプロセッサは、1つ以上の認識器の決定に基づいて1つの認識器を取得し、前記1つ以上のプロセッサは、前記抽出された特徴情報を生成するために前記取得された認識器に映像の決定された顔領域からの映像情報を適用し得る。 The one or more processors obtain a recognizer based on determination of the one or more recognizers, and the one or more processors obtain the obtained feature information to generate the extracted feature information. A recognizer may be applied with image information from the determined facial region of the image.

前記1つ以上のプロセッサは、前記取得された認識器への適用に適するよう所定の形態に前記映像情報を生成するため、前記映像の前記決定された顔領域の第1正規化を行い、前記取得された認識器は、学習されたニューラルネットワーク又は機械学習モデルであり得る。 The one or more processors perform a first normalization of the determined facial region of the video to produce the video information in a predetermined form suitable for application to the obtained recognizer; The obtained recognizers can be trained neural networks or machine learning models.

前記1つ以上のプロセッサは、前記現在認証モードに基づいて異なる取得された認識器への適用に適するよう予め決定された形態に各映像情報を生成するために、映像の決定された顔領域に対してそれぞれ正規化を行い、前記異なる取得された認識器を用いて各映像情報からそれぞれの特徴情報を抽出し、前記抽出されたそれぞれの特徴情報のうち少なくとも1つに基づいて前記認証が成功したか否かを表示し得る。 The one or more processors are configured to transform the determined face region of the image to generate each image information in a form predetermined to be suitable for application to different acquired recognizers based on the current authentication mode. and extracting respective feature information from each image information using the different acquired recognizers, and the authentication is successful based on at least one of the extracted respective feature information. It can indicate whether or not

前記1つ以上のプロセッサは、前記各正規化のうち少なくとも1つのために前記映像の決定された顔領域で閉塞領域又は閉塞が予想される領域に関する映像情報を合成し得る。 The one or more processors may synthesize image information regarding occlusion areas or expected occlusion areas in the determined facial regions of the image for at least one of the respective normalizations.

前記1つ以上のプロセッサは、前記抽出されたそれぞれの特徴情報のうち抽出された第1特徴情報に基づいて第1認証を行い、前記抽出されたそれぞれの特徴情報のうち抽出された第2特徴情報に基づいて第2認証を選択的に行い、前記第2認証が選択的に実行されたか否かに依存して、前記抽出された第1特徴情報及び前記抽出された第2特徴情報に基づいて第3認証を選択的に行い、前記第3認証の結果に基づいて、前記顔認証が成功したか否かを決定し得る。 The one or more processors perform first authentication based on first feature information extracted from each of the extracted feature information, and second features extracted from each of the extracted feature information. selectively performing a second authentication based on information, and depending on whether said second authentication was selectively performed, based on said extracted first characteristic information and said extracted second characteristic information; selectively perform a third authentication, and determine whether the face authentication is successful based on the result of the third authentication.

前記1つ以上のプロセッサは、前記現在認証モードに基づいて異なる決定された認識器を用いて映像の決定された顔領域の各正規化からそれぞれの特徴情報を抽出し、前記1つ以上のプロセッサは、現在認証モードに基づいて前記顔認証の使用性及びセキュリティー性のうち1つに加重値を付与して選択的かつ部分的に行い得る。 The one or more processors extract respective feature information from each normalization of the determined face region of the video using different determined recognizers based on the current authentication mode; may be selectively and partially performed by giving a weight to one of usability and security of the face authentication based on the current authentication mode.

前記1つ以上のプロセッサは、前記現在認証モードに基づいて前記顔認証のための複数の異なる認識器を決定し、前記現在認証モードに依存して、前記異なる認識器の選択組み合わせ及び/又は配置に基づいて前記認証を行うように構成され得る。 The one or more processors determine a plurality of different recognizers for the face recognition based on the current authentication mode, and select combinations and/or arrangements of the different recognizers depending on the current authentication mode. may be configured to perform said authentication based on:

前記1つ以上のプロセッサは、前記現在認証モードに基づいて前記異なる認識器に対応してそれぞれの認証手続を選択的に行うように構成され得る。 The one or more processors may be configured to selectively perform respective authentication procedures corresponding to the different recognizers based on the current authentication mode.

前記顔認証装置は、前記1つ以上のプロセッサによって、前記それぞれの認証手続は互いに異なるように抽出された特徴情報及び対応する登録情報の間で対応する閾値からそれぞれの類似度を比較するステップを含み得る。 The face authentication device compares the similarities between the extracted feature information and the corresponding registered information by the one or more processors so that the authentication procedures are different from each other from corresponding thresholds. can contain.

前記1つ以上のプロセッサは、前記特徴情報の抽出を行うために、第1認識器を用いて映像の決定された顔領域から導き出された映像情報から第1特徴情報を抽出し、前記認証を行うために、前記第1特徴情報に基づいて第1認証結果を決定し、前記第1認証結果と前記現在認証モードに基づいて、第2認識器を用いて第2特徴情報を抽出するか否かを決定するように構成され、前記複数の認証モードは、第1認証モード及び異なる第2認証モードのうち少なくとも1つを含み得る。 The one or more processors extract first feature information from video information derived from a determined facial region of a video using a first recognizer to perform the feature information extraction and perform the authentication. determining a first authentication result based on the first feature information, and whether or not to extract second feature information using a second recognizer based on the first authentication result and the current authentication mode. and the plurality of authentication modes may include at least one of a first authentication mode and a different second authentication mode.

前記少なくとも1つのプロセッサは、前記第2特徴情報を抽出するか否かの決定に応答して、前記第2認識器を用いて他の映像の決定された顔領域又は前記映像の前記決定された顔領域からの他の映像情報又は前記映像情報から前記第2特徴情報を抽出し、前記第2特徴情報を抽出するか否かの決定は前記第2特徴情報を抽出するという決定であり、前記第2特徴情報に基づいて第2認証結果を決定して前記認証を行い、前記第2認証結果に基づいて前記認証成功の有無を決定するように構成され得る。 The at least one processor, in response to determining whether to extract the second feature information, uses the second recognizer to determine the determined facial region of another image or the determined facial region of the image. extracting the second feature information from other video information from the face region or from the video information, and determining whether or not to extract the second feature information is a decision to extract the second feature information; The authentication may be performed by determining a second authentication result based on the second characteristic information, and whether or not the authentication is successful may be determined based on the second authentication result.

前記少なくとも1つのプロセッサは、前記現在認証モードが前記第1認証モードとして選択された場合、前記第2認証結果が認証失敗である場合に応答して、最終認証結果を認証失敗として決定し、前記第2認証結果が認証成功である場合に応答して、最終認証結果を認証成功として決定するように構成され得る。 The at least one processor determines a final authentication result as authentication failure in response to the second authentication result being authentication failure when the current authentication mode is selected as the first authentication mode, and It may be configured to determine the final authentication result as successful authentication in response to the second authentication result being successful authentication.

前記少なくとも1つのプロセッサは、前記現在認証モードが前記第2認証モードとして選択された場合、前記第1認証結果が認証失敗である場合に応答して、第2特徴情報を抽出するものと決定し、前記第2認証結果が認証成功である場合に応答して、最終認証結果を認証成功として決定するように構成され得る。 The at least one processor determines to extract second characteristic information in response to the first authentication result being authentication failure when the current authentication mode is selected as the second authentication mode. , determining a final authentication result as successful authentication in response to the second authentication result being successful authentication.

前記1つ以上のプロセッサは、前記現在認証モードが第1認証モードとして選択されることに応答して、前記第1認証結果が認証失敗である場合に応答して、前記第2特徴情報を抽出するものと決定し、前記第1認証結果が認証成功である場合、最終認証結果を認証成功として決定して顔認証手続を終了するように構成され得る。 The one or more processors extract the second characteristic information in response to the current authentication mode being selected as a first authentication mode and in response to the first authentication result being authentication failure. and the first authentication result is authentication success, the final authentication result is determined as authentication success, and the face authentication procedure is terminated.

前記1つ以上のプロセッサは、前記現在認証モードが第2認証モードとして選択された場合に応答して、前記第1認証結果が認証失敗である場合、最終認証結果を認証失敗として決定して顔認証手続を終了し、前記第1認証結果が認証成功である場合、前記第2特徴情報を抽出するものと決定するように構成され得る。 The one or more processors determine a final authentication result as authentication failure when the first authentication result is authentication failure in response to the current authentication mode being selected as a second authentication mode. It may be configured to determine to extract the second feature information when an authentication procedure is terminated and the first authentication result is successful authentication.

前記1つ以上のプロセッサは、前記第1特徴情報と前記第1認識器を用いて予め抽出された第1登録特徴情報を比較して前記第1認証結果を決定するように構成され得る。 The one or more processors may be configured to compare the first feature information and first registered feature information previously extracted using the first recognizer to determine the first authentication result.

前記1つ以上のプロセッサは、前記第1認証結果が認証成功である場合、前記第1特徴情報を用いて前記第1登録特徴情報をアップデートするよう選択的に構成され得る。 The one or more processors may be selectively configured to update the first registered characteristic information with the first characteristic information if the first authentication result is a successful authentication.

前記1つ以上のプロセッサは、前記第2特徴情報と前記第2認識器を用いて予め抽出された第2登録特徴情報を比較して前記第2認証結果を決定するように構成され得る。 The one or more processors may be configured to compare the second feature information and second enrolled feature information previously extracted using the second recognizer to determine the second authentication result.

前記1つ以上のプロセッサは、前記第2認証結果が認証成功である場合、前記第2特徴情報を用いて前記第2登録特徴情報をアップデートするよう選択的に構成され得る。 The one or more processors may be selectively configured to update the second registered characteristic information using the second characteristic information if the second authentication result is a successful authentication.

前記1つ以上のプロセッサは、前記第1特徴情報と前記第1認識器を用いて予め抽出された第1登録特徴情報間の類似度を算出し、前記類似度と予め設定された第1閾値との間の比較結果に基づいて前記第1認証結果を決定するように構成され得る。 The one or more processors calculate a similarity between the first feature information and the first registered feature information extracted in advance using the first recognizer, and calculate the similarity and a preset first threshold value. may be configured to determine the first authentication result based on a comparison result between and.

前記1つ以上のプロセッサは、入力映像から顔領域を検出し、前記検出された顔領域から顔のランドマークを検出し、前記検出されたランドマークに基づいて前記顔領域を正規化するように構成され得る。 The one or more processors detect facial regions from an input video, detect facial landmarks from the detected facial regions, and normalize the facial regions based on the detected landmarks. can be configured.

一実施形態に係るコンピューティング装置は、ユーザの顔領域が示された入力映像から第1特徴情報を抽出するニューラルネットワークモデルを含む第1認識器と、前記入力映像から前記第1特徴情報と異なる第2特徴情報を抽出する異なるニューラルネットワークモデルを含む第2認識器と、前記抽出された第1特徴情報と登録された第1登録特徴情報とを比較した第1認証結果、及び前記抽出された第2特徴情報と登録された第2登録特徴情報とを比較した第2認証結果のうち少なくとも1つが成功であれば、顔認証を成功として決定する1つ以上のプロセッサとを含む。 A computing device according to one embodiment includes a first recognizer including a neural network model for extracting first feature information from an input video in which a user's face region is indicated, and a first recognizer different from the first feature information from the input video. a second recognizer including a different neural network model for extracting second feature information; a first authentication result comparing the extracted first feature information with the registered first registered feature information; and one or more processors for determining successful face authentication if at least one of second authentication results comparing the second feature information and the registered second registered feature information is successful.

前記第1認識器のニューラルネットワークモデル及び前記第2認識器の異なるニューラルネットワークモデルは、互いに異なる学習データに基づいてそれぞれ学習されたものであり得る。 The neural network model of the first recognizer and the different neural network model of the second recognizer may be learned based on different learning data.

前記第2認識器の異なるニューラルネットワークモデルは、学習の顔領域に閉塞領域が存在したり、存在するものと予想される学習データに基づいて学習されたものであり得る。 The different neural network model of the second recognizer may be learned based on training data that is expected to include or be expected to include an occlusion region in the learning face region.

前記顔領域から閉塞領域が存在するものと予想される領域を平均映像、平均値映像又は単一カラー映像の対応する領域の映像情報に代替する映像が、前記第2特徴情報の抽出のために前記第2認識器の異なるニューラルネットワークモデルに入力され得る。 An image that replaces an area in which an occluded area is expected to exist from the face area with image information of a corresponding area of an average image, an average value image, or a single color image is used for extracting the second feature information. Different neural network models of the second recognizer may be input.

前記閉塞領域が存在するものと予想される領域は、前記顔領域からメガネ、サングラス、帽子、又はマスクのうちの1つ以上の組み合わせにより閉塞が示される領域であり得る。 The area where the occlusion area is expected to exist may be an area where occlusion is indicated by a combination of one or more of glasses, sunglasses, a hat, or a mask from the face area.

前記1つ以上のプロセッサは、前記顔認証が成功であれば、前記コンピューティング装置のロックモードを解除し、前記第1認証結果及び前記第2認証結果が認証失敗である場合に応答して、前記1つ以上のプロセッサはロックモードを保持したりロックモードを解除しない。 The one or more processors release a lock mode of the computing device if the face authentication is successful, and in response if the first authentication result and the second authentication result are authentication failures, The one or more processors do not retain lock mode or release lock mode.

一実施形態に係るコンピューティング装置は、ユーザの顔領域が示された入力映像から第1特徴情報を抽出するニューラルネットワークモデルを含む第1認識器と、前記入力映像から前記第1特徴情報と異なる第2特徴情報を抽出する異なるニューラルネットワークモデルを含む第2認識器と、前記抽出された第1特徴情報と登録された第1登録特徴情報とを比較した第1認証結果、及び前記抽出された第2特徴情報と登録された第2登録特徴情報とを比較した第2認証結果のうち少なくとも1つが失敗であれば、顔認証を失敗として決定する1つ以上のプロセッサとを含む。 A computing device according to one embodiment includes a first recognizer including a neural network model for extracting first feature information from an input video in which a user's face region is indicated, and a first recognizer different from the first feature information from the input video. a second recognizer including a different neural network model for extracting second feature information; a first authentication result comparing the extracted first feature information with the registered first registered feature information; and one or more processors determining that the face authentication fails if at least one of second authentication results comparing the second feature information and the registered second registered feature information fails.

前記第1認識器のニューラルネットワークモデル及び前記第2認識器の異なるニューラルネットワークモデルは、互いに異なる学習データに基づいてそれぞれ学習されたものであり得る。 The neural network model of the first recognizer and the different neural network model of the second recognizer may be learned based on different learning data.

前記第2認識器の異なるニューラルネットワークモデルは、学習の顔領域に閉塞領域が存在したり存在するものと予想される学習データに基づいて学習されたものであり得る。 The different neural network model of the second recognizer may be trained based on learning data in which an occluded region exists or is expected to exist in the learning face region.

前記顔領域から閉塞領域が存在するものと予想される領域を平均映像、平均値映像又は単一カラー映像の対応する領域の映像情報に代替する映像が、前記第2特徴情報を抽出するために前記第2認識器の異なるニューラルネットワークモデルに入力され得る。 An image that substitutes image information of a corresponding area of an average image, an average value image, or a single color image for an area in which an occluded area is expected to exist from the face area is used to extract the second feature information. Different neural network models of the second recognizer may be input.

前記閉塞領域が存在するものと予想される領域は、前記顔領域からメガネ、サングラス、帽子、又はマスクのうちの1つ以上の組み合わせにより閉塞が示される領域であり得る。 The area where the occlusion area is expected to exist may be an area where occlusion is indicated by a combination of one or more of glasses, sunglasses, a hat, or a mask from the face area.

前記顔認証装置は、前記顔認証が失敗であれば、前記コンピューティング装置を用いた金融サービス又は決済サービスにおける認証結果を認証失敗として決定し、前記第1認証結果及び前記第2認証結果が認証成功である場合に応答して、前記1つ以上のプロセッサは、前記決済サービス又は前記金融サービスで前記認証結果を認証成功として決定する。 If the face authentication fails, the face authentication device determines an authentication result in a financial service or payment service using the computing device as an authentication failure, and the first authentication result and the second authentication result are authenticated. In response to being successful, the one or more processors determine the authentication result as successful authentication with the payment service or the financial service.

前記コンピューティング装置は、トランシーバーをさらに含み、前記決済サービス又は前記金融サービスで前記認証結果が成功に決定された場合、前記1つ以上のプロセッサは、前記トランシーバーが決済情報を外部の端末に送信したり、前記金融サービスにより金融トランザクションを行ったり、及び/又は、前記金融サービスによりユーザインターフェースに金融情報を提供するよう構成され得る。 The computing device further includes a transceiver, and when the authentication result is determined to be successful in the payment service or the financial service, the one or more processors cause the transceiver to transmit payment information to an external terminal. perform financial transactions with the financial service; and/or provide financial information to a user interface with the financial service.

前記コンピューティング装置は、ユーザの顔領域を含む入力映像から第1特徴情報を抽出するように構成されるニューラルネットワークを含む第1認識器と、前記第1特徴情報と異なる第2特徴情報を前記入力映像から抽出するように構成される異なるニューラルネットワークを含む第2認識器と、第1認証モード及び第2認証モードのうちの1つから前記ユーザを認証するために実行される現在認証モードを決定するよう構成された1つ以上のプロセッサとを含み、前記現在認証モードが前記第1認証モードとして決定される場合、前記1つ以上のプロセッサは、第1認証結果及び第2認証結果のうち少なくとも1つが認証成功である場合に応答して顔認識が成功であると決定し、前記第1認証結果は前記第1特徴情報を第1登録特徴情報と比較することによって取得され、前記第2認証結果は前記第2特徴情報を第2登録特徴情報と比較することによって取得され、前記現在認証モードが前記第2認証モードとして決定される場合、前記1つ以上のプロセッサは、前記第1認証結果及び前記第2認証結果のうち少なくとも1つが失敗である場合に応答して顔認証を失敗として決定する。 The computing device comprises a first recognizer including a neural network configured to extract first feature information from an input video including a facial region of a user; and second feature information different from the first feature information. a second recognizer comprising a different neural network configured to extract from an input video; and a current authentication mode executed to authenticate the user from one of a first authentication mode and a second authentication mode. and one or more processors configured to determine, when the current authentication mode is determined as the first authentication mode, the one or more processors determine between a first authentication result and a second authentication result determining successful face recognition in response to at least one successful authentication, wherein said first authentication result is obtained by comparing said first characteristic information with first registered characteristic information; An authentication result is obtained by comparing the second characteristic information with the second registered characteristic information, and if the current authentication mode is determined as the second authentication mode, the one or more processors perform the first authentication Determining face authentication as unsuccessful in response to at least one of the result and the second authentication result being unsuccessful.

前記第1認証モードは予め決定されたロック解除モードであり、前記ロック解除モードは、コンピューティング装置がロック状態である場合に1つ以上のプロセッサによって自動で実行されるよう調整されたり、前記ユーザが前記コンピューティング装置のユーザインターフェースを解除しようと試みる場合に前記1つ以上のプロセッサによって実行されるよう決定され得る。 The first authentication mode is a predetermined unlock mode, and the unlock mode is arranged to be automatically performed by one or more processors when the computing device is in a locked state, or the user may be determined to be executed by the one or more processors when attempting to release the user interface of the computing device.

前記第2認証モードは予め決定された決済モードであり、前記決済モードは、前記ユーザが前記コンピューティング装置の決済サービスにアクセスしたり選択する場合に、前記1つ以上のプロセッサによって実行されるよう決定され得る。 The second authentication mode is a predetermined payment mode, and the payment mode is to be executed by the one or more processors when the user accesses or selects a payment service of the computing device. can be determined.

本発明によれば、顔認証技術を提供することができる。 According to the present invention, face authentication technology can be provided.

一実施形態に係る顔認証を説明するための図である。FIG. 4 is a diagram for explaining face authentication according to one embodiment; 一実施形態に係る顔認証方法を説明するためのフローチャートである。4 is a flowchart for explaining a face authentication method according to one embodiment; 一実施形態に係る顔登録手続と認証手続を説明するためのフローチャートである。4 is a flowchart for explaining face registration procedures and authentication procedures according to an embodiment; 一実施形態に係る顔登録手続の一例を示す図である。FIG. 10 is a diagram illustrating an example of a face registration procedure according to one embodiment; 一実施形態に係る第1認証モードによる認証方法を説明するためのフローチャートである。6 is a flowchart for explaining an authentication method in a first authentication mode according to one embodiment; 一実施形態に係る認証モードのうちロック解除モードを説明するためのフローチャートである。4 is a flowchart for explaining an unlock mode among authentication modes according to an embodiment; 他の実施形態に係る第2認証モードによる認証方法を説明するためのフローチャートである。9 is a flowchart for explaining an authentication method in a second authentication mode according to another embodiment; 他の実施形態に係る認証モードのうち決済モードを説明するためのフローチャートである。8 is a flowchart for explaining a payment mode among authentication modes according to another embodiment; 一実施形態に係る顔認証装置の構成を示す図である。It is a figure which shows the structure of the face authentication apparatus which concerns on one Embodiment. 一実施形態に係るコンピューティング装置の一例を示す図である。1 illustrates an example computing device, according to one embodiment. FIG. 一実施形態に係る学習装置の一例を示す図である。It is a figure which shows an example of the learning apparatus which concerns on one Embodiment.

本明細書に開示されている本発明の概念による実施形態に対して特定の構造的又は機能的な説明は、単に本発明の概念による実施形態を説明するための目的として例示されたものであり、本発明の概念による実施形態は様々な形態で実施され、本明細書に説明された実施形態に限定されることはない。 Any specific structural or functional descriptions of embodiments according to the inventive concepts disclosed herein are presented merely for purposes of describing the embodiments according to the inventive concepts. , embodiments in accordance with the inventive concepts may be embodied in various forms and are not limited to the embodiments set forth herein.

第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に第2構成要素は第1構成要素にも命名することができる。 Terms such as first or second may be used to describe multiple components, but such terms should be construed only for the purpose of distinguishing one component from another. For example, a first component can be named a second component, and similarly a second component can be named a first component.

単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。 Singular expressions include plural expressions unless the context clearly dictates otherwise. As used herein, the terms "including" or "having" indicate the presence of any of the features, numbers, steps, acts, components, parts, or combinations thereof described in the specification. , one or more other features, figures, steps, acts, components, parts, or combinations thereof, are not to be precluded.

異なるように定義さがれない限り、技術的又は科学的な用語を含むここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。 Unless defined otherwise, all terms, including technical or scientific terms, used herein are to be commonly understood by one of ordinary skill in the art to which the embodiments belong. have the same meaning. Commonly used pre-defined terms are to be construed to have a meaning consistent with the meaning they have in the context of the relevant art, and unless expressly defined herein, are ideally or excessively It is not to be interpreted in a formal sense.

以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の部材を示す。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Identical reference numerals appearing in the drawings indicate identical parts.

図1は、一実施形態に係る顔認証を説明するための図である。 FIG. 1 is a diagram for explaining face authentication according to one embodiment.

顔認証は、認証(verification)を試みたユーザの顔に基づいて当該のユーザが有効なユーザであるか否かを判断する認証方法である。図1を参照すると、顔認証装置は、コンピューティング装置120に含まれて動作する。コンピューティング装置120は、例えば、スマートフォン、ウェアラブル機器、タブレットコンピュータ、ネットブック、ラップトップ、デスクトップ、PDA(personal digital assistant)、セットトップボックス、家電機器、生体ドアロック、セキュリティー装置又は車両始動装置であり得る。 Face recognition is a verification method that determines whether the user is a valid user based on the face of the user attempting verification. Referring to FIG. 1, the face recognition device is included and operates in a computing device 120 . Computing device 120 may be, for example, a smart phone, wearable device, tablet computer, netbook, laptop, desktop, personal digital assistant (PDA), set-top box, consumer electronics, biometric door lock, security device, or vehicle starter. obtain.

顔認証装置は、ユーザ110の顔を認証してコンピューティング装置120を介して実行されるサービスを用いることが可能であるか否かを決定する。例えば、顔認証装置は、コンピューティング装置120に含まれたカメラ130を用いてユーザ110の顔を撮影した入力映像を取得する。カメラ130は、例えば、デジタルスチールカメラ、ビデオカメラのような映像取得装置であってもよい。入力映像は、顔認証装置に入力される映像であり、顔認証の対象となる映像である。 The facial recognition device authenticates the face of the user 110 to determine if the service performed via the computing device 120 can be used. For example, the face authentication device acquires an input image of the face of the user 110 using the camera 130 included in the computing device 120 . Camera 130 may be, for example, a video capture device such as a digital still camera or a video camera. The input video is a video that is input to the face authentication device and is a target video for face authentication.

顔認証装置は、入力映像から顔領域140を検出して複数の認識器を用いて顔領域140から特徴を抽出する。認識器は、入力された情報に対応する特徴を出力するモデルであって、一例として、学習データにより学習されたニューラルネットワークモデルであり得る。 The face recognition device detects a face region 140 from an input image and extracts features from the face region 140 using a plurality of recognizers. A recognizer is a model that outputs features corresponding to input information, and may be, for example, a neural network model trained using training data.

顔認証装置は、認識により抽出された特徴を顔登録手続を介して登録された特徴と比較し、その比較結果に基づいて認証成功の有無を決定する。有効なユーザ110は、顔登録手続を介して自分の顔をコンピューティング装置120に予め登録し、コンピューティング装置120は、顔登録手続を介して決定された有効なユーザ110の特徴を格納する。 The face authentication device compares the features extracted by recognition with the features registered through the face registration procedure, and determines whether or not the authentication is successful based on the comparison result. A valid user 110 pre-registers his/her face with a computing device 120 via a face registration procedure, and the computing device 120 stores characteristics of the valid user 110 determined via the face registration procedure.

一実施形態によると、顔認証を行う装置である顔認証装置は、複数の認識器を使用することで様々な条件の入力映像に対する顔認証の正確度を向上させ得る。顔認証装置は、認証モードの目的による認識器の認証結果間の関係を設定することによって顔認証をより効率よく行うことができる。 According to one embodiment, a face recognition apparatus, which performs face recognition, can improve the accuracy of face recognition for input images under various conditions by using a plurality of recognizers. The face authentication device can perform face authentication more efficiently by setting the relationship between the authentication results of the recognizer according to the purpose of the authentication mode.

セキュリティー性よりも相対的に使用性が重要に作用する認証モードと、使用性よりはセキュリティー性が相対的に重要に作用する認証モードが存在する。例えば、前者の認証モードはユーザログイン及びロック状態解除などが認証状況で用いられ、後者の認証モードは決済及び金融サービスなどの認証状況で用いられる。認証モードに応じて要求される認証強度が異なってもよい。以下で説明する顔認証方法又は顔認証装置は、認証モードの目的に応じて認証強度を柔軟に決定することができる。認証目的に適切な認証強度で顔認証が実行されれば、認証強度に関して相反している使用便宜性及びセキュリティー性の全てが満足される。 There are an authentication mode in which usability is more important than security and an authentication mode in which security is more important than usability. For example, the former authentication mode is used in authentication situations such as user login and lock release, and the latter authentication mode is used in authentication situations such as payment and financial services. The required authentication strength may differ depending on the authentication mode. The face authentication method or face authentication device described below can flexibly determine the authentication strength according to the purpose of the authentication mode. If face recognition is performed with an authentication strength suitable for the purpose of authentication, convenience of use and security, which are conflicting with respect to the authentication strength, are all satisfied.

図2は、一実施形態に係る顔認証方法を説明するためのフローチャートである。 FIG. 2 is a flowchart for explaining a face authentication method according to one embodiment.

図2を参照すると、ステップ201において、顔認証装置は現在認証モードを識別する。認証モードは、顔認証装置の使用目的により使用性とセキュリティー性の間で様々な認証強度を満足するモードを含む。例えば、認証モードは、使用性を強調したロック解除モード又はセキュリティー性を強調した決済モードを含む。 Referring to FIG. 2, at step 201, the face recognition device identifies the current verification mode. Authentication modes include modes that satisfy various authentication strengths between usability and security depending on the purpose of use of the face authentication device. For example, the authentication mode includes an unlock mode emphasizing usability or a payment mode emphasizing security.

ステップ203において、顔認証装置は、現在認証モードに基づいて顔認証に利用する少なくとも1つの認識器を決定する。顔認証装置は、顔認証に利用する複数の認識器を決定し、現在認証モードに基づいて前記顔認証に用いられる認識器の組み合わせを決定する。 At step 203, the face authentication device determines at least one recognizer to be used for face authentication based on the current authentication mode. The face authentication device determines a plurality of recognizers to be used for face authentication, and determines a combination of recognizers to be used for face authentication based on the current authentication mode.

認識器のそれぞれは、様々な条件で撮影された学習データから学習されることにより当該の条件に応じて強い特性を有する。顔認証装置は、複数の認識器を用いることにより様々な条件で撮影された入力映像を用いてもっと正確にユーザを認証することができる。現在認証モードに基づいて認識器に基づいた認証手続が決定され得る。 Each of the recognizers has strong characteristics according to the conditions by learning from learning data shot under various conditions. A face authentication device can more accurately authenticate a user using input images captured under various conditions by using a plurality of recognizers. A recognizer-based authentication procedure may be determined based on the current authentication mode.

ステップ205において、顔認証装置は、決定された少なくとも1つの認識器を用いて入力映像に示された顔領域から特徴情報を取得する。ステップ207において、顔認証装置は特徴情報に基づいて認証成功の有無を決定する。 At step 205, the face recognition device acquires feature information from the face region shown in the input image using the determined at least one recognizer. At step 207, the face authentication device determines whether or not the authentication is successful based on the feature information.

顔認証装置は、入力映像から顔領域を検出する。例えば、顔認証装置は、Haar基盤のカスケードエイダブースト分類器(Haar-based cascade adaboost classifier)又はViola-Jones検出器などを用いて顔領域を検出し得る。ただし、実施形態の範囲がこれに限定されることなく、顔認証装置は様々な顔領域検出方式を用いて顔領域を検出し得る。 A face authentication device detects a face area from an input video. For example, the face recognition device may detect a face region using a Haar-based cascade adaboost classifier, a Viola-Jones detector, or the like. However, the scope of the embodiments is not limited to this, and the face recognition device can detect face regions using various face region detection schemes.

図面には示されていないが、実施形態により顔認証装置は、受信した入力映像に対する映像前処理を先に行ってもよい。映像前処理過程は、入力映像を顔認証により適切な形態で処理する1つ以上の過程を含む。例えば、前処理過程は、入力映像の大きさを調整する過程、入力映像を回転する過程、入力映像に含まれたノイズを除去する過程、入力映像のコントラストを増加させる過程、入力映像に含まれたブラを除去するボケ除去(deblurring)過程、背景領域を除去する過程、入力映像に含まれた歪みを補正するワーピング過程、入力映像で特定領域をクロッピングする過程、又は入力映像を2進化する過程などを含む。映像前処理が実行される場合、以下の「入力映像」は「映像前処理が実行された入力映像」に代替され得る。 Although not shown in the drawings, according to an embodiment, the face authentication device may first perform image pre-processing on the received input image. The image preprocessing process includes one or more processes for processing the input image in a suitable form for face recognition. For example, the preprocessing process includes adjusting the size of the input image, rotating the input image, removing noise contained in the input image, increasing the contrast of the input image, and increasing the contrast of the input image. a deblurring process for removing blurring, a process for removing a background area, a warping process for correcting distortion contained in the input image, a process for cropping a specific area in the input image, or a process for binarizing the input image. and so on. When image pre-processing is performed, 'input image' below may be replaced with 'input image on which image pre-processing has been performed'.

顔認証装置は、第1認識器を用いて顔領域の映像情報から第1特徴情報を取得する。顔領域が正規化過程を経た場合、顔認証装置は、第1認識器を用いて正規化された顔領域の映像情報から第1特徴情報を取得する。第1認識器は、学習データによって予め学習されたニューラルネットワークモデルであってもよい。第1特徴情報は特徴ベクトルの形態であり、映像情報は映像に含まれたピクセルのピクセル値を示す。 The face authentication device acquires first feature information from video information of the face area using the first recognizer. When the face region has undergone the normalization process, the face authentication apparatus acquires first feature information from the image information of the face region normalized using the first recognizer. The first recognizer may be a neural network model pre-trained with training data. The first feature information is in the form of a feature vector, and the image information indicates pixel values of pixels included in the image.

顔認証装置は、第1特徴情報に基づいて第1認証結果を決定する。顔認証装置は、第1特徴情報と予め登録された第1登録特徴情報とを比較し、比較結果に基づいて第1認証結果を決定する。顔認証装置は、比較結果に応じて第1認証結果を認証成功又は認証失敗として決定する。例えば、第1特徴情報と第1登録特徴情報との間の類似度が予め設定された閾値よりも大きければ認証成功であると決定され、当該の類似度が閾値以下であれば認証失敗として決定される。 The face authentication device determines a first authentication result based on the first feature information. The face authentication device compares the first feature information with first registered feature information registered in advance, and determines the first authentication result based on the comparison result. The face authentication device determines the first authentication result as authentication success or authentication failure according to the comparison result. For example, if the degree of similarity between the first feature information and the first registered feature information is greater than a preset threshold, it is determined that authentication has succeeded, and if the degree of similarity is equal to or less than the threshold, it is determined that authentication has failed. be done.

顔認証装置は、追加認証過程を続行するか否かを決定する。顔認証装置は、第1認証結果と認証モードに基づいて、第2認識器を用いて第2特徴情報を取得するか否かを決定する。認証モードは認証状況によって予め決定される。認証モードは、例えば、ロック解除のように誤り拒否(False Rejection、FR)を防止することが重要な認証モード、及び決済及び金融サービスのように誤り認識(False Acceptance、FA)を防止することが重要な認証モードを含む。ここで、誤り拒否とは正当なユーザを判断することを意味し、誤り認識とは正当でないユーザを正当なユーザとして認証することを意味する。 The face authentication device decides whether to continue the additional authentication process. The face authentication device determines whether or not to acquire the second feature information using the second recognizer based on the first authentication result and the authentication mode. The authentication mode is predetermined according to the authentication status. Authentication modes include, for example, authentication modes where it is important to prevent False Rejection (FR), such as unlocking, and false acceptance (FA), such as payment and financial services. Includes important authentication modes. Here, error rejection means judging a valid user, and error recognition means authenticating an unauthorized user as a valid user.

例えば、スマートフォンのロック解除の場合、スマートフォンに顔認証を試みるユーザがほとんどである場合、正当なユーザである可能性が高いことからセキュリティー性よりも誤り拒否を防止することが使用性の側面で重要である。この場合、低い認証強度に基づいて顔認証が実行される。例えば、互いに異なる認識器による複数の認証結果のうちの1つでも認証成功として決定される場合、最終認証結果が認証成功として決定される。一方、決済サービスの場合、使用性よりも正当でないユーザの認証を防ぐ高いセキュリティー性が重要である。この場合、高い認証強度に基づいて顔認証が実行される。例えば、互いに異なる認識器による複数の認証結果のうちいずれか1つでも認証失敗として決定される場合、最終認証結果が認証失敗として決定される。ただし、上記の認証状況及び認証モードは例示に過ぎず、複数の認識器の認証結果を組み合わせた様々な形態の認証モードが存在し得る。 For example, in the case of unlocking a smartphone, if most of the users who attempt facial recognition on the smartphone are likely to be legitimate users, it is more important than security to prevent erroneous rejection in terms of usability. is. In this case, face authentication is performed based on low authentication strength. For example, if even one of a plurality of authentication results obtained by different recognizers is determined as successful authentication, the final authentication result is determined as successful authentication. On the other hand, in the case of payment services, high security to prevent authentication of unauthorized users is more important than usability. In this case, face authentication is performed based on high authentication strength. For example, if any one of a plurality of authentication results obtained by different recognizers is determined to be an authentication failure, the final authentication result is determined to be an authentication failure. However, the authentication status and authentication mode described above are merely examples, and various forms of authentication modes combining the authentication results of a plurality of recognizers can exist.

顔認証装置は第2特徴情報を取得するという決定に応答して、第2認識器を用いて顔領域の映像情報から第2特徴情報を取得する。第2認識器も第1認識器と同様に学習データによって予め学習されたニューラルネットワークモデルであり得る。一実施形態によると、第2認識器は第1認識器と異なってもよい。第1認識器と第2認識器は、条件に応じて互いに異なる認証性能を示し得る。例えば、第1認識器は、低照度環境で撮影された入力映像に対する認識率が第2認識器よりも高くてもよく、第2認識器は、顔領域に顔の隠しによる閉塞領域(occlusion region)が存在する入力映像に対する認識率が第1認識器よりも高くてもよい。 The face recognition device obtains the second feature information from the image information of the face region using the second recognizer in response to the determination to obtain the second feature information. The second recognizer can also be a neural network model pre-trained with training data in the same way as the first recognizer. According to one embodiment, the second recognizer may be different than the first recognizer. The first recognizer and the second recognizer can exhibit different authentication performance depending on conditions. For example, the first recognizer may have a higher recognition rate than the second recognizer with respect to an input image captured in a low-illumination environment, and the second recognizer may detect an occlusion region by hiding the face in the face region. ) may be higher than that of the first recognizer.

顔認証装置は、第2特徴情報に基づいて第2認証結果を決定する。顔認証装置は、第2特徴情報と予め登録された第2登録特徴情報とを比較し、比較結果に基づいて第2認証結果を決定する。顔認証装置は、比較結果に応じて第2認証結果を認証成功又は認証失敗として決定する。例えば、第2特徴情報と第2登録特徴情報との間の類似度が予め設定された閾値よりも大きければ認証成功であると決定され、当該の類似度が閾値以下であれば認証失敗として決定される。 The face authentication device determines a second authentication result based on the second feature information. The face authentication device compares the second feature information with second registered feature information registered in advance, and determines the second authentication result based on the comparison result. The face authentication device determines the second authentication result as authentication success or authentication failure according to the comparison result. For example, if the degree of similarity between the second feature information and the second registered feature information is greater than a preset threshold, it is determined that authentication has succeeded, and if the similarity is equal to or less than the threshold, it is determined that authentication has failed. be done.

顔認証装置は、第2認証結果に基づいて最終認証結果を決定する。例えば、第2認証結果が認証成功であれば最終認証結果も認証成功として決定され、第2認証結果が認証失敗であれば最終認証結果も認証失敗として決定される。 The face authentication device determines a final authentication result based on the second authentication result. For example, if the second authentication result is authentication success, the final authentication result is also determined as authentication success, and if the second authentication result is authentication failure, the final authentication result is also determined as authentication failure.

実施形態により、顔認証装置が3つ以上の認識器を使用する場合、最終認証結果は最後の認識器を用いて実行される認証結果として決定される。 According to an embodiment, if the face recognition device uses more than two recognizers, the final recognition result is determined as the recognition result performed using the last recognizer.

図3は、一実施形態に係る顔登録手続と顔認証手続を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining face registration procedures and face authentication procedures according to one embodiment.

一実施形態によると、顔登録手続310の後に顔認証手続320が実行される。顔登録手続310において、顔登録のための映像311から顔領域が検出された後、検出された顔領域から顔のランドマークが検出される。 According to one embodiment, a face authentication procedure 320 is performed after the face registration procedure 310 . In the face registration procedure 310, after a face area is detected from the image 311 for face registration, facial landmarks are detected from the detected face area.

検出された顔領域は、各認識器の入力に適するようランドマークに基づいて正規化される。例えば、第1認識器の入力に適するよう顔領域を正規化し、正規化された映像312が生成される。また、第2認識器の入力に適するよう顔領域を正規化して正規化された映像313が生成される。 The detected face regions are normalized based on the landmarks to suit each recognizer input. For example, a normalized image 312 is generated by normalizing the face region to suit the input of the first recognizer. Also, a normalized image 313 is generated by normalizing the face region so that it is suitable for input to the second recognizer.

第1認識器を用いて正規化された映像312から第1登録特徴が抽出314される。例えば、第1認識器が低照度に強い認識器である場合、第1認識器によって低照度による認識率の低下が補償される。また、第2認識器を用いて正規化された映像313から第2登録特徴が抽出315される。例えば、第2認識器がメガネによる閉塞領域に強い認識器である場合、第2認識器によって閉塞領域による認識率の低下が補償される。上記のような過程によって抽出された登録特徴はデータベースなどに格納316される。 A first enrollment feature is extracted 314 from the normalized image 312 using the first recognizer. For example, if the first recognizer is a recognizer that is resistant to low illumination, the first recognizer compensates for the decrease in recognition rate due to low illumination. Also, a second enrolled feature is extracted 315 from the normalized image 313 using a second recognizer. For example, if the second recognizer is a recognizer that is resistant to areas occluded by eyeglasses, the second recognizer compensates for a decrease in recognition rate due to occluded areas. The registered features extracted through the above process are stored 316 in a database or the like.

顔認証手続320において、顔認証装置は、映像取得装置から認証対象となる入力映像321を受信する。顔認証手続320において、特徴情報を抽出する過程は顔登録手続310に類似し得る。顔認証装置は、入力映像321から顔領域を検出して第1認識器の入力に適するよう正規化し、正規化された映像322を第1認識器に入力して第1特徴を抽出324する。顔認証装置は、入力映像321から顔領域を検出して第2認識器の入力に適するよう正規化し、正規化された映像323を第2認識器に入力して第2特徴を抽出325する。 In the face authentication procedure 320, the face authentication device receives an input image 321 to be authenticated from the image acquisition device. In face authentication procedure 320 , the process of extracting feature information may be similar to face registration procedure 310 . The face recognition device detects a face area from an input image 321, normalizes it to be suitable for input to the first recognizer, inputs the normalized image 322 to the first recognizer, and extracts 324 first features. The face recognition device detects a face region from an input image 321, normalizes it to be suitable for input to the second recognizer, inputs the normalized image 323 to the second recognizer, and extracts 325 second features.

顔認証装置は、抽出された第1特徴及び/又は第2特徴を用いて認証成功の有無を判断326する。顔認証装置は、第1特徴とデータベースに格納された第1登録特徴との間の比較結果に基づいて第1認証結果を決定し、第2特徴とデータベースに格納された第2登録特徴との間の比較結果に基づいて第2認証結果を決定する。認証モードに応じて、第1認証結果と第2認証結果のうちいずれか1つ、又は両方に基づいて最終認証結果が決定される。例えば、第1認証結果に応じて最終認証結果が決定され、この場合に第2認証結果を決定するための過程は実行されなくてもよい。 The face authentication device determines 326 whether or not the authentication is successful using the extracted first and/or second features. The face authentication device determines a first authentication result based on a comparison result between the first feature and the first registered feature stored in the database, and compares the second feature with the second registered feature stored in the database. A second authentication result is determined based on the comparison result between. A final authentication result is determined based on one or both of the first authentication result and the second authentication result, depending on the authentication mode. For example, the final authentication result is determined according to the first authentication result, in which case the process for determining the second authentication result may not be performed.

図4は、一実施形態に係る顔登録手続の一例を示す図である。 FIG. 4 is a diagram illustrating an example of a face registration procedure according to one embodiment.

図4は、図3に示す顔登録手続をより具体化したものであって、具体化された技術的要素は例示に過ぎない。図4を参照すると、顔登録のために有効なユーザの映像401が入力される。映像401から顔領域が検出403され、検出された顔領域からランドマークが検出405される。一実施形態では、検出されたランドマークに基づいて各認識器の入力に適するよう、顔領域が正規化411,421され得る。 FIG. 4 is a more specific version of the face registration procedure shown in FIG. 3, and the specific technical elements are merely examples. Referring to FIG. 4, a valid user image 401 is input for face registration. A face area is detected 403 from the image 401, and landmarks are detected 405 from the detected face area. In one embodiment, the face region may be normalized 411, 421 to suit each recognizer input based on the detected landmarks.

顔認証装置は、第1認識器417の入力に適するよう顔領域に対して第1正規化411を行う。第1認識器417は、正規化された顔領域413の映像情報が入力され、入力された映像情報に基づいて第1登録特徴419を出力する。顔認証装置は、第2認識器427の入力に適するよう顔領域に対して第2正規化421を行う。第2認識器427は、正規化された顔領域423の入力された映像情報に基づいて第2登録特徴429を出力する。 The face recognition device performs a first normalization 411 on the face region to make it suitable for input to a first recognizer 417 . The first recognizer 417 receives the image information of the normalized face area 413 and outputs a first registered feature 419 based on the input image information. The face recognition device performs a second normalization 421 on the face region to make it suitable for input to a second recognizer 427 . A second recognizer 427 outputs a second registered feature 429 based on the input image information of the normalized face area 423 .

第1認識器417によって抽出された第1登録特徴419と第2認識器427によって抽出された第2登録特徴429は、データベース430に格納される。このように、顔登録手続を介して顔認証の有無を判断するために用いられる登録特徴が取得され得る。 The first registered features 419 extracted by the first recognizer 417 and the second registered features 429 extracted by the second recognizer 427 are stored in the database 430 . In this manner, enrollment features may be obtained that are used to determine the presence or absence of face authentication via the face enrollment procedure.

図5は、一実施形態に係る第1認証モードによる認証方法を説明するためのフローチャートである。 FIG. 5 is a flowchart for explaining an authentication method in the first authentication mode according to one embodiment.

一実施形態では、第1認証モードは、セキュリティー性よりも正当なユーザが容易に認証されることが重要なモードである。例えば、第1認証モードは、スマートフォンなどのロックモードを解除するために適用される認証モードであり得る。この場合、顔認証装置は、第1認証モードで複数の認証結果のうちいずれか1つでも認証成功として決定される場合、最終認証結果を認証成功として決定して顔認証手続を終了する。 In one embodiment, the first authentication mode is a mode in which easy authentication of valid users is more important than security. For example, the first authentication mode may be an authentication mode applied to unlock a smart phone or the like. In this case, if any one of the plurality of authentication results in the first authentication mode is determined as successful authentication, the face authentication device determines the final authentication result as successful authentication, and terminates the face authentication procedure.

ステップ510において、顔認証装置は第1認証過程を行う。第1認証過程で顔認証装置は、第1認識器を用いて入力映像から第1特徴情報を抽出する。顔認証装置は図2を参照して説明したように、入力映像から顔領域を検出し、検出された顔領域からランドマークを検出し、検出されたランドマークに基づいて正規化過程を行う。顔認証装置は、正規化された顔領域から第1特徴情報を抽出する。 In step 510, the facial recognition device performs a first verification process. In the first authentication process, the face authentication device extracts first feature information from the input image using the first recognizer. As described with reference to FIG. 2, the face recognition apparatus detects a face area from an input image, detects landmarks from the detected face area, and performs a normalization process based on the detected landmarks. A face authentication device extracts first feature information from the normalized face region.

ステップ515において、顔認証装置は、第1認証過程の認証成功の有無を決定する。顔認証装置は、データベースに格納された第1登録特徴情報と抽出された第1特徴情報との間の比較結果に基づいて、第1認証過程の認証成功の有無を決定する。顔認証装置は、第1認証過程の結果と認証モードに基づいて、第2認識器を用いて第2特徴情報を取得するか否かを決定する。 In step 515, the face recognition device determines whether the first recognition process is successful. The face authentication device determines whether or not the first authentication process is successful based on a comparison result between the first registered feature information stored in the database and the extracted first feature information. The face authentication device determines whether to acquire the second feature information using the second recognizer based on the result of the first authentication process and the authentication mode.

第1登録特徴情報と第1特徴情報との間の比較結果が予め設定された条件を満足する場合、顔認証装置は第1認証過程の認証結果を認証成功として決定540し、顔認証手続を終了する。ここで、認証結果は、最終認証結果であってもよい。第1登録特徴情報と第1特徴情報との間の比較結果が予め設定された条件を満足しない場合、顔認証装置は、認証結果を認証失敗として決定して第2認証過程を行う。このように、顔認証装置は、第1認証過程の認証結果が認証失敗である場合、第2特徴情報を取得すると決定し、第1認証過程の認証結果が認証成功である場合、最終認証結果を認証成功として決定して顔認証手続を終了する。 If the result of comparison between the first registered feature information and the first feature information satisfies a preset condition, the face authentication device determines 540 that the authentication result of the first authentication process is authentication success, and performs the face authentication procedure. finish. Here, the authentication result may be the final authentication result. If the comparison result between the first registered feature information and the first feature information does not satisfy the preset condition, the face authentication device determines the authentication result as authentication failure and performs the second authentication process. As described above, the face authentication device determines to acquire the second feature information when the authentication result of the first authentication process is authentication failure, and when the authentication result of the first authentication process is authentication success, the final authentication result is determined as authentication success, and the face authentication procedure ends.

ステップ520において、顔認証装置は第2認証過程を行う。第2認証過程で顔認証装置は、第2認識器を用いて入力映像から第2特徴情報を抽出する。顔認証装置は、第1認識器と類似の方式により第2認識器の入力に適するよう入力映像を処理した後、処理された入力映像を第2認識器に入力する。 At step 520, the face recognition device performs a second verification process. In the second authentication process, the face authentication device extracts second feature information from the input image using a second recognizer. The face recognition device processes the input image to be suitable for input of the second recognizer in a manner similar to that of the first recognizer, and then inputs the processed input image to the second recognizer.

ステップ525において、顔認証装置は、第2認証過程の認証成功の有無を決定する。顔認証装置は、データベースに格納された第2登録特徴情報と抽出された第2特徴情報とを比較することにより、第2認証過程の認証成功の有無を決定する。顔認証装置は、第2認証過程の認証結果と認証モードに基づいて、第3認識器を用いて第3特徴情報を取得するか否かを決定する At step 525, the face recognition device determines whether or not the second verification process is successful. The face authentication device compares the second registered feature information stored in the database with the extracted second feature information to determine whether or not the second authentication process has been successful. The face authentication device determines whether or not to acquire the third feature information using the third recognizer based on the authentication result of the second authentication process and the authentication mode.

第2登録特徴情報と第2特徴情報との間の比較結果が予め設定された条件を満足する場合、顔認証装置は認証結果を認証成功として決定540し、顔認証手続を終了する。ここで、認証結果は最終認証結果であってもよい。第2登録特徴情報と第2特徴情報との間の比較結果が予め設定された条件を満足しない場合、顔認証装置は認証結果を認証失敗として決定する。第3認証過程を行わない場合、顔認証装置は第2認証過程の認証結果が認証失敗である場合、最終認証結果を認証失敗として決定し、第2認証過程の認証結果が認証成功である場合、最終認証結果を認証成功として決定する。 If the comparison result between the second registered feature information and the second feature information satisfies the preset condition, the face authentication device determines 540 that the authentication result is authentication success, and ends the face authentication procedure. Here, the authentication result may be the final authentication result. If the result of comparison between the second registered feature information and the second feature information does not satisfy a preset condition, the face authentication device determines the authentication result as authentication failure. If the third authentication process is not performed, the face authentication device determines the final authentication result as authentication failure if the authentication result of the second authentication process is authentication failure, and if the authentication result of the second authentication process is authentication success , determine the final authentication result as authentication success.

ステップ530において、第2認証過程の認証結果が認証失敗として決定された場合、顔認証装置は第3認証過程を行う。ただし、第3認証過程は例示に過ぎず省略されてもよく、他の種類の認識器を使用する追加的な認証過程が顔認証手続に含まれてもよい。第3認証過程において顔認証装置は、例えば、第1認証過程のパラメータと第2認証過程のパラメータを合成した結果から第3認識器を用いて第3特徴情報を取得し得る。例えば、パラメータは、各認識器によって顔領域から抽出された特徴情報を含み得る。 In step 530, if the authentication result of the second authentication process is determined to be authentication failure, the face authentication device performs a third authentication process. However, the third authentication process is merely an example and may be omitted, and additional authentication processes using other types of recognizers may be included in the face authentication procedure. In the third authentication process, the face authentication device can acquire third feature information using a third recognizer, for example, from the result of synthesizing the parameters of the first authentication process and the parameters of the second authentication process. For example, the parameters may include feature information extracted from facial regions by each recognizer.

ステップ535において、顔認証装置は、第3認証過程の認証成功の有無を決定する。一実施形態に係る顔認証装置は、第1認識器から抽出された第1特徴情報と第2認識器から抽出された第2特徴情報を結合して結合された特徴情報を生成する。顔認証装置は、第1特徴情報に対応する第1登録特徴情報と第2特徴情報に対応する第2登録特徴情報とが結合された登録特徴情報と上記の結合された特徴情報との間の比較結果が予め設定された条件を満足する場合、認証結果を認証成功として決定し(540)、顔認証手続を終了する。一方、当該の比較結果が予め設定された条件を満足しない場合、顔認証装置は認証結果を認証失敗として決定し(550)、顔認証手続を終了する。ここで、認証結果は、最終認証結果であってもよい。 In step 535, the face recognition device determines whether or not the third verification process is successful. A face authentication apparatus according to an embodiment combines first feature information extracted from a first recognizer and second feature information extracted from a second recognizer to generate combined feature information. The face authentication device determines the difference between the registered feature information obtained by combining the first registered feature information corresponding to the first feature information and the second registered feature information corresponding to the second feature information and the combined feature information. If the comparison result satisfies the preset condition, the authentication result is determined as successful authentication (540), and the face authentication procedure ends. On the other hand, if the comparison result does not satisfy the preset conditions, the face authentication device determines the authentication result as authentication failure (550), and terminates the face authentication procedure. Here, the authentication result may be the final authentication result.

図6は、一実施形態に係る認証モードのうちロック解除モードを説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining the unlock mode among the authentication modes according to one embodiment.

一例として、顔認証装置はロック解除モードを行う。顔認証装置は、入力映像601から顔領域を検出する(603)。顔認証装置は、検出された顔領域からランドマークを検出する(605)。顔認証装置は、第1認識器617の入力に適するよう顔領域に対して第1正規化を行う(611)。 As an example, the face authentication device performs unlock mode. The face authentication device detects a face area from the input image 601 (603). The face authentication device detects landmarks from the detected face area (605). The facial recognition device performs a first normalization 611 on the facial region to make it suitable for input to the first recognizer 617 .

顔認証装置は、例えば、検出されたランドマークの位置を予め定義された基準位置にマッチングさせたり、検出された顔領域の大きさを調整することで検出された顔領域を正規化する。カメラの視野から離れることにより下方の顔領域が撮影されていない場合、顔認証装置は、入力映像の下方の顔領域を平均映像又は平均値映像の下方の顔領域に対応する領域で満たし得る。 The face authentication device normalizes the detected face area by, for example, matching the position of the detected landmark with a predefined reference position or adjusting the size of the detected face area. If the lower face region is not captured by moving away from the camera's field of view, the face recognition device may fill the lower face region of the input image with a region corresponding to the lower face region of the average image or the average value image.

顔認証装置は、正規化された映像613を第1認識器617に入力する。顔認証装置は、第1認識器617を用いて第1特徴619を抽出する。顔認証装置は、抽出された第1特徴619とデータベースに予め格納された第1登録特徴とを比較して認証成功の有無を決定する(651)。ここで、第1登録特徴は、有効なユーザの入力映像から第1認識器617を用いて抽出された特徴である。 The face recognition device inputs the normalized image 613 to the first recognizer 617 . The face recognition device extracts a first feature 619 using a first recognizer 617 . The face authentication device compares the extracted first feature 619 with the first registered features pre-stored in the database to determine whether or not the authentication is successful (651). Here, the first registered feature is a feature extracted from a valid user input video using the first recognizer 617 .

一例として、顔認証装置は第1特徴619と第1登録特徴との間の類似度を算出し、類似度と予め設定された第1閾値とを比較することにより認証成功の有無を決定する。顔認証装置は、例えば、決定された類似度が第1閾値よりも大きい場合、認証が成功したものと決定する(655)。これとは反対に、顔認証装置は、類似度が閾値以下である場合には認証が失敗したものと決定する。 As an example, the face authentication device calculates the degree of similarity between the first feature 619 and the first registered feature, and compares the degree of similarity with a preset first threshold to determine whether or not authentication has succeeded. The facial recognition device determines 655 that the verification was successful, for example, if the determined similarity is greater than a first threshold. Conversely, the face recognition device determines that the recognition has failed if the similarity is less than or equal to the threshold.

顔認証装置は、認証結果が認証成功として決定された場合(655)、第1特徴情報に基づいて第1登録特徴をアップデートするか否かを決定する(631)。顔認証装置は、例えば、第1閾値よりも高く設定された閾値と決定された類似度とを比較して第1登録特徴をアップデートする(633)。顔認証装置は、認証結果が認証成功として決定された場合(655)、最終認証結果を認証成功として決定して顔認証手続を終了する。顔認証装置は、認証結果を認証失敗として決定した場合、第2正規化を実行する(621)。 When the authentication result is determined to be authentication success (655), the face authentication device determines whether to update the first registered feature based on the first feature information (631). The face authentication device updates the first registered feature by comparing, for example, a threshold set higher than the first threshold with the determined similarity (633). When the authentication result is determined to be authentication success (655), the face authentication device determines the final authentication result to be authentication success, and ends the face authentication procedure. When the face authentication device determines that the authentication result is authentication failure, the face authentication device performs second normalization (621).

顔認証装置は正規化された映像623を第2認識器627に入力する。一実施形態に係る顔認証装置は、顔領域にメガネなどのような閉塞領域が存在するか否かに関わらず、閉塞領域が存在するものと予想される領域を平均映像、平均値映像、又は任意の単一カラー映像の対応する部分の映像情報で満たす。平均映像は、学習映像の間で互いに対応する位置で有するピクセル値を平均することで生成される。平均値映像は、学習映像に含まれた全体ピクセルのピクセル値を平均し、平均ピクセル値を全体ピクセルに割り当てることにより生成される。平均映像では、各ピクセル位置に応じてピクセル値が変わり得るためその形態が示されるが、平均値映像では全体ピクセルが全て同一のピクセル値を有するためその形態が示されない。ただし、これは一例に過ぎず、顔領域が閉塞される場合に対する処理方法はこれに限定されることはない。 The face recognition device inputs the normalized image 623 to the second recognizer 627 . The face authentication device according to one embodiment, regardless of whether or not the blocking region such as glasses exists in the face region, determines the region where the blocking region is expected to exist as the average image, the average value video, or the Fill with the image information of the corresponding portion of any single color image. An average image is generated by averaging the pixel values that have corresponding locations among the training images. The average value image is generated by averaging pixel values of all pixels included in the training image and assigning the average pixel value to all pixels. The average value image is shown because the pixel value may vary depending on each pixel position, but the average value image is not shown because all pixels have the same pixel value. However, this is only an example, and the processing method for the case where the face area is occluded is not limited to this.

顔認証装置は、第2認識器627を用いて第2特徴629を抽出する。顔認証装置は、抽出された第2特徴629とデータベースに予め格納された第2登録特徴とを比較して認証成功の有無を決定する(653)。ここで、第2登録特徴は、有効なユーザの入力映像から第2認識器627を用いて抽出された特徴である。 The face recognition device extracts second features 629 using a second recognizer 627 . The face authentication device compares the extracted second feature 629 with the second registered features pre-stored in the database to determine whether or not the authentication is successful (653). Here, the second registered feature is a feature extracted from the valid user input video using the second recognizer 627 .

顔認証装置は認証結果を認証成功として決定した場合(655)、第2特徴629に基づいて第2登録特徴をアップデートするか否かを決定する(641)。顔認証装置はアップデートするものと決定した場合、第2特徴629に基づいて第2登録特徴をアップデートする(643)。顔認証装置は、最終認証結果を認証成功として決定する。 When the face authentication device determines that the authentication result is authentication success (655), it determines whether to update the second registered feature based on the second feature 629 (641). If the facial recognition device determines to update, it updates 643 the second enrollment feature based on the second feature 629 . The face authentication device determines the final authentication result as authentication success.

顔認証装置は、認証結果を認証失敗として決定した場合(657)、最終認証結果を認証失敗として決定する。顔認証装置は顔認証手続を終了してもよく、他の入力映像を受信して顔認証手続を再び行ってもよい。例えば、顔認証装置は、最終認証結果が認証成功として決定されるまで、カメラの連続撮影により6秒間受信された入力映像に対して顔認証手続を繰り返して行ってもよい。 When the face authentication device determines the authentication result as authentication failure (657), the face authentication device determines the final authentication result as authentication failure. The face authentication device may end the face authentication procedure, or may receive another input image and perform the face authentication procedure again. For example, the face authentication device may repeat the face authentication procedure for input images received for 6 seconds by continuously photographing the camera until the final authentication result is determined as successful authentication.

図7は、他の実施形態に係る第2認証モードによる認証方法を説明するためのフローチャートである。 FIG. 7 is a flow chart for explaining an authentication method in a second authentication mode according to another embodiment.

一実施形態に係る第2認証モードは、使用性よりもセキュリティー性が相対的に重く作用する認証モードである。例えば、第2認証モードは、決済のために正当なユーザであるかを確認するモードであり得る。この場合、顔認証装置は、第2認証モードで複数の認証結果のうちいずれか1つでも認証失敗として決定される場合、最終認証結果を認証失敗として決定して顔認証手続を終了する。 The second authentication mode according to one embodiment is an authentication mode in which security is more important than usability. For example, the second authentication mode may be a mode for confirming whether the user is valid for payment. In this case, if any one of the plurality of authentication results is determined to be authentication failure in the second authentication mode, the face authentication device determines that the final authentication result is authentication failure, and terminates the face authentication procedure.

ステップ710において、顔認証装置は第1認証過程を行う。第1認証過程で顔認証装置は、第1認識器を用いて入力映像から第1特徴情報を抽出する。特徴情報を抽出する過程については図2を参照して説明された方式が使用される。 In step 710, the facial recognition device performs a first verification process. In the first authentication process, the face authentication device extracts first feature information from the input image using the first recognizer. The method described with reference to FIG. 2 is used for the process of extracting feature information.

ステップ715において、顔認証装置は、第1認証過程の認証成功の有無を決定する。顔認証装置は、データベースに格納された第1登録特徴情報と抽出された第1特徴情報との間の比較結果に基づいて、第1認証過程の認証成功の有無を決定する。顔認証装置は第1認証過程の結果と認証モードに基づいて、第2認識器を用いて第2特徴情報を取得するか否かを決定する。 In step 715, the face recognition device determines whether or not the first verification process is successful. The face authentication device determines whether or not the first authentication process is successful based on a comparison result between the first registered feature information stored in the database and the extracted first feature information. The face authentication device determines whether to acquire the second feature information using the second recognizer based on the result of the first authentication process and the authentication mode.

第1登録特徴情報と第1特徴情報との間の比較結果が予め設定された条件を満足しない場合、顔認証装置は、第1認証過程の認証結果を認証失敗として決定し(740)、顔認証手続を終了する。ここで、認証結果は、最終認証結果であり得る。第1登録特徴情報と第1特徴情報との間の比較結果が予め設定された条件を満足する場合、顔認証装置は、認証結果を認証成功として決定して第2認証過程を行う。このように、顔認証装置は、第1認証過程の認証結果が認証成功である場合、第2特徴情報を取得するものと決定し、第1認証過程の認証結果が認証失敗である場合、最終認証結果を認証失敗として決定して顔認証手続を終了する。 If the result of comparison between the first registered feature information and the first feature information does not satisfy a preset condition, the face authentication device determines that the authentication result of the first authentication process is an authentication failure (740). End the certification process. Here, the authentication result may be the final authentication result. If the comparison result between the first registered feature information and the first feature information satisfies a preset condition, the face authentication device determines the authentication result as successful authentication and performs the second authentication process. As described above, the face authentication device determines to acquire the second feature information when the authentication result of the first authentication process is authentication success, and when the authentication result of the first authentication process is authentication failure, the final The authentication result is determined as authentication failure, and the face authentication procedure is terminated.

ステップ720において、顔認証装置は第2認証過程を行う。第2認証過程で顔認証装置は、第2認識器を用いて入力映像から第2特徴情報を抽出する。特徴情報を抽出する過程は、図2を参照して説明された方式が使用される。 At step 720, the face recognition device performs a second verification process. In the second authentication process, the face authentication device extracts second feature information from the input image using a second recognizer. The process of extracting feature information uses the method described with reference to FIG.

ステップ725において、顔認証装置は、第2認証過程の認証成功の有無を決定する。顔認証装置は、データベースに格納された第2登録特徴情報と抽出された第2特徴情報とを比較することで、第2認証過程の認証成功の有無を決定する。顔認証装置は、第2認証結果と認証モードに基づいて第3認識器を用いて第3特徴情報を取得するか否かを決定する。 In step 725, the face recognition device determines whether or not the second verification process is successful. The face authentication device compares the second registered feature information stored in the database with the extracted second feature information to determine whether or not the second authentication process has been successful. The face authentication device determines whether or not to acquire the third feature information using the third recognizer based on the second authentication result and the authentication mode.

第2登録特徴情報と第2特徴情報との間の比較結果が予め設定された条件を満足しない場合、顔認証装置は認証結果を認証失敗として決定し(740)、顔認証手続を終了する。ここで、認証結果は最終認証結果であり得る。第2登録特徴情報と第2特徴情報との間の比較結果が予め設定された条件を満足する場合、顔認証装置は認証結果を認証成功として決定する。第3認証過程を行わない場合、顔認証装置は、第2認証過程の認証結果が認証失敗である場合、最終認証結果を認証失敗として決定し、第2認証過程の認証結果が認証成功である場合、最終認証結果を認証成功として決定する。 If the comparison result between the second registered feature information and the second feature information does not satisfy the preset condition, the face authentication device determines the authentication result as authentication failure (740) and terminates the face authentication procedure. Here, the authentication result may be the final authentication result. When the comparison result between the second registered feature information and the second feature information satisfies a preset condition, the face authentication device determines the authentication result as authentication success. When the third authentication process is not performed, if the authentication result of the second authentication process is authentication failure, the face authentication device determines the final authentication result as authentication failure, and the authentication result of the second authentication process is authentication success. In this case, the final authentication result is determined as authentication success.

ステップ730において、第2認証過程の認証結果が認証成功として決定された場合、顔認証装置は第3認証過程を行う。図5に示すものと同様に、第3認証過程は例示に過ぎず、省略されてもよく、他の種類の認識器を使用する追加的な認証過程が顔認証手続に含まれてもよい。 In step 730, if the authentication result of the second authentication process is determined to be authentication success, the face authentication device performs a third authentication process. Similar to that shown in FIG. 5, the third authentication step is exemplary only and may be omitted, and additional authentication steps using other types of recognizers may be included in the face authentication procedure.

ステップ735において、顔認証装置は、第3認証過程の認証成功の有無を決定する。第1認識器を介して抽出された第1特徴情報と第2認識器から抽出された第2特徴情報を結合した特徴情報と、第1特徴情報に対応する第1登録特徴情報と第2特徴情報に対応する第2登録特徴情報を結合した登録特徴情報との間の比較結果が予め設定された条件を満足する場合、顔認証装置は、認証結果を認証成功として決定し(750)、顔認証手続を終了する。当該の比較結果が予め設定された条件を満足しない場合、顔認証装置は認証結果を認証失敗として決定し(740)、顔認証手続を終了する。ここで、認証結果は最終認証結果であり得る。 In step 735, the face recognition device determines whether or not the third verification process is successful. Feature information obtained by combining first feature information extracted through a first recognizer and second feature information extracted from a second recognizer, and first registered feature information and a second feature corresponding to the first feature information If the comparison result between the second registered feature information combined with the second registered feature information corresponding to the information satisfies a preset condition, the face authentication device determines that the authentication result is authentication success (750). End the certification process. If the comparison result does not satisfy the preset condition, the face recognition device determines the recognition result as recognition failure (740), and terminates the face recognition procedure. Here, the authentication result may be the final authentication result.

図8は、他の実施形態に係る認証モードのうち決済モードを説明するためのフローチャートである。 FIG. 8 is a flowchart for explaining a payment mode among authentication modes according to another embodiment.

一例として、顔認証装置は決済モードを行う。図6に示す顔認証手続と同様に、顔認証装置は入力映像601から顔領域を検出する(603)。顔認証装置は、検出された顔領域からランドマークを検出する(605)。顔認証装置は、第1認識器617の入力に適するよう顔領域に対して第1正規化を行う。顔認証装置は、正規化された映像613を第1認識器617に入力する。顔認証装置は、第1認識器617を用いて第1特徴619を抽出する。顔認証装置は、抽出された第1特徴619とデータベースに予め格納された第1登録特徴とを比較して認証成功の有無を決定する(651)。 As an example, the face authentication device performs payment mode. Similar to the face recognition procedure shown in FIG. 6, the face recognition device detects a face area from the input image 601 (603). The face authentication device detects landmarks from the detected face area (605). The face recognition device performs a first normalization on the face region to make it suitable for input to the first recognizer 617 . The face recognition device inputs the normalized image 613 to the first recognizer 617 . The face recognition device extracts a first feature 619 using a first recognizer 617 . The face authentication device compares the extracted first feature 619 with the first registered features pre-stored in the database to determine whether or not the authentication is successful (651).

顔認証装置は認証結果を認証成功として決定した場合(655)、第1特徴に基づいて第1登録特徴をアップデートするか否かを決定し(631)、第2正規化を実行する(621)。顔認証装置は、例えば、第1閾値よりも高く設定された閾値と決定された類似度とを比較して第1登録特徴をアップデートする(633)。顔認証装置は認証結果を認証失敗として決定した場合、最終認証結果を認証失敗として決定して顔認証手続を終了する。 When the face authentication device determines that the authentication result is authentication success (655), it determines whether to update the first registered feature based on the first feature (631), and performs second normalization (621). . The face authentication device updates the first registered feature by comparing, for example, a threshold set higher than the first threshold with the determined similarity (633). When the face authentication device determines that the authentication result is authentication failure, the face authentication device determines that the final authentication result is authentication failure, and ends the face authentication procedure.

顔認証装置は、正規化された映像623を第2認識器627に入力する。例えば、カメラの視野を離れることにより下方の顔領域が撮影されていない場合、顔認証装置は、入力映像の下の顔領域を平均映像、平均値映像、又は任意の単一カラー映像の下方の顔領域に対応する部分で満たしたり、又は、メガネ、サングラス、マスク又は帽子などのような顔の隠し要素により閉塞が示される領域を、上方の平均映像、平均値映像、又は任意の単一カラー映像の対応する部分で満たし得る。 The face recognition device inputs the normalized image 623 to the second recognizer 627 . For example, if the lower face region has not been captured by leaving the field of view of the camera, the face recognition device may select the lower face region of the input image as the average image, the average value image, or the lower face area of any single color image. Fill with a portion corresponding to the face area, or areas where occlusion is indicated by hidden elements of the face such as glasses, sunglasses, masks or hats, etc. It can be filled with the corresponding part of the image.

顔認証装置は、第2認識器627を用いて第2特徴629を抽出する。顔認証装置は、抽出された第2特徴629とデータベースに予め格納された第2登録特徴とを比較して認証成功の有無を決定する(653)。ここで、第2登録特徴は、有効なユーザの入力映像から第2認識器627を用いて抽出された特徴である。 The face recognition device extracts second features 629 using a second recognizer 627 . The face authentication device compares the extracted second feature 629 with the second registered features pre-stored in the database to determine whether or not the authentication is successful (653). Here, the second registered feature is a feature extracted from the valid user input video using the second recognizer 627 .

顔認証装置は、認証結果を認証成功として決定した場合(655)、第2特徴629に基づいて第2登録特徴をアップデートするか否かを決定する(641)。顔認証装置はアップデートするものと決定した場合、第2特徴629に基づいて第2登録特徴をアップデートする(643)。顔認証装置は、最終認証結果を認証成功として決定する。顔認証装置は認証結果を認証失敗として決定した場合(657)、最終認証結果を認証失敗として決定する。顔認証装置は顔認証手続を終了してもよく、他の入力映像を受信して顔認証手続を再び行ってもよい。 When the face authentication device determines that the authentication result is authentication success (655), it determines whether to update the second registered feature based on the second feature 629 (641). If the facial recognition device determines to update, it updates 643 the second enrollment feature based on the second feature 629 . The face authentication device determines the final authentication result as authentication success. When the face authentication device determines the authentication result as authentication failure (657), it determines the final authentication result as authentication failure. The face authentication device may end the face authentication procedure, or may receive another input image and perform the face authentication procedure again.

図9は、一実施形態に係る顔認証装置の構成を示す図である。 FIG. 9 is a diagram showing the configuration of a face authentication device according to one embodiment.

図9を参照すると、顔認証装置900は、顔認証のための入力映像を受信する。顔認証装置900は、入力映像から抽出された特徴とデータベース930に予め格納された登録特徴と間の比較結果に基づいて認証成功の有無を決定する。有効なユーザは、顔登録過程によって自分の顔に対する特徴又は映像を予め登録し、このように登録された情報はデータベース930に格納される。 Referring to FIG. 9, the face recognition device 900 receives an input image for face recognition. The face authentication device 900 determines whether or not the authentication is successful based on the result of comparison between the features extracted from the input image and the registered features pre-stored in the database 930 . A valid user pre-registers features or images of his/her face through a face registration process, and the registered information is stored in the database 930 .

顔認証装置900は、顔認証方法に関して本明細書に記述されたり、又は示された1つ以上の動作を実行し、顔認証の結果をユーザに提供できる。顔認証装置900は、顔認証の結果を音声、振動、字、絵又は動画などの形態に出力するが、実施形態の範囲がこれに限定されることなく、顔認証装置900は様々な形態に認証結果を出力し得る。 The face recognition device 900 can perform one or more operations described or illustrated herein with respect to face recognition methods and provide results of face recognition to the user. The face authentication device 900 outputs the results of face authentication in the form of voice, vibration, characters, pictures, moving images, or the like. An authentication result can be output.

顔認証装置900は、1つ以上のプロセッサ910及びメモリ920を含む。メモリ920は、プロセッサ910に接続され、プロセッサ910によって実行可能な命令、プロセッサ910が演算するデータ又はプロセッサ910によって処理されたデータを格納する。メモリ920は、非一時的なコンピュータで読み出し可能な記録媒体、例えば、高速ランダムアクセスメモリ及び/又は不揮発性コンピュータで読み出し可能な格納媒体(例えば、1つ以上のディスク記憶装置、フラッシュメモリ装置、又は、その他の不揮発性固体メモリ装置)を含む。 Face authentication device 900 includes one or more processors 910 and memory 920 . Memory 920 is connected to processor 910 and stores instructions executable by processor 910 , data operated on by processor 910 or data processed by processor 910 . Memory 920 may be a non-transitory computer-readable storage medium, such as a high-speed random access memory and/or a non-volatile computer-readable storage medium (e.g., one or more disk storage devices, flash memory devices, or , and other non-volatile solid-state memory devices).

プロセッサ910は、図1~図8を参照して説明された1つ以上の動作を実行するための命令を実行する。例えば、プロセッサ910は、入力映像で顔領域及び顔のランドマークを検出し、検出されたランドマークに基づいてそれぞれの認識器の入力に適するよう入力映像を正規化する。プロセッサ910は、顔領域の一部がカメラの視野から離れて撮影されないか、メガネなどの外部物体によって閉塞された場合、当該の領域に対して基準映像を用いてパッディングを行う。 Processor 910 executes instructions to perform one or more of the operations described with reference to FIGS. 1-8. For example, the processor 910 detects facial regions and facial landmarks in the input video, and normalizes the input video to be suitable for each recognizer input based on the detected landmarks. Processor 910 uses the reference image to pad a portion of the face area that is not captured out of the field of view of the camera or is occluded by an external object such as eyeglasses.

プロセッサ910は現在認証モードを識別し、現在認証モードに基づいて顔認証に利用する少なくとも1つの認識器を決定する。プロセッサ910は、決定された少なくとも1つの認識器を用いて入力映像に示された顔領域から特徴情報を取得する。 Processor 910 identifies the current authentication mode and determines at least one recognizer to utilize for face authentication based on the current authentication mode. Processor 910 obtains feature information from the face region shown in the input video using the determined at least one recognizer.

プロセッサ910は、認識器を用いて顔領域から入力の顔に対する特徴を抽出し、抽出された特徴と登録特徴とを比較し、その比較結果に基づいて認証成功の有無を決定する。ここで、顔領域は、正規化又はパッディングが実行された顔領域に代替されてもよい。プロセッサ910は、認証モードに基づいてそれぞれの認識過程による認証結果に応じて最終認証結果を決定し、顔認証手続を終了したり他の認識器による認証過程を行う。このように、プロセッサ910は、特徴情報に基づいて認証成功の有無を決定する。 The processor 910 extracts the features of the input face from the face area using the recognizer, compares the extracted features with the registered features, and determines whether or not the authentication is successful based on the comparison result. Here, the face area may be replaced with a normalized or padded face area. The processor 910 determines a final authentication result according to the authentication result of each recognition process based on the authentication mode, ends the face authentication procedure, or performs an authentication process with another recognizer. In this way, processor 910 determines whether or not authentication is successful based on the feature information.

一実施形態によると、プロセッサ910は、ロック解除モードで顔認証手続を行う。プロセッサ910は、第1認識器による認証過程の認証結果を認証成功として決定する場合、最終認証結果を認証成功として決定して顔認証手続を終了する。プロセッサ910は、第1認識器による認証過程の認証結果を認証失敗として決定する場合、第2認識器による認証過程を行う。ここで、最終認証結果は、第2認識器による認証結果に応じて決定される。 According to one embodiment, the processor 910 performs the facial recognition procedure in unlock mode. When determining that the authentication result of the authentication process by the first recognizer is successful, the processor 910 determines that the final authentication result is successful, and ends the face authentication procedure. When the processor 910 determines that the authentication result of the authentication process by the first recognizer is authentication failure, the processor 910 performs the authentication process by the second recognizer. Here, the final authentication result is determined according to the authentication result by the second recognizer.

他の実施形態によると、プロセッサ910は、決済モードで顔認証手続を行う。プロセッサ910は、第1認識器による認証過程の認証結果を認証失敗として決定する場合、最終認証結果を認証失敗として決定して顔認証手続を終了する。プロセッサ910は、第1認識器による認証過程の認証結果を認証成功として決定する場合、第2認識器による認証過程を行う。ここで、最終認証結果は、第2認識器による認証結果に応じて決定される。 According to another embodiment, the processor 910 performs face recognition procedure in payment mode. When the processor 910 determines that the authentication result of the authentication process by the first recognizer is authentication failure, the processor 910 determines that the final authentication result is authentication failure, and ends the face authentication procedure. When the processor 910 determines that the authentication result of the authentication process by the first recognizer is successful, the processor 910 performs the authentication process by the second recognizer. Here, the final authentication result is determined according to the authentication result by the second recognizer.

図10は、一実施形態に係るコンピューティング装置の一例を示す図である。 FIG. 10 is a diagram illustrating an example of a computing device according to one embodiment.

図10を参照すると、コンピューティング装置1000は、ユーザの顔を含む映像を取得し、取得された映像から抽出された特徴と登録された特徴とを比較することによって顔認証過程を行う。コンピューティング装置1000は、図1に示されたコンピューティング装置120、図9に示された顔認証装置900、又は図11に示された学習装置1100に対応し、これに限定されることはない。 Referring to FIG. 10, a computing device 1000 acquires an image including a user's face and performs a face recognition process by comparing features extracted from the acquired image with registered features. Computing device 1000 corresponds to, but is not limited to, computing device 120 shown in FIG. 1, face recognition device 900 shown in FIG. 9, or learning device 1100 shown in FIG. .

コンピューティング装置1000は、プロセッサ1010、メモリ1020、カメラ1030、記憶装置1040、入力装置1050、出力装置1060、及びネットワークインターフェース1070を含む。プロセッサ1010、メモリ1020、カメラ1030、記憶装置1040、入力装置1050、出力装置1060、及びネットワークインターフェース1070は、通信バス1080を介して通信する。 Computing device 1000 includes processor 1010 , memory 1020 , camera 1030 , storage device 1040 , input device 1050 , output device 1060 and network interface 1070 . Processor 1010 , memory 1020 , camera 1030 , storage device 1040 , input device 1050 , output device 1060 and network interface 1070 communicate via communication bus 1080 .

カメラ1030は、静画、動画、又はこの2つを撮影する。プロセッサ1010は、ユーザが顔認証を試みる場合、ユーザの顔領域に対する映像を撮影することで、例えば、顔を含むユーザの映像を取得したり撮影するようにカメラ1030を調整したり、例えば、ユーザが初期化を行わなくても自動で映像を撮影して自動でユーザを認証するようカメラ1030を調整する。加えて、カメラ1030は、個人カメラとして動作する場合のように、コンピューティング装置1000の他の機能が実行される間にプロセッサ1010によって調整されてもよい。カメラ1030は、カラー映像/動画カメラ、及び深度又は赤外線カメラ又はTOF(time of flight)モジュールのような複数のカメラを示し、これに限定されることはない。 Camera 1030 captures still images, moving images, or both. When the user attempts face authentication, the processor 1010 captures an image of the user's face area, for example, adjusts the camera 1030 to acquire or capture an image of the user including the face, adjusts the camera 1030 so that it automatically captures images and automatically authenticates the user without initialization. Additionally, camera 1030 may be coordinated by processor 1010 while other functions of computing device 1000 are performed, such as when operating as a personal camera. Camera 1030 refers to multiple cameras such as, but not limited to, a color video/movie camera and a depth or infrared camera or TOF (time of flight) module.

プロセッサ1010は、コンピューティング装置1000で動作する機能及び命令を行う。例えば、プロセッサ1010は、メモリ1020又は記憶装置1040に格納された命令を行う。プロセッサ1010は、図9に示すプロセッサ910又は図11に示すプロセッサ1110のようなプロセッサやこれを含む1つ以上のプロセッサであってもよい。プロセッサ1010は、図1~図11までの説明に関する1つ以上の動作又はその組み合わせを行うように構成される。例えば、プロセッサ1010は、カメラ1030によって撮影された顔映像と登録された顔映像又は対応する登録された特徴とを比較することで顔認証及び登録を行うよう構成されてもよい。さらに、プロセッサ1010は、コンピューティング装置1000の他の機能を調整するよう構成されてもよい。例えば、コンピューティング装置1000は、モバイルフォンのようなモバイル装置、タブレット、又はパーソナルコンピュータであってもよく、プロセッサ1010は、コンピューティング装置1000の他の典型的な機能を行うよう構成されてもよい。例えば、プロセッサ1010は、上述のように、ユーザの撮影された顔映像の成功的な認証に対してラック-アウト(lock-out)動作を行ってユーザがアクセスするよう許容したり、他の典型的な機能を行うように構成されてもよい。 Processor 1010 performs the functions and instructions that operate on computing device 1000 . For example, processor 1010 executes instructions stored in memory 1020 or storage device 1040 . Processor 1010 may be one or more processors, such as or including processor 910 shown in FIG. 9 or processor 1110 shown in FIG. Processor 1010 is configured to perform one or more of the operations or combinations thereof associated with the descriptions of FIGS. 1-11. For example, processor 1010 may be configured to perform face authentication and enrollment by comparing facial images captured by camera 1030 with enrolled facial images or corresponding enrolled features. Additionally, processor 1010 may be configured to coordinate other functions of computing device 1000 . For example, computing device 1000 may be a mobile device such as a mobile phone, tablet, or personal computer, and processor 1010 may be configured to perform other typical functions of computing device 1000. . For example, the processor 1010 may perform a lock-out operation upon successful authentication of the user's captured facial image to allow the user access, as described above, or otherwise. may be configured to perform a similar function.

メモリ1020は、顔認証のために使用される情報を格納する不揮発性コンピュータで読み出し可能な記録媒体又は装置であり得る。メモリ1020は、図9に示すメモリ920及び/又は図11に示すメモリ1120のようなメモリであってもよく、これに限定されることはない。メモリ1020は、コンピュータで読み出し可能な格納媒体又はコンピュータで読み出し可能な記憶装置であり得る。さらに、メモリ1020は、複数の種類のメモリを示す。 Memory 1020 may be a non-volatile computer-readable recording medium or device that stores information used for face authentication. Memory 1020 may be, but is not limited to, memory such as memory 920 shown in FIG. 9 and/or memory 1120 shown in FIG. Memory 1020 may be a computer-readable storage medium or computer-readable storage device. Further, memory 1020 represents multiple types of memory.

一例として、顔登録又は認証がそれぞれ実行される間に、コンピューティング装置1000は、カメラ1030によって取得された現在撮影された顔映像又はプレビュー映像をユーザが見ることができる表示画面上に表示したり、視覚的にフィードバックしたり、例題の顔映像、プレビュー映像、又はその他にガイドを表示できないことがある。例示的な顔映像又はプレビュー映像は、視覚的なフィードバック又は動機を提供してコンピューティング装置1000に全体の顔映像を提供するようユーザをガイドする。視覚的フィードバックは入力映像が顔認証のために選択的に撮影される現在撮影された映像フレームのディスプレイであってもよく、又は、ユーザに好ましい位置及び大きさに対する例示のガイドライン又はオーバーレイを提供してもよい。顔認証のために撮影された映像であってもよい。このような顔認証で、例えば、ユーザの開始なしに自動的に実行される例のように、顔映像又はプレビュー映像が提供されなくてもよい。 As an example, while face registration or authentication, respectively, is being performed, the computing device 1000 may display the currently captured face image or preview image acquired by the camera 1030 on a display screen for viewing by the user. , visual feedback, example face images, preview images, or other guides. The exemplary facial image or preview image provides visual feedback or motivation to guide the user to provide the computing device 1000 with the overall facial image. The visual feedback may be a display of currently captured video frames from which the input video is selectively captured for facial recognition, or may provide the user with exemplary guidelines or overlays for preferred positions and sizes. may It may be a video taken for face authentication. With such facial recognition, no facial image or preview image may be provided, for example, as in the example performed automatically without user initiation.

図11は、一実施形態に係る学習装置の一例を示す図である。 FIG. 11 is a diagram illustrating an example of a learning device according to an embodiment;

図11を参照すると、学習装置1100は、限定的ではない例示として、本願に開示された1つ以上の特徴抽出器の組み合わせのような、顔認証のために用いられる特徴抽出器1130を学習させるよう構成される。例えば、特徴抽出器1130は、複数の学習映像及び基準映像に基づいて学習され、入力値に対応する結果値を出力するように構成されたニューラルネットワークモデルであってもよい。学習装置1100は、例示的な特徴抽出器1130の学習と共に、ニューラルネットワークの追加的な分類又は比較の部分又は目的の部分を学習させ得る。 Referring to FIG. 11, a training device 1100 trains a feature extractor 1130 used for face authentication, such as, by way of non-limiting example, one or more feature extractor combinations disclosed herein. configured as follows. For example, feature extractor 1130 may be a neural network model trained based on a plurality of training and reference images and configured to output result values corresponding to input values. Along with training the exemplary feature extractor 1130, the training device 1100 may train additional classification or comparison or objective portions of the neural network.

学習装置1100は、1つ以上のプロセッサ1110及びメモリ1120を含む。メモリ1120は、プロセッサ1110と接続された不揮発性コンピュータで読み出し可能な媒体又は装置であってもよく、ニューラルネットワークの学習の間にプロセッサ1110によって処理されるデータ及び/又はプロセッサ1110によって処理されるデータ、ニューラルネットワークの学習を行うためにプロセッサ1110によって実行され得る命令を格納する。 Learning device 1100 includes one or more processors 1110 and memory 1120 . Memory 1120 may be a non-volatile computer readable medium or device coupled to processor 1110 and may be used to process data processed by processor 1110 and/or data processed by processor 1110 during neural network training. , stores instructions that can be executed by the processor 1110 to train the neural network.

1つの例示として、1つ以上の学習映像が学習装置1100に入力されるとき、プロセッサ1110は学習映像でそれぞれの顔領域を検出し、前記検出された顔領域から特徴を抽出し、上記の例示的である抽出器1130をそれぞれ学習させ、例えば、抽出器1130は、ここで議論された別個の特徴認識器又は抽出器を示す。特徴認識又は抽出は顔映像に関するものでなくてもよく、他の例示において、特徴認識器又は抽出器は、予め検出された顔映像に対する認識を実行して究極的な認証目的のためにこれを組み合わせてもよい。異なる例として、プロセッサ1110は、特徴抽出器1130によって抽出された特徴及び意図的な特徴間の差によって発生した損失を算出することで学習を実行し、算出された損失を減らす方向に特徴抽出器1130に含まれたパラメータを調整することで特徴抽出器1130の学習を行うことができる。 As an example, when one or more training videos are input to the training device 1100, the processor 1110 detects respective facial regions in the training videos, extracts features from the detected facial regions, For example, extractor 1130 represents a separate feature recognizer or extractor discussed herein. The feature recognition or extraction may not be related to facial images, and in another example, the feature recognizer or extractor performs recognition on pre-detected facial images and uses it for ultimate authentication purposes. May be combined. As a different example, the processor 1110 performs learning by calculating the loss caused by the difference between the feature extracted by the feature extractor 1130 and the intentional feature, and the feature extractor 1130 learns to reduce the calculated loss. The feature extractor 1130 can be trained by adjusting the parameters contained in 1130 .

上述の実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合わせで具現化される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現化される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野で通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数類型の処理要素を含むことが分かる。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。 The embodiments described above may be embodied in hardware components, software components, or a combination of hardware and software components. For example, the devices and components described in this embodiment include processors, controllers, ALUs (arithmetic logic units), digital signal processors, microcomputers, FPAs (field programmable arrays), PLUs (programmable logic units), microprocessors, or different devices that execute and respond to instructions, using one or more general-purpose or special-purpose computers. The processing device executes an operating system (OS) and one or more software applications that run on the operating system. The processing unit also accesses, stores, manipulates, processes, and generates data in response to executing the software. For convenience of understanding, the processing device may be described as one being used, but those of ordinary skill in the art will understand that the processing device may include multiple processing elements and/or It can be seen that there are multiple types of processing elements. For example, a processing device may include multiple processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

ソフトウェアは、コンピュータプログラム、コード、命令、又はこれらのうちの1つ以上の組み合わせを含み、希望通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、或いは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散された方法で格納されるか又は実行される。ソフトウェア及びデータは1つ以上のコンピュータ読み取り可能な記録媒体に格納される。 Software includes computer programs, code, instructions, or a combination of one or more of these, to configure and, independently or jointly, to direct the processor to operate as desired. Software and/or data are any type of machine, component, physical device, virtual device, computer storage medium or device, or signal transmitted to be interpreted by a processing device and to provide instructions or data to the processing device. Permanently or temporarily embodied through waves. The software may be stored and executed in a distributed fashion over network coupled computer systems. Software and data are stored on one or more computer-readable media.

本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現化され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独で又は組み合わせて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。 The method according to the present embodiment is embodied in the form of program instructions executed via various computer means and recorded in a computer-readable recording medium. The recording media may include program instructions, data files, data structures, etc. singly or in combination. The recording medium and program instructions may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well known and available to those having skill in the computer software arts. . Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. It includes media and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code, such as that generated by a compiler, as well as high-level language code that is executed by a computer, such as using an interpreter. A hardware device may be configured to act as one or more software modules to perform the operations of the present invention, and vice versa.

上述のように実施形態がたとえ限定された図面によって説明されても、当該技術分野で通常の知識を有する者であれば、上記に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順序で実行されたり、かつ/あるいは説明されたシステム、構造、装置、回路などの構成要素が説明された方法と異なる形態で結合又は組み合わせられたり、他の構成要素又は均等物によって置き換えたり置換されても適切な結果を達成することができる。 Even though the embodiments are described by means of limited drawings as described above, those skilled in the art can apply various technical modifications and variations based on the above. . For example, the techniques described may be performed in a different order than in the manner described and/or components such as systems, structures, devices, circuits, etc. described may be combined or combined in a manner different than in the manner described. , may be substituted or substituted with other components or equivalents to achieve suitable results.

110 ユーザ
120 コンピューティング装置
130 カメラ
140 顔領域
310、320 顔認証手続
312、313、322、323 正規化された映像
401 映像
413、423 正規化された顔領域
110 user 120 computing device 130 camera 140 face regions 310, 320 face recognition procedures 312, 313, 322, 323 normalized image 401 images 413, 423 normalized face region

Claims (62)

プロセッサによって実行される顔認証方法において、
複数の認証モードのうち顔認証のために実行される現在認証モードを選択するステップと、
複数の認識器のうち前記選択された現在認証モードに基づいて顔認証に利用する1つ以上の認識器を決定するステップと、
前記決定された1つ以上の認識器のうち、少なくとも1つを用いて顔の情報から特徴情報を抽出するステップと、
前記抽出された特徴情報に基づいて認証成功の有無を表示するステップと、
含み、
前記1つ以上の認識器は、第1認識器及び第2認識器を含み、
前記第1認識器は、低照度環境で撮影された入力映像に対する認識率が前記第2認識器よりも高く、かつ、前記第2認識器は、顔領域に顔の隠しによる閉塞領域が存在する入力映像に対する認識率が前記第1認識器よりも高い、
顔認証方法。
In a face authentication method executed by a processor,
selecting a current authentication mode to be performed for face authentication from among a plurality of authentication modes;
determining one or more recognizers to be used for face recognition based on the selected current authentication mode among a plurality of recognizers;
extracting feature information from face information using at least one of the determined one or more recognizers;
a step of displaying the presence or absence of authentication success based on the extracted feature information;
including
the one or more recognizers include a first recognizer and a second recognizer;
The first recognizer has a higher recognition rate than the second recognizer for an input image shot in a low-illuminance environment, and the second recognizer has an occluded area due to face hiding in the face area. The recognition rate for the input image is higher than that of the first recognizer,
face recognition method.
1つ以上の認識器の決定に基づいて1つの認識器を取得するステップをさらに含み、
前記特徴情報を抽出するステップは、前記抽出された特徴情報を生成するために前記取得された認識器に映像の決定された顔領域からの映像情報を適用するステップを含む、
請求項1に記載の顔認証方法。
further comprising obtaining a recognizer based on the determination of the one or more recognizers;
extracting the feature information includes applying video information from a determined facial region of a video to the acquired recognizer to generate the extracted feature information;
The face authentication method according to claim 1.
前記取得された認識器への適用に適するよう予め決定された形態に前記映像情報を生成するために、前記映像の前記決定された顔領域の第1正規化を行うステップをさらに含み、
前記取得された認識器は、学習されたニューラルネットワーク又は機械学習モデルである、
請求項2に記載の顔認証方法。
further comprising performing a first normalization of the determined facial region of the image to produce the image information in a predetermined form suitable for application to the obtained recognizer;
wherein the obtained recognizer is a trained neural network or machine learning model;
The face authentication method according to claim 2.
前記現在認証モードに基づいて異なる取得された認識器への適用に適するよう予め決定された形態に各映像情報を生成するために、映像の決定された顔領域に対してそれぞれ正規化を行うステップをさらに含み、
前記特徴情報を抽出するステップは、前記異なる取得された認識器を用いて各映像情報からそれぞれの特徴情報を抽出するステップを含み、
前記認証成功の有無を表示するステップは、前記抽出されたそれぞれの特徴情報のうち少なくとも1つに基づいて前記認証が成功したか否かを表示するステップを含む、
請求項1ないし3のいずれか一項に記載の顔認証方法。
respectively performing a normalization on the determined facial regions of the image to generate each image information in a form predetermined to be suitable for application to different acquired recognizers based on the current authentication mode; further comprising
extracting the feature information includes extracting respective feature information from each piece of video information using the different acquired recognizers;
The step of displaying whether or not the authentication was successful includes displaying whether or not the authentication was successful based on at least one of the extracted characteristic information.
The face authentication method according to any one of claims 1 to 3.
前記各正規化を行うステップは、前記映像の決定された顔領域で閉塞領域又は閉塞が予想される領域に関する映像情報を合成するステップを含む、
請求項4に記載の顔認証方法。
each of the steps of normalizing includes synthesizing image information relating to an occlusion region or an expected occlusion region in the determined facial region of the image;
The face authentication method according to claim 4.
前記顔認証を行うステップをさらに含み、
前記顔認証を行うステップは、
前記抽出されたそれぞれの特徴情報のうち抽出された第1特徴情報に基づいて第1認証を行うステップと、
前記抽出されたそれぞれの特徴情報のうち抽出された第2特徴情報に基づいて第2認証を選択的に行うステップと、
前記第2認証が選択的に実行されたか否かに依存して、前記抽出された第1特徴情報及び前記抽出された第2特徴情報に基づいて第3認証を選択的に行うステップと、
前記第3認証の結果に基づいて前記顔認証が成功したか否かを決定するステップと、
を含む、請求項4に記載の顔認証方法。
further comprising performing the face authentication;
The step of performing face authentication includes:
performing a first authentication based on first feature information extracted from each of the extracted feature information;
selectively performing a second authentication based on second feature information extracted from each of the extracted feature information;
selectively performing a third authentication based on the extracted first feature information and the extracted second feature information depending on whether the second authentication was selectively performed;
determining whether the face authentication is successful based on the result of the third authentication;
5. The face authentication method according to claim 4, comprising:
前記特徴情報を抽出するステップは、前記現在認証モードに基づいて異なる決定された認識器を用いて映像の決定された顔領域の各正規化からそれぞれの特徴情報を抽出するステップを含み、
前記それぞれの特徴情報を抽出するステップは、現在認証モードに基づいて前記顔認証の使用性及びセキュリティー性のうち1つに加重値を付与して選択的かつ部分的に実行される、
請求項1に記載の顔認証方法。
the step of extracting feature information includes extracting respective feature information from each normalization of a determined face region of a video using a different determined recognizer based on the current authentication mode;
The step of extracting each feature information is selectively and partially performed by giving a weight to one of usability and security of the face authentication based on the current authentication mode.
The face authentication method according to claim 1.
前記1つ以上の認識器を決定するステップは、
前記顔認証のための複数の異なる認識器を決定するステップと、
前記現在認証モードに依存して、前記異なる認識器の選択組み合わせ及び/又は配置に基づいて前記顔認証を行うステップを含む、
請求項1に記載の顔認証方法。
Determining the one or more recognizers comprises:
determining a plurality of different recognizers for said face recognition;
performing the face authentication based on selected combinations and/or arrangements of the different recognizers depending on the current authentication mode;
The face authentication method according to claim 1.
前記顔認証を行うステップは、前記現在認証モードに基づいて前記異なる認識器に対応するそれぞれの認証手続を選択的に行うステップを含む、
請求項8に記載の顔認証方法。
performing face authentication includes selectively performing respective authentication procedures corresponding to the different recognizers based on the current authentication mode;
The face authentication method according to claim 8.
前記それぞれの認証手続は、互いに異なるように抽出された特徴情報及び対応する登録情報の間で対応する閾値でそれぞれの類似度を比較するステップを含む、
請求項9に記載の顔認証方法。
Each of the authentication procedures includes a step of comparing respective similarities with corresponding thresholds between the feature information extracted differently from each other and the corresponding registration information;
The face authentication method according to claim 9.
記第1認識器及び前記第2認識器は、学習データを用いてそれぞれ学習され、
前記第1認識器は低照度環境の顔認証のために低照度の顔特徴抽出を行い、前記第2認識器は1つ以上の閉塞領域を含む顔領域に関する学習データで学習される、
請求項8に記載の顔認証方法。
The first recognizer and the second recognizer are each trained using learning data,
The first recognizer performs low-light facial feature extraction for face recognition in a low-light environment, and the second recognizer is trained with training data regarding face regions including one or more occluded regions.
The face authentication method according to claim 8.
前記特徴情報を抽出するステップは、
前記第1認識器を用いて映像の決定された顔領域の映像情報から第1特徴情報を取得するステップを含み、
前記顔認証方法は顔認証を行うステップをさらに含み、
前記顔認証を行うステップは、
前記第1特徴情報に基づいて第1認証結果を決定するステップと、
前記第1認証結果と前記現在認証モードに基づいて、前記第2認識器を用いて第2特徴情報を抽出するか否かを決定するステップと、
を含み、
前記複数の認証モードは、第1認証モード及び第2認証モードのうち少なくとも1つを含む、
請求項8に記載の顔認証方法。
The step of extracting the feature information includes:
obtaining first feature information from image information of the determined face region of the image using the first recognizer;
The face authentication method further comprises performing face authentication,
The step of performing face authentication includes:
determining a first authentication result based on the first characteristic information;
determining whether to extract second feature information using the second recognizer based on the first authentication result and the current authentication mode;
including
the plurality of authentication modes includes at least one of a first authentication mode and a second authentication mode;
The face authentication method according to claim 8.
前記特徴情報を抽出するステップは、前記第2特徴情報を抽出するか否かの決定に応答して、前記第2認識器を用いて他の映像の決定された顔領域又は前記映像の前記決定された顔領域からの他の映像情報又は前記映像情報から前記第2特徴情報を抽出するステップを含み、前記第2特徴情報を抽出するか否かの決定は、前記第2特徴情報を抽出するという決定であり、
前記顔認証を行うステップは、
前記第2特徴情報に基づいて第2認証結果を決定するステップと、
前記第2認証結果に基づいて前記認証成功の有無を決定するステップと、
を含む、請求項12に記載の顔認証方法。
The step of extracting the feature information includes determining a determined facial region of another image or the determination of the image using the second recognizer in response to a determination of whether to extract the second feature information. extracting the second feature information from the video information or other video information from the face region, wherein determining whether to extract the second feature information includes extracting the second feature information. is the decision that
The step of performing face authentication includes:
determining a second authentication result based on the second characteristic information;
determining whether or not the authentication is successful based on the second authentication result;
13. The face authentication method of claim 12, comprising:
前記顔認証を行うステップは、
第1認証モードとして選択された前記現在認証モードに応答して、
前記第2認証結果が失敗である場合に応答して、最終認証結果を失敗として決定するステップと、
前記第2認証結果が成功である場合に応答して、前記最終認証結果を成功として決定するステップと、
を含む、請求項13に記載の顔認証方法。
The step of performing face authentication includes:
In response to said current authentication mode being selected as a first authentication mode,
determining a final authentication result as failure in response to the second authentication result being failure;
determining the final authentication result as successful in response to the second authentication result being successful;
14. The face authentication method of claim 13, comprising:
前記顔認証を行うステップは、
第2認証モードとして選択された前記現在認証モードに応答して、
前記第1認証結果が成功である場合に応答して、前記第2特徴情報が抽出されるものと決定するステップと、
前記第2認証結果が成功である場合に応答して、前記最終認証結果を成功として決定するステップと、
を含む、請求項14に記載の顔認証方法。
The step of performing face authentication includes:
In response to the current authentication mode selected as a second authentication mode,
determining that the second characteristic information is to be extracted in response to the first authentication result being successful;
determining the final authentication result as successful in response to the second authentication result being successful;
15. The face authentication method of claim 14, comprising:
前記顔認証を行うステップは、
前記現在認証モードが第1認証モードとして選択された場合、
前記第1認証結果が認証失敗である場合、前記第2特徴情報を抽出するものと決定するステップと、
前記第1認証結果が認証成功である場合、最終認証結果を認証成功として決定して顔認証手続を終了するステップと、
を含む、請求項12に記載の顔認証方法。
The step of performing face authentication includes:
When the current authentication mode is selected as the first authentication mode,
determining to extract the second feature information if the first authentication result is authentication failure;
determining a final authentication result as authentication success and ending the face authentication procedure when the first authentication result is authentication success;
13. The face authentication method of claim 12, comprising:
前記第2認証モードとして選択された前記現在認証モードに応答して、
前記第1認証結果が認証失敗である場合、最終認証結果を認証失敗として決定して顔認証手続を終了するステップと、
前記第1認証結果が認証成功である場合、前記第2特徴情報を抽出するものと決定するステップと、
を含む、請求項15に記載の顔認証方法。
In response to the current authentication mode selected as the second authentication mode,
determining a final authentication result as authentication failure and ending the face authentication procedure when the first authentication result is authentication failure;
determining to extract the second feature information if the first authentication result is successful authentication;
16. The face authentication method of claim 15, comprising:
前記第1認証結果を決定するステップは、前記第1特徴情報と前記第1認識器を用いて予め抽出された第1登録特徴情報の比較に基づいて前記第1認証結果を決定するステップをさらに含む、
請求項12に記載の顔認証方法。
The step of determining the first authentication result further includes determining the first authentication result based on a comparison of the first feature information and first registered feature information extracted in advance using the first recognizer. include,
The face authentication method according to claim 12.
前記第1認証結果が認証成功である場合、前記第1特徴情報を用いて前記第1登録特徴情報をアップデートするステップを選択的にさらに含む、
請求項18に記載の顔認証方法。
optionally further comprising updating the first registered feature information using the first feature information when the first authentication result is successful authentication;
The face authentication method according to claim 18.
前記第2認証結果を決定するステップは、前記第2特徴情報と前記第2認識器を用いて抽出された第2登録特徴情報を比較して前記第2認証結果を決定する、
請求項13に記載の顔認証方法。
The step of determining the second authentication result compares the second feature information with the second registered feature information extracted using the second recognizer to determine the second authentication result.
The face authentication method according to claim 13.
前記第2認証結果が認証成功である場合、前記第2特徴情報を用いて前記第2登録特徴情報をアップデートするステップを選択的にさらに含む、
請求項20に記載の顔認証方法。
optionally further comprising updating the second registered feature information using the second feature information when the second authentication result is successful authentication;
The face authentication method according to claim 20.
前記第1認証結果を決定するステップは、
前記第1特徴情報と前記第1認識器を用いて抽出された第1登録特徴情報間の類似度を算出するステップと、
前記類似度と予め設定された第1閾値との間の比較結果に基づいて前記第1認証結果を決定するステップと、
を含む、請求項12に記載の顔認証方法。
The step of determining the first authentication result includes:
calculating a similarity between the first feature information and the first registered feature information extracted using the first recognizer;
determining the first authentication result based on a comparison result between the similarity and a preset first threshold;
13. The face authentication method of claim 12, comprising:
前記特徴情報を抽出するステップは、
入力映像から顔領域を検出するステップと、
前記検出された顔領域から顔のランドマークを検出するステップと、
前記検出されたランドマークに基づいて前記顔領域を正規化して前記顔の前記情報を生成するステップと、
を含む、請求項1に記載の顔認証方法。
The step of extracting the feature information includes:
detecting a face region from an input video;
detecting facial landmarks from the detected facial region;
normalizing the face region based on the detected landmarks to generate the information of the face;
The face authentication method of claim 1, comprising:
請求項1ないし請求項23のいずれか一項に記載の方法をコンピュータで実行するためのプログラムを記録するコンピュータで読み出し可能な記録媒体。 A computer-readable recording medium recording a program for executing the method according to any one of claims 1 to 23 on a computer. 顔認証装置において、前記顔認証装置は少なくとも1つのプロセッサを含み、前記少なくとも1つのプロセッサは、
複数の認証モードのうち顔認証のために実行される現在認証モードを選択し、
前記選択された現在認証モードに基づいて複数の認識器のうち1つ以上の認識器を決定し、
前記決定された1つ以上の認識器を用いて顔の情報から特徴情報を抽出し、
前記抽出された特徴情報に基づいて認証成功の有無を表示するように構成されており、
前記1つ以上の認識器は、第1認識器及び第2認識器を含み、
前記第1認識器は、低照度環境で撮影された入力映像に対する認識率が前記第2認識器よりも高く、かつ、前記第2認識器は、顔領域に顔の隠しによる閉塞領域が存在する入力映像に対する認識率が前記第1認識器よりも高い、
顔認証装置。
In a face authentication device, the face authentication device includes at least one processor, the at least one processor comprising:
select a current authentication mode to be performed for face authentication from multiple authentication modes,
determining one or more recognizers among a plurality of recognizers based on the selected current authentication mode;
extracting feature information from face information using the determined one or more recognizers;
configured to display whether or not authentication has been successful based on the extracted characteristic information;
the one or more recognizers include a first recognizer and a second recognizer;
The first recognizer has a higher recognition rate than the second recognizer for an input image shot in a low-illuminance environment, and the second recognizer has an occluded area due to face hiding in the face area. The recognition rate for the input image is higher than that of the first recognizer,
face recognition device.
前記1つ以上のプロセッサは、1つ以上の認識器の決定に基づいて1つの認識器を取得し、
前記1つ以上のプロセッサは、前記抽出された特徴情報を生成するために前記取得された認識器に映像の決定された顔領域からの映像情報を適用する、
請求項25に記載の顔認証装置。
The one or more processors obtain a recognizer based on determinations of one or more recognizers;
The one or more processors apply video information from a determined facial region of a video to the acquired recognizer to generate the extracted feature information.
The face authentication device according to claim 25.
前記1つ以上のプロセッサは、
前記取得された認識器への適用に適するよう所定の形態に前記映像情報を生成するため、前記映像の前記決定された顔領域の第1正規化を行い、
前記取得された認識器は、学習されたニューラルネットワーク又は機械学習モデルである、
請求項26に記載の顔認証装置。
The one or more processors
performing a first normalization of the determined facial region of the image to produce the image information in a predetermined form suitable for application to the obtained recognizer;
wherein the obtained recognizer is a trained neural network or machine learning model;
27. The face authentication device according to claim 26.
前記1つ以上のプロセッサは、
前記現在認証モードに基づいて異なる取得された認識器への適用に適するよう予め決定された形態に各映像情報を生成するために、映像の決定された顔領域に対してそれぞれ正規化を行い、
前記異なる取得された認識器を用いて各映像情報からそれぞれの特徴情報を抽出し、
前記抽出されたそれぞれの特徴情報のうち少なくとも1つに基づいて前記認証が成功したか否かを表示する、
請求項25ないし27のいずれか一項に記載の顔認証装置。
The one or more processors
each normalizing the determined face region of the image to generate each image information in a predetermined form suitable for application to different acquired recognizers based on the current authentication mode;
extracting respective feature information from each video information using the different acquired recognizers;
displaying whether the authentication was successful based on at least one of the extracted feature information;
28. A face authentication device according to any one of claims 25-27.
前記1つ以上のプロセッサは、前記各正規化のうち少なくとも1つのために前記映像の決定された顔領域で閉塞領域又は閉塞が予想される領域に関する映像情報を合成する、
請求項28に記載の顔認証装置。
The one or more processors combine video information regarding occlusion regions or expected occlusion regions in determined facial regions of the video for at least one of the respective normalizations.
The face authentication device according to claim 28.
前記1つ以上のプロセッサは、
前記抽出されたそれぞれの特徴情報のうち抽出された第1特徴情報に基づいて第1認証を行い、
前記抽出されたそれぞれの特徴情報のうち抽出された第2特徴情報に基づいて第2認証を選択的に行い、
前記第2認証が選択的に実行されたか否かに依存して、前記抽出された第1特徴情報及び前記抽出された第2特徴情報に基づいて第3認証を選択的に行い、
前記第3認証の結果に基づいて、前記顔認証が成功したか否かを決定する、
請求項28に記載の顔認証装置。
The one or more processors
performing first authentication based on first feature information extracted from each of the extracted feature information;
selectively performing second authentication based on second feature information extracted from each of the extracted feature information;
selectively performing a third authentication based on the extracted first feature information and the extracted second feature information, depending on whether the second authentication was selectively performed;
Determining whether the face authentication was successful based on the result of the third authentication;
The face authentication device according to claim 28.
前記1つ以上のプロセッサは、
前記現在認証モードに基づいて異なる決定された認識器を用いて映像の決定された顔領域の各正規化からそれぞれの特徴情報を抽出し、
前記1つ以上のプロセッサは、現在認証モードに基づいて前記顔認証の使用性及びセキュリティー性のうち1つに加重値を付与して選択的かつ部分的に行う、
請求項25に記載の顔認証装置。
The one or more processors
extracting respective feature information from each normalization of the determined face region of the video using different determined recognizers based on the current authentication mode;
The one or more processors selectively and partially weight one of usability and security of the face authentication based on the current authentication mode.
The face authentication device according to claim 25.
前記1つ以上のプロセッサは、
前記現在認証モードに基づいて前記顔認証のための複数の異なる認識器を決定し、
前記現在認証モードに依存して、前記異なる認識器の選択組み合わせ及び/又は配置に基づいて前記認証を行うように構成される、
請求項25に記載の顔認証装置。
The one or more processors
determine a plurality of different recognizers for the face authentication based on the current authentication mode;
configured to perform said authentication based on selected combinations and/or arrangements of said different recognizers, depending on said current authentication mode;
The face authentication device according to claim 25.
前記1つ以上のプロセッサは、前記現在認証モードに基づいて前記異なる認識器に対応してそれぞれの認証手続を選択的に行うように構成される、
請求項32に記載の顔認証装置。
the one or more processors are configured to selectively perform respective authentication procedures corresponding to the different recognizers based on the current authentication mode;
33. A face authentication device according to claim 32.
前記1つ以上のプロセッサによって、前記それぞれの認証手続は互いに異なるように抽出された特徴情報及び対応する登録情報の間で対応する閾値からそれぞれの類似度を比較するステップを含む、
請求項33に記載の顔認証装置。
By the one or more processors, each of the authentication procedures includes comparing respective similarities from corresponding thresholds between different extracted feature information and corresponding enrollment information;
34. A face authentication device according to claim 33.
前記1つ以上のプロセッサは、
前記特徴情報の抽出を行うために、前記第1認識器を用いて映像の決定された顔領域から導き出された映像情報から第1特徴情報を抽出し、
前記認証を行うために、前記第1特徴情報に基づいて第1認証結果を決定し、
前記第1認証結果と前記現在認証モードに基づいて、前記第2認識器を用いて第2特徴情報を抽出するか否かを決定するように構成され、
前記複数の認証モードは、第1認証モード及び異なる第2認証モードのうち少なくとも1つを含む、
請求項32に記載の顔認証装置。
The one or more processors
extracting first feature information from video information derived from the determined face region of the video using the first recognizer to extract the feature information;
determining a first authentication result based on the first feature information to perform the authentication;
configured to determine whether to extract second feature information using the second recognizer based on the first authentication result and the current authentication mode;
The plurality of authentication modes includes at least one of a first authentication mode and a different second authentication mode,
33. A face authentication device according to claim 32.
前記少なくとも1つのプロセッサは、
前記第2特徴情報を抽出するか否かの決定に応答して、前記第2認識器を用いて他の映像の決定された顔領域又は前記映像の前記決定された顔領域からの他の映像情報又は前記映像情報から前記第2特徴情報を抽出し、前記第2特徴情報を抽出するか否かの決定は前記第2特徴情報を抽出するという決定であり、
前記第2特徴情報に基づいて第2認証結果を決定して前記認証を行い、
前記第2認証結果に基づいて前記認証成功の有無を決定するように構成される、
請求項35に記載の顔認証装置。
The at least one processor
a determined facial region of another image or another image from the determined facial region of the image using the second recognizer in response to determining whether to extract the second feature information; extracting the second feature information from the information or the video information, and determining whether to extract the second feature information is a decision to extract the second feature information;
determining a second authentication result based on the second characteristic information to perform the authentication;
configured to determine whether or not the authentication is successful based on the second authentication result;
36. A face authentication device according to claim 35.
前記少なくとも1つのプロセッサは、
前記現在認証モードが前記第1認証モードとして選択された場合、
前記第2認証結果が認証失敗である場合に応答して、最終認証結果を認証失敗として決定し、
前記第2認証結果が認証成功である場合に応答して、最終認証結果を認証成功として決定するように構成される、
請求項36に記載の顔認証装置。
The at least one processor
when the current authentication mode is selected as the first authentication mode,
determining a final authentication result as an authentication failure in response to the second authentication result being an authentication failure;
configured to determine a final authentication result as successful authentication in response to the second authentication result being successful authentication;
37. A face authentication device according to claim 36.
前記少なくとも1つのプロセッサは、
前記現在認証モードが第2認証モードとして選択された場合、
前記第1認証結果が認証失敗である場合に応答して、第2特徴情報を抽出するものと決定し、
前記第2認証結果が認証成功である場合に応答して、最終認証結果を認証成功として決定するように構成される、
請求項37に記載の顔認証装置。
The at least one processor
When the current authentication mode is selected as a second authentication mode,
determining to extract second feature information in response to the first authentication result being authentication failure;
configured to determine a final authentication result as successful authentication in response to the second authentication result being successful authentication;
38. A face authentication device according to claim 37.
前記1つ以上のプロセッサは、
前記現在認証モードが第1認証モードとして選択されることに応答して、
前記第1認証結果が認証失敗である場合に応答して、前記第2特徴情報を抽出するものと決定し、
前記第1認証結果が認証成功である場合、最終認証結果を認証成功として決定して顔認証手続を終了するように構成される、
請求項35に記載の顔認証装置。
The one or more processors
In response to the current authentication mode being selected as a first authentication mode,
determining to extract the second feature information in response to the first authentication result being authentication failure;
If the first authentication result is authentication success, the final authentication result is determined as authentication success and the face authentication procedure is terminated.
36. A face authentication device according to claim 35.
前記1つ以上のプロセッサは、
前記現在認証モードが第2認証モードとして選択された場合に応答して、
前記第1認証結果が認証失敗である場合、最終認証結果を認証失敗として決定して顔認証手続を終了し、
前記第1認証結果が認証成功である場合、前記第2特徴情報を抽出するものと決定するように構成される、
請求項35に記載の顔認証装置。
The one or more processors
In response to the current authentication mode being selected as a second authentication mode,
if the first authentication result is authentication failure, determining the final authentication result as authentication failure and ending the face authentication procedure;
configured to determine to extract the second characteristic information if the first authentication result is successful authentication;
36. A face authentication device according to claim 35.
前記1つ以上のプロセッサは、前記第1特徴情報と前記第1認識器を用いて予め抽出された第1登録特徴情報を比較して前記第1認証結果を決定するように構成される、
請求項35に記載の顔認証装置。
The one or more processors are configured to compare the first feature information and first enrolled feature information pre-extracted using the first recognizer to determine the first authentication result.
36. A face authentication device according to claim 35.
前記1つ以上のプロセッサは、前記第1認証結果が認証成功である場合、前記第1特徴情報を用いて前記第1登録特徴情報をアップデートするよう選択的に構成される、
請求項41に記載の顔認証装置。
The one or more processors are selectively configured to update the first registered characteristic information with the first characteristic information if the first authentication result is a successful authentication.
42. A face authentication device according to claim 41.
前記1つ以上のプロセッサは、前記第2特徴情報と前記第2認識器を用いて予め抽出された第2登録特徴情報を比較して前記第2認証結果を決定するように構成される、
請求項36に記載の顔認証装置。
The one or more processors are configured to compare the second feature information and second enrolled feature information pre-extracted using the second recognizer to determine the second authentication result.
37. A face authentication device according to claim 36.
前記1つ以上のプロセッサは、前記第2認証結果が認証成功である場合、前記第2特徴情報を用いて前記第2登録特徴情報をアップデートするよう選択的に構成される、
請求項43に記載の顔認証装置。
The one or more processors are selectively configured to update the second registered characteristic information using the second characteristic information if the second authentication result is a successful authentication.
44. A face authentication device according to claim 43.
前記1つ以上のプロセッサは、
前記第1特徴情報と前記第1認識器を用いて予め抽出された第1登録特徴情報間の類似度を算出し、
前記類似度と予め設定された第1閾値との間の比較結果に基づいて前記第1認証結果を決定するように構成される、
請求項35に記載の顔認証装置。
The one or more processors
calculating the degree of similarity between the first feature information and the first registered feature information extracted in advance using the first recognizer;
configured to determine the first authentication result based on a comparison result between the similarity and a preset first threshold;
36. A face authentication device according to claim 35.
前記1つ以上のプロセッサは、
入力映像から顔領域を検出し、
前記検出された顔領域から顔のランドマークを検出し、
前記検出されたランドマークに基づいて前記顔領域を正規化するように構成される、
請求項25に記載の顔認証装置。
The one or more processors
Detects the face area from the input video,
detecting facial landmarks from the detected facial region;
configured to normalize the face region based on the detected landmarks;
The face authentication device according to claim 25.
ユーザの顔領域が示された入力映像から第1特徴情報を抽出するニューラルネットワークモデルを含む第1認識器と、
前記入力映像から前記第1特徴情報と異なる第2特徴情報を抽出する異なるニューラルネットワークモデルを含む第2認識器と、
前記抽出された第1特徴情報と登録された第1登録特徴情報とを比較した第1認証結果、及び前記抽出された第2特徴情報と登録された第2登録特徴情報とを比較した第2認証結果のうち少なくとも1つが成功であれば、顔認証を成功として決定する1つ以上のプロセッサと、
含み、
前記第1認識器は、低照度環境で撮影された入力映像に対する認識率が前記第2認識器よりも高く、かつ、前記第2認識器は、顔領域に顔の隠しによる閉塞領域が存在する入力映像に対する認識率が前記第1認識器よりも高い、
コンピューティング装置。
a first recognizer including a neural network model for extracting first feature information from an input video showing a user's facial region;
a second recognizer including a different neural network model for extracting second feature information different from the first feature information from the input image;
A first authentication result obtained by comparing the extracted first feature information and the registered first registered feature information, and a second authentication result obtained by comparing the extracted second feature information and the registered second registered feature information. one or more processors that determine face authentication as successful if at least one of the authentication results is successful;
including
The first recognizer has a higher recognition rate than the second recognizer for an input image shot in a low-illuminance environment, and the second recognizer has an occluded area due to face hiding in the face area. The recognition rate for the input image is higher than that of the first recognizer,
computing device.
前記第1認識器のニューラルネットワークモデル及び前記第2認識器の異なるニューラルネットワークモデルは、互いに異なる学習データに基づいてそれぞれ学習されたものである、
請求項47に記載のコンピューティング装置。
The neural network model of the first recognizer and the different neural network model of the second recognizer are learned based on learning data different from each other,
48. A computing device as recited in claim 47.
前記第2認識器の異なるニューラルネットワークモデルは、学習の顔領域に閉塞領域が存在したり、存在するものと予想される学習データに基づいて学習されたものである、
請求項47に記載のコンピューティング装置。
The different neural network model of the second recognizer is learned based on learning data in which an occluded region exists in the learning face region or is expected to exist,
48. A computing device as recited in claim 47.
前記顔領域から閉塞領域が存在するものと予想される領域を平均映像、平均値映像又は単一カラー映像の対応する領域の映像情報に代替する映像が、前記第2特徴情報の抽出のために前記第2認識器の異なるニューラルネットワークモデルに入力される、
請求項47に記載のコンピューティング装置。
An image that replaces an area in which an occluded area is expected to exist from the face area with image information of a corresponding area of an average image, an average value image, or a single color image is used for extracting the second feature information. input to different neural network models of the second recognizer;
48. A computing device as recited in claim 47.
前記閉塞領域が存在するものと予想される領域は、前記顔領域からメガネ、サングラス、帽子、又はマスクのうちの1つ以上の組み合わせにより閉塞が示される領域である、
請求項50に記載のコンピューティング装置。
The area where the occlusion area is expected to exist is an area where occlusion is indicated by a combination of one or more of glasses, sunglasses, a hat, or a mask from the face area.
51. A computing device as recited in claim 50.
前記1つ以上のプロセッサは、
前記顔認証が成功であれば、前記コンピューティング装置のロックモードを解除し、
前記第1認証結果及び前記第2認証結果が認証失敗である場合に応答して、前記1つ以上のプロセッサはロックモードを保持したりロックモードを解除しない、
請求項47ないし51のいずれか一項に記載のコンピューティング装置。
The one or more processors
if the face authentication is successful, unlocking the computing device;
responsive to the first authentication result and the second authentication result being authentication failure, the one or more processors do not retain or release the lock mode;
52. A computing device according to any one of claims 47-51.
ユーザの顔領域が示された入力映像から第1特徴情報を抽出するニューラルネットワークモデルを含む第1認識器と、
前記入力映像から前記第1特徴情報と異なる第2特徴情報を抽出する異なるニューラルネットワークモデルを含む第2認識器と、
前記抽出された第1特徴情報と登録された第1登録特徴情報とを比較した第1認証結果、及び前記抽出された第2特徴情報と登録された第2登録特徴情報とを比較した第2認証結果のうち少なくとも1つが失敗であれば、顔認証を失敗として決定する1つ以上のプロセッサと、
含み、
前記第1認識器は、低照度環境で撮影された入力映像に対する認識率が前記第2認識器よりも高く、かつ、前記第2認識器は、顔領域に顔の隠しによる閉塞領域が存在する入力映像に対する認識率が前記第1認識器よりも高い、
コンピューティング装置。
a first recognizer including a neural network model for extracting first feature information from an input video showing a user's facial region;
a second recognizer including a different neural network model for extracting second feature information different from the first feature information from the input image;
A first authentication result obtained by comparing the extracted first feature information and the registered first registered feature information, and a second authentication result obtained by comparing the extracted second feature information and the registered second registered feature information. one or more processors that determine face authentication as unsuccessful if at least one of the authentication results fails;
including
The first recognizer has a higher recognition rate than the second recognizer for an input image shot in a low-illuminance environment, and the second recognizer has an occluded area due to face hiding in the face area. The recognition rate for the input image is higher than that of the first recognizer,
computing device.
前記第1認識器のニューラルネットワークモデル及び前記第2認識器の異なるニューラルネットワークモデルは、互いに異なる学習データに基づいてそれぞれ学習されたものである、
請求項53に記載のコンピューティング装置。
The neural network model of the first recognizer and the different neural network model of the second recognizer are learned based on learning data different from each other,
54. A computing device as recited in claim 53.
前記第2認識器の異なるニューラルネットワークモデルは、学習の顔領域に閉塞領域が存在したり存在するものと予想される学習データに基づいて学習されたものである、
請求項53に記載のコンピューティング装置。
The different neural network model of the second recognizer is learned based on learning data in which an occluded region exists or is expected to exist in the learning face region,
54. A computing device as recited in claim 53.
前記顔領域から閉塞領域が存在するものと予想される領域を平均映像、平均値映像又は単一カラー映像の対応する領域の映像情報に代替する映像が、前記第2特徴情報を抽出するために前記第2認識器の異なるニューラルネットワークモデルに入力される、
請求項53に記載のコンピューティング装置。
An image that substitutes image information of a corresponding area of an average image, an average value image, or a single color image for an area in which an occluded area is expected to exist from the face area is used to extract the second feature information. input to different neural network models of the second recognizer;
54. A computing device as recited in claim 53.
前記閉塞領域が存在するものと予想される領域は、前記顔領域からメガネ、サングラス、帽子、又はマスクのうちの1つ以上の組み合わせにより閉塞が示される領域である、
請求項56に記載のコンピューティング装置。
The area where the occlusion area is expected to exist is an area where occlusion is indicated by a combination of one or more of glasses, sunglasses, a hat, or a mask from the face area.
57. A computing device as recited in claim 56.
前記コンピューティング装置は、
前記顔認証が失敗であれば、前記コンピューティング装置を用いた金融サービス又は決済サービスにおける認証結果を認証失敗として決定し、
前記第1認証結果及び前記第2認証結果が認証成功である場合に応答して、前記1つ以上のプロセッサは、前記決済サービス又は前記金融サービスで前記認証結果を認証成功として決定する、
請求項53ないし57のいずれか一項に記載のコンピューティング装置。
The computing device comprises:
If the face authentication fails, determining the authentication result in the financial service or payment service using the computing device as an authentication failure;
In response to the first authentication result and the second authentication result being successful authentication, the one or more processors determine the authentication result as successful authentication with the payment service or the financial service.
58. A computing device according to any one of claims 53-57.
前記コンピューティング装置はトランシーバーをさらに含み、
前記決済サービス又は前記金融サービスで前記認証結果が成功に決定された場合、前記1つ以上のプロセッサは、前記トランシーバーが決済情報を外部の端末に送信したり、前記金融サービスにより金融トランザクションを行ったり、及び/又は、前記金融サービスによりユーザインターフェースに金融情報を提供するよう構成される、
請求項58に記載のコンピューティング装置。
said computing device further comprising a transceiver;
When the authentication result is determined to be successful in the payment service or the financial service, the one or more processors cause the transceiver to transmit payment information to an external terminal or perform a financial transaction through the financial service. and/or configured to provide financial information to a user interface by the financial service;
59. A computing device as recited in claim 58.
ユーザの顔領域を含む入力映像から第1特徴情報を抽出するように構成されるニューラルネットワークを含む第1認識器と、
前記第1特徴情報と異なる第2特徴情報を前記入力映像から抽出するように構成される異なるニューラルネットワークを含む第2認識器と、
第1認証モード及び第2認証モードのうちの1つから前記ユーザを認証するために実行される現在認証モードを決定するよう構成された1つ以上のプロセッサと、
を含み、
前記現在認証モードが前記第1認証モードとして決定される場合、前記1つ以上のプロセッサは、第1認証結果及び第2認証結果のうち少なくとも1つが認証成功である場合に応答して顔認識が成功であると決定し、前記第1認証結果は前記第1特徴情報を第1登録特徴情報と比較することによって取得され、前記第2認証結果は前記第2特徴情報を第2登録特徴情報と比較することによって取得され、
前記現在認証モードが前記第2認証モードとして決定される場合、前記1つ以上のプロセッサは、前記第1認証結果及び前記第2認証結果のうち少なくとも1つが失敗である場合に応答して顔認証を失敗として決定し、
前記第1認識器は、低照度環境で撮影された入力映像に対する認識率が前記第2認識器よりも高く、かつ、前記第2認識器は、顔領域に顔の隠しによる閉塞領域が存在する入力映像に対する認識率が前記第1認識器よりも高い、
コンピューティング装置。
a first recognizer comprising a neural network configured to extract first feature information from an input video comprising a facial region of a user;
a second recognizer comprising a different neural network configured to extract second feature information from the input video that is different from the first feature information;
one or more processors configured to determine a current authentication mode to be implemented to authenticate the user from one of a first authentication mode and a second authentication mode;
including
When the current authentication mode is determined as the first authentication mode, the one or more processors perform facial recognition in response to at least one of a first authentication result and a second authentication result being successful authentication. determined to be successful, the first authentication result is obtained by comparing the first characteristic information with the first registered characteristic information, and the second authentication result is obtained by comparing the second characteristic information with the second registered characteristic information. obtained by comparing
When the current authentication mode is determined as the second authentication mode, the one or more processors perform face authentication in response to at least one of the first authentication result and the second authentication result being unsuccessful. as a failure , and
The first recognizer has a higher recognition rate than the second recognizer for an input image shot in a low-illuminance environment, and the second recognizer has an occluded area due to face hiding in the face area. The recognition rate for the input image is higher than that of the first recognizer,
computing device.
前記第1認証モードは予め決定されたロック解除モードであり、
前記ロック解除モードは、コンピューティング装置がロック状態である場合に1つ以上のプロセッサによって自動で実行されるよう調整されたり、前記ユーザが前記コンピューティング装置のユーザインターフェースを解除しようと試みる場合に前記1つ以上のプロセッサによって実行されるよう決定される、
請求項60に記載のコンピューティング装置。
the first authentication mode is a predetermined unlock mode;
The unlock mode is arranged to be automatically executed by one or more processors when the computing device is in a locked state, or when the user attempts to unlock the user interface of the computing device. determined to be executed by one or more processors;
61. A computing device as recited in claim 60.
前記第2認証モードは予め決定された決済モードであり、
前記決済モードは、前記ユーザが前記コンピューティング装置の決済サービスにアクセスしたり選択する場合に、前記1つ以上のプロセッサによって実行されるよう決定される、
請求項60または61に記載のコンピューティング装置。
the second authentication mode is a predetermined payment mode;
the payment mode is determined to be performed by the one or more processors when the user accesses or selects payment services on the computing device;
62. A computing device according to claim 60 or 61.
JP2018042975A 2017-03-28 2018-03-09 Face authentication method and device Active JP7133949B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0039489 2017-03-28
KR1020170039489A KR102370063B1 (en) 2017-03-28 2017-03-28 Method and apparatus for verifying face

Publications (2)

Publication Number Publication Date
JP2018165983A JP2018165983A (en) 2018-10-25
JP7133949B2 true JP7133949B2 (en) 2022-09-09

Family

ID=61832391

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018042975A Active JP7133949B2 (en) 2017-03-28 2018-03-09 Face authentication method and device

Country Status (5)

Country Link
US (2) US11532177B2 (en)
EP (1) EP3382603B1 (en)
JP (1) JP7133949B2 (en)
KR (1) KR102370063B1 (en)
CN (1) CN108664879B (en)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102476756B1 (en) * 2017-06-20 2022-12-09 삼성전자주식회사 Method and apparatus for adaptively updating enrollment database for user authentication
KR102374747B1 (en) * 2017-12-15 2022-03-15 삼성전자주식회사 Method and device to recognize object
US20190332848A1 (en) * 2018-04-27 2019-10-31 Honeywell International Inc. Facial enrollment and recognition system
US10769261B2 (en) * 2018-05-09 2020-09-08 Futurewei Technologies, Inc. User image verification
IT201800003188A1 (en) * 2018-05-25 2019-11-25 Head counter device and digital image processing method
TWI671685B (en) * 2018-09-19 2019-09-11 和碩聯合科技股份有限公司 Face recognition method and electronic device using the same
EP3859420A4 (en) * 2018-09-28 2021-09-29 NEC Corporation Photographing control system, photographing control method, control device, control method, and storage medium
CN109977639B (en) * 2018-10-26 2021-05-04 招商银行股份有限公司 Identity authentication method and device and computer readable storage medium
WO2020085632A1 (en) * 2018-10-26 2020-04-30 삼성전자 주식회사 Biometrics-based user authentication method and device
EP3660728A1 (en) * 2018-11-30 2020-06-03 Essilor International (Compagnie Generale D'optique) A server, method, and computer-readable storage medium for selecting eyewear equipment
KR102570070B1 (en) * 2018-12-27 2023-08-23 삼성전자주식회사 Method and apparatus for user verification using generalized user model
CN113168588B (en) * 2019-01-15 2023-11-24 索尼集团公司 Server and learning system
CN109903260B (en) * 2019-01-30 2023-05-23 华为技术有限公司 Image processing method and image processing apparatus
JP7275616B2 (en) * 2019-02-06 2023-05-18 富士フイルムビジネスイノベーション株式会社 Light emitting device, optical device and information processing device
CN110084216B (en) * 2019-05-06 2021-11-09 苏州科达科技股份有限公司 Face recognition model training and face recognition method, system, device and medium
CN110851457A (en) * 2019-10-21 2020-02-28 广东优世联合控股集团股份有限公司 Method for searching login information
US11580780B2 (en) * 2019-11-13 2023-02-14 Nec Corporation Universal feature representation learning for face recognition
CN110837817A (en) * 2019-11-18 2020-02-25 北京小米移动软件有限公司 Target object identification method, device, equipment and storage medium
KR20210062477A (en) * 2019-11-21 2021-05-31 삼성전자주식회사 Electronic apparatus and control method thereof
CN111080553A (en) * 2019-12-13 2020-04-28 上海展扬通信技术有限公司 Picture optimization processing method, device and equipment and readable storage medium
KR20210083026A (en) 2019-12-26 2021-07-06 삼성전자주식회사 Electrolic device for biometrics and method thereof
EP4083790A4 (en) * 2019-12-26 2022-12-28 NEC Corporation Information processing system, information processing device, information processing method, and computer program
JP6891355B1 (en) * 2019-12-27 2021-06-18 楽天グループ株式会社 Authentication system, authentication device, authentication method, and program
CN111260545B (en) * 2020-01-20 2023-06-20 北京百度网讯科技有限公司 Method and device for generating image
KR20210157052A (en) * 2020-06-19 2021-12-28 삼성전자주식회사 Object recognition method and object recognition apparatus
CN111611572B (en) * 2020-06-28 2022-11-22 支付宝(杭州)信息技术有限公司 Real-name authentication method and device based on face authentication
JP6797388B1 (en) * 2020-07-31 2020-12-09 アカメディア・ジャパン株式会社 Online learning system
US11921831B2 (en) * 2021-03-12 2024-03-05 Intellivision Technologies Corp Enrollment system with continuous learning and confirmation
JP7346528B2 (en) * 2021-05-26 2023-09-19 キヤノン株式会社 Image processing device, image processing method and program
WO2022250063A1 (en) * 2021-05-26 2022-12-01 キヤノン株式会社 Image processing device and image processing method for performing facial authentication
WO2023238365A1 (en) * 2022-06-10 2023-12-14 富士通株式会社 Facial feature information extraction method, facial feature information extraction device, and facial feature information extraction program
CN116542674B (en) * 2023-07-06 2023-09-26 鲁担(山东)数据科技有限公司 Risk analysis and assessment method and system based on big data

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215308A (en) 1999-01-27 2000-08-04 Toshiba Corp Device and method for authenticating biological information
JP2001307102A (en) 2000-04-27 2001-11-02 Fujitsu Ltd Personal authentication system and method using living body information and registration device, authentication device and pattern information input medium for the system
JP2003067744A (en) 2001-08-24 2003-03-07 Toshiba Corp Device and method for authenticating individual person
JP2003132339A (en) 2001-10-19 2003-05-09 Alpine Electronics Inc Face image recognition device and method
JP2004145576A (en) 2002-10-23 2004-05-20 Glory Ltd Image collating device, image collating method and image collating program
JP2008052549A (en) 2006-08-25 2008-03-06 Hitachi Kokusai Electric Inc Image processing system
JP2010244365A (en) 2009-04-07 2010-10-28 Sony Corp Device and method for providing service, server and method for authenticating biometric information, program, and service providing system
JP2015018401A (en) 2013-07-10 2015-01-29 グローリー株式会社 Face collation device, face collation method, and face collation program
JP2015194947A (en) 2014-03-31 2015-11-05 ソニー株式会社 Information processing device and computer program
US20160379041A1 (en) 2015-06-24 2016-12-29 Samsung Electronics Co., Ltd. Face recognition method and apparatus

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62212781A (en) 1986-03-14 1987-09-18 Hitachi Ltd Personal identification system
US20050226509A1 (en) 2004-03-30 2005-10-13 Thomas Maurer Efficient classification of three dimensional face models for human identification and other applications
US7356168B2 (en) * 2004-04-23 2008-04-08 Hitachi, Ltd. Biometric verification system and method utilizing a data classifier and fusion model
US8073287B1 (en) * 2007-02-26 2011-12-06 George Mason Intellectual Properties, Inc. Recognition by parts using adaptive and robust correlation filters
KR20100053194A (en) 2008-11-12 2010-05-20 삼성전자주식회사 Apparatus for processing digital image and method for controlling thereof
US9165404B2 (en) 2011-07-14 2015-10-20 Samsung Electronics Co., Ltd. Method, apparatus, and system for processing virtual world
KR101336096B1 (en) 2013-08-22 2013-12-19 주식회사 파이브지티 Face recognition apparatus and method using infrared illumination
JP2015088098A (en) * 2013-11-01 2015-05-07 株式会社ソニー・コンピュータエンタテインメント Information processor and information processing method
US9679212B2 (en) * 2014-05-09 2017-06-13 Samsung Electronics Co., Ltd. Liveness testing methods and apparatuses and image processing methods and apparatuses
JP2016040684A (en) * 2014-08-12 2016-03-24 株式会社ディー・ディー・エス Composite authentication system
KR102225623B1 (en) 2014-09-18 2021-03-12 한화테크윈 주식회사 Face recognizing system using keypoint descriptor matching and majority vote and method thereof
US9430696B2 (en) * 2014-10-09 2016-08-30 Sensory, Incorporated Continuous enrollment for face verification
KR20160061856A (en) 2014-11-24 2016-06-01 삼성전자주식회사 Method and apparatus for recognizing object, and method and apparatus for learning recognizer
JP6626259B2 (en) 2015-03-09 2019-12-25 キヤノン株式会社 Image recognition device, image recognition method, and image recognition program
CN106169075A (en) * 2016-07-11 2016-11-30 北京小米移动软件有限公司 Auth method and device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215308A (en) 1999-01-27 2000-08-04 Toshiba Corp Device and method for authenticating biological information
JP2001307102A (en) 2000-04-27 2001-11-02 Fujitsu Ltd Personal authentication system and method using living body information and registration device, authentication device and pattern information input medium for the system
JP2003067744A (en) 2001-08-24 2003-03-07 Toshiba Corp Device and method for authenticating individual person
JP2003132339A (en) 2001-10-19 2003-05-09 Alpine Electronics Inc Face image recognition device and method
JP2004145576A (en) 2002-10-23 2004-05-20 Glory Ltd Image collating device, image collating method and image collating program
JP2008052549A (en) 2006-08-25 2008-03-06 Hitachi Kokusai Electric Inc Image processing system
JP2010244365A (en) 2009-04-07 2010-10-28 Sony Corp Device and method for providing service, server and method for authenticating biometric information, program, and service providing system
JP2015018401A (en) 2013-07-10 2015-01-29 グローリー株式会社 Face collation device, face collation method, and face collation program
JP2015194947A (en) 2014-03-31 2015-11-05 ソニー株式会社 Information processing device and computer program
US20160379041A1 (en) 2015-06-24 2016-12-29 Samsung Electronics Co., Ltd. Face recognition method and apparatus
JP2017010543A (en) 2015-06-24 2017-01-12 三星電子株式会社Samsung Electronics Co.,Ltd. Face recognition method and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
前田 卓志,瞬時に正確な本人認証を実現 バイオメトリクス複合認証システム,月刊バーコード,第14巻 第9号,日本工業出版株式会社,2001年08月02日,pp. 64-66

Also Published As

Publication number Publication date
US20180285629A1 (en) 2018-10-04
JP2018165983A (en) 2018-10-25
KR102370063B1 (en) 2022-03-04
US11532177B2 (en) 2022-12-20
EP3382603B1 (en) 2021-10-13
CN108664879B (en) 2023-09-05
US20230119080A1 (en) 2023-04-20
EP3382603A1 (en) 2018-10-03
CN108664879A (en) 2018-10-16
KR20180109578A (en) 2018-10-08

Similar Documents

Publication Publication Date Title
JP7133949B2 (en) Face authentication method and device
KR102359558B1 (en) Face verifying method and apparatus
JP7365445B2 (en) Computing apparatus and method
KR102299847B1 (en) Face verifying method and apparatus
KR102324468B1 (en) Method and apparatus for face verification
CN108664782B (en) Face verification method and device
US8515124B2 (en) Method and apparatus for determining fake image
KR102415509B1 (en) Face verifying method and apparatus
US11042725B2 (en) Method for selecting frames used in face processing
WO2019192216A1 (en) Method and device for image processing and identity authentication, electronic device, and storage medium
WO2011156143A2 (en) Distinguishing live faces from flat surfaces
US20210019385A1 (en) Methods, systems, and media for secure authentication of users using one or more biometric recognition systems
JP2008015871A (en) Authentication device and authenticating method
KR102380426B1 (en) Method and apparatus for verifying face
KR102655949B1 (en) Face verifying method and apparatus based on 3d image
KR20200127818A (en) Liveness test method and liveness test apparatus, biometrics authentication method and face authentication apparatus
KR102483648B1 (en) Method and apparatus of performing authentication
KR20190136349A (en) Face verifying method and apparatus based on 3d image
KR20210050649A (en) Face verifying method of mobile device
KR20210001270A (en) Method and apparatus for blur estimation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220830

R150 Certificate of patent or registration of utility model

Ref document number: 7133949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150