KR102580026B1 - Method for training neural network for Identification card recognition based on distributed database and server for the method - Google Patents

Method for training neural network for Identification card recognition based on distributed database and server for the method Download PDF

Info

Publication number
KR102580026B1
KR102580026B1 KR1020230051793A KR20230051793A KR102580026B1 KR 102580026 B1 KR102580026 B1 KR 102580026B1 KR 1020230051793 A KR1020230051793 A KR 1020230051793A KR 20230051793 A KR20230051793 A KR 20230051793A KR 102580026 B1 KR102580026 B1 KR 102580026B1
Authority
KR
South Korea
Prior art keywords
neural network
personal information
database
recognition
learning
Prior art date
Application number
KR1020230051793A
Other languages
Korean (ko)
Other versions
KR20230056648A (en
Inventor
이동열
Original Assignee
주식회사 카카오뱅크
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 카카오뱅크 filed Critical 주식회사 카카오뱅크
Priority to KR1020230051793A priority Critical patent/KR102580026B1/en
Publication of KR20230056648A publication Critical patent/KR20230056648A/en
Application granted granted Critical
Publication of KR102580026B1 publication Critical patent/KR102580026B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/316Indexing structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 신경망의 학습 방법에 관한 것으로, 본 발명에 따른 신경망 학습 방법은 신경망으로부터 추출되는 신분증 내 개인정보 및 비개인정보를 각각 구분된 데이터베이스 상에 저장하는 단계; 상기 신경망의 학습 데이터로 상기 데이터베이스 중 제1 데이터베이스로부터 신분증 이미지 및 제2 데이터베이스로부터 상기 신분증 이미지에 대응되는 비개인정보를 추출하는 단계; 및 상기 추출된 신분증 이미지 및 비개인정보를 이용하여 신경망의 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 단계를 포함한다. 본 발명에 따르면 신분증 내 개인정보에 해당하는 객체 인식과 관련된 비개인정보의 예측 확률을 높임으로써 전체 인식 성능을 높일 수 있다.The present invention relates to a learning method of a neural network. The neural network learning method according to the present invention includes the steps of storing personal information and non-personal information in an identification card extracted from a neural network in separate databases; Extracting an identification card image from a first database among the databases and non-personal information corresponding to the identification card image from a second database using training data of the neural network; and updating operation parameters for extraction of non-personal information of a neural network using the extracted ID image and non-personal information. According to the present invention, overall recognition performance can be improved by increasing the prediction probability of non-personal information related to object recognition corresponding to personal information in an ID card.

Description

분산 데이터베이스 기반의 신분증 인식을 위한 신경망 학습 방법 및 서버{Method for training neural network for Identification card recognition based on distributed database and server for the method}Neural network learning method and server for identification card recognition based on distributed database {Method for training neural network for Identification card recognition based on distributed database and server for the method}

본 발명은 신경망의 학습 방법에 관한 것으로, 분산 데이터베이스를 이용한 신경망 학습 방법에 관한 것이다.The present invention relates to a neural network learning method, and to a neural network learning method using a distributed database.

이동통신단말기, 특히 스마트폰과 모바일 통신 기술의 발달에 힘입어 모바일 어플리케이션을 통해 과거에 오프라인을 통해 수행하던 기능을 지금은 언제 어디서나 간편하고 편리하게 이용할 수 있다.Thanks to the development of mobile communication terminals, especially smartphones, and mobile communication technology, functions that were previously performed offline can now be easily and conveniently used anytime, anywhere through mobile applications.

특히, 최근 들어 사용자의 편의성을 향상시키는 측면에서 어플리케이션을 통해 금융 업무까지 비대면(非對面)으로 처리하는 기술이 개발되어 서비스되고 있으며 비대면 상황에서 사용자의 신분을 확인하기 위한 다양한 방식들이 고안되고 있다.In particular, in recent years, in order to improve user convenience, technology has been developed and serviced to process financial transactions non-face-to-face through applications, and various methods have been devised to verify the user's identity in non-face-to-face situations. there is.

또한, 인공지능 기술의 발달로 다양한 분야에 인공지능 기술 들이 적용되고 있으며, 기존의 영상 처리 방식을 대신하여 신경망 모델을 통해 영상 내 객체를 검출하고 추적하는 방법들이 개발되고 있다. 이러한 인공지능 기술을 신분증 인식에 적용하여 사용자가 직접 신분 정보를 입력하는 대신 스마트 폰의 카메라로부터 촬영된 신분증 이미지의 정보들을 인식하고, 이를 통해 사용자의 신분을 인증하는 방식들이 금융 서비스 상에서 실제 적용되고 있다.In addition, with the development of artificial intelligence technology, artificial intelligence technologies are being applied to various fields, and methods of detecting and tracking objects in images through neural network models are being developed instead of existing image processing methods. By applying this artificial intelligence technology to ID recognition, instead of allowing users to directly input their identity information, the information in the ID card image taken from the smartphone camera is recognized, and through this, the methods of authenticating the user's identity are actually applied in financial services. there is.

하지만, 다양한 촬영 환경에 대한 적응과 신경망 모델의 경량화 등의 요구에 맞추어 지속적인 갱신과 학습이 필요하며, 신분 인증과 관련 인식 결과로서 개인 정보의 이용을 최소화하는 맞춤형 학습 방법의 고안이 필요한 실정이다.However, continuous updating and learning are necessary to meet the needs of adaptation to various shooting environments and lightweighting of neural network models, and it is necessary to devise a customized learning method that minimizes the use of personal information as a result of identity authentication and related recognition.

본 발명은 신분증 인식을 위한 신경망의 학습 방법을 제안하는 것을 목적으로 한다. The purpose of the present invention is to propose a neural network learning method for ID recognition.

또한, 본 발명은 과거 인증 과정에서 신분증의 인식된 정보를 이용하는 효율적인 학습 방법을 제안하는 것을 목적으로 한다.Additionally, the purpose of the present invention is to propose an efficient learning method that uses information recognized on an ID card in a past authentication process.

또한, 본 발명은 인식된 정보를 관리하는 데이터베이스 구조에 기반한 학습 방법을 제안하는 것을 목적으로 한다.Additionally, the purpose of the present invention is to propose a learning method based on a database structure that manages recognized information.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 신경망 학습 방법에 있어서, 신경망으로부터 추출되는 신분증 내 개인정보 및 비개인정보를 각각 구분된 데이터베이스 상에 저장하는 단계; 상기 신경망의 학습 데이터로 상기 데이터베이스 중 제1 데이터베이스로부터 신분증 이미지 및 제2 데이터베이스로부터 상기 신분증 이미지에 대응되는 비개인정보를 추출하는 단계; 및 상기 추출된 신분증 이미지 및 비개인정보를 이용하여 신경망의 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 단계를 포함한다.In the neural network learning method according to the present invention for solving the above technical problem, the steps include storing personal information and non-personal information in the ID card extracted from the neural network in separate databases; Extracting an identification card image from a first database among the databases and non-personal information corresponding to the identification card image from a second database using training data of the neural network; and updating operation parameters for extraction of non-personal information of a neural network using the extracted ID image and non-personal information.

상기 비개인정보는 상기 신경망의 개인정보의 추출에 영향을 주는 개인정보의 신분증 이미지내 위치 또는 열화요소의 존재 여부에 대한 예측 결과 값인 것이 바람직하다.It is preferable that the non-personal information is a prediction result value for the presence or absence of a location or deterioration element in the ID card image of personal information that affects the extraction of personal information by the neural network.

상기 개인정보는 상기 신분증 내 존재하는 객체의 분류(Classification) 결과 값인 것이 바람직하다.It is preferable that the personal information is a classification result value of an object existing in the ID card.

상기 비개인정보는 상기 신분증 내 존재하는 객체의 존재 영역에 대한 회귀(regression) 분석 결과 값인 것이 바람직하다.Preferably, the non-personal information is a result of a regression analysis of the area of the object existing in the ID card.

상기 갱신하는 단계는 상기 신경망의 추출 결과의 오차를 정의하는 손실 함수에서 상기 개인정보의 추출 결과에 대한 손실 항을 고정(freezing)하고, 상기 손실 함수를 이용하여 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 것이 바람직하다.The updating step includes freezing the loss term for the extraction result of the personal information in a loss function that defines the error of the extraction result of the neural network, and calculating parameters for extraction of non-personal information using the loss function. It is desirable to update .

상기 갱신하는 단계는 상기 신경망의 레이어 중 회귀 분석을 위한 파라미터를 갱신하되, 상기 신경망은 갱신된 파라미터를 이용하여 상기 분류 결과를 출력하는 것이 바람직하다.The updating step preferably updates parameters for regression analysis among the layers of the neural network, and the neural network outputs the classification result using the updated parameters.

상기 제2 데이터베이스는 상기 제1 데이터베이스에 저장된 개인정보 중 신분증 이미지를 참조하기 위한 키 값을 이용하여 대응되는 상기 비개인정보를 저장 및 관리하는 것이 바람직하다.It is preferable that the second database stores and manages the corresponding non-personal information using a key value for referencing an ID card image among the personal information stored in the first database.

상기 기술적 과제를 해결하기 위한 본 발명에 따른 신경망 학습 서버는 신경망으로부터 추출되는 신분증 내 개인정보 및 비개인정보를 각각 구분하여 저장하는 데이터베이스; 상기 신경망의 학습 데이터로 상기 데이터베이스 중 제1 데이터베이스로부터 신분증 이미지 및 제2 데이터베이스로부터 상기 신분증 이미지에 대응되는 비개인정보를 추출하는 학습 데이터 추출부; 및 상기 추출된 신분증 이미지 및 비개인정보를 이용하여 신경망의 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 학습부를 포함한다.The neural network learning server according to the present invention for solving the above technical problem includes a database that separately stores personal information and non-personal information in the ID card extracted from the neural network; a learning data extraction unit that extracts an identification card image from a first database among the databases and non-personal information corresponding to the identification card image from a second database as the learning data of the neural network; and a learning unit that updates operation parameters for extracting non-personal information of a neural network using the extracted ID image and non-personal information.

상기 제1 데이터베이스는 상기 신분증 이미지를 저장하는 이미지 데이터베이스 및 상기 신경망으로부터 추출된 상기 신분증 내 존재하는 객체의 분류(Classification) 결과 값을 저장하는 개인정보 데이터베이스로 구성되고, 상기 학습 데이터 추출부는 상기 이미지 데이터베이스로부터 신분증 이미지를 추출하는 것이 바람직하다.The first database consists of an image database that stores the ID card image and a personal information database that stores classification results of objects present in the ID card extracted from the neural network, and the learning data extractor stores the image database. It is desirable to extract the ID image from .

상기 비개인정보는 상기 신경망의 개인정보의 추출에 영향을 주는 개인정보의 신분증 이미지내 위치 또는 열화요소의 존재 여부에 대한 예측 결과 값인 것이 바람직하다.It is preferable that the non-personal information is a prediction result value for the presence or absence of a location or deterioration element in the ID card image of personal information that affects the extraction of personal information by the neural network.

상기 학습부는 상기 신경망의 추출 결과의 오차를 정의하는 손실 함수에서 상기 개인정보의 추출 결과에 대한 손실 항을 고정하고, 상기 손실 함수를 이용하여 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 것이 바람직하다.It is preferable that the learning unit fixes a loss term for the extraction result of the personal information in a loss function that defines the error of the extraction result of the neural network, and updates calculation parameters for extraction of non-personal information using the loss function. do.

상기 학습부는 상기 신경망의 레이어 중 회귀 분석을 위한 파라미터를 갱신하되, 상기 신경망은 갱신된 파라미터를 이용하여 상기 분류 결과를 출력하는 것이 바람직하다.Preferably, the learning unit updates parameters for regression analysis among the layers of the neural network, and the neural network outputs the classification result using the updated parameters.

상기 제2 데이터베이스는 상기 제1 데이터베이스에 저장된 개인정보 중 신분증 이미지를 참조하기 위한 키 값을 이용하여 대응되는 상기 비개인정보를 저장 및 관리하는 것이 바람직하다.It is preferable that the second database stores and manages the corresponding non-personal information using a key value for referencing an ID card image among the personal information stored in the first database.

본 발명에 따르면 신분증에 포함된 다양한 정보를 인식할 수 있는 신경망을 효율적으로 학습시킬 수 있다.According to the present invention, a neural network capable of recognizing various information contained in an identification card can be efficiently trained.

본 발명에 따르면 신분증 인식을 위한 신경망의 일부 인식 결과 만으로도 추가적인 학습을 수행하여 신경망 모델의 갱신 시 예측 성능을 높일 수 있다.According to the present invention, additional learning can be performed with only partial recognition results of a neural network for ID recognition, thereby improving prediction performance when updating the neural network model.

또한, 본 발명은 폐쇄망에 저장된 신분증 인식 결과 중 비개인정보에 해당하는 부분 만을 추출하여 학습시킴으로써 개인정보의 이용 및 유출의 문제를 줄일 수 있다.In addition, the present invention can reduce the problem of use and leakage of personal information by extracting and learning only the portion corresponding to non-personal information among the ID recognition results stored in a closed network.

또한, 본 발명은 신분증 내 개인정보에 해당하는 객체 인식과 관련된 비개인정보의 예측 확률을 높임으로써 전체 인식 성능을 높일 수 있다.In addition, the present invention can improve overall recognition performance by increasing the prediction probability of non-personal information related to object recognition corresponding to personal information in the ID card.

도 1은 본 발명의 일 실시예에 따른 신경망 학습 시스템을 나타낸 예시도이다.
도 2는 본 발명의 일 실시예에 따른 신경망 학습 방법을 나타낸 흐름도이다.
도 3 내지 4는 본 발명의 일 실시예에 따른 신경망의 학습을 위한 출력 데이터를 예시하는 도이다.
도 5는 본 발명의 일 실시예에 따른 신경망의 학습을 위한 데이터베이스의 구성을 예시하는 도이다.
도 6은 본 발명의 일 실시예에 따른 신경망의 학습 과정을 도식화하여 나타내는 도이다.
도 7은 본 발명의 일 실시예에 따른 신경망의 학습을 위한 손실 함수의 구성을 나타낸 도이다.
도 8은 본 발명의 일 실시예에 따른 신경망의 학습을 위한 서버의 구성을 나타낸 블록도이다.
Figure 1 is an exemplary diagram showing a neural network learning system according to an embodiment of the present invention.
Figure 2 is a flowchart showing a neural network learning method according to an embodiment of the present invention.
3 and 4 are diagrams illustrating output data for learning of a neural network according to an embodiment of the present invention.
Figure 5 is a diagram illustrating the configuration of a database for learning a neural network according to an embodiment of the present invention.
Figure 6 is a diagram schematically showing the learning process of a neural network according to an embodiment of the present invention.
Figure 7 is a diagram showing the configuration of a loss function for learning a neural network according to an embodiment of the present invention.
Figure 8 is a block diagram showing the configuration of a server for learning a neural network according to an embodiment of the present invention.

이하의 내용은 단지 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시 되지 않았지만 발명의 원리를 구현하고 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이외같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. The following merely illustrates the principles of the invention. Therefore, a person skilled in the art can invent various devices that embody the principles of the invention and are included in the concept and scope of the invention, although not clearly described or shown herein. In addition, all conditional terms and embodiments listed in this specification are, in principle, clearly intended only for the purpose of ensuring that the inventive concept is understood, and should be understood as not limiting to the specifically listed embodiments and states. .

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. The above-mentioned purpose, features and advantages will become clearer through the following detailed description in relation to the attached drawings, and accordingly, those skilled in the art in the technical field to which the invention pertains will be able to easily implement the technical idea of the invention. .

또한, 발명을 설명함에 있어서 발명과 관련된 공지 기술에 대한 구체적인 설명이 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하에는 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예에 대해 상세하게 설명한다.Additionally, when describing the invention, if it is determined that a detailed description of known technology related to the invention may unnecessarily obscure the gist of the invention, the detailed description will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 신경망의 학습 방법이 수행되는 학습 시스템의 구성을 나타내는 도이다.1 is a diagram showing the configuration of a learning system in which a neural network learning method is performed according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에 따른 학습 시스템은 사용자(10)가 비대면 금융 서비스의 이용을 위해 이용하는 사용자 단말(1000)과 사용자 단말(1000)로부터 입력된 사용자(10)의 신분 정보를 수신하고 이를 통해 본인 인증을 수행하는 학습 서버(100)로 구성될 수 있다.Referring to FIG. 1, the learning system according to this embodiment includes a user terminal 1000 that the user 10 uses to use a non-face-to-face financial service, and the identity information of the user 10 input from the user terminal 1000. It may be configured as a learning server 100 that receives information and performs identity authentication through it.

학습 서버(100)는 비대면 기반의 본인 인증을 수행하기 위하여 사용자(10)로부터 신분증 이미지(50)를 수신하고, 신분증 이미지(50)에 포함된 인증에 필요한 객체들을 학습된 신경망을 이용하여 직접 인식하여 결과로 출력할 수 있다.The learning server 100 receives the ID card image 50 from the user 10 in order to perform non-face-to-face identity authentication, and directly uses the learned neural network to identify objects required for authentication included in the ID card image 50. It can be recognized and output as a result.

예를 들어, 신분증 이미지(50)에 포함된 사용자(10)의 성명, 주민등록번호, 주소 정보에 포함된 텍스트들을 신경망을 이용하여 인식할 수 있다.For example, the text included in the name, resident registration number, and address information of the user 10 included in the ID card image 50 can be recognized using a neural network.

먼저, 학습된 신경망은 인식하고자 하는 객체의 존재 영역에 대한 위치 정보를 인식 결과로 출력할 수 있다.First, the learned neural network can output location information about the area where the object to be recognized exists as a recognition result.

일 예로, 신분증 이미지(50) 전체의 영역으로 신분증 테두리에 대한 정보를 이미지 상의 좌표로 출력할 수 있다. 또는, 신분증 이미지(50) 내의 객체로 예를 들어 소유자 성명, 주민등록번호 등의 텍스트들이 존재하는 영역에 대한 값을 검출하여 출력할 수 있다.As an example, information about the border of the ID card can be output to the entire area of the ID card image 50 as coordinates on the image. Alternatively, the value for the area where texts such as the owner's name and resident registration number exist as objects in the ID card image 50 can be detected and output.

이때 영역은 사각형 형태의 바운딩 박스(Bounding Box)로 정의될 수 있으며, 구체적으로 바운딩 박스는 중심점의 x, y축 좌표와 테두리의 폭 w, 높이 h 값의 4차원 벡터 값으로 정의될 수 있다.At this time, the area can be defined as a rectangular bounding box. Specifically, the bounding box can be defined as a four-dimensional vector value of the x- and y-axis coordinates of the center point and the width w and height h of the border.

또한, 신경망은 인식하고자 하는 객체의 값 자체를 예측하여 출력할 수 있다.Additionally, a neural network can predict and output the value of the object to be recognized.

구체적으로 객체가 속하는 도메인에 따른 분류 결과를 출력할 수 있는데, 예를 들어 주민 번호의 경우 숫자 0~9 중에 하나의 값으로 분류 결과를 출력하거나, 문자의 경우 해당하는 문자를 출력할 수 있다.Specifically, classification results can be output according to the domain to which the object belongs. For example, in the case of a resident registration number, the classification result can be output as one of the numbers 0 to 9, or in the case of letters, the corresponding character can be output.

또한, 신분증 이미지(50)에는 동일인의 식별을 위해 인쇄된 안면 사진이 포함될 수 있는데 안면 사진으로부터 추출되는 안면 특징 정보들도 출력으로 생성될 수 있다.Additionally, the ID image 50 may include a printed facial photo for identification of the same person, and facial feature information extracted from the facial photo may also be generated as output.

그 외 신분증에는 코팅과 홀로그램과 같은 위변조 방지 장치들이 적용되며, 비대면 상황의 신분증 촬영 시 반사나 가림 현상을 발생시켜 객체의 인식을 저해할 수 있다. 따라서 신경망은 이러한 인식 열화요소들의 존재여부를 판단하여 촬영된 신분증 이미지의 이용 가능 여부를 판단하도록 하는 것도 가능하다.In addition, anti-counterfeiting devices such as coatings and holograms are applied to ID cards, and when photographing ID cards in non-face-to-face situations, they can cause reflections or blocking phenomena, impeding recognition of objects. Therefore, it is also possible for the neural network to determine whether the captured ID image can be used by determining the presence or absence of these recognition deterioration factors.

신분증 이미지(50)에는 신분 인증에 필요한 다양한 객체들이 포함되어 있으며 따라서 신경망이 포함된 객체들을 정확하게 인식할수록 신분 인증의 신뢰도가 높아지게 된다.The ID card image 50 includes various objects required for identity authentication, and therefore, the more accurately the neural network recognizes the included objects, the more reliable the identity authentication becomes.

구체적으로 신분 인증을 위해, 신경망에서 인식된 객체 정보를 신분증을 발급한 발급 기관으로부터 수신된 정보와 비교하는 것으로 신분증의 도용 여부를 확인할 수 있다. 또한 보다 정확한 인증을 위해 과거의 인증 결과를 저장하고 대조함으로써 신분증의 위변조 가능성을 확인하는 것도 가능하다. Specifically, for identity authentication, it is possible to check whether the ID card has been stolen by comparing the object information recognized by the neural network with the information received from the issuing agency that issued the ID card. It is also possible to check the possibility of forgery or alteration of the ID card by storing and comparing past authentication results for more accurate authentication.

따라서, 학습 서버(100)는 신경망을 이용하여 인식된 결과를 별도의 데이터베이스(110)에 저장하고 관리할 수 있다.Accordingly, the learning server 100 can store and manage the results recognized using the neural network in a separate database 110.

다만, 인식 결과는 신분증에 포함된 객체들로 사용자의 개인정보를 포함하고 있으므로 비대면 서비스를 제공하는 시스템 내에서도 외부 접근이 불가한 별도의 폐쇄망 내에 구축된 데이터베이스(110)에 저장하여, 권한 없는 접근이나 수정을 불허할 수 있다.However, since the recognition results are objects included in the ID card and contain the user's personal information, they are stored in the database 110 built within a separate closed network that cannot be accessed from the outside even within the system that provides non-face-to-face services. Access or modification may be denied.

구체적으로 데이터베이스(110)는 신분증 내 개인정보를 저장하는 제1 데이터베이스(112)와 비개인정보를 저장하는 제2 데이터베이스(114)로 구성될 수 있다.Specifically, the database 110 may be composed of a first database 112 that stores personal information in the ID card and a second database 114 that stores non-personal information.

본 실시예에서 학습 서버(100)는 신분증의 인식을 위한 어플리케이션의 배포 이후, 경량화 또는 인식률의 개선 요청에 따라 구조가 갱신되는 경우 재학습을 위해 데이터베이스(110) 내에 저장된 기존의 인식 결과를 이용하고자 한다.In this embodiment, the learning server 100 intends to use the existing recognition results stored in the database 110 for re-learning when the structure is updated according to a request for weight reduction or improvement in recognition rate after distribution of the application for ID recognition. do.

다만, 상술한 바와 같이 과거의 인식 결과는 개인정보와 비개인정보를 포함하고 있으므로 학습에 개인정보의 이용을 최소화하되, 갱신된 구조의 신경망의 성능을 높일 수 있는 학습 방법이 고안될 필요가 있다.However, as mentioned above, since past recognition results include personal information and non-personal information, it is necessary to devise a learning method that can minimize the use of personal information for learning and improve the performance of the updated neural network. .

따라서, 본 실시예에 따른 학습 방법은 폐쇄망을 통해 관리되는 데이터베이스 내 비개인정보를 이용한 신경망의 효율적인 학습 방법을 제안한다.Therefore, the learning method according to this embodiment proposes an efficient learning method of a neural network using non-personal information in a database managed through a closed network.

이하, 도 2를 참고하여 본 실시예에 따른 학습 방법에 대하여 보다 상세히 설명한다.Hereinafter, the learning method according to this embodiment will be described in more detail with reference to FIG. 2.

먼저, 사용자(10)의 신경망으로부터 추출되는 신분증 내 개인정보 및 비개인정보를 각각 구분된 데이터베이스 상에 저장한다(S100).First, personal information and non-personal information in the ID card extracted from the neural network of the user 10 are stored in separate databases (S100).

신경망은 신분증 이미지(50)에 대한 객체의 인식 결과를 출력하도록 미리 학습(pre-training)될 수 있다.The neural network may be pre-trained to output object recognition results for the ID card image 50.

구체적으로 신경망은 신분증 이미지(50)에 포함된 객체들의 위치 정보에 대한 인식 결과와 객체들의 분류 결과를 각각 출력할 수 있다.Specifically, the neural network can output recognition results for location information of objects included in the ID card image 50 and classification results for objects, respectively.

즉 신경망에서 출력되는 결과는 신분증 소유자의 식별에 필요한 개인정보와 식별과는 무관한 비개인정보로 구성될 수 있다. 이때 객체들의 위치 정보는 비개인정보로 소유자의 식별에는 불필요한 신분증 이미지 내에서 객체들의 존재 영역을 정의하는 값일 수 있다.In other words, the results output from the neural network may consist of personal information required to identify the ID holder and non-personal information unrelated to identification. At this time, the location information of the objects is non-personal information and may be a value that defines the area where the objects exist within the ID card image that is unnecessary for identification of the owner.

또한, 신분증의 위변조 방지를 위해 신분증에 포함된 장치로서 홀로그램, 코팅 등에 의한 빛반사나 촬영 시 가림에 의한 그림자 발생 여부에 대한 인식 결과도 개인정보와는 무관하므로 비개인정보로 포함될 수 있다.In addition, as a device included in the ID card to prevent forgery and falsification of the ID card, the recognition results of light reflection due to holograms, coatings, etc. or whether shadows are created due to occlusion during filming are unrelated to personal information and can therefore be included as non-personal information.

반면, 신분증 내의 소유자 식별을 위한 정보로 이름이나, 주소, 주민번호는 개인정보이며, 신분증에 인쇄된 증명 사진으로부터 추출되는 안면 특징 정보들도 개인정보로 이용될 수 있다.On the other hand, the name, address, and resident registration number used to identify the owner of the ID card are personal information, and facial feature information extracted from the identification photo printed on the ID card can also be used as personal information.

따라서, 학습 서버는 신경망으로부터 추출된 신분증 내 정보를 개인정보와 비개인정보로 구분하여 각각의 데이터베이스에 저장한다.Therefore, the learning server divides the information in the ID card extracted from the neural network into personal information and non-personal information and stores them in each database.

신경망의 학습 데이터로 데이터베이스 중 제1 데이터베이스(112)로부터 신분증 이미지(50) 및 제2 데이터베이스(114)로부터 신분증 이미지(50)에 대응되는 비개인정보를 추출한다(S200).Non-personal information corresponding to the ID card image 50 from the first database 112 and the ID card image 50 from the second database 114 are extracted from the database as training data of the neural network (S200).

일반적으로, 신경망은 학습을 위한 학습 데이터로 이미지와 이미지에 포함된 객체들에 대한 영역과 분류가 미리 레이블링 된 학습 데이터 셋을 이용하여 지도 학습(Supervised Learning)을 수행한다.In general, a neural network performs supervised learning using a training data set in which the regions and classifications of images and objects included in the images are pre-labeled as training data for learning.

본 실시예에서 신경망은 신분증 이미지와 신분증 이미지에 대하여 레이블링된 레이블 정보를 데이터베이스로부터 추출하여 학습 데이터로 이용하되 레이블 정보 중에서 비개인정보에 해당하는 값 만을 제2 데이터베이스(114)로부터 추출하여 이용한다.In this embodiment, the neural network extracts the ID image and the label information labeled for the ID image from the database and uses it as learning data, but only values corresponding to non-personal information among the label information are extracted from the second database 114 and used.

즉, 개인정보에 해당하는 인식 결과는 학습에 이용하지 않고 인식에 이용된 신분증 이미지(50)만을 데이터베이스(110)로부터 추출하여 이용하여 개인정보의 이용 범위를 줄인다.In other words, the recognition result corresponding to personal information is not used for learning, but only the ID card image 50 used for recognition is extracted from the database 110 and used to reduce the scope of use of personal information.

도 3을 참조하면, 구체적으로 신경망(30)은 객체의 의미에 대한 분류(Classification) 값으로 개인정보(70-1)에 해당하는 인식 결과 및 회귀(Regression) 분석에 따른 객체의 존재 영역 값으로 비개인정보(70-2)에 해당하는 결과를 출력할 수 있다.Referring to FIG. 3, specifically, the neural network 30 uses a recognition result corresponding to personal information (70-1) as a classification value for the meaning of the object and a value for the object's presence area according to regression analysis. Results corresponding to non-personal information (70-2) can be output.

이때 본 실시예에서 신경망(30)은 합성곱 연산을 수행하는 레이어의 적층 구조로 구성된 CNN(Convolution Neural Network) 모델로 구현될 수 있다.At this time, in this embodiment, the neural network 30 may be implemented as a CNN (Convolution Neural Network) model composed of a stacked structure of layers that perform convolution operations.

CNN 모델 내부의 합성곱 레이어들은 입력된 이미지 데이터 내의 특징 값을 설정된 필터 들에 따라 합성곱 연산을 수행하며, 출력으로 결정된 차원에 따른 특징 맵을 생성할 수 있다. 출력된 최종 특징 맵은 각각의 완전 연결 레이어를 거치면서 본 실시예에 따른 분류 결과와 회귀 분석 결과로 출력될 수 있다.The convolution layers within the CNN model perform a convolution operation on the feature values in the input image data according to the set filters, and can generate a feature map according to the dimension determined as the output. The output final feature map can be output as a classification result and regression analysis result according to this embodiment while passing through each fully connected layer.

이때 신경망은 상술한 CNN 모델 외에 인식하고자 하는 객체의 속성에 따라 R-CNN(Region with CNN), RNN(Recurrent Neural Network), LSTM(Long Short-Term Memory) 등의 다양한 알고리즘들이 적용될 수 있으며 신경망의 구현 방법이 이에 한정되는 것은 아니다.At this time, in addition to the CNN model described above, various algorithms such as R-CNN (Region with CNN), RNN (Recurrent Neural Network), and LSTM (Long Short-Term Memory) can be applied to the neural network depending on the properties of the object to be recognized. The implementation method is not limited to this.

이하, 도 4를 참조하여 본 실시예에 따른 신분증 이미지(50)로부터 출력되는 결과에 대하여 보다 설명한다.Hereinafter, the results output from the ID card image 50 according to this embodiment will be described in more detail with reference to FIG. 4.

먼저, 비개인정보(70-2)는 신분증 이미지(50)에 포함된 객체들의 위치 정보로, 바운딩 박스로 정의된 좌표 값일 수 있다.First, non-personal information 70-2 is location information of objects included in the ID card image 50 and may be coordinate values defined as a bounding box.

따라서, 신분증 이미지(50) 내 신분증 테두리 영역 정보, 성명이나 주민등록번호 등의 텍스트 부분의 영역 정보를 비개인정보(70-2)로 출력할 수 있다.Accordingly, the border area information of the ID card and the area information of the text portion such as name or resident registration number within the ID card image 50 can be output as non-personal information (70-2).

그 외, 신분 인증에 영향을 미치는 인식 열화요소로서 그림자 포함여부, 홀로그램의 존재여부를 판단하여 인식 결과로 출력하는 것도 가능하다. In addition, it is also possible to determine whether a shadow or a hologram is present as recognition deterioration factors that affect identity authentication and output them as recognition results.

반면 개인정보(70-1)는 신분증 이미지(50)에 포함된 객체들의 의미에 대한 분류 결과 값일 수 있다.On the other hand, personal information 70-1 may be a classification result value regarding the meaning of objects included in the ID card image 50.

예를 들어, 성명 중 성이 '홍'으로 인식되는 텍스트 분류 결과 직접 출력할 수 있으며 주민등록번호의 숫자 값들을 숫자 도메인 상에서 분류 결과로 신경망(30)이 출력할 수 있다.For example, text classification results in which the last name among the names is recognized as 'Hong' can be directly output, and the neural network 30 can output the numeric values of the resident registration number as classification results in the numeric domain.

이상의 출력 값 중 비개인정보(70-2)에 해당하는 객체의 존재 영역에 대한 값은 바운딩 박스의 좌표 정보로서 신분 인증 여부에는 직접적인 영향을 미치지 않는다.Among the above output values, the value for the area where the object corresponding to non-personal information (70-2) exists is coordinate information of the bounding box and does not directly affect identity authentication.

하지만, 실제 신경망(30)은 객체들이 이미지 상에 존재하는 영역에 대한 정확한 판단을 전제로 영역 내에 위치하는 객체의 의미에 대한 분류를 수행할 수 있으므로 영역에 대한 비개인정보(70-2)와 분류 값으로 개인정보(70-1)는 출력 과정에서 서로 상관관계를 가지며 공통의 특징맵으로부터 출력될 수 있다.However, the actual neural network 30 can classify the meaning of objects located within the area on the premise of accurate judgment of the area in which the objects exist in the image, so it provides non-personal information about the area (70-2) and Personal information (70-1) as a classification value has a correlation with each other during the output process and can be output from a common feature map.

따라서, 본 실시예에서 학습 서버(100)의 신경망(30)은 신분증 이미지(50)와 신분증 이미지(50)에 대하여 레이블링된 객체의 영역 값에 대한 레이블 정보를 제2 데이터베이스(114)로부터 추출하여 학습에 이용하고자 한다. Therefore, in this embodiment, the neural network 30 of the learning server 100 extracts the ID card image 50 and the label information about the area value of the object labeled with the ID card image 50 from the second database 114. I want to use it for learning.

즉, 직접적으로 객체의 분류에 영향을 미치는 신경망(30)의 내부 파라미터를 갱신하는 대신 객체의 분류의 전제가 되는 존재 영역의 추출을 위한 파라미터를 갱신함으로써 간접적으로 분류 성능도 높이고자 한다.In other words, instead of updating the internal parameters of the neural network 30 that directly affect the classification of objects, we want to indirectly improve classification performance by updating the parameters for extracting the presence area, which is the premise for classifying objects.

따라서 학습 서버는 추출된 신분증 이미지(50) 및 비개인정보를 이용하여 신경망의 비개인정보의 추출을 위한 연산 파라미터를 갱신한다(S300).Therefore, the learning server updates the operation parameters for extracting non-personal information of the neural network using the extracted ID image 50 and non-personal information (S300).

도 5를 참조하면, 구체적으로 개인정보를 저장하는 제1 데이터베이스(112)는 개인정보의 특성에 따라 세분화하여 정보를 관리할 수 있다.Referring to FIG. 5, the first database 112 that specifically stores personal information can manage information by segmenting it according to the characteristics of the personal information.

신분증의 인식을 위해 촬영된 신분증 이미지(50) 역시 개인정보에 해당될 수 있다. 따라서 제1 데이터베이스(112)는 신분증 이미지(50)를 저장하는 이미지 데이터베이스(112-1)와, 신경망으로부터 인식된 객체 분류 값을 정의하는 개인정보 레이블을 저장하는 개인정보 데이터베이스(112-2)로 구분하여 구성될 수 있다.The ID image 50 taken for ID recognition may also be considered personal information. Therefore, the first database 112 consists of an image database 112-1 that stores the ID card image 50 and a personal information database 112-2 that stores a personal information label defining an object classification value recognized from a neural network. It can be configured separately.

본 실시예에서 학습 서버(100)는 학습 데이터로 이미지 데이터베이스(112-1) 내에 저장된 신분증 이미지(50)와 제2 데이터베이스(114)로부터 비개인정보 레이블로서 객체 영역에 대한 값들을 추출하여 신경망(30)에 입력할 수 있다.In this embodiment, the learning server 100 extracts values for the object area as a non-personal information label from the ID card image 50 and the second database 114 stored in the image database 112-1 as learning data and uses a neural network ( 30).

이때, 제2 데이터베이스(114)는 제1 데이터베이스(112)(바람직하게는 이미지 데이터베이스(112-1))에 저장된 신분증 이미지(50)를 참조하기 위한 키 값을 이용하여 비개인정보를 저장 및 관리함으로써, 키 값을 이용하여 양 데이터베이스에서 추출된 데이터를 쌍으로 신경망(30)에 제공할 수 있다.At this time, the second database 114 stores and manages non-personal information using a key value for referencing the ID card image 50 stored in the first database 112 (preferably the image database 112-1). By doing so, data extracted from both databases can be provided to the neural network 30 in pairs using the key value.

신경망(30)은 추출된 데이터 쌍을 학습 데이터로 입력 받고, 출력 결과와 레이블 정보 간의 오차를 이용하여 신경망(30) 내부의 파라미터들을 갱신한다.The neural network 30 receives the extracted data pair as learning data, and updates the parameters inside the neural network 30 using the error between the output result and the label information.

구체적으로 신경망(30)의 구성을 통해 학습 과정에 대하여 보다 상세히 설명한다.Specifically, the learning process will be explained in more detail through the configuration of the neural network 30.

도 6을 참조하면, 신분증 인식을 위한 신경망(30)은 입력된 신분증에 대하여 합성곱 연산을 수행하는 레이어 계층(35)과 추출된 특징맵(38)에 대하여 분류 결과와 회귀 결과를 출력하기 위한 완전 연결 레이어 계층(36)으로 구성될 수 있다.Referring to FIG. 6, the neural network 30 for ID recognition is a layer layer 35 that performs a convolution operation on the input ID card and outputs classification results and regression results for the extracted feature map 38. It may be composed of a fully connected layer layer 36.

다만, 본 실시예에서 신경망(30)의 학습을 위해 입력되는 데이터는 도 5와 같이 영역 회귀(Region Regression) 결과로 객체의 영역에 대한 레이블과 신분증 이미지(50)가 쌍으로 입력되므로 객체 분류 결과에 대한 값은 오차를 산출하기 위한 비교 대상이 존재하지 않는다.However, in this embodiment, the data input for learning of the neural network 30 is a result of region regression as shown in FIG. 5, and the label for the area of the object and the ID image 50 are input as a pair, so the object classification result There is no comparison target for calculating the error.

따라서, 학습 서버(100)는 인식 결과와 정답 간의 오차를 정의하는 손실 함수를 학습을 위해 재 정의할 수 있다.Accordingly, the learning server 100 may redefine the loss function that defines the error between the recognition result and the correct answer for learning.

도 7을 참조하면, 본 실시예에서 신경망(30)의 학습을 위해 인식 결과 중 회귀 분석 결과로 출력된 비개인정보(70-2)에 대해서는 제2 데이터베이스(114)로부터 추출된 레이블을 정답(Ground-Truth)으로, 정답 값과의 차이를 신경망의 손실 함수(loss function)로 정의하여 학습을 수행할 수 있다. Referring to FIG. 7, in this embodiment, for the non-personal information 70-2 output as a result of regression analysis among the recognition results for learning of the neural network 30, the label extracted from the second database 114 is used as the correct answer ( With Ground-Truth, learning can be performed by defining the difference from the correct value as the loss function of the neural network.

즉 신경망으로부터 개인정보와 비개인정보에 해당하는 2가지의 인식 결과가 출력될 수 있는데 본 실시예에서는 비개인정보(70-2)에 대해서는 제2 데이터베이스(114)로부터 정답 값을 추출하여 학습 데이터로 입력하여, 인식 결과 간의 차이를 계산하고 오차를 역전파 함으로써 신경망 내부의 레이어를 갱신할 수 있다.In other words, two types of recognition results corresponding to personal information and non-personal information can be output from the neural network. In this embodiment, for the non-personal information (70-2), the correct answer value is extracted from the second database 114 and used as learning data. By inputting , you can update the layers inside the neural network by calculating the difference between recognition results and back-propagating the error.

즉, 본 실시예와 같이 출력 중 일부 인식 결과에 대해서는 정답 값이 설정되지 않는 약지도학습(weakly supervised learning)을 수행하므로, 인식 결과(70) 중 개인정보(70-1)에 해당하는 분류 결과 값에 대해서는 개인정보 데이터베이스(112-2)로부터 레이블을 추출하지 않으므로 정답이 정의되지 않는다.In other words, as in this embodiment, weakly supervised learning is performed in which the correct answer value is not set for some of the recognition results among the output, so the classification result corresponding to personal information (70-1) among the recognition results (70) For the value, the correct answer is not defined because the label is not extracted from the personal information database 112-2.

따라서 개인정보(70-1)에 해당하는 출력 값에 대한 오차를 손실함수 측에서 고정(freezing)시킴으로써 신경망(30)을 학습시킨다. Therefore, the neural network 30 is trained by freezing the error for the output value corresponding to personal information 70-1 on the loss function side.

구체적으로 개인정보(70-1)에 대한 손실을 상수 값(0)으로 설정함으로써 개인정보(70-1)의 출력과 관련된 완전 연결 계층의 갱신은 없이, 비개인정보(70-1)에 영향을 미치는 신경망(30)의 내부 레이어들의 파라미터들을 선별하여 갱신할 수 있다.Specifically, by setting the loss of personal information (70-1) to a constant value (0), it affects non-personal information (70-1) without updating the fully connected layer related to the output of personal information (70-1). The parameters of the internal layers of the neural network 30 that affect can be selected and updated.

즉, 직접적으로 객체의 분류에 영향을 미치는 신경망(30)의 내부 파라미터를 갱신하는 대신 객체의 분류의 전제가 되는 영역 회귀를 위한 파라미터를 갱신함으로써 간접적으로 분류 성능도 높일 수 있다.That is, instead of updating the internal parameters of the neural network 30 that directly affect the classification of objects, the classification performance can be indirectly improved by updating the parameters for domain regression, which is the premise for classifying objects.

이상의 과정을 통하여, 학습 서버(100)는 신분증에 포함된 다양한 정보를 인식할 수 있는 신경망(30)을 효율적으로 학습시킬 수 있다.Through the above process, the learning server 100 can efficiently learn the neural network 30 that can recognize various information included in the ID card.

또한, 신분증에 포함된 다양한 정보를 인식할 수 있는 신경망을 일부 인식 결과 만으로도 추가적인 학습을 수행하여 신경망 모델의 갱신 시 예측 성능을 높일 수 있다.In addition, the neural network that can recognize various information contained in the ID card can perform additional learning with only some recognition results to improve prediction performance when updating the neural network model.

이하, 본 발명의 일 실시예에 따른 신경망 학습 방법을 수행하는 학습 서버(100)의 구성에 대하여 설명한다.Hereinafter, the configuration of the learning server 100 that performs the neural network learning method according to an embodiment of the present invention will be described.

도 8을 참조하면, 학습 서버(100)는 데이터베이스(110), 학습 데이터 추출부(120), 및 학습부(130)를 포함할 수 있다.Referring to FIG. 8, the learning server 100 may include a database 110, a learning data extraction unit 120, and a learning unit 130.

먼저, 데이터베이스(110)는 신분증 이미지(50)에 대한 객체 인식을 수행하는 신경망(30)을 이용하여 인식 결과를 저장한다.First, the database 110 stores recognition results using the neural network 30 that performs object recognition on the ID card image 50.

데이터베이스(110)는 인식 결과에 포함된 개인정보의 유출을 방지하기 위해 폐쇄망 내부에 구현될 수 있으며, 본 실시예에서는 데이터 특성에 따라 개인정보와 비개인정보를 구분하여 각각 저장할 수 있다.The database 110 can be implemented inside a closed network to prevent leakage of personal information included in recognition results, and in this embodiment, personal information and non-personal information can be stored separately according to data characteristics.

이때 개인정보를 저장하는 제1 데이터베이스(112)와 비개인정보를 저장하는 제2 데이터베이스(114)는 물리적으로 독립될 수 있으며 학습 서버(100)는 학습 데이터의 추출을 위해 각각의 데이터베이스 내 파일 참조를 위한 키 값을 정의하여 관리할 수 있다.At this time, the first database 112 storing personal information and the second database 114 storing non-personal information may be physically independent, and the learning server 100 refers to files in each database to extract learning data. You can manage by defining key values for .

제1 데이터베이스(112)는 신분증 이미지(50)를 저장하는 이미지 데이터베이스(112-1) 및 신경망으로부터 추출된 신분증 내 존재하는 객체의 분류(Classification) 결과 값을 저장하는 개인정보 데이터베이스(112-2)로 구성될 수 있다.The first database 112 is an image database 112-1 that stores the ID card image 50 and a personal information database 112-2 that stores classification results of objects present in the ID card extracted from a neural network. It can be composed of:

따라서, 학습 서버(100)는 신분증 이미지(50)로부터 추출되는 다양한 객체들의 인식 결과 중 개인정보 해당 여부의 기준에 따라 구분하여 저장하되, 신분증 이미지(50) 자체도 개인정보 이므로 제1 데이터베이스(112) 내의 이미지 데이터베이스(112-1)에 저장하고 관리할 수 있다.Therefore, the learning server 100 classifies and stores the recognition results of various objects extracted from the ID card image 50 according to the criteria for whether or not they correspond to personal information. However, since the ID card image 50 itself is personal information, the first database 112 ) can be stored and managed in the image database 112-1.

비개인정보로 객체의 신분증 이미지(50) 상의 존재 영역을 정의하는 값은 사용자 식별에는 무관한 값이므로 제2 데이터베이스(114)에 저장되어 관리될 수 있다.The value defining the presence area on the ID card image 50 of the object as non-personal information is unrelated to user identification and may be stored and managed in the second database 114.

다음, 학습 데이터 추출부(120)는 신경망의 학습 데이터로 데이터베이스 중 제1 데이터베이스(112)로부터 신분증 이미지(50) 및 제2 데이터베이스(114)로부터 신분증 이미지(50)에 대응되는 비개인정보를 추출한다. Next, the learning data extraction unit 120 extracts the non-personal information corresponding to the ID card image 50 from the first database 112 and the ID card image 50 from the second database 114 among the databases using the learning data of the neural network. do.

즉, 키 값을 이용하여 제2 데이터베이스(114)에서 신분증 이미지(50) 내 객체의 존재 영역에 대한 레이블을 학습 데이터로 추출한다.That is, the label for the area where the object exists in the ID card image 50 is extracted as learning data from the second database 114 using the key value.

다음, 학습부(130)는 추출된 학습데이터 중 제2 데이터베이스(114)의 비개인정보 레이블을 신경망(30)의 인식 결과의 정답 값으로 이용하여 신경망(30)을 학습시킨다.Next, the learning unit 130 trains the neural network 30 by using the non-personal information label of the second database 114 among the extracted learning data as the correct value of the recognition result of the neural network 30.

신경망(30)의 인식 결과 중 분류 결과로 나타나는 개인정보(70-1)에 대한 정답 값은 추출되지 않으므로 별도 정의되지 않으나, 비개인정보(70-2)에 해당하는 정답 값은 제2 데이터베이스(114)로부터 추출되므로, 추출된 비개인정보 레이블을 정답 값으로 인식 결과 간의 차이를 신경망(30)의 손실 함수로 정의하여 학습을 수행할 수 있다.Among the recognition results of the neural network 30, the correct answer value for personal information (70-1) shown as a classification result is not extracted and therefore not separately defined, but the correct answer value corresponding to non-personal information (70-2) is stored in the second database ( 114), learning can be performed by defining the extracted non-personal information label as the correct value and the difference between the recognition results as the loss function of the neural network 30.

또한 학습부(130)는 보다 학습의 효율을 높이기 위하여 신경망(30)의 버전을 관리하고, 신경망이 업데이트되는 주기에 따라 배포 전 사전 학습을 위해 이전 버전의 인식 결과를 이용하여 학습을 수행할 수 있다.In addition, the learning unit 130 manages the version of the neural network 30 to increase learning efficiency, and can perform learning using the recognition results of the previous version for prior learning before distribution according to the neural network update cycle. there is.

이상 본 발명은 폐쇄망에 저장된 신분증 인식 결과 중 비개인정보에 해당하는 부분 만을 추출하여 학습시킴으로써 개인정보의 이용 및 유출의 문제를 줄일 수 있다.The present invention can reduce the problem of use and leakage of personal information by extracting and learning only the portion corresponding to non-personal information among the ID recognition results stored in a closed network.

또한, 본 발명은 신분증 내 개인정보에 해당하는 객체 인식과 관련된 비개인정보의 예측 확률을 높임으로써 전체 인식 성능을 높일 수 있다.In addition, the present invention can improve overall recognition performance by increasing the prediction probability of non-personal information related to object recognition corresponding to personal information in the ID card.

나아가, 여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.Furthermore, various embodiments described herein may be implemented in a recording medium readable by a computer or similar device, for example, using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어 모듈 자체로 구현될 수 있다.According to hardware implementation, the embodiments described herein include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), and field programmable gate arrays (FPGAs). It may be implemented using at least one of processors, controllers, micro-controllers, microprocessors, and other electrical units for performing functions. In some cases, as described herein, The described embodiments may be implemented as a control module itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 소프트웨어 코드는 메모리 모듈에 저장되고, 제어모듈에 의해 실행될 수 있다.According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein. Software code can be implemented as a software application written in an appropriate programming language. Software code is stored in the memory module and can be executed by the control module.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. The above description is merely an illustrative explanation of the technical idea of the present invention, and various modifications, changes, and substitutions can be made by those skilled in the art without departing from the essential characteristics of the present invention. will be.

따라서, 본 발명에 개시된 실시 예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are not intended to limit the technical idea of the present invention, but are for illustrative purposes, and the scope of the technical idea of the present invention is not limited by these embodiments and the attached drawings. . The scope of protection of the present invention should be interpreted in accordance with the claims below, and all technical ideas within the equivalent scope should be construed as being included in the scope of rights of the present invention.

Claims (12)

신분증 인식을 위한 신경망 학습 방법에 있어서,
신경망으로부터 추출되는 신분증 내 개인정보 및 비개인정보를 각각 구분된 데이터베이스 상에 저장하는 단계;
상기 신경망의 학습 데이터로서, 상기 데이터베이스 중 제1 데이터베이스로부터 신분증 이미지 및 상기 데이터베이스 중 제2 데이터베이스로부터 상기 신분증 이미지에 대응되는 비개인정보를 추출하는 단계; 및
상기 추출된 신분증 이미지 및 비개인정보를 이용하여 신경망의 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 단계를 포함하고,
상기 제2 데이터베이스는, 상기 제1 데이터베이스에 저장된 신분증 이미지를 참조하기 위한 키 값에 대응되는 상기 비개인정보를 저장하되,
상기 키 값은 상기 제1 데이터베이스와 상기 제2 데이터베이스 내 각각 관리되는 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 방법.
In the neural network learning method for ID recognition,
Storing personal information and non-personal information in the ID card extracted from the neural network in separate databases;
As training data of the neural network, extracting an identification card image from a first database among the databases and non-personal information corresponding to the identification card image from a second database among the databases; and
A step of updating operation parameters for extraction of non-personal information of a neural network using the extracted ID image and non-personal information,
The second database stores the non-personal information corresponding to a key value for referencing the ID card image stored in the first database,
A neural network learning method for ID recognition, characterized in that the key value is managed in the first database and the second database, respectively.
제 1 항에 있어서,
상기 비개인정보는 상기 신경망의 개인정보의 추출에 영향을 주는 개인정보의 신분증 이미지내 위치 또는 열화요소의 존재 여부에 대한 예측 결과 값인 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 방법.
According to claim 1,
A neural network learning method for ID recognition, characterized in that the non-personal information is a prediction result value for the presence or absence of a location or deterioration element in the ID card image of personal information that affects the extraction of personal information by the neural network.
제 1 항에 있어서,
상기 개인정보는 상기 신분증 내 존재하는 객체의 분류(Classification) 결과 값인 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 방법.
According to claim 1,
A neural network learning method for ID recognition, characterized in that the personal information is a classification result value of objects existing in the ID card.
제 3 항에 있어서,
상기 비개인정보는 상기 신분증 내 존재하는 객체의 존재 영역에 대한 회귀(regression) 분석 결과 값인 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 방법.
According to claim 3,
A neural network learning method for ID recognition, wherein the non-personal information is a result of a regression analysis of the area of the object existing in the ID card.
제 3 항에 있어서,
상기 갱신하는 단계는 상기 신경망의 추출 결과의 오차를 정의하는 손실 함수에서 상기 개인정보의 추출 결과에 대한 손실 항을 고정(freezing)하고,
상기 손실 함수를 이용하여 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 방법.
According to claim 3,
The updating step freezes the loss term for the extraction result of the personal information in the loss function that defines the error of the extraction result of the neural network,
A neural network learning method for ID recognition, characterized in that the calculation parameters for extracting non-personal information are updated using the loss function.
제 5 항에 있어서,
상기 갱신하는 단계는 상기 신경망의 레이어 중 회귀 분석을 위한 파라미터를 갱신하되,
상기 신경망은 갱신된 파라미터를 이용하여 상기 분류 결과를 출력하는 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 방법.
According to claim 5,
The updating step updates parameters for regression analysis among the layers of the neural network,
A neural network learning method for ID recognition, characterized in that the neural network outputs the classification result using updated parameters.
신분증 인식을 위한 신경망 학습 서버에 있어서,
신경망으로부터 추출되는 신분증 내 개인정보 및 비개인정보를 각각 구분하여 저장하는 데이터베이스;
상기 신경망의 학습 데이터로 상기 데이터베이스 중 제1 데이터베이스로부터 신분증 이미지 및 제2 데이터베이스로부터 상기 신분증 이미지에 대응되는 비개인정보를 추출하는 학습 데이터 추출부; 및
상기 추출된 신분증 이미지 및 비개인정보를 이용하여 신경망의 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 학습부를 포함하고,
상기 제2 데이터베이스는, 상기 제1 데이터베이스에 저장된 신분증 이미지를 참조하기 위한 키 값에 대응되는 상기 비개인정보를 저장하되,
상기 키 값은 상기 제1 데이터베이스와 상기 제2 데이터베이스 내 각각 관리되는 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 서버.
In the neural network learning server for ID recognition,
A database that separately stores personal information and non-personal information in the ID card extracted from a neural network;
a learning data extraction unit that extracts an identification card image from a first database among the databases and non-personal information corresponding to the identification card image from a second database as the learning data of the neural network; and
A learning unit that updates operation parameters for extracting non-personal information of a neural network using the extracted ID image and non-personal information,
The second database stores the non-personal information corresponding to a key value for referencing the ID card image stored in the first database,
A neural network learning server for ID recognition, characterized in that the key value is managed in the first database and the second database, respectively.
제 7 항에 있어서,
상기 제1 데이터베이스는 상기 신분증 이미지를 저장하는 이미지 데이터베이스 및 상기 신경망으로부터 추출된 상기 신분증 내 존재하는 객체의 분류(Classification) 결과 값을 저장하는 개인정보 데이터베이스로 구성되고,
상기 학습 데이터 추출부는 상기 이미지 데이터베이스로부터 신분증 이미지를 추출하는 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 서버.
According to claim 7,
The first database consists of an image database that stores the ID card image and a personal information database that stores classification results of objects present in the ID card extracted from the neural network,
A neural network learning server for ID recognition, characterized in that the learning data extractor extracts an ID card image from the image database.
제 8 항에 있어서,
상기 비개인정보는 상기 신경망의 개인정보의 추출에 영향을 주는 개인정보의 신분증 이미지내 위치 또는 열화요소의 존재 여부에 대한 예측 결과 값인 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 서버.
According to claim 8,
A neural network learning server for ID recognition, characterized in that the non-personal information is a prediction result value for the presence or absence of a location or deterioration element in the ID card image of personal information that affects the extraction of personal information by the neural network.
제 9 항에 있어서,
상기 학습부는 상기 신경망의 추출 결과의 오차를 정의하는 손실 함수에서 상기 개인정보의 추출 결과에 대한 손실 항을 고정하고,
상기 손실 함수를 이용하여 비개인정보의 추출을 위한 연산 파라미터를 갱신하는 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 서버.
According to clause 9,
The learning unit fixes a loss term for the extraction result of the personal information in a loss function that defines an error in the extraction result of the neural network,
A neural network learning server for ID recognition, characterized in that it updates operation parameters for extracting non-personal information using the loss function.
제 10 항에 있어서,
상기 학습부는 상기 신경망의 레이어 중 회귀 분석을 위한 파라미터를 갱신하되,
상기 신경망은 갱신된 파라미터를 이용하여 상기 분류 결과를 출력하는 것을 특징으로 하는 신분증 인식을 위한 신경망 학습 서버.
According to claim 10,
The learning unit updates parameters for regression analysis among the layers of the neural network,
A neural network learning server for ID recognition, wherein the neural network outputs the classification result using updated parameters.
제 1 항 내지 제 7항 중 어느 한 항에 따른 신분증 인식을 위한 신경망 학습 방법을 수행하는 프로그램이 저장된 컴퓨터 판독가능한 기록 매체.A computer-readable recording medium storing a program for performing the neural network learning method for ID card recognition according to any one of claims 1 to 7.
KR1020230051793A 2020-09-07 2023-04-20 Method for training neural network for Identification card recognition based on distributed database and server for the method KR102580026B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230051793A KR102580026B1 (en) 2020-09-07 2023-04-20 Method for training neural network for Identification card recognition based on distributed database and server for the method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200113558A KR102525416B1 (en) 2020-09-07 2020-09-07 Method for training neural network for Identification card recognition based on distributed database and server for the method
KR1020230051793A KR102580026B1 (en) 2020-09-07 2023-04-20 Method for training neural network for Identification card recognition based on distributed database and server for the method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200113558A Division KR102525416B1 (en) 2020-09-07 2020-09-07 Method for training neural network for Identification card recognition based on distributed database and server for the method

Publications (2)

Publication Number Publication Date
KR20230056648A KR20230056648A (en) 2023-04-27
KR102580026B1 true KR102580026B1 (en) 2023-09-18

Family

ID=80816748

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200113558A KR102525416B1 (en) 2020-09-07 2020-09-07 Method for training neural network for Identification card recognition based on distributed database and server for the method
KR1020230051793A KR102580026B1 (en) 2020-09-07 2023-04-20 Method for training neural network for Identification card recognition based on distributed database and server for the method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200113558A KR102525416B1 (en) 2020-09-07 2020-09-07 Method for training neural network for Identification card recognition based on distributed database and server for the method

Country Status (1)

Country Link
KR (2) KR102525416B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3092414B1 (en) * 2019-02-01 2021-01-08 Idemia Identity & Security France Authentication process, server and electronic identity device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
김진호, 결합 신경망을 이용한 여권 MRZ 정보 인식, 디지털산업정보학회 논문지 제15권 제4호, 149-157pages (2019. 12.)*

Also Published As

Publication number Publication date
KR20220032146A (en) 2022-03-15
KR102525416B1 (en) 2023-04-24
KR20230056648A (en) 2023-04-27

Similar Documents

Publication Publication Date Title
WO2021077984A1 (en) Object recognition method and apparatus, electronic device, and readable storage medium
CN111191568A (en) Method, device, equipment and medium for identifying copied image
CN111476268A (en) Method, device, equipment and medium for training reproduction recognition model and image recognition
CN103324912A (en) Face recognition system and method for ATM
US11568665B2 (en) Method and apparatus for recognizing ID card
CN112215180A (en) Living body detection method and device
Parkavi et al. Multimodal biometrics for user authentication
CN109376717A (en) Personal identification method, device, electronic equipment and the storage medium of face comparison
Kamboj et al. CED-Net: context-aware ear detection network for unconstrained images
JP7141518B2 (en) Finger vein matching method, device, computer equipment, and storage medium
KR102197334B1 (en) Method for verifying Identification card using neural network and server for the method
Bhatt et al. On co-training online biometric classifiers
KR102215535B1 (en) Partial face image based identity authentication method using neural network and system for the method
KR102580026B1 (en) Method for training neural network for Identification card recognition based on distributed database and server for the method
CN113222952A (en) Method and device for identifying copied image
KR102240495B1 (en) Method for managing abusing user about identification and authentication, and server for the method
Younis et al. IFRS: An indexed face recognition system based on face recognition and RFID technologies
KR102210959B1 (en) Method for quality evaluation of Identification Card and server for the method
Tiwari et al. Live attendance system via face recognition
Deshpande et al. MINU-EXTRACTNET: automatic latent fingerprint feature extraction system using deep convolutional neural network
Cai et al. Bank card and ID card number recognition in Android financial APP
Malach et al. Optimal face templates: the next step in surveillance face recognition
KR102528816B1 (en) Method for weakly supervised learning of neural network using verification information of identification card and system for the method
Singh et al. Facial Recognition Automation System Using Machine Learning
Kanchana et al. Credit Card Fraud Detection Techniques Under IoT Environment: A Survey

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant