KR20240006814A - Method and system for generating training data for deep learning for identification recognition - Google Patents

Method and system for generating training data for deep learning for identification recognition Download PDF

Info

Publication number
KR20240006814A
KR20240006814A KR1020220083541A KR20220083541A KR20240006814A KR 20240006814 A KR20240006814 A KR 20240006814A KR 1020220083541 A KR1020220083541 A KR 1020220083541A KR 20220083541 A KR20220083541 A KR 20220083541A KR 20240006814 A KR20240006814 A KR 20240006814A
Authority
KR
South Korea
Prior art keywords
image
hologram
generating
template image
deep learning
Prior art date
Application number
KR1020220083541A
Other languages
Korean (ko)
Inventor
이록규
김현수
강민석
김연규
Original Assignee
엔에이치엔클라우드 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔에이치엔클라우드 주식회사 filed Critical 엔에이치엔클라우드 주식회사
Priority to KR1020220083541A priority Critical patent/KR20240006814A/en
Publication of KR20240006814A publication Critical patent/KR20240006814A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/75
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting

Abstract

본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법은, 단말의 적어도 하나의 프로세서에 의하여 실행되는 트레이닝 애플리케이션이 신분증 인식 딥러닝을 위한 트레이닝 데이터를 생성하는 방법으로서, 실물 신분증을 촬영한 신분증 샘플 이미지를 획득하는 단계; 상기 획득한 신분증 샘플 이미지 내 텍스트를 제거한 배경 템플릿 이미지를 생성하는 단계; 상기 획득한 신분증 샘플 이미지 상의 적어도 일부 홀로그램 패턴 영역을 포함하는 홀로그램 템플릿 이미지를 생성하는 단계; 소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보를 소정의 신분증 양식에 따라서 배치한 텍스트 템플릿 이미지를 생성하는 단계; 및 상기 생성한 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지를 하나로 결합한 합성 이미지를 생성하는 단계를 포함한다. The method of generating training data for deep learning for ID recognition according to an embodiment of the present invention is a method in which a training application executed by at least one processor of a terminal generates training data for deep learning for ID recognition, where a physical ID card is photographed. Obtaining an ID sample image; generating a background template image by removing text from the obtained ID sample image; generating a hologram template image including at least a partial hologram pattern area on the obtained ID sample image; A step of generating a text template image in which various types of ID information randomly generated according to a predetermined standard are arranged according to a predetermined ID card format; and generating a composite image combining the generated background template image, text template image, and hologram template image into one.

Description

신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템{METHOD AND SYSTEM FOR GENERATING TRAINING DATA FOR DEEP LEARNING FOR IDENTIFICATION RECOGNITION}Method and system for generating training data for ID recognition deep learning {METHOD AND SYSTEM FOR GENERATING TRAINING DATA FOR DEEP LEARNING FOR IDENTIFICATION RECOGNITION}

본 발명은 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템에 관한 것이다. 보다 상세하게는, 신분증 인식 딥러닝 모델의 성능 향상을 위한 트레이닝 데이터 셋을 생성하는 방법 및 그 시스템에 관한 것이다. The present invention relates to a method and system for generating training data for ID recognition deep learning. More specifically, it relates to a method and system for generating a training data set to improve the performance of an ID recognition deep learning model.

정보 통신 기술(ICT, Information and Communications Technology)의 발달에 따라서, 최근에는 은행이나 증권사 업무 등과 같이 사용자의 신분 인증이나 정보가 요구되는 각종 서비스가 온라인을 통해 이루어지고 있다. With the development of information and communications technology (ICT), various services that require user identity authentication or information, such as those at banks or securities firms, are being provided online.

예시적으로, 인터넷 뱅킹을 사용하기 위하여 사용자는 자신의 신분증(예컨대, 주민등록증이나 운전면허증 등)을 촬영한 이미지를 제공하고 이에 기초한 이미지 처리를 바탕으로 본인에 대한 신분 인증을 수행한다. For example, in order to use internet banking, a user provides an image of his or her identification card (for example, a resident registration card or driver's license, etc.) and performs identity authentication based on image processing.

대게 위와 같은 신분 인식 서비스를 제공을 위하여 종래의 본 기술분야에서는, 소정의 신분증을 촬영한 이미지를 획득하고 상기 획득한 이미지로부터 소정의 문자를 추출하여 컴퓨터를 통한 판독을 수행하는 자동화된 프로세스를 구현한다. In order to provide the above identity recognition service, an automated process is implemented in the prior art to obtain an image of a predetermined ID card, extract a predetermined character from the obtained image, and perform reading through a computer. do.

이러한 신분증 인식을 구현하는 다양한 방식이 존재하며, 기존에는 광학 문자 인식(OCR, Optical Character Recognition) 기술을 주로 이용했으나 최근 들어 인공지능 기술이 발달함에 따라서 딥 뉴럴 네트워크를 이용한 딥러닝 기반의 신분증 인식 기술이 주를 이루고 있다. There are various ways to implement such ID recognition, and in the past, optical character recognition (OCR) technology was mainly used, but with the recent development of artificial intelligence technology, deep learning-based ID recognition technology using deep neural networks has been developed. It is mainly comprised of

자세히, 딥러닝 기반의 신분증 인식에서는, 소정의 신경망 모델을 신분증 인식에 특화되도록 학습시키고 상기 학습한 신경망 모델을 이용한 딥러닝 기반의 신분증 인식을 수행하여 일반적인 영상 처리에 비해 보다 빠르고 정확한 데이터 처리를 구현할 수 있다. In detail, in deep learning-based ID recognition, a certain neural network model is trained to be specialized for ID recognition, and deep learning-based ID recognition is performed using the learned neural network model to implement faster and more accurate data processing compared to general image processing. You can.

이러한 딥러닝 기반의 신분증 인식을 수행하기 위해서는, 해당 신경망 모델을 학습시키기 위한 대량의 트레이닝 데이터가 필요하다. In order to perform such deep learning-based ID recognition, a large amount of training data is required to learn the corresponding neural network model.

그러나 종래의 방식에서는, 개인정보 이슈 등의 문제로 인하여 신경망 학습에 요구되는 방대한 양의 트레이닝 데이터(예컨대, 실물 신분증 이미지 등)를 수집하기에 어려움이 있다는 문제가 있다. However, in the conventional method, there is a problem in that it is difficult to collect a large amount of training data (eg, physical ID image, etc.) required for neural network learning due to problems such as personal information issues.

더하여, 만약 실물 신분증을 촬영한 이미지를 다소 수집했다 하더라도 신분증의 위/변조 방지를 위한 홀로그램 패턴이나 각종 노이즈(예컨대, 빛반사 및/또는 모션 블러 등)를 포함할 가능성이 높으므로, 이러한 장애 요소들을 커버할 수 있을만큼 방대한 양의 데이터 수집이 이루어져야 한다는 한계가 있어 문제 해결이 어려운 상황이다. In addition, even if some images of physical ID cards are collected, there is a high possibility that they contain hologram patterns or various noises (e.g., light reflection and/or motion blur, etc.) to prevent forgery/falsification of ID cards, so these obstacles It is difficult to solve the problem because there is a limitation that a large amount of data must be collected to cover the problems.

이러한 문제들 ?문에 종래에는 개인정보 이슈를 회피할 수 있는 일종의 샘플 신분증 이미지를 제공하고는 있으나, 이는 실제 신분증 촬영 이미지와는 현격한 차이가 있어 그 실효성이 미비한 실정이다. Because of these problems, a type of sample ID image that can avoid personal information issues has been provided in the past, but this is significantly different from the actual ID card image, so its effectiveness is insufficient.

이처럼, 종래에는 대량의 실물 신분증 이미지를 수집하기가 사실상 매우 어려워서 신분증 인식을 위한 신경망 모델의 성능 향상을 목적으로 하는 딥러닝 학습이 원활히 수행되지 못하고 있다. As such, in the past, it was actually very difficult to collect a large amount of physical ID images, so deep learning learning aimed at improving the performance of the neural network model for ID recognition was not performed smoothly.

그러므로 이러한 문제들을 해결하기 위하여, 신분증 인식을 위한 신경망 모델의 딥러닝 학습을 효과적으로 지원할 수 있는 대량의 트레이닝 데이터 셋을 용이하게 구축 가능한 새로운 기술 개발 및 도입이 매우 필요하다. Therefore, in order to solve these problems, it is very necessary to develop and introduce new technologies that can easily build a large training data set that can effectively support deep learning learning of neural network models for ID recognition.

KRKR 10-2142347 10-2142347 B1B1

본 발명은, 상술된 바와 같은 문제점들을 해결하기 위하여 안출된 것으로서, 신분증 인식 딥러닝 모델의 성능 향상을 위한 트레이닝 데이터 셋을 생성하는 방법 및 시스템을 제공하는데 그 목적이 있다. The present invention was created to solve the problems described above, and its purpose is to provide a method and system for generating a training data set to improve the performance of an ID card recognition deep learning model.

자세히, 본 발명은, 물리적으로 신분증이 제작되는 각 단계를 디지털화하여 가상의 신분증 이미지를 생성하는 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템을 제공하고자 한다. In detail, the present invention seeks to provide a training data generation method and system for deep learning ID card recognition that generates a virtual ID card image by digitizing each step of physically producing an ID card.

또한, 본 발명은, 실물 신분증을 촬영한 이미지의 특성(예컨대, 촬영 각도에 따라서 달라지는 홀로그램 패턴이나 각종 노이즈 등)을 반영한 가상의 신분증 이미지를 생성하는 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템을 제공하고자 한다. In addition, the present invention provides a training data generation method and system for deep learning ID card recognition that generates a virtual ID card image reflecting the characteristics of the image of the physical ID card (e.g., holographic patterns or various noises that vary depending on the shooting angle). We would like to provide.

또한, 본 발명은, 실물 신분증에서 발현할 수 있는 다양한 형태의 노이즈(noise)를 다각도로 구현한 가상의 신분증 이미지를 생성하는 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템을 제공하고자 한다. In addition, the present invention seeks to provide a method and system for generating training data for ID card recognition deep learning that generates a virtual ID card image that embodies various types of noise that can appear in a physical ID card from various angles.

또한, 본 발명은, 위와 같이 생성되는 가상의 신분증 이미지에 기초한 트레이닝 데이터를 기초로 소정의 신분증 인식을 위한 딥러닝 모델의 학습을 지원하는 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템을 제공하고자 한다. In addition, the present invention seeks to provide a method and system for generating training data for deep learning for ID card recognition that supports learning a deep learning model for recognizing a given ID card based on training data based on the virtual ID card image generated as above. do.

다만, 본 발명 및 본 발명의 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problems to be achieved by the present invention and embodiments of the present invention are not limited to the technical problems described above, and other technical problems may exist.

본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법은, 단말의 적어도 하나의 프로세서에 의하여 실행되는 트레이닝 애플리케이션이 신분증 인식 딥러닝을 위한 트레이닝 데이터를 생성하는 방법으로서, 실물 신분증을 촬영한 신분증 샘플 이미지를 획득하는 단계; 상기 획득한 신분증 샘플 이미지 내 텍스트를 제거한 배경 템플릿 이미지를 생성하는 단계; 상기 획득한 신분증 샘플 이미지 상의 적어도 일부 홀로그램 패턴 영역을 포함하는 홀로그램 템플릿 이미지를 생성하는 단계; 소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보를 소정의 신분증 양식에 따라서 배치한 텍스트 템플릿 이미지를 생성하는 단계; 및 상기 생성한 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지를 하나로 결합한 합성 이미지를 생성하는 단계를 포함한다.The method of generating training data for deep learning for ID recognition according to an embodiment of the present invention is a method in which a training application executed by at least one processor of a terminal generates training data for deep learning for ID recognition, where a physical ID card is photographed. Obtaining an ID sample image; generating a background template image by removing text from the obtained ID sample image; generating a hologram template image including at least a partial hologram pattern area on the obtained ID sample image; A step of generating a text template image in which various types of ID information randomly generated according to a predetermined standard are arranged according to a predetermined ID card format; and generating a composite image combining the generated background template image, text template image, and hologram template image into one.

이때, 상기 배경 템플릿 이미지를 생성하는 단계는, 상기 신분증 샘플 이미지 내 텍스트 영역을 마스킹(Masking) 처리한 마스크 이미지를 생성하는 단계와, 상기 생성한 마스크 이미지 및 상기 신분증 샘플 이미지를 제1 딥러닝 모델에 입력하는 단계와, 상기 이미지를 입력받은 제1 딥러닝 모델로부터 상기 배경 템플릿 이미지를 획득하는 단계를 포함한다. At this time, the step of generating the background template image includes generating a mask image by masking the text area in the ID sample image, and applying the generated mask image and the ID card sample image to a first deep learning model. It includes a step of inputting the background template image and obtaining the background template image from a first deep learning model that has received the image.

또한, 상기 마스크 이미지를 생성하는 단계는, 소정의 팽창 함수(Dilation function)를 기초로 상기 마스킹 처리되는 텍스트 영역을 확장하는 단계를 포함한다. Additionally, generating the mask image includes expanding the masked text area based on a predetermined dilation function.

또한, 상기 배경 템플릿 이미지를 생성하는 단계는, 상기 배경 템플릿 이미지 내 제거된 텍스트 영역 상에 상기 신분증 샘플 이미지에 따른 배경 색상을 입히는 인페이팅(Inpainting) 처리를 수행하는 단계를 더 포함한다. In addition, the step of generating the background template image further includes performing inpainting processing of applying a background color according to the ID sample image to the text area removed from the background template image.

또한, 상기 홀로그램 템플릿 이미지를 생성하는 단계는, 상기 홀로그램 패턴 영역을 기초로 홀로그램 RGB 테이블(Hologram RGB Table)을 생성하는 단계를 포함하고, 상기 홀로그램 RGB 테이블은, 상기 홀로그램 패턴 영역을 표시하는 픽셀의 RGB값을 기준으로 소정의 범위 이내의 RGB값을 지정한 홀로그램 추정 범위 데이터의 집합이다. In addition, the step of generating the hologram template image includes generating a hologram RGB table based on the hologram pattern area, and the hologram RGB table includes pixels displaying the hologram pattern area. It is a set of hologram estimated range data that specifies RGB values within a certain range based on RGB values.

또한, 상기 홀로그램 템플릿 이미지를 생성하는 단계는, 상기 홀로그램 RGB 테이블을 기초로 상기 신분증 샘플 이미지 내 상기 홀로그램 추정 범위를 불충하는 무효 픽셀을 검출하는 단계와, 상기 검출된 무효 픽셀 영역을 마스킹 처리한 상기 홀로그램 템플릿 이미지를 생성하는 단계를 더 포함한다. In addition, the step of generating the hologram template image includes detecting invalid pixels that do not meet the hologram estimate range in the ID card sample image based on the hologram RGB table, and masking the detected invalid pixel area. It further includes generating a hologram template image.

또한, 상기 합성 이미지를 생성하는 단계는, 상기 배경 템플릿 이미지 상에 상기 텍스트 템플릿 이미지를 렌더링(Rendering)한 배경-텍스트 조합 이미지를 생성하는 단계를 포함한다. Additionally, generating the composite image includes generating a background-text combination image by rendering the text template image on the background template image.

또한, 상기 합성 이미지를 생성하는 단계는, 상기 배경-텍스트 조합 이미지와 상기 홀로그램 템플릿 이미지에 기초한 알파 블랜딩(Alpha-blending) 연산을 기반으로 상기 합성 이미지를 생성하는 단계를 더 포함한다. In addition, generating the composite image further includes generating the composite image based on an alpha-blending operation based on the background-text combination image and the hologram template image.

또한, 상기 합성 이미지를 생성하는 단계는, 상기 홀로그램 템플릿 이미지에 기초한 랜덤 크롭(Random crop) 연산을 기반으로 상기 홀로그램 템플릿 이미지를 랜덤 분할한 복수의 홀로그램 크롭 이미지를 생성하는 단계와, 상기 생성한 복수의 홀로그램 크롭 이미지와 상기 배경-텍스트 조합 이미지에 기초한 알파 블랜딩 연산을 기반으로 상기 합성 이미지를 생성하는 단계를 더 포함한다. In addition, the step of generating the composite image includes generating a plurality of hologram crop images by randomly dividing the hologram template image based on a random crop operation based on the hologram template image, and the generated plurality of hologram crop images. It further includes generating the composite image based on an alpha blending operation based on the hologram crop image and the background-text combination image.

또한, 상기 복수의 홀로그램 크롭 이미지와 상기 배경-텍스트 조합 이미지에 기초한 알파 블랜딩 연산을 기반으로 상기 합성 이미지를 생성하는 단계는, 상기 복수의 홀로그램 크롭 이미지 각각을 상기 배경-텍스트 조합 이미지 상의 랜덤 위치에 각기 합성하는 단계를 포함한다. In addition, the step of generating the composite image based on an alpha blending operation based on the plurality of hologram crop images and the background-text combination image includes placing each of the plurality of hologram crop images at a random position on the background-text combination image. Each includes a synthesis step.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법은, 상기 생성한 합성 이미지 상에 소정의 노이즈(noise)를 구현하여 데이터량을 증강하는 단계를 더 포함한다. In addition, the method of generating training data for deep learning for ID recognition according to an embodiment of the present invention further includes the step of augmenting the amount of data by implementing a predetermined noise on the generated synthetic image.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법은, 상기 생성한 합성 이미지를 기초로 소정의 신분증 인식 딥러닝 모델을 학습시키는 단계를 더 포함한다. In addition, the method of generating training data for ID recognition deep learning according to an embodiment of the present invention further includes the step of training a predetermined ID recognition deep learning model based on the generated synthetic image.

한편, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 시스템은, 트레이닝 애플리케이션이 저장된 적어도 하나의 메모리; 및 상기 메모리에 저장된 트레이닝 애플리케이션을 독출하여 신분증 인식 딥러닝을 위한 트레이닝 데이터를 생성하는 적어도 하나의 프로세서;를 포함하고, 상기 트레이닝 애플리케이션의 명령어는, 실물 신분증을 촬영한 신분증 샘플 이미지를 획득하는 단계와, 상기 획득한 신분증 샘플 이미지 내 텍스트를 제거한 배경 템플릿 이미지를 생성하는 단계와, 상기 획득한 신분증 샘플 이미지 상의 적어도 일부 홀로그램 패턴 영역을 포함하는 홀로그램 템플릿 이미지를 생성하는 단계와, 소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보를 소정의 신분증 양식에 따라서 배치한 텍스트 템플릿 이미지를 생성하는 단계와, 상기 생성한 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지를 하나로 결합한 합성 이미지를 생성하는 단계를 수행하는 명령어를 포함한다. Meanwhile, a training data generation system for ID recognition deep learning according to an embodiment of the present invention includes at least one memory storing a training application; And at least one processor that reads the training application stored in the memory to generate training data for ID recognition deep learning, wherein instructions of the training application include: acquiring an ID sample image obtained by photographing a physical ID card; , generating a background template image by removing text in the obtained ID sample image, generating a hologram template image including at least a portion of the hologram pattern area on the obtained ID sample image, and randomly randomizing according to a predetermined standard. A step of generating a text template image in which various types of ID information generated according to a predetermined ID card format are arranged, and a step of generating a composite image combining the generated background template image, text template image, and hologram template image into one. Contains commands.

이때, 상기 트레이닝 애플리케이션의 명령어는, 상기 배경 템플릿 이미지 상에 상기 텍스트 템플릿 이미지를 렌더링(Rendering)한 배경-텍스트 조합 이미지를 생성하는 단계와, 상기 배경-텍스트 조합 이미지와 상기 홀로그램 템플릿 이미지에 기초한 알파 블랜딩(Alpha-blending) 연산을 기반으로 상기 합성 이미지를 생성하는 단계를 수행하는 명령어를 더 포함한다. At this time, the command of the training application includes generating a background-text combination image by rendering the text template image on the background template image, and alpha based on the background-text combination image and the hologram template image. It further includes instructions for generating the composite image based on an alpha-blending operation.

다른 한편, 본 발명의 실시예에 따른 데이터 생성서버는, 적어도 하나의 메모리 모듈; 및 적어도 하나의 프로세서 모듈;을 포함하고, 상기 메모리 모듈에 저장되고 상기 프로세서 모듈에 의하여 실행되는 적어도 하나의 애플리케이션으로서, 상기 적어도 하나의 애플리케이션은, 실물 신분증을 촬영한 신분증 샘플 이미지를 획득하고, 상기 획득한 신분증 샘플 이미지 내 텍스트를 제거한 배경 템플릿 이미지를 생성하고, 상기 획득한 신분증 샘플 이미지 상의 적어도 일부 홀로그램 패턴 영역을 포함하는 홀로그램 템플릿 이미지를 생성하고, 소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보를 소정의 신분증 양식에 따라서 배치한 텍스트 템플릿 이미지를 생성하고, 상기 생성한 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지를 하나로 결합한 합성 이미지를 생성한다. On the other hand, the data generation server according to an embodiment of the present invention includes at least one memory module; and at least one processor module; at least one application stored in the memory module and executed by the processor module, wherein the at least one application acquires an ID sample image obtained by photographing a physical ID card, Creating a background template image by removing the text in the obtained ID sample image, generating a hologram template image including at least a portion of the hologram pattern area on the obtained ID sample image, and various types of ID information randomly generated according to a predetermined standard. A text template image is arranged according to a predetermined ID card format, and a composite image is created by combining the created background template image, text template image, and hologram template image into one.

이때, 상기 적어도 하나의 애플리케이션은, 상기 배경 템플릿 이미지 상에 상기 텍스트 템플릿 이미지를 렌더링(Rendering)한 배경-텍스트 조합 이미지를 생성하고, 상기 배경-텍스트 조합 이미지와 상기 홀로그램 템플릿 이미지에 기초한 알파 블랜딩(Alpha-blending) 연산을 기반으로 상기 합성 이미지를 생성한다. At this time, the at least one application generates a background-text combination image by rendering the text template image on the background template image, and performs alpha blending (alpha blending) based on the background-text combination image and the hologram template image. The composite image is generated based on Alpha-blending) operation.

본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 신분증 인식 딥러닝 모델의 성능 향상을 위한 트레이닝 데이터 셋을 생성함으로써, 개인정보 이슈 등으로 인해 수집이 어려운 신분증 인식 딥러닝 학습을 위한 트레이닝 데이터 셋을 용이하게 구축할 수 있는 효과가 있다. The method and system for generating training data for ID recognition deep learning according to an embodiment of the present invention generates a training data set to improve the performance of the ID recognition deep learning model, thereby providing ID recognition deep learning that is difficult to collect due to personal information issues, etc. It has the effect of easily building a training data set for learning learning.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 물리적으로 신분증이 제작되는 각 단계를 디지털화하여 가상의 신분증 이미지를 생성함으로써, 신분증 인식 딥러닝 학습에 요구되는 트레이닝 데이터를 실물 신분증으로부터 일일이 수집하지 않더라도 쉽고 빠르게 효율적인 방식으로 대량 획득하여 활용할 수 있고, 이를 통해 상기 트레이닝 데이터 구축에 요구되는 시간이나 비용을 현저히 절감할 수 있는 효과가 있다. In addition, the training data generation method and system for ID recognition deep learning according to an embodiment of the present invention digitizes each step of physically producing an ID card to generate a virtual ID image, thereby meeting the requirements required for ID recognition deep learning. Even if training data is not individually collected from physical ID cards, it can be obtained and utilized in large quantities in an easy, quick and efficient manner, which has the effect of significantly reducing the time and cost required to build the training data.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 실물 신분증을 촬영한 이미지의 특성(예컨대, 촬영 각도에 따라서 달라지는 홀로그램 패턴이나 각종 노이즈 등)을 반영한 가상의 신분증 이미지를 생성함으로써, 보다 실재와 같은 형상을 가지는 가상의 신분증 이미지를 생성할 수 있고 이를 이용한 딥러닝 학습의 성능 및 품질을 향상시킬 수 있는 효과가 있다. In addition, the method and system for generating training data for deep learning for ID recognition according to an embodiment of the present invention is a virtual ID that reflects the characteristics of the image captured by the physical ID card (e.g., holographic patterns or various noises that vary depending on the shooting angle). By creating an ID card image, a virtual ID card image with a more realistic shape can be created and the performance and quality of deep learning learning using this can be improved.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 실물 신분증에서 발현할 수 있는 다양한 형태의 노이즈(noise)를 다각도로 구현한 가상의 신분증 이미지를 생성함으로써, 이를 기초로 학습된 딥러닝 모델에서 신분증 인식의 타겟이 되는 이미지 상에 발생 가능한 각종 노이즈에 따른 신분증 인식 성능의 저하를 방지할 수 있고, 따라서 보다 강건한 인식 성능을 제공하는 신분증 인식을 위한 딥러닝 모델을 제공할 수 있는 효과가 있다. In addition, the training data generation method and system for deep learning for ID recognition according to an embodiment of the present invention generates a virtual ID image that embodies various types of noise that can appear in a physical ID card from various angles, The deep learning model learned based on this can prevent the deterioration of ID recognition performance due to various noises that may occur on the image that is the target of ID recognition, and thus provides a deep learning model for ID recognition that provides more robust recognition performance. It has the effect of providing.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 위와 같이 생성되는 가상의 신분증 이미지에 기초한 트레이닝 데이터를 기초로 소정의 신분증 인식을 위한 딥러닝 모델의 학습을 지원함으로써, 보다 방대한 양의 트레이닝 데이터를 토대로 해당 딥러닝 모델의 학습을 수행 가능하게 하여 그 성능을 더욱 향상시킬 수 있고, 상기 딥러닝 모델에 기초하는 각종 신분증 인식 서비스(예컨대, 온라인 기반의 은행 및/또는 증권사 업무 등을 위한 신분 인증 서비스 등)의 품질과 안전성 및 신뢰성을 제고시킬 수 있는 효과가 있다. In addition, the method and system for generating training data for deep learning for ID recognition according to an embodiment of the present invention involves learning a deep learning model for recognizing a predetermined ID based on training data based on the virtual ID image generated as above. By supporting this, it is possible to further improve the performance by enabling learning of the deep learning model based on a larger amount of training data, and various ID recognition services based on the deep learning model (e.g., online-based banking and It has the effect of improving the quality, safety, and reliability of (or identity authentication services for securities company work, etc.).

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 명확하게 이해될 수 있다. However, the effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood from the description below.

도 1은 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 시스템의 개념도이다.
도 2는 본 발명의 실시예에 따른 단말의 내부 블록도이다.
도 3은 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 실시예에 따른 배경 템플릿 이미지를 생성하는 방법을 설명하기 위한 도면의 일례이다.
도 5는 본 발명의 실시예에 따른 홀로그램 템플릿 이미지의 일례이다.
도 6은 본 발명의 실시예에 따른 홀로그램 RGB 테이블을 생성하는 방법을 설명하기 위한 도면의 일례이다.
도 7은 본 발명의 실시예에 따른 텍스트 템플릿 이미지의 일례이다.
도 8은 본 발명의 실시예에 따른 합성 이미지를 생성하는 방법을 설명하기 위한 도면의 일례이다.
도 9는 본 발명의 실시예에 따른 복수의 홀로그램 크롭 이미지를 기초로 합성 이미지를 생성하는 방법을 설명하기 위한 도면의 일례이다.
도 10 내지 도 12는 본 발명의 실시예에 따른 데이터 증강을 위한 노이즈(noise)를 설명하기 위한 도면의 일례들이다.
Figure 1 is a conceptual diagram of a training data generation system for ID card recognition deep learning according to an embodiment of the present invention.
Figure 2 is an internal block diagram of a terminal according to an embodiment of the present invention.
Figure 3 is a flowchart illustrating a method of generating training data for ID card recognition deep learning according to an embodiment of the present invention.
Figure 4 is an example of a diagram for explaining a method of generating a background template image according to an embodiment of the present invention.
Figure 5 is an example of a hologram template image according to an embodiment of the present invention.
Figure 6 is an example of a diagram for explaining a method of generating a hologram RGB table according to an embodiment of the present invention.
Figure 7 is an example of a text template image according to an embodiment of the present invention.
Figure 8 is an example of a drawing for explaining a method of generating a composite image according to an embodiment of the present invention.
Figure 9 is an example of a diagram for explaining a method of generating a composite image based on a plurality of hologram crop images according to an embodiment of the present invention.
10 to 12 are examples of drawings for explaining noise for data enhancement according to an embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.Since the present invention can be modified in various ways and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. The effects and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms. In the following embodiments, terms such as first and second are used not in a limiting sense but for the purpose of distinguishing one component from another component. Additionally, singular expressions include plural expressions unless the context clearly dictates otherwise. Additionally, terms such as include or have mean that the features or components described in the specification exist, and do not preclude the possibility of adding one or more other features or components. Additionally, in the drawings, the sizes of components may be exaggerated or reduced for convenience of explanation. For example, the size and thickness of each component shown in the drawings are shown arbitrarily for convenience of explanation, so the present invention is not necessarily limited to what is shown.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. When describing with reference to the drawings, identical or corresponding components will be assigned the same reference numerals and redundant description thereof will be omitted. .

도 1은 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 시스템의 개념도이다. Figure 1 is a conceptual diagram of a training data generation system for ID card recognition deep learning according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 시스템(1000: 이하, 트레이닝 데이터 생성 시스템)은, 소정의 신분증 인식 딥러닝 모델의 성능 향상을 위한 트레이닝 데이터 셋을 생성하는 트레이닝 데이터 생성 서비스를 제공할 수 있다. Referring to FIG. 1, the training data generation system 1000 for ID recognition deep learning according to an embodiment of the present invention (hereinafter referred to as training data generation system) is a training data set for improving the performance of a predetermined ID recognition deep learning model. A training data generation service that generates can be provided.

실시예에서, 위와 같은 트레이닝 데이터 생성 서비스를 구현하는 트레이닝 데이터 생성 시스템(1000)은, 단말(100), 데이터 생성서버(200) 및 네트워크(300: Network)를 포함할 수 있다. In an embodiment, the training data generation system 1000 that implements the above training data generation service may include a terminal 100, a data generation server 200, and a network 300.

이때, 상기 단말(100) 및 데이터 생성서버(200)는, 상기 네트워크(300)를 통하여 연결될 수 있다. At this time, the terminal 100 and the data generation server 200 may be connected through the network 300.

여기서, 실시예에 따른 상기 네트워크(300)는, 상기 단말(100) 및/또는 데이터 생성서버(200) 등과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(300)의 일례에는 3GPP(3rd Generation Partnership Project) 네트워크, LTE(Long Term Evolution) 네트워크, WIMAX(World Interoperability for Microwave Access) 네트워크, 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 블루투스(Bluetooth) 네트워크, 위성 방송 네트워크, 아날로그 방송 네트워크, DMB(Digital Multimedia Broadcasting) 네트워크 등이 포함되나 이에 한정되지는 않는다. Here, the network 300 according to the embodiment refers to a connection structure that allows information exchange between each node, such as the terminal 100 and/or the data generation server 200. This network 300 Examples include the 3rd Generation Partnership Project (3GPP) network, Long Term Evolution (LTE) network, World Interoperability for Microwave Access (WIMAX) network, Internet, Local Area Network (LAN), and Wireless Local Area Network (Wireless LAN). , WAN (Wide Area Network), PAN (Personal Area Network), Bluetooth network, satellite broadcasting network, analog broadcasting network, DMB (Digital Multimedia Broadcasting) network, etc., but are not limited thereto.

이하, 첨부된 도면을 참조하여 트레이닝 데이터 생성 시스템(1000)을 구현하는 단말(100) 및 데이터 생성서버(200)에 대해 상세히 설명한다. Hereinafter, the terminal 100 and the data generation server 200 that implement the training data generation system 1000 will be described in detail with reference to the attached drawings.

- 단말(100: Terminal) - Terminal (100: Terminal)

본 발명의 실시예에 따른 단말(100)은, 트레이닝 데이터 생성 서비스를 제공하는 트레이닝 애플리케이션(이하, 애플리케이션)이 설치된 소정의 컴퓨팅 디바이스일 수 있다. The terminal 100 according to an embodiment of the present invention may be a computing device installed with a training application (hereinafter referred to as application) that provides a training data generation service.

자세히, 하드웨어적 관점에서 단말(100)은, 애플리케이션이 설치된 모바일 타입 컴퓨팅 장치(100-1) 및/또는 데스크탑 타입 컴퓨팅 장치(100-2) 등을 포함할 수 있다. In detail, from a hardware perspective, the terminal 100 may include a mobile type computing device 100-1 and/or a desktop type computing device 100-2 on which an application is installed.

여기서, 모바일 타입 컴퓨팅 장치(100-1)는, 애플리케이션이 설치된 스마트 폰이나 테블릿 PC와 같은 모바일 장치일 수 있다. Here, the mobile type computing device 100-1 may be a mobile device such as a smart phone or tablet PC with an application installed.

예를 들어, 모바일 타입 컴퓨팅 장치(100-1)는, 스마트 폰(smart phone), 휴대폰, 디지털방송용 디바이스, PDA(personal digital assistants), PMP(portable multimedia player), 태블릿 PC(tablet PC) 등이 포함될 수 있다. For example, the mobile type computing device 100-1 includes smart phones, mobile phones, digital broadcasting devices, personal digital assistants (PDAs), portable multimedia players (PMPs), and tablet PCs. may be included.

또한, 데스크탑 타입 컴퓨팅 장치(100-2)는, 애플리케이션이 설치된 고정형 데스크탑 PC, 노트북 컴퓨터(laptop computer), 울트라북(ultrabook)과 같은 퍼스널 컴퓨터 등과 같이 유/무선 통신을 기반으로 트레이닝 데이터 생성 서비스를 실행하기 위한 프로그램이 설치된 장치 등을 포함할 수 있다. In addition, the desktop type computing device 100-2 provides a training data generation service based on wired/wireless communication, such as a fixed desktop PC with an application installed, a laptop computer, or a personal computer such as an ultrabook. It may include devices where programs to run are installed.

또한, 실시예에 따라서 단말(100)은, 트레이닝 데이터 생성 서비스 환경을 제공하는 소정의 서버(Server) 컴퓨팅 디바이스를 더 포함할 수도 있다. Additionally, depending on the embodiment, the terminal 100 may further include a server computing device that provides a training data generation service environment.

도 2는 본 발명의 실시예에 따른 단말(100)의 내부 블록도이다. Figure 2 is an internal block diagram of the terminal 100 according to an embodiment of the present invention.

한편, 도 2를 참조하면, 기능적 관점에서 단말(100)은, 메모리(110), 프로세서 어셈블리(120), 통신 프로세서(130), 인터페이스부(140), 입력 시스템(150), 센서 시스템(160) 및 디스플레이 시스템(170)을 포함할 수 있다. 이러한 구성요소들은 단말(100)의 하우징 내에 포함되도록 구성될 수 있다. Meanwhile, referring to FIG. 2, from a functional perspective, the terminal 100 includes a memory 110, a processor assembly 120, a communication processor 130, an interface unit 140, an input system 150, and a sensor system 160. ) and a display system 170. These components may be configured to be included within the housing of the terminal 100.

자세히, 메모리(110)에는, 애플리케이션(111)이 저장되며, 애플리케이션(111)은 트레이닝 데이터 생성 서비스 환경을 제공하기 위한 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다. In detail, the application 111 is stored in the memory 110 , and the application 111 may store one or more of various applications, data, and commands for providing a training data generation service environment.

즉, 메모리(110)는, 트레이닝 데이터 생성 서비스 환경을 생성하기 위하여 사용될 수 있는 명령 및 데이터 등을 저장할 수 있다. That is, the memory 110 may store commands and data that can be used to create a training data generation service environment.

또한, 상기 메모리(110)는, 프로그램 영역과 데이터 영역을 포함할 수 있다. Additionally, the memory 110 may include a program area and a data area.

여기서, 실시예에 따른 프로그램 영역은, 단말(100)을 부팅하는 운영체제(OS: Operating System) 및 기능요소들 사이에 연계될 수 있으며, 데이터 영역은, 단말(100)의 사용에 따라 발생하는 데이터가 저장될 수 있다. Here, the program area according to the embodiment may be linked between the operating system (OS) and functional elements that boot the terminal 100, and the data area is data generated according to the use of the terminal 100. can be saved.

또한, 메모리(110)는, 적어도 하나 이상의 비일시적 컴퓨터 판독 가능 저장매체와, 일시적 컴퓨터 판독 가능 저장매체를 포함할 수 있다. Additionally, the memory 110 may include at least one non-transitory computer-readable storage medium and a temporary computer-readable storage medium.

예를 들어, 메모리(110)는, ROM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet) 상에서 상기 메모리(110)의 저장 기능을 수행하는 웹 스토리지(web storage)를 포함할 수 있다. For example, the memory 110 may be a variety of storage devices such as ROM, EPROM, flash drive, hard drive, etc., and web storage that performs the storage function of the memory 110 on the Internet. may include.

프로세서 어셈블리(120)는, 트레이닝 데이터 생성 서비스 환경을 생성하기 위한 다양한 작업을 수행하기 위해, 메모리(110)에 저장된 애플리케이션(111)의 명령들을 실행할 수 있는 적어도 하나 이상의 프로세서를 포함할 수 있다. The processor assembly 120 may include at least one processor capable of executing instructions of the application 111 stored in the memory 110 to perform various tasks for creating a training data generation service environment.

실시예에서 프로세서 어셈블리(120)는, 트레이닝 데이터 생성 서비스를 제공하기 위하여 메모리(110)의 애플리케이션(111)을 통해 구성요소의 전반적인 동작을 컨트롤할 수 있다. In an embodiment, the processor assembly 120 may control the overall operation of components through the application 111 of the memory 110 to provide a training data generation service.

이러한 프로세서 어셈블리(120)는, 중앙처리장치(CPU) 및/또는 그래픽처리장치(GPU) 등이 포함된 단말(100)에 적합한 시스템 온 칩(SOC)일 수 있으며, 메모리(110)에 저장된 운영체제(OS) 및/또는 응용 프로그램 등을 실행할 수 있고, 단말(100)에 탑재된 각 구성요소들을 제어할 수 있다. This processor assembly 120 may be a system-on-chip (SOC) suitable for the terminal 100 that includes a central processing unit (CPU) and/or a graphics processing unit (GPU), and the operating system stored in the memory 110. (OS) and/or application programs can be executed, and each component mounted on the terminal 100 can be controlled.

또한, 프로세서 어셈블리(120)는, 각 구성요소와 내부적으로 시스템 버스(System Bus)에 의해 통신을 수행할 수 있고, 로컬 버스(Local Bus)를 비롯한 소정의 버스 구조들을 하나 이상 포함할 수 있다. Additionally, the processor assembly 120 may internally communicate with each component through a system bus and may include one or more bus structures, including a local bus.

또한, 프로세서 어셈블리(120)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 포함하여 구현될 수 있다. In addition, the processor assembly 120 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and controllers. ), micro-controllers, microprocessors, and other electrical units for performing functions.

통신 프로세서(130)은, 외부의 장치와 통신하기 위한 하나 이상의 장치를 포함할 수 있다. 이러한 통신 프로세서(130)은, 무선 네트워크를 통해 통신할 수 있다. The communication processor 130 may include one or more devices for communicating with external devices. This communication processor 130 can communicate through a wireless network.

자세히, 통신 프로세서(130)은, 트레이닝 데이터 생성 서비스 환경을 구현하기 위한 콘텐츠 소스를 저장한 단말(100)과 통신할 수 있으며, 유저 입력을 받는 컨트롤러와 같은 다양한 유저 입력 컴포넌트와 통신할 수 있다. In detail, the communication processor 130 can communicate with the terminal 100 that stores content sources for implementing a training data generation service environment, and can communicate with various user input components such as a controller that receives user input.

실시예에서, 통신 프로세서(130)은, 트레이닝 데이터 생성 서비스와 관련된 각종 데이터를 타 단말(100) 및/또는 외부의 서버 등과 송수신할 수 있다. In an embodiment, the communication processor 130 may transmit and receive various data related to the training data generation service to another terminal 100 and/or an external server.

이러한 통신 프로세서(130)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced),5G NR(New Radio), WIFI) 또는 근거리 통신방식 등을 수행할 수 있는 통신장치를 통해 구축된 이동 통신망 상에서 기지국, 외부의 단말(100), 임의의 서버 중 적어도 하나와 무선으로 데이터를 송수신할 수 있다.This communication processor 130 uses technical standards or communication methods for mobile communication (e.g., Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G New Radio (NR), WIFI). Alternatively, data can be transmitted and received wirelessly with at least one of a base station, an external terminal 100, and an arbitrary server on a mobile communication network established through a communication device capable of performing short-distance communication.

센서 시스템(160)은, 이미지 센서(161), 위치 센서(IMU, 163), 오디오 센서(165), 거리 센서, 근접 센서, 접촉 센서 등 다양한 센서를 포함할 수 있다. The sensor system 160 may include various sensors such as an image sensor 161, a position sensor (IMU) 163, an audio sensor 165, a distance sensor, a proximity sensor, and a contact sensor.

여기서, 이미지 센서(161)는, 단말(100) 주위의 물리적 공간에 대한 이미지 및/또는 영상을 캡처할 수 있다. Here, the image sensor 161 may capture images and/or videos of the physical space around the terminal 100.

실시예에서, 이미지 센서(161)는, 트레이닝 데이터 생성 서비스와 관련된 각종 이미지 및/또는 영상 등을 촬영하여 획득할 수 있다. In an embodiment, the image sensor 161 may capture and acquire various images and/or videos related to the training data generation service.

실시예로, 이미지 센서(161)는, 신분증 샘플 이미지 등에 대한 촬영영상을 획득할 수 있다. In an embodiment, the image sensor 161 may acquire captured images for ID card sample images, etc.

또한, 이미지 센서(161)는, 단말(100)의 전면 또는/및 후면에 배치되어 배치된 방향측을 촬영하여 영상을 획득할 수 있으며, 단말(100)의 외부를 향해 배치된 카메라를 통해 물리적 공간을 촬영할 수 있다. In addition, the image sensor 161 is disposed on the front or/and rear of the terminal 100 and can acquire an image by photographing the direction in which the terminal 100 is placed. You can photograph space.

이러한 이미지 센서(161)는, 이미지 센서장치와 영상 처리 모듈을 포함할 수 있다. 자세히, 이미지 센서(161)는, 이미지 센서장치(예를 들면, CMOS 또는 CCD)에 의해 얻어지는 정지영상 또는 동영상을 처리할 수 있다. This image sensor 161 may include an image sensor device and an image processing module. In detail, the image sensor 161 can process still images or moving images obtained by an image sensor device (eg, CMOS or CCD).

또한, 이미지 센서(161)는, 영상 처리 모듈을 이용하여 이미지 센서장치를 통해 획득된 정지영상 또는 동영상을 가공해 필요한 정보를 추출하고, 추출된 정보를 프로세서에 전달할 수 있다.Additionally, the image sensor 161 may use an image processing module to process still images or moving images obtained through the image sensor device to extract necessary information and transmit the extracted information to the processor.

이러한 이미지 센서(161)는, 적어도 하나 이상의 카메라를 포함하는 카메라 어셈블리일 수 있다. 카메라 어셈블리는, 가시광선 대역을 촬영하는 일반 카메라를 포함할 수 있으며, 적외선 카메라, 스테레오 카메라 등의 특수 카메라를 더 포함할 수 있다. This image sensor 161 may be a camera assembly including at least one camera. The camera assembly may include a general camera that photographs a visible light band, and may further include a special camera such as an infrared camera or a stereo camera.

또한, 위와 같은 이미지 센서(161)는, 실시예에 따라서 단말(100)에 포함되어 동작할 수도 있고, 외부의 장치(예컨대, 외부의 서버 등)에 포함되어 상술된 통신 프로세서(130) 및/또는 인터페이스부(140)에 기초한 연동을 통하여 동작할 수도 있다.In addition, the image sensor 161 as described above may be included and operated in the terminal 100, depending on the embodiment, or may be included in an external device (e.g., an external server, etc.) and may be included in the above-described communication processor 130 and/or Alternatively, it may operate through linkage based on the interface unit 140.

위치 센서(IMU, 163)는, 단말(100)의 움직임 및 가속도 중 적어도 하나 이상을 감지할 수 있다. 예를 들어, 가속도계, 자이로스코프, 자력계와 같은 다양한 위치 센서의 조합으로 이루어질 수 있다. The position sensor (IMU, 163) can detect at least one of the movement and acceleration of the terminal 100. For example, it may consist of a combination of various position sensors such as an accelerometer, gyroscope, or magnetometer.

또한, 위치 센서(IMU, 163)는, 통신 프로세서(130)의 GPS와 같은 위치 통신 프로세서(130)과 연동하여, 단말(100) 주변의 물리적 공간에 대한 공간 정보를 인식할 수 있다. Additionally, the location sensor (IMU) 163 may recognize spatial information about the physical space around the terminal 100 in conjunction with the location communication processor 130, such as the GPS of the communication processor 130.

오디오 센서(165)는, 단말(100) 주변의 소리를 인식할 수 있다. The audio sensor 165 can recognize sounds around the terminal 100.

자세히, 오디오 센서(165)는, 단말(100)을 사용하는 유저의 음성 입력을 감지할 수 있는 마이크로폰을 포함할 수 있다. In detail, the audio sensor 165 may include a microphone capable of detecting voice input from a user using the terminal 100.

실시예에서 오디오 센서(165)는 트레이닝 데이터 생성 서비스를 위해 필요한 음성 데이터를 유저로부터 입력 받을 수 있다.In an embodiment, the audio sensor 165 may receive voice data required for a training data generation service from the user.

인터페이스부(140)은, 단말(100)을 하나 이상의 다른 장치와 통신 가능하게 연결할 수 있다. 자세히, 인터페이스부(140)은, 하나 이상의 상이한 통신 프로토콜과 호환되는 유선 및/또는 무선 통신 장치를 포함할 수 있다. The interface unit 140 can connect the terminal 100 to communicate with one or more other devices. In detail, the interface unit 140 may include a wired and/or wireless communication device compatible with one or more different communication protocols.

이러한 인터페이스부(140)을 통해 단말(100)은, 여러 입출력 장치들과 연결될 수 있다. Through this interface unit 140, the terminal 100 can be connected to various input/output devices.

예를 들어, 인터페이스부(140)은, 헤드셋 포트나 스피커와 같은 오디오 출력장치와 연결되어, 오디오를 출력할 수 있다. For example, the interface unit 140 may be connected to an audio output device such as a headset port or a speaker to output audio.

예시적으로 오디오 출력장치가 인터페이스부(140)을 통해 연결되는 것으로 설명하였으나, 단말(100) 내부에 설치되는 실시예도 포함될 수 있다. As an example, the audio output device is connected through the interface unit 140, but embodiments in which the audio output device is installed inside the terminal 100 may also be included.

또한, 예를 들면 인터페이스부(140)은, 키보드 및/또는 마우스와 같은 입력장치와 연결되어, 유저 입력을 획득할 수도 있다. Additionally, for example, the interface unit 140 may be connected to an input device such as a keyboard and/or mouse to obtain user input.

이러한 인터페이스부(140)은, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port), 전력 증폭기, RF 회로, 송수신기 및 기타 통신 회로 중 적어도 하나를 포함하여 구성될 수 있다. This interface unit 140 connects devices equipped with a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and an identification module. Port, audio I/O (Input/Output) port, video I/O (Input/Output) port, earphone port, power amplifier, RF circuit, transceiver and other communication circuits It may be configured to include at least one of:

입력 시스템(150)은 트레이닝 데이터 생성 서비스와 관련된 유저의 입력(예를 들어, 제스처, 음성 명령, 버튼의 작동 또는 다른 유형의 입력)을 감지할 수 있다. The input system 150 may detect user input (e.g., gesture, voice command, button operation, or other type of input) related to the training data generation service.

자세히, 입력 시스템(150)은 소정의 버튼, 터치 센서 및/또는 유저 모션 입력을 수신하는 이미지 센서(161) 등을 포함할 수 있다. In detail, the input system 150 may include a predetermined button, a touch sensor, and/or an image sensor 161 that receives a user motion input.

또한, 입력 시스템(150)은, 인터페이스부(140)을 통해 외부 컨트롤러와 연결되어, 유저의 입력을 수신할 수 있다. Additionally, the input system 150 is connected to an external controller through the interface unit 140 and can receive user input.

디스플레이 시스템(170)은, 트레이닝 데이터 생성 서비스와 관련된 다양한 정보를 그래픽 이미지로 출력할 수 있다. The display system 170 may output various information related to the training data generation service as a graphic image.

실시예로, 디스플레이 시스템(170)은, 트레이닝 데이터 생성 서비스를 위한 각종 사용자 인터페이스, 신분증 샘플 이미지, 배경 템플릿 이미지, 홀로그램 템플릿 이미지, 텍스트 템플릿 이미지, 배경-텍스트 조합 이미지 및/또는 합성 이미지 등을 표시할 수 있다. In an embodiment, the display system 170 displays various user interfaces for training data generation services, ID sample images, background template images, hologram template images, text template images, background-text combination images, and/or composite images, etc. can do.

이러한 디스플레이는, 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.These displays include liquid crystal display (LCD), thin film transistor-liquid crystal display (TFT LCD), organic light-emitting diode (OLED), and flexible display. , a 3D display, or an e-ink display.

이러한 단말(100)의 하우징 내에는 상기 구성요소들이 배치될 수 있으며, 사용자 인터페이스는 유저 터치 입력을 수신하도록 구성된 디스플레이(171) 상에 터치 센서(173)를 포함할 수 있다. The above components may be disposed within the housing of the terminal 100, and the user interface may include a touch sensor 173 on the display 171 configured to receive user touch input.

자세히, 디스플레이 시스템(170)은, 이미지를 출력하는 디스플레이(171)와, 유저의 터치 입력을 감지하는 터치 센서(173)를 포함할 수 있다.In detail, the display system 170 may include a display 171 that outputs an image and a touch sensor 173 that detects a user's touch input.

예시적으로 디스플레이(171)는 터치 센서(173)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린으로 구현될 수 있다. 이러한 터치 스크린은, 단말(100)과 유저 사이의 입력 인터페이스를 제공하는 유저 입력부로써 기능함과 동시에, 단말(100)과 유저 사이의 출력 인터페이스를 제공할 수 있다. For example, the display 171 may be implemented as a touch screen by forming a mutual layer structure or being integrated with the touch sensor 173. This touch screen can function as a user input unit that provides an input interface between the terminal 100 and the user, and at the same time, can provide an output interface between the terminal 100 and the user.

한편, 본 발명의 실시예에 따른 단말(100)은, 소정의 딥러닝 뉴럴 네트워크(Deep-learning Neural Network)와 연동하여 트레이닝 데이터 생성 서비스와 관련된 딥러닝(실시예로, 신분증 인식 딥러닝 등)을 수행할 수 있다. Meanwhile, the terminal 100 according to an embodiment of the present invention performs deep learning (e.g., ID recognition deep learning, etc.) related to a training data generation service by linking with a predetermined deep-learning neural network. can be performed.

여기서, 실시예에 따른 상기 딥러닝 뉴럴 네트워크는, R-CNN(Regions with CNN features), Fast R-CNN, Faster R-CNN, Mask R-CNN, U-Net network 및/또는 컨볼루션 뉴럴 네트워크(CNN, Convolution Neural Network) 등을 포함할 수 있으며, 이에 한정되지 않는다. Here, the deep learning neural network according to the embodiment is R-CNN (Regions with CNN features), Fast R-CNN, Faster R-CNN, Mask R-CNN, U-Net network and/or convolutional neural network ( CNN, Convolution Neural Network), etc. may be included, but are not limited thereto.

또한, 실시예에 따라서 단말(100)은, 후술되는 데이터 생성서버(200)에서 수행하는 기능 동작의 적어도 일부를 더 수행할 수도 있다. Additionally, depending on the embodiment, the terminal 100 may further perform at least part of the functional operations performed by the data generation server 200, which will be described later.

- 데이터 생성서버(200: Data generation server) - Data generation server (200: Data generation server)

한편, 본 발명의 실시예에 따른 데이터 생성서버(200)는, 트레이닝 데이터 생성 서비스를 제공하기 위한 일련의 프로세스를 수행할 수 있다. Meanwhile, the data generation server 200 according to an embodiment of the present invention can perform a series of processes to provide a training data generation service.

자세히, 실시예에서 데이터 생성서버(200)는, 단말(100)과 같은 외부의 장치에서 소정의 신분증 인식 딥러닝 학습을 위한 트레이닝 데이터 생성 프로세스를 구동하기 위해 필요한 데이터를 상기 외부의 장치와 교환함으로써, 상기 트레이닝 데이터 생성 서비스를 제공할 수 있다. In detail, in the embodiment, the data generation server 200 exchanges the data necessary to drive the training data generation process for deep learning learning of a predetermined ID card in an external device such as the terminal 100 with the external device. , the training data generation service can be provided.

보다 상세히, 실시예에서 데이터 생성서버(200)는, 외부의 장치(실시예에서, 모바일 타입 컴퓨팅 장치(100-1) 및/또는 데스크탑 타입 컴퓨팅 장치(100-2) 등)에서 애플리케이션(111)이 동작할 수 있는 환경을 제공할 수 있다. More specifically, in the embodiment, the data generation server 200 generates the application 111 from an external device (in the embodiment, a mobile type computing device 100-1 and/or a desktop type computing device 100-2, etc.). An environment in which this can operate can be provided.

이를 위해, 데이터 생성서버(200)는, 애플리케이션(111)이 동작하기 위한 응용 프로그램, 데이터 및/또는 명령어 등을 포함할 수 있고, 이에 기초한 각종 데이터를 상기 외부의 장치와 송수신할 수 있다. To this end, the data generation server 200 may include an application program, data, and/or commands for operating the application 111, and may transmit and receive various data based thereon with the external device.

또한, 실시예에서 데이터 생성서버(200)는, 소정의 신분증 샘플 이미지를 획득할 수 있다. Additionally, in the embodiment, the data generation server 200 may obtain a predetermined ID sample image.

여기서, 실시예에 따른 상기 신분증 샘플 이미지는, 실물 신분증을 카메라로 촬영하여 획득한 이미지를 의미할 수 있다. Here, the ID sample image according to the embodiment may mean an image obtained by photographing a physical ID card with a camera.

또한, 실시예에서 데이터 생성서버(200)는, 상기 획득된 신분증 샘플 이미지를 기초로 배경 템플릿 이미지를 생성할 수 있다. Additionally, in the embodiment, the data generation server 200 may generate a background template image based on the obtained ID sample image.

여기서, 실시예에 따른 상기 배경 템플릿 이미지는, 상기 신분증 샘플 이미지 내 텍스트가 제거된 상태의 이미지를 의미할 수 있다. Here, the background template image according to the embodiment may mean an image in which the text in the ID sample image has been removed.

또한, 실시예에서 데이터 생성서버(200)는, 상기 획득된 신분증 샘플 이미지를 기초로 홀로그램 템플릿 이미지를 생성할 수 있다. Additionally, in the embodiment, the data generation server 200 may generate a hologram template image based on the obtained ID sample image.

여기서, 실시예에 따른 상기 홀로그램 템플릿 이미지는, 신분증의 위/변조 방지를 위하여 해당 신분증 상에 표시되는 소정의 홀로그램 패턴 영역을 포함하는 이미지를 의미할 수 있다. Here, the hologram template image according to the embodiment may mean an image including a predetermined hologram pattern area displayed on the ID card to prevent forgery/tampering with the ID card.

또한, 실시예에서 데이터 생성서버(200)는, 텍스트 템플릿 이미지를 생성할 수 있다. Additionally, in the embodiment, the data generation server 200 may generate a text template image.

여기서, 실시예에 따른 상기 텍스트 템플릿 이미지는, 소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보(예컨대, 면허번호, 이름, 주민등록번호, 주소, 신분증 발급일 및/또는 발급기관 등)를 소정의 신분증 양식에 따라서 배치한 형태의 이미지를 의미할 수 있다. Here, the text template image according to the embodiment contains various ID information (e.g., license number, name, resident registration number, address, ID issuance date and/or issuing agency, etc.) randomly generated according to a predetermined standard in a predetermined ID format. It may mean an image in an arranged form.

또한, 실시예에서 데이터 생성서버(200)는, 위와 같이 생성된 템플릿 이미지들에 기초한 합성 이미지를 생성할 수 있다. Additionally, in the embodiment, the data generation server 200 may generate a composite image based on the template images created as above.

즉, 실시예에서 데이터 생성서버(200)는, 상기 생성된 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지에 기초한 합성 이미지를 생성할 수 있다. That is, in the embodiment, the data generation server 200 may generate a composite image based on the generated background template image, text template image, and hologram template image.

여기서, 실시예에 따른 상기 합성 이미지는, 상기 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지를 소정의 방식에 따라서 하나로 결합하여 생성되는 가상의 신분증 이미지를 의미할 수 있다. Here, the composite image according to the embodiment may mean a virtual ID card image created by combining the background template image, text template image, and hologram template image into one according to a predetermined method.

또한, 실시예에서 데이터 생성서버(200)는, 상기 생성된 합성 이미지에 기초한 데이터 증강을 수행할 수 있다. Additionally, in the embodiment, the data generation server 200 may perform data augmentation based on the generated composite image.

또한, 실시예에서 데이터 생성서버(200)는, 상기 생성된 합성 이미지를 기초로 소정의 신분증 인식을 위한 딥러닝 모델의 학습을 수행할 수 있다. Additionally, in the embodiment, the data generation server 200 may perform learning of a deep learning model for recognizing a predetermined ID card based on the generated synthetic image.

또한, 실시예에서 데이터 생성서버(200)는, 소정의 딥러닝 뉴럴 네트워크(Deep-learning Neural Network)와 연동하여 트레이닝 데이터 생성 서비스에 필요한 딥러닝(실시예로, 신분증 인식 딥러닝 등)을 수행할 수 있다. Additionally, in the embodiment, the data generation server 200 performs deep learning (e.g., ID recognition deep learning, etc.) required for the training data generation service in conjunction with a predetermined deep-learning neural network. can do.

자세히, 실시예에서 데이터 생성서버(200)는, 상기 딥러닝을 수행하기 위해 구축되어 있는 소정의 딥 뉴럴 네트워크 구동 프로그램을 메모리 모듈(230)로부터 독출하여, 상기 독출된 소정의 딥 뉴럴 네트워크 시스템에 따라 하기 기술하는 딥러닝을 수행할 수 있다. In detail, in the embodiment, the data generation server 200 reads a predetermined deep neural network driving program built to perform the deep learning from the memory module 230 and stores it in the read predetermined deep neural network system. You can perform deep learning as described below.

여기서, 실시예에 따른 상기 딥러닝 뉴럴 네트워크는, R-CNN(Regions with CNN features), Fast R-CNN, Faster R-CNN, Mask R-CNN, U-Net network 및/또는 컨볼루션 뉴럴 네트워크(CNN, Convolution Neural Network) 등을 포함할 수 있으며, 이에 한정되지 않는다. Here, the deep learning neural network according to the embodiment is R-CNN (Regions with CNN features), Fast R-CNN, Faster R-CNN, Mask R-CNN, U-Net network and/or convolutional neural network ( CNN, Convolution Neural Network), etc. may be included, but are not limited thereto.

이때, 실시예에 따라서 위와 같은 딥러닝 뉴럴 네트워크는, 데이터 생성서버(200)에 직접 포함되거나, 또는 데이터 생성서버(200)와는 별도의 장치 및/또는 서버로서 구현되어 상기 트레이닝 데이터 생성 서비스를 위한 딥러닝을 수행할 수 있다. At this time, depending on the embodiment, the deep learning neural network as described above is directly included in the data generation server 200, or is implemented as a separate device and/or server from the data generation server 200 to provide the training data generation service. Deep learning can be performed.

이하의 설명에서는, 상기 딥러닝 뉴럴 네트워크가 데이터 생성서버(200)에 포함되어 구현되는 것으로 설명하나 이에 한정되는 것은 아니다. In the following description, the deep learning neural network is described as being implemented by being included in the data generation server 200, but is not limited thereto.

또한, 실시예에서 데이터 생성서버(200)는, 트레이닝 데이터 생성 서비스를 구현하기 위한 각종 응용 프로그램, 명령어 및/또는 데이터 등을 저장하고 관리할 수 있다. Additionally, in the embodiment, the data generation server 200 may store and manage various application programs, commands, and/or data for implementing a training data generation service.

실시예로, 데이터 생성서버(200)는, 적어도 하나 이상의 신분증 샘플 이미지, 배경 템플릿 이미지, 홀로그램 템플릿 이미지, 텍스트 템플릿 이미지, 배경-텍스트 조합 이미지, 합성 이미지, 홀로그램 RGB 테이블, 홀로그램 크롭 이미지, 딥러닝 모델, 데이터 처리 알고리즘 및/또는 각종 사용자 인터페이스 등을 저장 및 관리할 수 있다. In an embodiment, the data generation server 200 may generate at least one ID sample image, background template image, hologram template image, text template image, background-text combination image, composite image, hologram RGB table, hologram crop image, and deep learning. Models, data processing algorithms, and/or various user interfaces can be stored and managed.

다만, 본 발명의 실시예에서 데이터 생성서버(200)가 수행할 수 있는 기능 동작은 상술된 바에 한정되지 않으며, 또 다른 기능 동작을 더 수행할 수도 있다. However, the functional operations that the data generation server 200 can perform in the embodiment of the present invention are not limited to those described above, and other functional operations may be further performed.

한편, 도 1을 더 참조하면, 실시예에서 위와 같은 데이터 생성서버(200)는, 데이터 처리를 위한 적어도 하나 이상의 프로세서 모듈(210: Processor Module)과, 외부의 장치와의 데이터 교환을 위한 적어도 하나 이상의 커뮤니케이션 모듈(220: Communication Module)과, 트레이닝 데이터 생성 서비스의 제공을 위한 각종 응용 프로그램, 데이터 및/또는 명령어들을 저장하는 적어도 하나 이상의 메모리 모듈(230: Memory Module)을 포함하는 소정의 컴퓨팅 장치로 구현될 수 있다. Meanwhile, referring further to FIG. 1, in the embodiment, the data generation server 200 as described above includes at least one processor module (210) for data processing and at least one processor module 210 for data exchange with an external device. It is a predetermined computing device including the above communication module (220) and at least one memory module (230) that stores various applications, data, and/or instructions for providing training data generation services. It can be implemented.

여기서, 상기 메모리 모듈(230)은, 트레이닝 데이터 생성 서비스를 제공하기 위한 운영체제(OS), 각종 응용 프로그램, 데이터 및 명령어 중 어느 하나 이상을 저장할 수 있다. Here, the memory module 230 may store one or more of an operating system (OS), various application programs, data, and commands for providing a training data generation service.

또한, 상기 메모리 모듈(230)은, 프로그램 영역과 데이터 영역을 포함할 수 있다. Additionally, the memory module 230 may include a program area and a data area.

여기서, 실시예에 따른 프로그램 영역은, 서버를 부팅하는 운영체제(OS: Operating System) 및 기능요소들 사이에 연계될 수 있으며, 데이터 영역은, 서버의 사용에 따라 발생하는 데이터가 저장될 수 있다. Here, the program area according to the embodiment may be linked between the operating system (OS) that boots the server and functional elements, and the data area may store data generated according to the use of the server.

실시예에서, 이러한 메모리 모듈(230)은, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기일 수 있고, 인터넷(internet)상에서 상기 메모리 모듈(230)의 저장 기능을 수행하는 웹 스토리지(web storage)일 수도 있다. In an embodiment, the memory module 230 may be a variety of storage devices such as ROM, RAM, EPROM, flash drive, hard drive, etc., and may be a web device that performs the storage function of the memory module 230 on the Internet. It could also be storage (web storage).

또한, 메모리 모듈(230)은, 서버 상에 탈착 가능한 형태의 기록매체일 수 있다. Additionally, the memory module 230 may be a recording medium that is removable from the server.

한편, 상기 프로세서 모듈(210)은, 트레이닝 데이터 생성 서비스를 구현하기 위하여 전술한 각 유닛(unit)의 전반적인 동작을 컨트롤할 수 있다. Meanwhile, the processor module 210 can control the overall operation of each unit described above in order to implement a training data generation service.

이러한 프로세서 모듈(210)은, 중앙처리장치(CPU) 및/또는 그래픽처리장치(GPU) 등이 포함된 서버에 적합한 시스템 온 칩(SOC)일 수 있으며, 메모리 모듈(230)에 저장된 운영체제(OS) 및/또는 응용 프로그램 등을 실행할 수 있고, 서버에 탑재된 각 구성요소들을 제어할 수 있다. This processor module 210 may be a system-on-chip (SOC) suitable for a server that includes a central processing unit (CPU) and/or graphics processing unit (GPU), and the operating system (OS) stored in the memory module 230 ) and/or application programs, etc., and control each component mounted on the server.

또한, 프로세서 모듈(210)은, 각 구성요소와 내부적으로 시스템 버스(System Bus)에 의해 통신을 수행할 수 있고, 로컬 버스(Local Bus)를 비롯한 소정의 버스 구조들을 하나 이상 포함할 수 있다. Additionally, the processor module 210 may internally communicate with each component through a system bus and may include one or more bus structures, including a local bus.

또한, 프로세서 모듈(210)은, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세스(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다. In addition, the processor module 210 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and controllers. ), micro-controllers, microprocessors, and other electrical units for performing functions.

이상의 설명에서는, 본 발명의 실시예에 따른 데이터 생성서버(200)가 상술된 바와 같은 기능 동작을 수행한다고 설명하였으나, 실시예에 따라서 데이터 생성서버(200)에서 수행하는 기능 동작의 적어도 일부를 외부의 장치(예컨대, 단말(100) 등)에서 수행할 수도 있고, 상기 외부의 장치에서 수행하는 기능 동작의 적어도 일부를 상기 데이터 생성서버(200)에서 더 수행할 수도 있는 등 다양한 실시예가 가능할 수 있다. In the above description, it has been explained that the data generation server 200 according to the embodiment of the present invention performs the functional operations as described above. However, depending on the embodiment, at least part of the functional operation performed by the data generation server 200 is externally performed. Various embodiments may be possible, such as performing the device (e.g., terminal 100, etc.), and at least part of the functional operation performed by the external device may be further performed by the data generation server 200. .

- 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 - How to generate training data for ID recognition deep learning

이하, 본 발명의 실시예에 따른 단말(100)의 적어도 하나 이상의 프로세서에 의하여 실행되는 애플리케이션(111)이 소정의 신분증 인식 딥러닝을 위한 트레이닝 데이터를 생성하는 방법을 첨부된 도 3 내지 도 12를 참조하여 상세히 설명한다. Hereinafter, the attached FIGS. 3 to 12 show a method in which the application 111 executed by at least one processor of the terminal 100 according to an embodiment of the present invention generates training data for deep learning for ID card recognition. Please refer to and explain in detail.

본 발명의 실시예에서 상기 단말(100)의 적어도 하나 이상의 프로세서는, 적어도 하나 이상의 메모리(110)에 저장된 적어도 하나 이상의 애플리케이션(111)을 실행하거나 백그라운드 상태로 동작하게 할 수 있다. In an embodiment of the present invention, at least one processor of the terminal 100 may execute at least one application 111 stored in at least one memory 110 or operate in a background state.

이하, 상기 적어도 하나 이상의 프로세서가 상기 애플리케이션(111)의 명령어를 실행하기 위해 동작하여 상술된 트레이닝 데이터 생성 서비스를 제공하는 방법을 수행하는 것을 상기 애플리케이션(111)이 수행하는 것으로 단축하여 설명한다. Hereinafter, the method of providing the above-described training data generation service by operating the at least one processor to execute instructions of the application 111 will be briefly described as being performed by the application 111.

도 3은 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법을 설명하기 위한 흐름도이다. Figure 3 is a flowchart illustrating a method of generating training data for ID card recognition deep learning according to an embodiment of the present invention.

도 3을 참조하면, 실시예에서 상기 단말(100)의 적어도 하나 이상의 프로세서에 의하여 실행되거나 백그라운드 상태로 동작하는 애플리케이션(111)은, 신분증 샘플 이미지를 획득할 수 있다. (S101) Referring to FIG. 3, in the embodiment, the application 111 executed by at least one processor of the terminal 100 or operating in the background may obtain an ID card sample image. (S101)

여기서, 실시예에 따른 상기 신분증 샘플 이미지란, 실물 신분증을 카메라로 촬영하여 획득한 이미지를 의미할 수 있다. Here, the ID card sample image according to the embodiment may mean an image obtained by photographing a physical ID card with a camera.

실시예에서 이러한 신분증 샘플 이미지는, 소정의 실물 신분증을 다각도에서 촬영하여 획득한 복수의 홀로그램 샘플 이미지를 포함할 수 있다. In an embodiment, this ID sample image may include a plurality of hologram sample images obtained by photographing a physical ID card from various angles.

자세히, 실시예에서 애플리케이션(111)은, 이미지 센서(161) 및/또는 소정의 외부 디바이스(예컨대, 타 단말(100), 데이터 생성서버(200) 및/또는 인터넷 서버 등)와 연동하여 상기와 같은 신분증 샘플 이미지를 획득할 수 있다. In detail, in the embodiment, the application 111 operates in conjunction with the image sensor 161 and/or a certain external device (e.g., another terminal 100, data generation server 200, and/or an Internet server, etc.) to You can obtain a sample image of the same ID card.

또한, 실시예에서 애플리케이션(111)은, 상기 획득된 신분증 샘플 이미지를 기초로 배경 템플릿 이미지를 생성할 수 있다. (S103) Additionally, in the embodiment, the application 111 may generate a background template image based on the obtained ID sample image . (S103)

여기서, 실시예에 따른 상기 배경 템플릿 이미지란, 상기 신분증 샘플 이미지 내 텍스트가 제거된 상태의 이미지를 의미할 수 있다. Here, the background template image according to the embodiment may mean an image with the text in the ID card sample image removed.

도 4는 본 발명의 실시예에 따른 배경 템플릿 이미지를 생성하는 방법을 설명하기 위한 도면의 일례이다. Figure 4 is an example of a diagram for explaining a method of generating a background template image according to an embodiment of the present invention.

자세히, 도 4를 참조하면, 실시예에서 애플리케이션(111)은, 상기 신분증 샘플 이미지(10)에 기반한 마스크 이미지(20: Mask Image)를 생성할 수 있다. In detail, referring to FIG. 4 , in the embodiment, the application 111 may generate a mask image 20 based on the ID card sample image 10.

이때, 실시예에서 상기 마스크 이미지(20)란, 상기 신분증 샘플 이미지(10) 내 텍스트 영역을 마스킹 처리한 이미지일 수 있다. At this time, in the embodiment, the mask image 20 may be an image obtained by masking the text area within the ID card sample image 10.

보다 상세히, 실시예에서 애플리케이션(111)은, 텍스트가 검정색 RGB값을 기초로 표시된다는 점에 착안하여, 상기 신분증 샘플 이미지(10) 내 각 픽셀별 RGB값이 검정색을 나타내는 소정의 임계값(Threshold, 예컨대 150 이하 등)을 충족하는지 여부를 판단할 수 있다. In more detail, in the embodiment, the application 111 sets the RGB value for each pixel in the ID sample image 10 to a predetermined threshold indicating black, considering that the text is displayed based on the black RGB value. , for example, 150 or less, etc.) can be determined.

또한, 실시예에서 애플리케이션(111)은, 상기 임계값을 충족하는 픽셀 즉, 검정색 텍스트 영역에 대한 마스킹 처리를 수행할 수 있다. Additionally, in the embodiment, the application 111 may perform masking processing on pixels that meet the threshold, that is, the black text area.

그리하여 애플리케이션(111)은, 상기 신분증 샘플 이미지(10) 내 텍스트 영역에 대한 마스킹이 구현된 상기 마스크 이미지(20)를 획득할 수 있다. Accordingly, the application 111 can obtain the mask image 20 in which masking of the text area within the ID card sample image 10 is implemented.

이때, 실시예에서 애플리케이션(111)은, 소정의 팽창 함수(Dilation function)를 적용하여 상기 마스킹 영역을 확장할 수 있다. At this time, in the embodiment, the application 111 may expand the masking area by applying a predetermined dilation function.

예컨대, 애플리케이션(111)은, 모폴로지 연산(Perspective Calculate)의 팽창 함수(cv2.dilate)에 기초하여 상술된 마스킹 영역을 확장해 사용할 수 있다. For example, the application 111 can expand and use the masking area described above based on the expansion function (cv2.dilate) of the morphology calculation (Perspective Calculate).

따라서, 애플리케이션(111)은, 상기 신분증 샘플 이미지(10) 내에서 정확히 텍스트 영역만 마스킹될 시 부자연스러운 경계가 발생하거나 추후 수행될 인페이팅 프로세스의 품질을 저하시키는 등의 문제를 미연에 방지할 수 있다. Therefore, the application 111 can prevent problems such as unnatural boundaries occurring when only the text area is accurately masked within the ID card sample image 10 or deteriorating the quality of the infating process to be performed later. You can.

또한, 실시예에서 애플리케이션(111)은, 소정의 딥러닝 뉴럴 네트워크와 연동하여, 상기 신분증 샘플 이미지(10) 및 상기 마스크 이미지(20)에 기초한 상기 배경 템플릿 이미지(30)를 생성할 수 있다. Additionally, in the embodiment, the application 111 may generate the background template image 30 based on the ID sample image 10 and the mask image 20 in conjunction with a predetermined deep learning neural network.

자세히, 실시예에서 애플리케이션(111)은, 소정의 신분증 샘플 이미지(10)와 소정의 마스크 이미지(20)를 입력 데이터로 하고, 상기 입력 데이터들에 기초한 소정의 배경 템플릿 이미지(30)를 출력 데이터로 하는 딥러닝 뉴럴 네트워크(이하, 배경 템플릿 출력모델)와 연동할 수 있다. In detail, in the embodiment, the application 111 uses a predetermined ID sample image 10 and a predetermined mask image 20 as input data, and outputs a predetermined background template image 30 based on the input data. It can be linked with a deep learning neural network (hereinafter referred to as background template output model).

이때, 본 발명의 실시예에서는, 상기 소정의 신분증 샘플 이미지(10)와 소정의 마스크 이미지(20)를 입력 데이터로 하고 상기 소정의 배경 템플릿 이미지(30)를 출력 데이터로 하는 딥러닝 뉴럴 네트워크 알고리즘 자체를 한정하진 않으며, 개시된 딥러닝 알고리즘 중에서 상술된 기능 동작을 수행 가능한 알고리즘(예컨대, U-Net style network 등)이라면 어떠한 알고리즘도 본 발명의 실시예에 포함되어 동작할 수 있다. At this time, in an embodiment of the present invention, a deep learning neural network algorithm uses the predetermined ID sample image 10 and the predetermined mask image 20 as input data and the predetermined background template image 30 as output data. It is not intended to be limiting, and any algorithm (eg, U-Net style network, etc.) that can perform the above-described functional operations among the disclosed deep learning algorithms may be included and operated in an embodiment of the present invention.

또한, 실시예에서 애플리케이션(111)은, 상기 연동된 배경 템플릿 출력모델로 상술된 신분증 샘플 이미지(10)와 마스크 이미지(20)를 입력할 수 있다. Additionally, in the embodiment, the application 111 may input the above-described ID sample image 10 and mask image 20 into the linked background template output model.

그리고 애플리케이션(111)은, 상기 신분증 샘플 이미지(10)와 마스크 이미지(20)를 입력받은 배경 템플릿 출력모델로부터 상기 신분증 샘플 이미지(10) 및 상기 마스크 이미지(20)에 기초한 합성을 통해 생성되는 상기 배경 템플릿 이미지(30)를 획득할 수 있다. And the application 111 generates the ID card sample image 10 and the mask image 20 through synthesis based on the background template output model that receives the ID card sample image 10 and the mask image 20. A background template image 30 can be obtained.

즉, 애플리케이션(111)은, 소정의 배경 템플릿 출력모델로 상기 신분증 샘플 이미지(10) 및 상기 마스크 이미지(20)를 입력하고, 그 출력으로 상기 신분증 샘플 이미지(10)와 상기 마스크 이미지(20)를 합성한 배경 템플릿 이미지(30)를 획득할 수 있다. That is, the application 111 inputs the ID card sample image 10 and the mask image 20 into a predetermined background template output model, and outputs the ID card sample image 10 and the mask image 20. A background template image 30 synthesized can be obtained.

그리하여 애플리케이션(111)은, 상기 신분증 샘플 이미지(10) 상에서 상기 마스크 이미지(20)에 따른 마스킹 영역(즉, 텍스트 영역)이 소거된 형태의 배경 템플릿 이미지(30)를 획득할 수 있다. Accordingly, the application 111 may obtain a background template image 30 in which the masking area (i.e., text area) according to the mask image 20 is erased from the ID card sample image 10.

이때, 실시예에서 애플리케이션(111)은, 소정의 딥러닝 뉴럴 네트워크와 연동하여, 상기 배경 템플릿 이미지의 마스킹 영역 상에 상기 신분증 샘플 이미지(10)에 따른 배경 색상을 자연스럽게 오버레이하는 인페이팅(Inpainting) 처리를 수행할 수 있다. At this time, in the embodiment, the application 111, in conjunction with a predetermined deep learning neural network, naturally overlays the background color according to the ID card sample image 10 on the masking area of the background template image. ) processing can be performed.

참고적으로, 상기 인페이팅이란, 소정의 이미지 내 손상 및/또는 누락된 부분을 재구성하여 완전한 이미지를 제공하는 기술을 의미할 수 있다. For reference, the inpainting may refer to a technology that provides a complete image by reconstructing damaged and/or missing parts in a given image.

본 발명의 실시예에서 상기 인페이팅을 수행하는 딥러닝 뉴럴 네트워크(이하, 인페인팅 수행모델)는, 상기 인페이팅 기능 동작을 수행할 수 있는 딥러닝 알고리즘이라면 개시된 어떠한 알고리즘도 적용 가능하며 본 발명의 실시예에서는 이러한 알고리즘 자체를 제한하거나 한정하지는 않는다. In an embodiment of the present invention, the deep learning neural network that performs the inpainting (hereinafter referred to as the inpainting performance model) can apply any disclosed algorithm as long as it is a deep learning algorithm capable of performing the inpainting function operation. In the embodiment of the invention, this algorithm itself is not restricted or limited.

따라서, 애플리케이션(111)은, 상기 신분증 샘플 이미지(10) 내 텍스트가 보다 자연스럽게 소거된 상태의 배경 템플릿 이미지(30)를 생성할 수 있다. Accordingly, the application 111 can generate the background template image 30 in which the text in the ID sample image 10 is erased more naturally.

또한, 실시예에서 애플리케이션(111)은, 상기 획득된 신분증 샘플 이미지(10)를 기초로 홀로그램 템플릿 이미지를 생성할 수 있다. (S105) Additionally, in the embodiment, the application 111 may generate a hologram template image based on the obtained ID sample image 10. (S105)

도 5는 본 발명의 실시예에 따른 홀로그램 템플릿 이미지의 일례이다. Figure 5 is an example of a hologram template image according to an embodiment of the present invention.

여기서, 도 5를 참조하면, 실시예에 따른 상기 홀로그램 템플릿 이미지(40)란, 신분증의 위/변조 방지를 위하여 해당 신분증 상에 표시되는 소정의 홀로그램 패턴 영역(이하, 홀로그램 영역)을 포함하는 이미지를 의미할 수 있다. Here, referring to FIG. 5, the hologram template image 40 according to the embodiment is an image including a predetermined hologram pattern area (hereinafter referred to as a hologram area) displayed on the ID card to prevent forgery/tampering with the ID card. It can mean.

실시예에서, 이러한 홀로그램 템플릿 이미지(40)는, 상기 신분증 샘플 이미지(10)의 복수의 홀로그램 샘플 이미지 중 적어도 하나의 홀로그램 샘플 이미지(이하, 타겟 홀로그램 이미지)에 기초하여 추출된 소정의 홀로그램 영역을 포함하는 이미지를 의미할 수 있다. In an embodiment, the hologram template image 40 includes a predetermined hologram area extracted based on at least one hologram sample image (hereinafter referred to as target hologram image) among the plurality of hologram sample images of the ID card sample image 10. It may refer to the image it contains.

자세히, 실시예에서 애플리케이션(111)은, 상기 타겟 홀로그램 이미지로부터 적어도 일 홀로그램 영역(이하, 타겟 홀로그램 영역)을 추출할 수 있다. In detail, in the embodiment, the application 111 may extract at least one hologram area (hereinafter referred to as target hologram area) from the target hologram image.

보다 상세히, 실시예에서 애플리케이션(111)은, 상기 타겟 홀로그램 이미지 상의 소정의 타겟 홀로그램 영역을 선택하는 사용자 입력을 획득할 수 있다. In more detail, in the embodiment, the application 111 may obtain a user input for selecting a predetermined target hologram area on the target hologram image.

그리고 실시예에서 애플리케이션(111)은, 상기 획득된 사용자 입력에 따라서 선택된 타겟 홀로그램 영역을 상기 타겟 홀로그램 이미지로부터 추출할 수 있다. And in the embodiment, the application 111 may extract a target hologram area selected according to the obtained user input from the target hologram image.

또한, 실시예에서 애플리케이션(111)은, 상기 추출된 타겟 홀로그램 영역을 기초로 홀로그램 RGB 테이블(Hologram RGB Table)을 생성할 수 있다. Additionally, in the embodiment, the application 111 may generate a hologram RGB table based on the extracted target hologram area.

도 6은 본 발명의 실시예에 따른 홀로그램 RGB 테이블을 생성하는 방법을 설명하기 위한 도면의 일례이다. Figure 6 is an example of a diagram for explaining a method of generating a hologram RGB table according to an embodiment of the present invention.

여기서, 도 6을 참조하면, 실시예에 따른 상기 홀로그램 RGB 테이블이란, 상기 타겟 홀로그램 영역을 표시하는 픽셀의 RGB값에 기준한 소정의 범위 이내의 RGB값(실시예에서, 홀로그램 추정 범위)을 지정해놓은 데이터들의 집합으로 구성된 테이블 형식의 데이터를 의미할 수 있다. Here, referring to FIG. 6, the hologram RGB table according to the embodiment specifies RGB values (in the embodiment, hologram estimation range) within a predetermined range based on the RGB values of pixels displaying the target hologram area. It can refer to table-type data composed of a set of pre-existing data.

실시예에서 애플리케이션(111)은, 위와 같은 홀로그램 RGB 테이블 내 홀로그램 추정 범위를 충족하는 RGB값을 가지는 픽셀을 홀로그램 영역으로 추정할 수 있다. In an embodiment, the application 111 may estimate a pixel having an RGB value that satisfies the hologram estimation range in the above hologram RGB table as a hologram area.

자세히, 실시예에서 애플리케이션(111)은, 상기 타겟 홀로그램 영역이 포함하는 각 픽셀별 RGB값을 획득할 수 있다. In detail, in the embodiment, the application 111 may obtain RGB values for each pixel included in the target hologram area.

또한, 실시예에서 애플리케이션(111)은, 상기 획득된 픽셀별 RGB값을 기준으로 기 설정된 범위(예컨대, 등)를 충족하는 홀로그램 추정 범위를 결정할 수 있다. Additionally, in the embodiment, the application 111 operates within a preset range (e.g., etc.) can be determined.

예를 들어, 애플리케이션(111)은, 상기 타겟 홀로그램 영역이 포함하는 제1 픽셀의 RGB값이 '50', 제2 픽셀의 RGB값이 '78', 제3 픽셀의 RGB값이 '120'이면, 상기 제1 픽셀의 RGB값을 기준으로 을 충족하는 '40~60' 범위, 상기 제2 픽셀의 RGB값을 기준으로 을 충족하는 '68~88' 범위, 상기 제3 픽셀의 RGB값을 기준으로 을 충족하는 '110~130' 범위를 상기 홀로그램 추정 범위로 결정할 수 있다. For example, if the RGB value of the first pixel included in the target hologram area is '50', the RGB value of the second pixel is '78', and the RGB value of the third pixel is '120', , based on the RGB value of the first pixel '40~60' range that satisfies, based on the RGB value of the second pixel '68~88' range that satisfies, based on the RGB value of the third pixel The range of '110 to 130' that satisfies can be determined as the hologram estimation range.

또한, 실시예에서 애플리케이션(111)은, 위와 같이 결정된 홀로그램 추정 범위에 기초하여 상기 홀로그램 RGB 테이블을 생성할 수 있다. Additionally, in the embodiment, the application 111 may generate the hologram RGB table based on the hologram estimation range determined as above.

즉, 실시예에서 애플리케이션(111)은, 상기 타겟 홀로그램 영역 내 각 픽셀별 RGB값을 기준으로 기 설정된 범위를 충족하는 적어도 하나 이상의 홀로그램 추정 범위를 결정하고, 상기 결정된 적어도 하나 이상의 홀로그램 추정 범위를 데이터로 가지는 상기 홀로그램 RGB 테이블을 생성할 수 있다. That is, in the embodiment, the application 111 determines at least one hologram estimation range that satisfies a preset range based on the RGB value for each pixel in the target hologram area, and uses the determined at least one hologram estimation range as data. The branch can generate the hologram RGB table.

또한, 실시예에서 애플리케이션(111)은, 위와 같이 생성된 홀로그램 RGB 테이블을 기초로 상기 타겟 홀로그램 이미지에 대한 마스킹 처리를 수행할 수 있다. Additionally, in the embodiment, the application 111 may perform masking processing on the target hologram image based on the hologram RGB table generated as above.

자세히, 실시예에서 애플리케이션(111)은, 상기 타겟 홀로그램 이미지를 구현하는 픽셀 중에서 상기 홀로그램 RGB 테이블 내 홀로그램 추정 범위에 따른 RGB값을 불충족하는 픽셀(이하, 무효 픽셀)을 적어도 하나 이상 검출할 수 있다. In detail, in the embodiment, the application 111 may detect at least one pixel (hereinafter referred to as invalid pixel) that does not meet the RGB value according to the hologram estimation range in the hologram RGB table among the pixels implementing the target hologram image. there is.

다시 말해서, 애플리케이션(111)은, 상기 타겟 홀로그램 이미지 내 픽셀 중에서 상기 홀로그램 추정 범위를 충족하여 홀로그램 영역을 나타내는 것으로 판단되는 픽셀 이외의 나머지 무효 픽셀을 적어도 하나 이상 검출할 수 있다. In other words, the application 111 may detect at least one remaining invalid pixel other than the pixels in the target hologram image that are determined to meet the hologram estimation range and represent the hologram area.

또한, 실시예에서 애플리케이션(111)은, 상기 검출된 적어도 하나의 무효 픽셀 영역에 대한 마스킹 처리를 수행할 수 있다. Additionally, in the embodiment, the application 111 may perform masking processing on the at least one detected invalid pixel area.

그리하여 애플리케이션(111)은, 상기 타겟 홀로그램 이미지 상에서 소정의 홀로그램 영역 이외의 나머지 영역을 마스킹 처리한 상기 홀로그램 템플릿 이미지(40)를 생성할 수 있다. Accordingly, the application 111 may generate the hologram template image 40 by masking the remaining areas other than the predetermined hologram area on the target hologram image.

이와 같이, 애플리케이션(111)은, 특정 실물 신분증을 다각도로 촬영한 복수의 홀로그램 샘플 이미지를 기초로 소정의 홀로그램 영역에 대한 판단 기준을 제시하는 홀로그램 RGB 테이블을 생성하고, 이를 기초로 상기 홀로그램 샘플 이미지 내 홀로그램 영역 이외의 나머지 영역을 마스킹 처리한 홀로그램 템플릿 이미지(40)(즉, 상기 홀로그램 샘플 이미지 내 홀로그램 영역을 추출하여 나타내는 이미지)를 획득함으로써, 촬영 각도에 따라 서로 다른 양상으로 발현되는 홀로그램의 특성을 고려하여 상기 홀로그램 RGB 테이블을 생성할 수 있고, 이에 따라서 다양한 형상의 홀로그램 템플릿 이미지(40)를 용이하게 획득할 수 있다. In this way, the application 111 generates a hologram RGB table that presents a judgment standard for a predetermined hologram area based on a plurality of hologram sample images taken from various angles of a specific physical ID card, and based on this, the hologram sample image By acquiring a hologram template image 40 (i.e., an image representing the hologram area within the hologram sample image) with the remaining areas other than the hologram area masked, the characteristics of the hologram are expressed in different aspects depending on the shooting angle. The hologram RGB table can be generated by considering , and thus, hologram template images 40 of various shapes can be easily obtained.

또한, 실시예에서 애플리케이션(111)은, 텍스트 템플릿 이미지를 생성할 수 있다. (S107) Additionally, in the embodiment, the application 111 may create a text template image. (S107)

도 7은 본 발명의 실시예에 따른 텍스트 템플릿 이미지의 일례이다. Figure 7 is an example of a text template image according to an embodiment of the present invention.

여기서, 도 7을 참조하면, 실시예에 따른 상기 텍스트 템플릿 이미지(50)란, 소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보(예컨대, 면허번호, 이름, 주민등록번호, 주소, 신분증 발급일 및/또는 발급기관 등)를 소정의 신분증 양식에 따라서 배치한 형태의 이미지를 의미할 수 있다. Here, referring to FIG. 7, the text template image 50 according to the embodiment contains various ID information randomly generated according to a predetermined standard (e.g., license number, name, resident registration number, address, ID issuance date, and/or It may refer to an image in which the issuing agency, etc.) is arranged according to a prescribed ID card format.

즉, 실시예에서 상기 텍스트 템플릿 이미지(50)는, 소정의 신분증 양식에 맞춰서 랜덤 생성된 신분증 정보를 표시하는 이미지일 수 있다. That is, in the embodiment, the text template image 50 may be an image that displays ID information randomly generated according to a predetermined ID card format.

자세히, 실시예에서 애플리케이션(111)은, 상기 신분증 정보 내 각 파라미터별 기 설정된 기준을 기초로 상기 각 파라미터별 데이터 값을 랜덤하게 생성할 수 있다. In detail, in the embodiment, the application 111 may randomly generate data values for each parameter based on a preset standard for each parameter in the ID information.

예시적으로, 애플리케이션(111)은, 상기 신분증 정보의 제1 파라미터가 '주민등록번호'이고 상기 제1 파라미터에 대하여 기 설정된 기준이 '6자리 숫자-7자리 숫자 형식'이면, 상기 기 설정된 기준에 따라서 랜덤 방식으로 상기 제1 파라미터 값(예컨대, '123456-7891011' 등)을 생성할 수 있다. Exemplarily, if the first parameter of the ID information is 'resident registration number' and the preset standard for the first parameter is '6-digit number - 7-digit number format', the application 111 operates according to the preset standard. The first parameter value (eg, '123456-7891011', etc.) may be generated in a random manner.

다른 예시로, 애플리케이션(111)은, 상기 신분증 정보의 제2 파라미터가 '이름'이고 상기 제2 파라미터에 대하여 기 설정된 기준이 '한글 자모 조합의 3문자 형식'이면, 상기 기 설정된 기준에 따라서 랜덤 방식으로 상기 제2 파라미터 값(예컨대, '홍길동' 등)을 생성할 수 있다. As another example, if the second parameter of the ID information is 'name' and the preset standard for the second parameter is '3-character format of Korean alphabet combination', the application 111 randomly generates data according to the preset standard. The second parameter value (eg, 'Hong Gil-dong', etc.) can be generated in this way.

또한, 실시예에서 애플리케이션(111)은, 위와 같이 랜덤 생성된 각 파라미터별 데이터 값을 소정의 신분증 양식에 따라서 표시함으로써 상기 텍스트 템플릿 이미지(50)를 생성할 수 있다. Additionally, in the embodiment, the application 111 may generate the text template image 50 by displaying the randomly generated data values for each parameter according to a predetermined ID card format as described above.

실시예로, 애플리케이션(111)은, 기 설정된 이미지 크기, 각 파라미터 값별 인쇄체 폰트 및/또는 배치 위치를 제공하는 소정의 신분증 양식에 기초하여 상기 랜덤 생성된 각 파라미터 값을 표시하는 텍스트 템플릿 이미지(50)를 생성할 수 있다. In an embodiment, the application 111 may provide a text template image (50) that displays each randomly generated parameter value based on a preset image size, a predetermined identification card form that provides a printing font and/or placement location for each parameter value. ) can be created.

예를 들어, 애플리케이션(111)은, 소정의 제1 파라미터(예컨대, 주민등록번호 등) 값을 제1 이미지 크기(예컨대, 소정의 가로세로비를 가지는 이미지 크기 등), 제1 폰트(예컨대, 굴림체 등) 및 제1 배치 위치(예컨대, 소정의 (x, y) 좌표값 지점 등)에 기초하여 표시하도록 지정하는 제1 신분증 양식을 기반으로 상기 제1 파라미터 값(예컨대, 랜덤 생성된 주민등록번호인 '123456-7891011' 등)을 표시하는 텍스트 템플릿 이미지(50)를 생성할 수 있다. For example, the application 111 sets the value of a predetermined first parameter (e.g., resident registration number, etc.) to a first image size (e.g., an image size with a predetermined aspect ratio, etc.), a first font (e.g., a Gulim font, etc.), ) and the first parameter value (e.g., '123456', which is a randomly generated resident registration number) based on the first ID card form designated to be displayed based on the first arrangement location (e.g., a predetermined (x, y) coordinate value point, etc.) A text template image (50) that displays '-7891011', etc.) can be created.

이와 같이, 애플리케이션(111)은, 랜덤하게 생성된 각종 신분증 정보(예컨대, 면허번호, 이름, 주민등록번호, 주소, 신분증 발급일 및/또는 발급기관 등)를 소정의 신분증 양식에 맞추어 표시한 형태의 텍스트 템플릿 이미지(50)를 구현함으로써, 추후 이를 이용하여 생성되는 가상의 신분증 이미지(실시예에서, 합성 이미지)가 상술된 바와 같이 랜덤 생성된 다양한 신분증 정보에 따라서 서로 다른 형태로 용이하게 구현되게 함과 동시에 상기 가상의 신분증 이미지에 필요한 신분증 정보를 실물 신분증으로부터 일일이 수집하지 않더라도 쉽고 빠르게 효율적인 방식으로 획득 및 활용할 수 있다. In this way, the application 111 is a text template in which various randomly generated ID information (e.g., license number, name, resident registration number, address, ID issuance date and/or issuing agency, etc.) is displayed according to a predetermined ID card format. By implementing the image 50, a virtual ID image (in the embodiment, a composite image) generated later using this can be easily implemented in different forms according to various randomly generated ID information as described above. Even if the ID information required for the virtual ID image is not individually collected from the actual ID, it can be obtained and utilized quickly and efficiently in an efficient manner.

또한, 실시예에서 애플리케이션(111)은, 상술된 바와 같이 생성된 템플릿 이미지들에 기초한 합성 이미지를 생성할 수 있다. (S109) Additionally, in an embodiment, application 111 may generate a composite image based on template images created as described above. (S109)

즉, 실시예에서 애플리케이션(111)은, 상술된 바와 같이 생성된 배경 템플릿 이미지(30), 텍스트 템플릿 이미지(50) 및 홀로그램 템플릿 이미지(40)에 기초한 합성 이미지를 생성할 수 있다. That is, in the embodiment, the application 111 may generate a composite image based on the background template image 30, text template image 50, and hologram template image 40 created as described above.

도 8은 본 발명의 실시예에 따른 합성 이미지를 생성하는 방법을 설명하기 위한 도면의 일례이다. Figure 8 is an example of a drawing for explaining a method of generating a composite image according to an embodiment of the present invention.

여기서, 도 8을 참조하면, 실시예에 따른 상기 합성 이미지(70)란, 상기 배경 템플릿 이미지(30), 텍스트 템플릿 이미지(50) 및 홀로그램 템플릿 이미지(40)를 소정의 방식을 따라서 하나로 결합하여 생성되는 가상의 신분증 이미지를 의미할 수 있다. Here, referring to FIG. 8, the composite image 70 according to the embodiment is obtained by combining the background template image 30, the text template image 50, and the hologram template image 40 into one according to a predetermined method. It may refer to a virtual ID image that is created.

자세히, 실시예에서 애플리케이션(111)은, 상기 배경 템플릿 이미지(30) 및 상기 텍스트 템플릿 이미지(50)에 기초한 배경-텍스트 조합 이미지를 생성할 수 있다. In detail, in the embodiment, the application 111 may generate a background-text combination image based on the background template image 30 and the text template image 50.

여기서, 실시예에 따른 상기 배경-텍스트 조합 이미지(60)란, 소정의 배경 템플릿 이미지(30) 상에 소정의 텍스트 템플릿 이미지(50)를 렌더링(Rendering)하여 결합한 형태의 이미지를 의미할 수 있다. Here, the background-text combination image 60 according to the embodiment may mean an image that is combined by rendering a predetermined text template image 50 on a predetermined background template image 30. .

즉, 실시예에서 애플리케이션(111)은, 상기 생성된 배경 템플릿 이미지(30) 상에 상기 텍스트 템플릿 이미지(50)를 렌더링(Rendering)함으로써 상기 배경 템플릿 이미지(30)와 상기 텍스트 템플릿 이미지(50)를 결합한 배경-텍스트 조합 이미지(60)를 획득할 수 있다. That is, in the embodiment, the application 111 renders the text template image 50 on the generated background template image 30 to create the background template image 30 and the text template image 50. A background-text combination image 60 that combines can be obtained.

또한, 실시예에서 애플리케이션(111)은, 위와 같이 획득된 배경-텍스트 조합 이미지(60) 및 상기 홀로그램 템플릿 이미지(40)를 기초로 상기 합성 이미지(70)를 생성할 수 있다. Additionally, in the embodiment, the application 111 may generate the composite image 70 based on the background-text combination image 60 and the hologram template image 40 obtained as above.

자세히, 실시예에서 애플리케이션(111)은, 상기 배경-텍스트 조합 이미지(60)와 상기 홀로그램 템플릿 이미지(40)에 기초한 알파 블랜딩(Alpha-blending) 연산을 수행하여 상기 합성 이미지(70)를 생성할 수 있다. In detail, in the embodiment, the application 111 generates the composite image 70 by performing an alpha-blending operation based on the background-text combination image 60 and the hologram template image 40. You can.

참고적으로, 상기 알파 블렌딩이란, 소정의 제1 이미지(배경 이미지) 상에 또 다른 제2 이미지(전경 이미지)를 덧 씌우는 방식으로 합성할 시 마치 투명하게 비치는 효과를 구현하기 위하여 컴퓨터의 색상 표현 값 RGB에 알파(Alpha, A)라는 새로운 값을 더 할당하고, 상기 할당된 알파값에 기초한 가중치를 반영하여 상기 배경 이미지 내 각 픽셀별 RGB값과 그 위의 상기 전경 이미지 내 각 픽셀별 RGB값을 혼합 및 표시하는 연산법을 말한다. For reference, the alpha blending refers to a computer color expression used to create a transparent effect when compositing by overlaying a second image (foreground image) on a predetermined first image (background image). A new value called Alpha (A) is further assigned to the value RGB, and the RGB value for each pixel in the background image and the RGB value for each pixel in the foreground image above reflect the weight based on the assigned alpha value. It refers to an operation method that mixes and displays.

구체적으로, 실시예에서 애플리케이션(111)은, 상기 배경-텍스트 조합 이미지(60)와 상기 홀로그램 템플릿 이미지(40) 각각에 대한 알파값을 부여하고 이를 기초로 알파 블랜딩 연산을 수행하여 상기 배경-텍스트 조합 이미지(60) 상에 상기 홀로그램 템플릿 이미지(40)가 소정의 투명도를 가지고 합성된 형태의 상기 합성 이미지(70)를 생성할 수 있다. Specifically, in the embodiment, the application 111 assigns an alpha value to each of the background-text combination image 60 and the hologram template image 40 and performs an alpha blending operation based on this to create the background-text The composite image 70 can be generated by combining the holographic template image 40 on the combination image 60 with a predetermined transparency.

이때, 실시예에 따라서 애플리케이션(111)은, 상기 배경-텍스트 조합 이미지(60)와 상기 홀로그램 템플릿 이미지(40) 각각에 대한 알파값을 소정의 방식(예컨대, 사용자 입력 및/또는 기 설정된 알고리즘 등)에 따라서 랜덤하게 부여할 수 있다. At this time, depending on the embodiment, the application 111 determines the alpha value for each of the background-text combination image 60 and the hologram template image 40 in a predetermined manner (e.g., user input and/or a preset algorithm, etc.). ) can be randomly assigned.

예를 들면, 애플리케이션(111)은, 소정의 방식을 기초로 상기 배경-텍스트 조합 이미지(60)의 알파값을 '0.5'로 부여하고 상기 홀로그램 템플릿 이미지(40)의 알파값을 '0.5'로 부여하여 상기 배경-텍스트 조합 이미지(60)와 상기 홀로그램 템플릿 이미지(40)가 각기 0.5 가중치의 비율로 적용되어 결합된 형태의 합성 이미지(70)를 생성할 수 있다. For example, the application 111 assigns the alpha value of the background-text combination image 60 to '0.5' and sets the alpha value of the hologram template image 40 to '0.5' based on a predetermined method. By applying the background-text combination image 60 and the hologram template image 40 at a weight ratio of 0.5, a combined composite image 70 can be generated.

이를 통해 애플리케이션(111)은, 위와 같이 생성되는 가상의 신분증 이미지(실시예에서, 합성 이미지(70)) 상에 소정의 홀로그램 패턴이 소정의 투명도를 가지고 구현되게 하여 보다 실재와 같은 형상의 합성 이미지(70)를 생성할 수 있다. Through this, the application 111 implements a predetermined hologram pattern with a predetermined transparency on the virtual ID card image (in the embodiment, the composite image 70) generated as above, thereby creating a composite image with a more realistic shape. (70) can be generated.

도 9는 본 발명의 실시예에 따른 복수의 홀로그램 크롭 이미지를 기초로 합성 이미지(70)를 생성하는 방법을 설명하기 위한 도면의 일례이다. FIG. 9 is an example of a diagram illustrating a method of generating a composite image 70 based on a plurality of hologram crop images according to an embodiment of the present invention.

이때, 도 9를 참조하면, 실시예에서 애플리케이션(111)은, 상기 합성 이미지(70)를 생성할 시 상기 홀로그램 템플릿 이미지(40)에 대한 랜덤 크롭(Random crop) 연산을 기초로 복수의 홀로그램 크롭 이미지(45-1, 45-2, 45-3, …: 45)를 생성하고, 상기 생성된 복수의 홀로그램 크롭 이미지(45)와 상기 배경-텍스트 조합 이미지(60)에 기초한 알파 블랜딩 연산을 수행하여 상기 합성 이미지(70)를 생성할 수도 있다. At this time, referring to FIG. 9, in the embodiment, the application 111 performs a plurality of hologram crops based on a random crop operation on the hologram template image 40 when generating the composite image 70. Generate images (45-1, 45-2, 45-3, ...: 45) and perform an alpha blending operation based on the generated plurality of hologram crop images (45) and the background-text combination image (60). Thus, the composite image 70 may be generated.

참고적으로, 상기 랜덤 크롭 연산이란, 소정의 이미지를 무작위로 분할한 복수의 이미지를 제공하는 연산법을 의미할 수 있다. For reference, the random crop operation may refer to an operation method that provides a plurality of images by randomly dividing a given image.

자세히, 실시예에서 애플리케이션(111)은, 상기 홀로그램 템플릿 이미지(40)에 기초한 랜덤 크롭 연산을 수행하여 상기 홀로그램 템플릿 이미지(40)를 랜덤 분할한 복수의 이미지인 상기 복수의 홀로그램 크롭 이미지(45)를 생성할 수 있다. In detail, in the embodiment, the application 111 performs a random crop operation based on the hologram template image 40 to generate the plurality of hologram crop images 45, which are a plurality of images obtained by randomly dividing the hologram template image 40. can be created.

또한, 실시예에서 애플리케이션(111)은, 상기 생성된 복수의 홀로그램 크롭 이미지(45)와 상술된 배경-텍스트 조합 이미지(60)를 기초로 알파 블랜딩 연산을 수행할 수 있다. Additionally, in the embodiment, the application 111 may perform an alpha blending operation based on the plurality of generated holographic crop images 45 and the background-text combination image 60 described above.

구체적으로, 실시예에서 애플리케이션(111)은, 상기 복수의 홀로그램 크롭 이미지(45) 각각과 상기 배경-텍스트 조합 이미지(60)에 대한 알파값을 부여할 수 있다. Specifically, in the embodiment, the application 111 may provide an alpha value to each of the plurality of holographic crop images 45 and the background-text combination image 60.

그리고 애플리케이션(111)은, 상기 각 이미지에 부여된 알파값들에 기초한 알파 블랜딩 연산을 수행하여 상기 배경-텍스트 조합 이미지(60) 상에 상기 복수의 홀로그램 크롭 이미지(45) 각각이 소정의 투명도를 가지고 합성된 형태의 상기 합성 이미지(70)를 생성할 수 있다. And the application 111 performs an alpha blending operation based on the alpha values assigned to each image so that each of the plurality of hologram crop images 45 has a predetermined transparency on the background-text combination image 60. The composite image 70 can be created in a synthesized form.

이때, 실시예에서 애플리케이션(111)은, 상기 복수의 홀로그램 크롭 이미지(45) 각각을 상기 배경-텍스트 조합 이미지(60) 상의 랜덤한 위치에 각기 합성하여 상기 합성 이미지(70)를 생성할 수 있다. At this time, in the embodiment, the application 111 may generate the composite image 70 by combining each of the plurality of holographic crop images 45 at random positions on the background-text combination image 60. .

즉, 애플리케이션(111)은, 상기 홀로그램 템플릿 이미지(40)를 복수의 이미지로 랜덤 분할하고 이를 상기 배경-텍스트 조합 이미지(60) 상의 랜덤 위치에 소정의 투명도로 각기 합성하여 가상의 신분증 이미지(실시예에서, 합성 이미지(70))를 생성함으로써, 홀로그램에 의한 잡음 효과가 보다 극대화된 형태의 합성 이미지(70)를 구현할 수 있다. That is, the application 111 randomly divides the hologram template image 40 into a plurality of images and composites them at random positions on the background-text combination image 60 with a predetermined transparency to create a virtual ID image (implemented). In an example, by generating the composite image 70, the composite image 70 in a form in which the noise effect caused by the hologram is more maximized can be implemented.

또한, 실시예에서 애플리케이션(111)은, 상기 생성된 합성 이미지(70)에 기초한 데이터 증강을 수행할 수 있다. (S111) Additionally, in the embodiment, the application 111 may perform data augmentation based on the generated composite image 70. (S111)

자세히, 실시예에서 애플리케이션(111)은, 위와 같이 생성된 합성 이미지(70) 상에 소정의 노이즈(noise)를 구현하여 상기 합성 이미지(70)에 기반한 서로 다른 합성 이미지(70)를 추가 생성해 그 개수를 증대시키는 데이터 증강을 수행할 수 있다. In detail, in the embodiment, the application 111 implements a predetermined noise on the composite image 70 generated as above to additionally generate different composite images 70 based on the composite image 70. Data augmentation can be performed to increase the number.

이때, 실시예에서 상기 노이즈는, 빛반사(Light reflect), 모션 블러(Motion Blur), 퍼스펙티브(Perspective), 랜덤 각도 회전(Random angle rotation), 점잡음(Salt and pepper noise) 및/또는 그림자(Shadow) 효과 등을 포함할 수 있다. At this time, in the embodiment, the noise is light reflection, motion blur, perspective, random angle rotation, salt and pepper noise, and/or shadow ( Shadow) effects, etc. may be included.

실시예로, 애플리케이션(111)은, 소정의 커널(Kernel)을 사용한 이미지 처리를 수행하여 상기 합성 이미지(70) 상에 상술된 바와 같은 노이즈를 구현할 수 있고, 이를 통해 상기 합성 이미지(70)에 기초한 데이터 증강을 수행할 수 있다. In an embodiment, the application 111 may perform image processing using a predetermined kernel to implement noise as described above on the composite image 70, and through this, the composite image 70 Based data augmentation can be performed.

도 10 내지 도 12는 본 발명의 실시예에 따른 데이터 증강을 위한 노이즈(noise)를 설명하기 위한 도면의 일례들이다. 10 to 12 are examples of drawings for explaining noise for data enhancement according to an embodiment of the present invention.

예를 들어, 도 10의 (a)를 참조하면, 애플리케이션(111)은, 상기 이미지 처리를 기초로 상기 합성 이미지(70) 상의 소정의 위치에 소정의 빛비침 이펙트를 구현하는 빛반사 효과를 적용함으로써 데이터 증강을 수행할 수 있다. For example, referring to (a) of FIG. 10, the application 111 applies a light reflection effect to implement a predetermined light reflection effect at a predetermined position on the composite image 70 based on the image processing. By doing so, data augmentation can be performed.

예컨대, 애플리케이션(111)은, 상기 합성 이미지(70) 상의 랜덤 위치에 사용자 설정에 따른 크기와 강도를 가지는 빛반사 효과를 구현하여 데이터를 증강할 수 있다. For example, the application 111 may augment data by implementing a light reflection effect with size and intensity according to user settings at random locations on the composite image 70.

다른 예시로, 도 10의 (b)를 참조하면, 애플리케이션(111)은, 소정의 모션 블러 알고리즘(예컨대, 가우시안 블러 알고리즘 등)에 기초한 상기 이미지 처리를 수행하여 상기 합성 이미지(70)가 특정 방향으로 흔들린 듯한 이펙트를 구현하는 모션 블러 효과를 적용함으로써 데이터 증강을 수행할 수 있다. As another example, referring to (b) of FIG. 10, the application 111 performs the image processing based on a predetermined motion blur algorithm (e.g., Gaussian blur algorithm, etc.) so that the composite image 70 moves in a specific direction. Data augmentation can be performed by applying a motion blur effect that creates a shaking effect.

이를 위해 애플리케이션(111)은, 구현하고자 하는 모션 이펙트에 따른 소정의 커널(예컨대, 도 11의 커널 (a)~(d) 참조)을 결정하고, 상기 결정된 커널에 기초한 모션 블러 연산(예컨대, 상기 커널 및 상기 커널 영역에 대응되는 각 픽셀 값에 기반한 산술 평균 연산 등)을 수행할 수 있다. To this end, the application 111 determines a predetermined kernel (e.g., see kernels (a) to (d) in FIG. 11) according to the motion effect to be implemented, and performs a motion blur operation based on the determined kernel (e.g., Arithmetic mean calculation based on the kernel and each pixel value corresponding to the kernel area, etc.) may be performed.

또 다른 예시로, 도 12를 참조하면, 애플리케이션(111)은, 상기 이미지 처리를 기초로 상기 합성 이미지(70)를 소정의 방향 및/또는 각도를 가지도록 원근 변환하는 이펙트를 구현하는 퍼스펙티브 효과를 적용함으로써 데이터 증강을 수행할 수 있다. As another example, referring to FIG. 12, the application 111 implements a perspective effect that converts the composite image 70 to have a predetermined direction and/or angle based on the image processing. By applying it, data augmentation can be performed.

이와 같이, 애플리케이션(111)은, 상술된 바와 같이 생성된 합성 이미지(70) 상에 소정의 노이즈를 적용함에 따른 데이터 증대를 구현함으로써, 적은 양의 데이터를 가지고도 추후 신분증 인식을 위한 딥러닝 학습에 사용될 트레이닝 데이터를 보다 방대하게 구축할 수 있고, 이에 따라서 상기 트레이닝 데이터 구축을 위해 요구되는 시간이나 비용 등을 효과적으로 절감할 수 있다. In this way, the application 111 implements data augmentation by applying a predetermined noise to the synthetic image 70 generated as described above, thereby performing deep learning learning for later ID recognition even with a small amount of data. It is possible to build a larger amount of training data to be used, and thus the time and cost required to build the training data can be effectively reduced.

또한, 이를 통해 애플리케이션(111)은, 실제 카메라로 실물 신분증을 촬영할 시 발생할 수 있는 각종 노이즈를 코드 상으로 구현해 상기 가상의 신분증 이미지(즉, 실시예에서 합성 이미지(70))에 용이하게 반영시킬 수 있고, 따라서 추후 상기 합성 이미지(70)를 기초로 수행되는 신분증 인식을 위한 딥러닝 학습의 성능 및 품질을 향상시킬 수 있다. In addition, through this, the application 111 implements various noises that may occur when photographing a physical ID card with a real camera in the code to easily reflect them in the virtual ID card image (i.e., the composite image 70 in the embodiment). Therefore, the performance and quality of deep learning learning for ID recognition that is later performed based on the composite image 70 can be improved.

또한, 실시예에서 애플리케이션(111)은, 신분증 인식을 위한 딥러닝 모델 학습을 수행할 수 있다. (S113) Additionally, in the embodiment, the application 111 may perform deep learning model learning for ID recognition. (S113)

자세히, 실시예에서 애플리케이션(111)은, 위와 같이 생성된 복수의 합성 이미지(70)에 기초한 트레이닝 데이터 셋(Training data set)을 생성할 수 있다. In detail, in the embodiment, the application 111 may generate a training data set based on the plurality of composite images 70 generated as above.

또한, 실시예에서 애플리케이션(111)은, 상기 생성된 트레이닝 데이터 셋을 이용하여 소정의 신분증 인식을 위한 딥러닝 모델(이하, 신분증 인식 딥러닝 모델)에 대한 학습을 수행할 수 있다. Additionally, in the embodiment, the application 111 may perform learning on a deep learning model for ID recognition (hereinafter referred to as ID recognition deep learning model) using the generated training data set.

이때, 실시예로 상기 신분증 인식 딥러닝 모델은, 소정의 신분증 인증 및/또는 정보 추출 등과 같은 각종 신분증 인식 서비스를 위한 소정의 기능 동작을 구현할 수 있다. At this time, as an example, the ID recognition deep learning model may implement certain functional operations for various ID recognition services, such as certain ID authentication and/or information extraction.

이와 같이, 애플리케이션(111)은, 실제로 실물 신분증을 촬영한 이미지에서 발현 가능한 특성(예컨대, 촬영 각도에 따라서 달라지는 홀로그램 패턴(홀로그램 잡음) 및/또는 각종 노이즈 등)을 반영한 다량의 가상 신분증 이미지(실시예에서, 합성 이미지(70))를 생성하고 이를 이용한 신분증 인식 딥러닝 모델의 학습을 지원함으로써, 개인정보 이슈 등으로 인해 수집이 어려운 신분증 트레이닝 데이터 셋을 용이하게 구축할 수 있고, 상기 실물 신분증에서 발현 가능한 특성이 반영되어 보다 실재와 같이 구축된 대량의 트레이닝 데이터 셋을 이용해 딥러닝 학습을 수행하여 그 성능 및 품질을 제고함과 동시에 해당 딥러닝 모델을 이용한 각종 신분증 인식 서비스의 퀄리티, 안전성 및 신뢰성 또한 더욱 향상시킬 수 있다. In this way, the application 111 generates a large amount of virtual identification images (for example, holographic patterns (holographic noise) and/or various noises that vary depending on the shooting angle) that can be expressed in images actually taken of real identification cards. In the example, by creating a synthetic image (70) and supporting the learning of an ID recognition deep learning model using it, it is possible to easily build an ID training data set that is difficult to collect due to personal information issues, and from the physical ID card. Deep learning is performed using a large training data set constructed more realistically by reflecting the characteristics that can be expressed, thereby improving performance and quality, and at the same time improving the quality, safety, and reliability of various ID recognition services using the deep learning model. It can also be improved further.

이상, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 신분증 인식 딥러닝 모델의 성능 향상을 위한 트레이닝 데이터 셋을 생성함으로써, 개인정보 이슈 등으로 인해 수집이 어려운 신분증 인식 딥러닝 학습을 위한 트레이닝 데이터 셋을 용이하게 구축할 수 있는 효과가 있다. As above, the method and system for generating training data for ID recognition deep learning according to an embodiment of the present invention generates a training data set to improve the performance of the ID recognition deep learning model, so that ID cards that are difficult to collect due to personal information issues, etc. It has the effect of easily building a training data set for recognition deep learning learning.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 물리적으로 신분증이 제작되는 각 단계를 디지털화하여 가상의 신분증 이미지를 생성함으로써, 신분증 인식 딥러닝 학습에 요구되는 트레이닝 데이터를 실물 신분증으로부터 일일이 수집하지 않더라도 쉽고 빠르게 효율적인 방식으로 대량 획득하여 활용할 수 있고, 이를 통해 상기 트레이닝 데이터 구축에 요구되는 시간이나 비용을 현저히 절감할 수 있는 효과가 있다. In addition, the training data generation method and system for ID recognition deep learning according to an embodiment of the present invention digitizes each step of physically producing an ID card to generate a virtual ID image, thereby meeting the requirements required for ID recognition deep learning. Even if training data is not individually collected from physical ID cards, it can be obtained and utilized in large quantities in an easy, quick and efficient manner, which has the effect of significantly reducing the time and cost required to build the training data.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 실물 신분증을 촬영한 이미지의 특성(예컨대, 촬영 각도에 따라서 달라지는 홀로그램 패턴이나 각종 노이즈 등)을 반영한 가상의 신분증 이미지를 생성함으로써, 보다 실재와 같은 형상을 가지는 가상의 신분증 이미지를 생성할 수 있고 이를 이용한 딥러닝 학습의 성능 및 품질을 향상시킬 수 있는 효과가 있다. In addition, the method and system for generating training data for deep learning for ID recognition according to an embodiment of the present invention is a virtual ID that reflects the characteristics of the image captured by the physical ID card (e.g., holographic patterns or various noises that vary depending on the shooting angle). By creating an ID card image, a virtual ID card image with a more realistic shape can be created and the performance and quality of deep learning learning using this can be improved.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 실물 신분증에서 발현할 수 있는 다양한 형태의 노이즈(noise)를 다각도로 구현한 가상의 신분증 이미지를 생성함으로써, 이를 기초로 학습된 딥러닝 모델에서 신분증 인식의 타겟이 되는 이미지 상에 발생 가능한 각종 노이즈에 따른 신분증 인식 성능의 저하를 방지할 수 있고, 따라서 보다 강건한 인식 성능을 제공하는 신분증 인식 딥러닝 모델을 제공할 수 있는 효과가 있다. In addition, the training data generation method and system for deep learning for ID recognition according to an embodiment of the present invention generates a virtual ID image that embodies various types of noise that can appear in a physical ID card from various angles, The deep learning model learned based on this can prevent the deterioration of ID recognition performance due to various noises that may occur on the image that is the target of ID recognition, and therefore provides an ID recognition deep learning model that provides more robust recognition performance. There is an effect that can be done.

또한, 본 발명의 실시예에 따른 신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법 및 시스템은, 위와 같이 생성되는 가상의 신분증 이미지에 기초한 트레이닝 데이터를 기초로 소정의 신분증 인식을 위한 딥러닝 모델의 학습을 지원함으로써, 보다 방대한 양의 트레이닝 데이터를 토대로 해당 딥러닝 모델의 학습을 수행 가능하게 하여 그 성능을 더욱 향상시킬 수 있고, 상기 딥러닝 모델에 기초하는 각종 신분증 인식 서비스(예컨대, 온라인 기반의 은행 및/또는 증권사 업무 등을 위한 신분 인증 서비스 등)의 품질과 안전성 및 신뢰성을 제고시킬 수 있는 효과가 있다. In addition, the method and system for generating training data for deep learning for ID recognition according to an embodiment of the present invention involves learning a deep learning model for recognizing a predetermined ID based on training data based on the virtual ID image generated as above. By supporting this, it is possible to further improve the performance by enabling learning of the deep learning model based on a larger amount of training data, and various ID recognition services based on the deep learning model (e.g., online-based banking and It has the effect of improving the quality, safety, and reliability of (or identity authentication services for securities company work, etc.).

한편, 이상에서 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.Meanwhile, the embodiments according to the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include not only machine language code such as that created by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. A hardware device can be converted into one or more software modules to perform processing according to the invention and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are examples and do not limit the scope of the present invention in any way. For the sake of brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connections or connection members of lines between components shown in the drawings exemplify functional connections and/or physical or circuit connections, and in actual devices, various functional connections or physical connections may be replaced or added. Can be represented as connections, or circuit connections. Additionally, if there is no specific mention such as “essential,” “important,” etc., it may not be a necessary component for the application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, although the detailed description of the present invention has been described with reference to preferred embodiments of the present invention, those skilled in the art or those skilled in the art will understand the spirit of the present invention as described in the patent claims to be described later. It will be understood that the present invention can be modified and changed in various ways without departing from the technical scope. Therefore, the technical scope of the present invention should not be limited to what is described in the detailed description of the specification, but should be defined by the scope of the patent claims.

Claims (16)

단말의 적어도 하나의 프로세서에 의하여 실행되는 트레이닝 애플리케이션이 신분증 인식 딥러닝을 위한 트레이닝 데이터를 생성하는 방법으로서,
실물 신분증을 촬영한 신분증 샘플 이미지를 획득하는 단계;
상기 획득한 신분증 샘플 이미지 내 텍스트를 제거한 배경 템플릿 이미지를 생성하는 단계;
상기 획득한 신분증 샘플 이미지 상의 적어도 일부 홀로그램 패턴 영역을 포함하는 홀로그램 템플릿 이미지를 생성하는 단계;
소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보를 소정의 신분증 양식에 따라서 배치한 텍스트 템플릿 이미지를 생성하는 단계; 및
상기 생성한 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지를 하나로 결합한 합성 이미지를 생성하는 단계를 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
A method in which a training application executed by at least one processor of a terminal generates training data for ID recognition deep learning, comprising:
Obtaining an ID sample image obtained by photographing a physical ID card;
generating a background template image by removing text from the obtained ID sample image;
generating a hologram template image including at least a partial hologram pattern area on the obtained ID sample image;
A step of generating a text template image in which various types of ID information randomly generated according to a predetermined standard are arranged according to a predetermined ID card format; and
Comprising the step of generating a composite image combining the generated background template image, text template image, and hologram template image into one.
How to generate training data for ID recognition deep learning.
제1 항에 있어서,
상기 배경 템플릿 이미지를 생성하는 단계는,
상기 신분증 샘플 이미지 내 텍스트 영역을 마스킹(Masking) 처리한 마스크 이미지를 생성하는 단계와,
상기 생성한 마스크 이미지 및 상기 신분증 샘플 이미지를 제1 딥러닝 모델에 입력하는 단계와,
상기 이미지를 입력받은 제1 딥러닝 모델로부터 상기 배경 템플릿 이미지를 획득하는 단계를 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to claim 1,
The step of generating the background template image is,
Creating a mask image by masking the text area in the ID card sample image;
Inputting the generated mask image and the ID sample image into a first deep learning model;
Comprising the step of obtaining the background template image from a first deep learning model that receives the image.
How to generate training data for ID recognition deep learning.
제2 항에 있어서,
상기 마스크 이미지를 생성하는 단계는,
소정의 팽창 함수(Dilation function)를 기초로 상기 마스킹 처리되는 텍스트 영역을 확장하는 단계를 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to clause 2,
The step of generating the mask image is,
Comprising the step of expanding the masked text area based on a predetermined dilation function.
How to generate training data for ID recognition deep learning.
제2 항에 있어서,
상기 배경 템플릿 이미지를 생성하는 단계는,
상기 배경 템플릿 이미지 내 제거된 텍스트 영역 상에 상기 신분증 샘플 이미지에 따른 배경 색상을 입히는 인페이팅(Inpainting) 처리를 수행하는 단계를 더 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to clause 2,
The step of generating the background template image is,
Further comprising performing inpainting processing to apply a background color according to the ID sample image on the text area removed from the background template image.
How to generate training data for ID recognition deep learning.
제1 항에 있어서,
상기 홀로그램 템플릿 이미지를 생성하는 단계는,
상기 홀로그램 패턴 영역을 기초로 홀로그램 RGB 테이블(Hologram RGB Table)을 생성하는 단계를 포함하고,
상기 홀로그램 RGB 테이블은, 상기 홀로그램 패턴 영역을 표시하는 픽셀의 RGB값을 기준으로 소정의 범위 이내의 RGB값을 지정한 홀로그램 추정 범위 데이터의 집합인
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to claim 1,
The step of generating the hologram template image is,
Comprising the step of generating a hologram RGB table based on the hologram pattern area,
The hologram RGB table is a set of hologram estimation range data specifying RGB values within a predetermined range based on the RGB values of pixels displaying the hologram pattern area.
How to generate training data for ID recognition deep learning.
제5 항에 있어서,
상기 홀로그램 템플릿 이미지를 생성하는 단계는,
상기 홀로그램 RGB 테이블을 기초로 상기 신분증 샘플 이미지 내 상기 홀로그램 추정 범위를 불충하는 무효 픽셀을 검출하는 단계와,
상기 검출된 무효 픽셀 영역을 마스킹 처리한 상기 홀로그램 템플릿 이미지를 생성하는 단계를 더 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to clause 5,
The step of generating the hologram template image is,
detecting invalid pixels that do not meet the hologram estimate range in the ID card sample image based on the hologram RGB table;
Further comprising generating the hologram template image by masking the detected invalid pixel area.
How to generate training data for ID recognition deep learning.
제1 항에 있어서,
상기 합성 이미지를 생성하는 단계는,
상기 배경 템플릿 이미지 상에 상기 텍스트 템플릿 이미지를 렌더링(Rendering)한 배경-텍스트 조합 이미지를 생성하는 단계를 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to claim 1,
The step of generating the composite image is,
Comprising the step of generating a background-text combination image by rendering the text template image on the background template image.
How to generate training data for ID recognition deep learning.
제7 항에 있어서,
상기 합성 이미지를 생성하는 단계는,
상기 배경-텍스트 조합 이미지와 상기 홀로그램 템플릿 이미지에 기초한 알파 블랜딩(Alpha-blending) 연산을 기반으로 상기 합성 이미지를 생성하는 단계를 더 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to clause 7,
The step of generating the composite image is,
Further comprising generating the composite image based on an alpha-blending operation based on the background-text combination image and the hologram template image.
How to generate training data for ID recognition deep learning.
제8 항에 있어서,
상기 합성 이미지를 생성하는 단계는,
상기 홀로그램 템플릿 이미지에 기초한 랜덤 크롭(Random crop) 연산을 기반으로 상기 홀로그램 템플릿 이미지를 랜덤 분할한 복수의 홀로그램 크롭 이미지를 생성하는 단계와,
상기 생성한 복수의 홀로그램 크롭 이미지와 상기 배경-텍스트 조합 이미지에 기초한 알파 블랜딩 연산을 기반으로 상기 합성 이미지를 생성하는 단계를 더 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to clause 8,
The step of generating the composite image is,
Generating a plurality of hologram crop images by randomly dividing the hologram template image based on a random crop operation based on the hologram template image;
Further comprising generating the composite image based on an alpha blending operation based on the plurality of holographic crop images and the background-text combination image.
How to generate training data for ID recognition deep learning.
제9 항에 있어서,
상기 복수의 홀로그램 크롭 이미지와 상기 배경-텍스트 조합 이미지에 기초한 알파 블랜딩 연산을 기반으로 상기 합성 이미지를 생성하는 단계는,
상기 복수의 홀로그램 크롭 이미지 각각을 상기 배경-텍스트 조합 이미지 상의 랜덤 위치에 각기 합성하는 단계를 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to clause 9,
Generating the composite image based on an alpha blending operation based on the plurality of holographic crop images and the background-text combination image includes:
Comprising the step of synthesizing each of the plurality of holographic crop images at random positions on the background-text combination image.
How to generate training data for ID recognition deep learning.
제1 항에 있어서,
상기 생성한 합성 이미지 상에 소정의 노이즈(noise)를 구현하여 데이터량을 증강하는 단계를 더 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to claim 1,
Further comprising the step of augmenting the data amount by implementing a predetermined noise on the generated composite image.
How to generate training data for ID recognition deep learning.
제1 항에 있어서,
상기 생성한 합성 이미지를 기초로 소정의 신분증 인식 딥러닝 모델을 학습시키는 단계를 더 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 방법.
According to claim 1,
Further comprising the step of training a predetermined ID recognition deep learning model based on the generated synthetic image.
How to generate training data for ID recognition deep learning.
트레이닝 애플리케이션이 저장된 적어도 하나의 메모리; 및
상기 메모리에 저장된 트레이닝 애플리케이션을 독출하여 신분증 인식 딥러닝을 위한 트레이닝 데이터를 생성하는 적어도 하나의 프로세서;를 포함하고,
상기 트레이닝 애플리케이션의 명령어는,
실물 신분증을 촬영한 신분증 샘플 이미지를 획득하는 단계와,
상기 획득한 신분증 샘플 이미지 내 텍스트를 제거한 배경 템플릿 이미지를 생성하는 단계와,
상기 획득한 신분증 샘플 이미지 상의 적어도 일부 홀로그램 패턴 영역을 포함하는 홀로그램 템플릿 이미지를 생성하는 단계와,
소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보를 소정의 신분증 양식에 따라서 배치한 텍스트 템플릿 이미지를 생성하는 단계와,
상기 생성한 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지를 하나로 결합한 합성 이미지를 생성하는 단계를 수행하는 명령어를 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 시스템.
at least one memory storing a training application; and
At least one processor that reads the training application stored in the memory and generates training data for ID recognition deep learning,
The command of the training application is,
A step of obtaining an ID sample image obtained by photographing a physical ID card,
Creating a background template image by removing text from the obtained ID sample image;
generating a hologram template image including at least a partial hologram pattern area on the obtained ID sample image;
A step of generating a text template image in which various types of ID information randomly generated according to a predetermined standard are arranged according to a predetermined ID card format;
A command for generating a composite image combining the generated background template image, text template image, and hologram template image into one.
Training data generation system for ID recognition deep learning.
제13 항에 있어서,
상기 트레이닝 애플리케이션의 명령어는,
상기 배경 템플릿 이미지 상에 상기 텍스트 템플릿 이미지를 렌더링(Rendering)한 배경-텍스트 조합 이미지를 생성하는 단계와,
상기 배경-텍스트 조합 이미지와 상기 홀로그램 템플릿 이미지에 기초한 알파 블랜딩(Alpha-blending) 연산을 기반으로 상기 합성 이미지를 생성하는 단계를 수행하는 명령어를 더 포함하는
신분증 인식 딥러닝을 위한 트레이닝 데이터 생성 시스템.
According to claim 13,
The command of the training application is,
generating a background-text combination image by rendering the text template image on the background template image;
Further comprising an instruction for generating the composite image based on an alpha-blending operation based on the background-text combination image and the hologram template image.
Training data generation system for ID recognition deep learning.
적어도 하나의 메모리 모듈; 및
적어도 하나의 프로세서 모듈;을 포함하고,
상기 메모리 모듈에 저장되고 상기 프로세서 모듈에 의하여 실행되는 적어도 하나의 애플리케이션으로서,
상기 적어도 하나의 애플리케이션은,
실물 신분증을 촬영한 신분증 샘플 이미지를 획득하고,
상기 획득한 신분증 샘플 이미지 내 텍스트를 제거한 배경 템플릿 이미지를 생성하고,
상기 획득한 신분증 샘플 이미지 상의 적어도 일부 홀로그램 패턴 영역을 포함하는 홀로그램 템플릿 이미지를 생성하고,
소정의 기준에 따라서 랜덤하게 생성된 각종 신분증 정보를 소정의 신분증 양식에 따라서 배치한 텍스트 템플릿 이미지를 생성하고,
상기 생성한 배경 템플릿 이미지, 텍스트 템플릿 이미지 및 홀로그램 템플릿 이미지를 하나로 결합한 합성 이미지를 생성하는
데이터 생성서버.
at least one memory module; and
At least one processor module;
At least one application stored in the memory module and executed by the processor module,
The at least one application is,
Obtain a sample image of an ID card taken from a physical ID card,
Create a background template image by removing the text in the obtained ID sample image,
Generate a hologram template image including at least some hologram pattern areas on the obtained ID sample image,
Generates a text template image in which various ID information randomly generated according to predetermined standards is arranged according to a predetermined ID format,
Creating a composite image that combines the created background template image, text template image, and hologram template image into one.
Data generation server.
제15 항에 있어서,
상기 적어도 하나의 애플리케이션은,
상기 배경 템플릿 이미지 상에 상기 텍스트 템플릿 이미지를 렌더링(Rendering)한 배경-텍스트 조합 이미지를 생성하고,
상기 배경-텍스트 조합 이미지와 상기 홀로그램 템플릿 이미지에 기초한 알파 블랜딩(Alpha-blending) 연산을 기반으로 상기 합성 이미지를 생성하는
데이터 생성서버.
According to claim 15,
The at least one application is,
Generating a background-text combination image by rendering the text template image on the background template image,
Generating the composite image based on an alpha-blending operation based on the background-text combination image and the hologram template image.
Data generation server.
KR1020220083541A 2022-07-07 2022-07-07 Method and system for generating training data for deep learning for identification recognition KR20240006814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220083541A KR20240006814A (en) 2022-07-07 2022-07-07 Method and system for generating training data for deep learning for identification recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220083541A KR20240006814A (en) 2022-07-07 2022-07-07 Method and system for generating training data for deep learning for identification recognition

Publications (1)

Publication Number Publication Date
KR20240006814A true KR20240006814A (en) 2024-01-16

Family

ID=89719685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220083541A KR20240006814A (en) 2022-07-07 2022-07-07 Method and system for generating training data for deep learning for identification recognition

Country Status (1)

Country Link
KR (1) KR20240006814A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102142347B1 (en) 2019-10-01 2020-08-07 주식회사 카카오뱅크 Method for id card recognition and application for the same method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102142347B1 (en) 2019-10-01 2020-08-07 주식회사 카카오뱅크 Method for id card recognition and application for the same method

Similar Documents

Publication Publication Date Title
JP6367926B2 (en) Augmented reality (AR) capture and play
JP6505606B2 (en) Enable Augmented Reality Using Eye Tracking
US11615592B2 (en) Side-by-side character animation from realtime 3D body motion capture
US11508135B2 (en) Augmented reality content generators including 3D data in a messaging system
US20230377189A1 (en) Mirror-based augmented reality experience
CN109635752B (en) Method for positioning key points of human face, method for processing human face image and related device
EP4248405A1 (en) Personalized avatar real-time motion capture
US11816926B2 (en) Interactive augmented reality content including facial synthesis
US11663775B2 (en) Generating physically-based material maps
US20220319127A1 (en) Facial synthesis in augmented reality content for third party applications
CN111652796A (en) Image processing method, electronic device, and computer-readable storage medium
WO2022108807A1 (en) Real-time motion transfer for prosthetic limbs
US11875600B2 (en) Facial synthesis in augmented reality content for online communities
JP2023551727A (en) physical keyboard tracking
US20220319231A1 (en) Facial synthesis for head turns in augmented reality content
EP4315255A1 (en) Facial synthesis in augmented reality content for advertisements
JP2023546607A (en) Image processing methods, apparatus, devices and computer programs
US20220321804A1 (en) Facial synthesis in overlaid augmented reality content
CN112308977A (en) Video processing method, video processing apparatus, and storage medium
CN114092670A (en) Virtual reality display method, equipment and storage medium
KR20240006814A (en) Method and system for generating training data for deep learning for identification recognition
CN113610864B (en) Image processing method, device, electronic equipment and computer readable storage medium
TW202311815A (en) Display of digital media content on physical surface
KR20240030613A (en) Method and system for card recognition based on deep learning
CN115375880A (en) Image processing method and device, electronic equipment and readable storage medium