KR20230060439A - Method and system for detecting recaptured image method thereof - Google Patents

Method and system for detecting recaptured image method thereof Download PDF

Info

Publication number
KR20230060439A
KR20230060439A KR1020220083625A KR20220083625A KR20230060439A KR 20230060439 A KR20230060439 A KR 20230060439A KR 1020220083625 A KR1020220083625 A KR 1020220083625A KR 20220083625 A KR20220083625 A KR 20220083625A KR 20230060439 A KR20230060439 A KR 20230060439A
Authority
KR
South Korea
Prior art keywords
image
model
real
life
cropped
Prior art date
Application number
KR1020220083625A
Other languages
Korean (ko)
Inventor
유효선
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Publication of KR20230060439A publication Critical patent/KR20230060439A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

본 개시는 실물 촬영 이미지 여부 식별 방법 및 그 방법이 적용된 시스템에 관한 것이다. 본 개시에 따른 실물 촬영 이미지 여부 식별 방법은, 전체 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득하는 단계와, 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득하는 단계와, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계 및 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 단계를 포함할 수 있다.The present disclosure relates to a method for identifying whether or not a real-life photographed image is present and a system to which the method is applied. A method for identifying whether a real-life photographed image according to the present disclosure includes the steps of acquiring a first model learned to determine whether a whole image is a real-photographed image and a second model learned to determine whether a partial image is a real-photographed image; Steps of inputting image data to the first model, obtaining first output data from the first model, obtaining second output data from the second model, and the first output data and the second output data. The method may include outputting data on whether the target image is a real-life photographed image by using all of the output data.

Figure P1020220083625
Figure P1020220083625

Description

실물 촬영 이미지 여부 식별 방법 및 시스템{METHOD AND SYSTEM FOR DETECTING RECAPTURED IMAGE METHOD THEREOF}Method and system for identifying actual photographed images {METHOD AND SYSTEM FOR DETECTING RECAPTURED IMAGE METHOD THEREOF}

본 개시는 실물 촬영 이미지 여부 식별 방법 및 그 방법이 적용된 시스템에 관한 것이다. 보다 자세하게는, 복수의 인공지능 모델의 출력 데이터를 종합 분석하여 실물 촬영 이미지 여부를 식별하는 방법 및 그 방법이 적용된 시스템에 관한 것이다.The present disclosure relates to a method for identifying whether or not a real-life photographed image is present and a system to which the method is applied. More specifically, it relates to a method of identifying whether or not a real-life image is captured by comprehensively analyzing output data of a plurality of artificial intelligence models, and a system to which the method is applied.

최근, 금융 거래 등을 비롯한 목적을 위하여 비대면 본인 인증 방법이 널리 이용되고 있다. 그러나, 종래의 방법에서는 인증을 요청하는 본인을 직접 확인할 수 없다는 점을 이용하여, 제3 자가 타인의 신분증 이미지를 도용해 본인 인증을 시도하는 경우가 자주 발생하는 문제점이 있었다.Recently, non-face-to-face authentication methods have been widely used for purposes including financial transactions. However, in the conventional method, using the fact that the person requesting authentication cannot be directly identified, there is a problem in that a third party steals another person's ID card image and attempts identity authentication.

또한, 종래에는 각도를 달리한 촬영 사진을 사용자에게 요구하는 입체 환경 확인 방법 또는 본인 안면 사진의 추가 촬영을 요구하는 물리적인 추가 확인 방법 등이 이용되었다. 그러나, 이러한 물리적인 촬영 환경을 점검하는 방법의 경우 사용자에게 요구하는 단계가 많아 사용자 접근성을 저하시킨다는 단점이 있었다.In addition, in the related art, a three-dimensional environment confirmation method requiring a user to take a photograph taken at a different angle or a physical additional confirmation method requiring an additional photograph of a user's face have been used. However, in the case of the method of checking the physical shooting environment, there is a disadvantage in that the user's accessibility is deteriorated because of the number of steps required by the user.

상술한 바와 같이, 제3 자가 스크린 혹은 출력물에 기록된 타인의 신분증 이미지를 촬영한 이미지로 비대면 본인인증을 시도하는 등 몇몇 상황에서, 한 장의 이미지 입력만으로 이미지의 촬영 환경을 분류하여 실제 신분증 이미지를 판별하는 기능을 제공하는 소프트웨어 또는 장치는 제공되지 못하고 있다. 이로 인해, 사용자에게 추가적인 동작이 요구되는 등 시간, 비용 측면의 낭비가 발생되고 있다.As described above, in some situations, such as when a third party attempts non-face-to-face authentication with an image of another person's ID recorded on a screen or printout, the actual ID image is obtained by classifying the image shooting environment with only one image input. A software or device that provides a function of determining is not provided. As a result, a waste of time and cost occurs, such as requiring an additional operation from the user.

본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 기술적 과제는, 타겟 이미지를 입력 받아 해당 이미지의 촬영 환경을 분류하는 방법 및 그 방법이 적용된 컴퓨팅 시스템을 제공하는 것이다.A technical problem to be achieved through some embodiments of the present disclosure is to provide a method of receiving a target image and classifying a photographing environment of the corresponding image, and a computing system to which the method is applied.

본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 다른 기술적 과제는, 타겟 이미지에 대한 높은 촬영 환경 분류 정확도를 제공하기 위해, 복수의 인공 신경망 모델이 출력하는 데이터를 종합하여 타겟 이미지의 촬영 환경을 판단하는 방법 및 그 방법이 적용된 컴퓨팅 시스템을 제공하는 것이다.Another technical problem to be achieved through some embodiments of the present disclosure is to determine the shooting environment of the target image by synthesizing data output from a plurality of artificial neural network models in order to provide high shooting environment classification accuracy for the target image. It is to provide a method and a computing system to which the method is applied.

본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 또 다른 기술적 과제는, 타겟 이미지의 질감과 노이즈와 같은 특징에 따라 타겟 이미지의 촬영 환경을 분류하는 방법 및 그 방법이 적용된 컴퓨팅 시스템을 제공하는 것이다.Another technical problem to be achieved through some embodiments of the present disclosure is to provide a method of classifying a shooting environment of a target image according to characteristics such as texture and noise of the target image and a computing system to which the method is applied.

본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 또 다른 기술적 과제는, 타겟 이미지에 대한 촬영 환경 분류를 수행하는 인공 신경망 모델 학습의 과적합(Overfitting)을 예방하는 방법을 제공하는 것이다.Another technical problem to be achieved through some embodiments of the present disclosure is to provide a method for preventing overfitting of learning an artificial neural network model that performs shooting environment classification for a target image.

본 개시의 몇몇 실시예들을 통하여 달성하고자 하는 또 다른 기술적 과제는, 복수의 분할된 타겟 이미지를 입력 받는 복수의 인공 신경망 모델을 통합하는 방법 및 그 방법이 적용된 컴퓨팅 시스템을 제공하는 것이다.Another technical problem to be achieved through some embodiments of the present disclosure is to provide a method of integrating a plurality of artificial neural network models receiving a plurality of segmented target images and a computing system to which the method is applied.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한, 본 개시의 일 실시예에 따른 실물 촬영 이미지 여부 식별 방법은, 전체 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득하는 단계와, 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득하는 단계와, 상기 타겟 이미지의 일부 영역인 크롭 이미지(cropped image)에 대한 데이터를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계 및 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 단계를 포함할 수 있다.In order to solve the above technical problem, a method for identifying whether a real-life captured image according to an embodiment of the present disclosure is configured to determine whether a first model learned to determine whether an entire image is a real-photographed image and whether a partial image is a real-photographed image Acquiring a learned second model; inputting data for a target image to the first model; obtaining first output data from the first model; image) into the second model, and acquiring second output data from the second model, and using both the first output data and the second output data, the target image is captured in real life. It may include outputting data on whether the image is an image.

일 실시예에서, 상기 제1 모델 및 상기 제2 모델은 입력 이미지가 실물 촬영 이미지임을 가리키는 제1 클래스와, 입력 이미지가 디스플레이 촬영 이미지임을 가리키는 제2 클래스와, 입력 이미지가 출력물 촬영 이미지임을 가리키는 제3 클래스 각각에 대한 확률 값을 출력할 수 있다.In one embodiment, the first model and the second model include a first class indicating that the input image is a real-life shot image, a second class indicating that the input image is a display shot image, and a second class indicating that the input image is an output shot image. Probability values for each of the 3 classes can be output.

일 실시예에서, 상기 제1 모델로부터 제1 출력 데이터를 획득하는 단계는, 상기 타겟 이미지 원본을 N x N (단 N은 2 이상의 자연수) 사이즈로 축소 리사이징 하는 단계 및 상기 리사이징 된 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하는 단계를 포함할 수 있다.In one embodiment, the obtaining of the first output data from the first model may include reducing and resizing the original target image to a size of N x N (where N is a natural number greater than or equal to 2), and It may include inputting data into the first model.

일 실시예에서, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계는, 상기 타겟 이미지 원본의 일부 영역인 N x N 사이즈의 상기 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하는 단계를 포함할 수 있다.In one embodiment, the obtaining of the second output data from the second model includes inputting data for the cropped image having a size of N x N, which is a partial region of the original target image, to the second model. can do.

일 실시예에서, 상기 타겟 이미지 원본의 일부 영역인 N x N 사이즈의 상기 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하는 단계는, 상기 타겟 이미지 원본을 격자 형태로 분할함으로써 복수의 상기 크롭 이미지들을 추출하는 단계 및 상기 복수의 크롭 이미지들 각각의 데이터를, 상기 제2 모델의 복수의 세부 모델 각각에 입력하는 단계를 포함할 수 있다.In one embodiment, the step of inputting data for the cropped image having a size of NxN, which is a partial region of the original target image, to the second model, by dividing the original target image in a grid form to form a plurality of the cropped images. and inputting data of each of the plurality of cropped images to each of a plurality of detailed models of the second model.

일 실시예에서, 상기 복수의 상기 크롭 이미지들을 추출하는 단계는, 상기 타겟 이미지 원본의 중심부를 M X M 사이즈로 잘라냄으로써(cropping), 관심 영역 이미지를 추출하되, 상기 M은 상기 N * m(단, m은 2 이상의 자연수)인 단계 및 상기 관심 영역 이미지를 격자 형태로 분할함으로써 복수의 상기 크롭 이미지들을 추출하는 단계를 포함할 수 있다.In one embodiment, the extracting of the plurality of cropped images may include extracting an image of the region of interest by cropping the central portion of the original target image to a size of M X M, where M is the N * m (provided that, m is a natural number equal to or greater than 2) and extracting a plurality of cropped images by dividing the ROI image in a grid pattern.

일 실시예에서, 상기 복수의 크롭 이미지는 제1 크롭 이미지를 포함할 수 있고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계는, 상기 복수의 크롭 이미지 각각에 대하여, 상기 크롭 이미지의 데이터를 입력 받은 상기 제2 모델의 세부 모델 각각으로부터 출력된 데이터들을 종합하여 상기 크롭 이미지의 클래스를 결정하는 것을 반복하는 단계 및 상기 반복하는 단계를 통하여 결정된, 상기 복수의 크롭 이미지 각각의 클래스를 종합하여, 상기 제2 출력 데이터를 획득하는 단계를 포함할 수 있다.In one embodiment, the plurality of cropped images may include a first cropped image, and obtaining second output data from the second model may include, for each of the plurality of cropped images, data of the cropped image. Iterating to determine the class of the cropped image by integrating the data output from each of the detailed models of the second model received, and synthesizing the class of each of the plurality of cropped images determined through the repeating step , obtaining the second output data.

일 실시예에서, 상기 제2 모델의 세부 모델 개수는 상기 크롭 이미지의 개수보다 작을 수 있다.In one embodiment, the number of detailed models of the second model may be smaller than the number of cropped images.

일 실시예에서, 상기 복수의 크롭 이미지들 각각의 데이터를, 상기 제2 모델의 복수의 세부 모델 각각에 입력하는 단계는, 상기 제2 모델의 각 세부 모델에, 상기 복수의 크롭 이미지들 중 랜덤하게 샘플링된 일부의 크롭 이미지의 데이터를 입력하는 단계를 포함할 수 있다.In one embodiment, the step of inputting the data of each of the plurality of cropped images to each of the plurality of detailed models of the second model may include randomly among the plurality of cropped images in each detailed model of the second model. and inputting data of a part of the cropped image sampled at the same time.

일 실시예에서, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 단계는, 상기 제1 출력 데이터에 제1 가중치를 부여하고, 상기 제2 출력 데이터 제2 가중치를 부여하는 단계 및 상기 부여된 가중치에 기초하여, 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 합산하는 단계를 포함할 수 있다.In one embodiment, the outputting of data on whether the target image is a real-life image includes the steps of assigning a first weight to the first output data and assigning a second weight to the second output data; The method may include summing the first output data and the second output data based on the assigned weight.

일 실시예에서, 상기 제1 가중치 및 상기 제2 가중치는 상기 타겟 이미지의 밝기에 기초하여 부여되는 것일 수 있다.In one embodiment, the first weight and the second weight may be assigned based on brightness of the target image.

상기한 기술적 과제를 해결하기 위한 본 개시의 다른 실시예에 따른 실물 촬영 이미지 여부 식별 시스템은 하나 이상의 프로세서 및 하나 이상의 인스트럭션들(instructions)을 저장하는 메모리를 포함할 수 있고, 상기 하나 이상의 프로세서는, 상기 저장된 하나 이상의 인스트럭션들을 실행시킴으로써, 전체 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득 하는 동작과, 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득하는 동작과, 상기 타겟 이미지의 일부 영역인 크롭 이미지(cropped image)에 대한 데이터를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 동작 및 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 동작을 수행할 수 있다.A real-life image identification system according to another embodiment of the present disclosure for solving the above technical problem may include one or more processors and a memory for storing one or more instructions, wherein the one or more processors, An operation of acquiring a first model learned to determine whether an entire image is a real-photographed image and a second model learned to determine whether a partial image is a real-photographed image by executing one or more stored instructions; An operation of inputting data to the first model and acquiring first output data from the first model; inputting data for a cropped image, which is a partial area of the target image, to the second model; An operation of obtaining second output data from a second model and an operation of outputting data on whether the target image is a real-life image by using both the first output data and the second output data may be performed. .

일 실시예에서, 상기 제1 모델로부터 제1 출력 데이터를 획득하는 동작은, 상기 타겟 이미지 원본을 N x N (단 N은 2 이상의 자연수) 사이즈로 축소 리사이징 하는 동작 및 상기 리사이징 된 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하는 동작을 포함할 수 있다.In one embodiment, the operation of obtaining the first output data from the first model may include an operation of reducing and resizing the original target image to a size of N x N (where N is a natural number greater than or equal to 2), and information on the resized target image. An operation of inputting data to the first model may be included.

일 실시예에서, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 동작은, 상기 타겟 이미지 원본의 일부 영역인 N x N 사이즈의 상기 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하는 동작을 포함할 수 있다.In one embodiment, the operation of obtaining the second output data from the second model includes an operation of inputting data for the cropped image of size N x N, which is a partial region of the original target image, to the second model. can do.

일 실시예에서, 상기 타겟 이미지 원본의 일부 영역인 N x N 사이즈의 상기 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하는 동작은, 상기 타겟 이미지 원본을 격자 형태로 분할함으로써 복수의 상기 크롭 이미지들을 추출하는 동작 및 상기 복수의 크롭 이미지들 각각의 데이터를, 상기 제2 모델의 복수의 세부 모델 각각에 입력하는 동작을 포함할 수 있다.In one embodiment, the operation of inputting data for the cropped image having a size of N x N, which is a partial region of the original target image, to the second model may include dividing the original target image in a grid form to form a plurality of cropped images. and inputting data of each of the plurality of cropped images to each of a plurality of detailed models of the second model.

일 실시예에서, 상기 복수의 상기 크롭 이미지들을 추출하는 동작은, 상기 타겟 이미지 원본의 중심부를 M X M 사이즈로 잘라냄으로써(cropping), 관심 영역 이미지를 추출하되, 상기 M은 상기 N * m(단, m은 2 이상의 자연수)인 동작 및 상기 관심 영역 이미지를 격자 형태로 분할함으로써 복수의 상기 크롭 이미지들을 추출하는 동작을 포함할 수 있다.In one embodiment, the operation of extracting the plurality of cropped images extracts an image of the region of interest by cropping the central portion of the original target image to a size of M X M, where M is the N * m (provided that, m is a natural number greater than or equal to 2) and extracting a plurality of cropped images by dividing the ROI image in a grid pattern.

일 실시예에서, 상기 복수의 크롭 이미지는 제1 크롭 이미지를 포함할 수 있고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 동작은, 상기 복수의 크롭 이미지 각각에 대하여, 상기 크롭 이미지의 데이터를 입력 받은 상기 제2 모델의 세부 모델 각각으로부터 출력된 데이터들을 종합하여 상기 크롭 이미지의 클래스를 결정하는 것을 반복하는 동작 및 상기 반복하는 단계를 통하여 결정된, 상기 복수의 크롭 이미지 각각의 클래스를 종합하여, 상기 제2 출력 데이터를 획득하는 동작을 포함할 수 있다.In one embodiment, the plurality of cropped images may include a first cropped image, and the operation of obtaining second output data from the second model may include data of the cropped image for each of the plurality of cropped images. The operation of repeating determining the class of the cropped image by integrating the data output from each of the detailed models of the second model received and synthesizing the class of each of the plurality of cropped images determined through the repeating step , may include an operation of acquiring the second output data.

일 실시예에서, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 동작은, 상기 제1 출력 데이터에 제1 가중치를 부여하고, 상기 제2 출력 데이터 제2 가중치를 부여하는 동작 및 상기 부여된 가중치에 기초하여, 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 합산하는 동작을 포함할 수 있다.In one embodiment, the operation of outputting data on whether the target image is a real-life photographed image may include the operation of assigning a first weight to the first output data and assigning a second weight to the second output data; Based on the assigned weight, an operation of summing the first output data and the second output data may be included.

일 실시예에서, 상기 제1 가중치 및 상기 제2 가중치는, 상기 타겟 이미지의 밝기에 기초하여 부여되는 것일 수 있다.In one embodiment, the first weight and the second weight may be assigned based on brightness of the target image.

상기한 기술적 과제를 해결하기 위한 본 개시의 또 다른 실시예에 따른 컴퓨터 프로그램은, 컴퓨팅 장치와 결합되어, 전체 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득하는 단계; 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득하는 단계와, 상기 타겟 이미지의 일부 영역인 크롭 이미지(cropped image)에 대한 데이터를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계 및 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 단계를 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장된 것일 수 있다.A computer program according to another embodiment of the present disclosure for solving the above technical problem is combined with a computing device and is trained to determine whether an entire image is a real-life image and whether a partial image is a real-life image. obtaining a second model learned to determine ?; inputting data of a target image into the first model and obtaining first output data from the first model; and providing data of a cropped image, which is a partial area of the target image, to the second model. input, obtaining second output data from the second model, and outputting data on whether the target image is a real-life photographed image by using both the first output data and the second output data. It may be stored in a computer-readable recording medium in order to be executed.

도 1은 본 개시의 일 실시예에 따른 실물 촬영 이미지 여부 식별 시스템이 적용될 수 있는 예시적인 환경을 도시한다.
도 2는 도 1을 참조하여 설명한 실물 촬영 이미지 여부 식별 시스템을 설명하기 위한 블록 구성도이다.
도 3은 본 개시의 다른 실시예에 따른 실물 촬영 이미지 여부 식별 방법의 순서도이다.
도 4는 본 개시의 몇몇 실시예들의 이해를 위해 제1 실물 촬영 이미지 여부 식별 모델의 학습 과정을 예시적으로 설명하기 위한 도면이다.
도 5 내지 도 6은 본 개시의 몇몇 실시예들의 이해를 위해 제2 실물 촬영 이미지 여부 식별 모델의 학습 과정을 예시적으로 설명하기 위한 도면이다.
도 7은 본 개시의 몇몇 실시예들의 이해를 위해 복수의 모델을 통합하여 실물 촬영 이미지 여부를 식별하는 방법을 예시적으로 설명하기 위한 도면이다.
도 8은 도 3을 참조하여 설명한 제1 출력 데이터 획득 단계를 자세하게 설명하기 위한 순서도이다.
도 9는 도 3을 참조하여 설명한 제2 출력 데이터 획득 단계를 자세하게 설명하기 위한 순서도이다.
도 10은 본 개시의 몇몇 실시예들의 이해를 위해 세부 모델들로부터 크롭 이미지 각각에 대한 출력값 생성 단계를 예시적으로 설명하기 위한 도면이다.
도 11은 본 개시의 몇몇 실시예들의 이해를 위해 복수의 크롭 이미지를 랜덤하게 샘플링하여 제2 모델의 각 세부모델에 입력하는 방법을 예시적으로 설명하기 위한 도면이다.
도 12는 도 3을 참조하여 설명한 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터 출력 단계를 보다 자세하게 설명하기 위한 순서도이다.
도 13은 본 개시의 또 다른 실시예에 따른 실물 촬영 이미지 여부 식별 시스템의 하드웨어 구성도이다.
1 illustrates an exemplary environment to which a system for identifying whether a real-life photographed image according to an embodiment of the present disclosure may be applied.
FIG. 2 is a block diagram illustrating a system for identifying whether or not a real-life photographed image has been described with reference to FIG. 1 .
3 is a flowchart of a method for identifying whether or not a real-life photographed image is present according to another embodiment of the present disclosure.
4 is a diagram for illustratively explaining a learning process of a first real-life photographed image discrimination model for understanding some embodiments of the present disclosure.
5 and 6 are views for illustratively explaining a learning process of a second real-photographed image discrimination model for understanding some embodiments of the present disclosure.
7 is a diagram for exemplarily explaining a method of identifying whether or not a real-life image is captured by integrating a plurality of models for understanding some embodiments of the present disclosure.
FIG. 8 is a flowchart for explaining in detail the step of acquiring the first output data described with reference to FIG. 3 .
FIG. 9 is a flowchart for explaining in detail the step of obtaining second output data described with reference to FIG. 3 .
FIG. 10 is a diagram for exemplarily explaining a step of generating an output value for each cropped image from detailed models for understanding some embodiments of the present disclosure.
11 is a diagram for exemplarily explaining a method of randomly sampling a plurality of cropped images and inputting them to each detailed model of a second model in order to understand some embodiments of the present disclosure.
FIG. 12 is a flowchart for explaining in detail a data output step for determining whether the target image described with reference to FIG. 3 is a real-life photographed image.
13 is a hardware configuration diagram of a system for identifying whether or not a real-life photographed image is present according to another embodiment of the present disclosure.

이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 발명의 기술적 사상을 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and methods of achieving them, will become clear with reference to the detailed description of the following embodiments taken in conjunction with the accompanying drawings. However, the technical idea of the present invention is not limited to the following embodiments and can be implemented in various different forms, only the following embodiments complete the technical idea of the present invention, and in the technical field to which the present invention belongs It is provided to fully inform those skilled in the art of the scope of the present invention, and the technical spirit of the present invention is only defined by the scope of the claims.

본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. In describing the present disclosure, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted.

이하, 도면들을 참조하여 본 개시의 몇몇 실시예들을 설명한다.Hereinafter, several embodiments of the present disclosure are described with reference to the drawings.

도 1은 본 개시의 일 실시예에 따른 실물 촬영 이미지 여부 식별 시스템이 적용될 수 있는 환경을 예시하는 도면이다. 도 1에 도시된 바와 같이 본 실시예에 따른 실물 촬영 이미지 여부 식별 시스템(100)은 실물 촬영 이미지 여부 식별 요청 시스템(200) 및 사용자 단말(300)과 상호작용하여 실물 촬영 이미지 여부 식별 방법을 실시할 수 있다.1 is a diagram illustrating an environment to which a system for identifying a real-life captured image according to an embodiment of the present disclosure may be applied. As shown in FIG. 1, the system 100 for identifying whether a real-life captured image according to this embodiment interacts with the system 200 for identifying whether a real-life captured image or not and the user terminal 300 to implement a method for identifying whether a real-life captured image exists. can do.

이하, 본 개시의 몇몇 실시예들에 대한 이해를 돕기 위하여, 실물 촬영 이미지 여부 식별 시스템(100)의 실물 촬영 이미지 여부 식별 대상이 되는 특정 이미지를 '타겟 이미지(Target image)'로 기재하도록 한다.Hereinafter, in order to help understanding of some embodiments of the present disclosure, a specific image to be identified as a real-photographed image of the real-photographed image identification system 100 will be described as a 'target image'.

도 1에는 실물 촬영 이미지 여부 식별 시스템(100)과 실물 촬영 이미지 여부 식별 요청 시스템(200)이 별개의 시스템인 것으로 도시되어 있으나, 몇몇 실시예들에서, 실물 촬영 이미지 여부 식별 시스템(100)과 실물 촬영 이미지 여부 식별 요청 시스템(200)은 하나의 시스템에서 스탠드얼론(Stand-Alone) 방식으로 구성될 수도 있을 것이다. 이 경우, 상기 실물 촬영 이미지 여부 식별 시스템(100)에 의하여 수행되는 동작은 상기 실물 촬영 이미지 여부 식별 요청 시스템(200)에서 수행되는 것으로 이해될 수도 있을 것이다.In FIG. 1, the real-captured image identification system 100 and the real-captured image identification request system 200 are shown as separate systems, but in some embodiments, the real-captured image identification system 100 and the real-life The captured image identification request system 200 may be configured in a stand-alone manner in one system. In this case, it may be understood that the operation performed by the real-photographed image identification system 100 is performed by the real-photographed image identification request system 200 .

이하, 도 1 및 도 2를 참조하여 도시된 각 구성요소에 대해 구체적으로 설명하기로 한다. 또한, 본 개시의 몇몇 실시예들에 대한 이해를 돕기 위해 이하 식별(Detecting)은, 타겟 이미지에 대한 실물 촬영 이미지 여부 식별을 의미할 수 있다.Hereinafter, each component shown in FIGS. 1 and 2 will be described in detail. In addition, in order to help understanding of some embodiments of the present disclosure, Detecting may mean identification of whether a target image is a real-life image.

사용자 단말(300)은 실물 촬영 이미지 여부 식별 요청 시스템(200)에 이미지를 송신할 수 있다. 본 개시의 몇몇 실시예에 따르면, 실물 촬영 이미지 여부 식별 요청 시스템(200)이 사용자 단말(300)에 식별 대상 이미지를 송신하도록 요청할 수 있으나, 사용자 단말(300)이 실물 촬영 이미지 여부 식별 요청 시스템(200) 혹은 실물 촬영 이미지 여부 식별 시스템(100)에 실물 촬영 이미지 여부 식별을 요청하는 사용자의 입력을 송신할 수도 있다.The user terminal 300 may transmit the image to the system 200 for requesting identification of whether or not the actual photographed image is present. According to some embodiments of the present disclosure, the system 200 requesting identification of whether or not a real-life captured image may request the user terminal 300 to transmit an identification target image, but the user terminal 300 requests the system for identifying whether or not a real-life captured image ( 200) Alternatively, a user's input requesting identification of whether or not the actual captured image may be transmitted to the system 100 for identifying whether or not the actual captured image is present.

사용자 단말(300)은 실물 촬영 이미지 여부 식별 요청 시스템(200)으로부터 타겟 이미지의 실물 촬영 이미지 여부와 관련된 정보를 수신할 수 있다. 본 개시의 몇몇 실시예에 따르면, 상기 타겟 이미지의 실물 촬영 이미지 여부와 관련된 정보는 실물 촬영 이미지 여부 식별 시스템(100)으로부터 수신될 수도 있다.The user terminal 300 may receive information related to whether the target image is a real-life captured image or not from the real-life captured image identification request system 200 . According to some embodiments of the present disclosure, information related to whether the target image is a real-life image may be received from the system 100 for identifying whether or not the target image is a real-life image.

실물 촬영 이미지 여부 식별 요청 시스템(200)은 실물 촬영 이미지 여부 식별 시스템(100)에 사용자 단말(300)로부터 수신한 타겟 이미지에 대한 실물 촬영 이미지 여부 식별을 요청할 수 있다.The real-captured image identification request system 200 may request the real-captured image identification system 100 to identify whether the target image received from the user terminal 300 is a real-captured image.

실물 촬영 이미지 여부 식별 요청 시스템(200)은 사용자 단말(300)에 타겟 이미지를 송신할 것을 요청할 수 있다. 또한, 실물 촬영 이미지 여부 식별 요청 시스템(200)은 상기 사용자 단말(300)로부터 수신한 타겟 이미지를 실물 촬영 이미지 여부 식별 시스템(100)에 송신할 수도 있다.The actual photographed image identification request system 200 may request the user terminal 300 to transmit a target image. In addition, the real-photographed image identification request system 200 may transmit the target image received from the user terminal 300 to the real-photographed image identification system 100 .

실물 촬영 이미지 식별 시스템(100)은 실물 촬영 이미지 여부 식별 요청 시스템(200)으로부터 타겟 이미지를 수신할 수 있다. 상기 수신한 타겟 이미지는 이미지 저장부(110)에 저장될 수 있다. 또한, 실물 촬영 이미지 식별을 마친 타겟 이미지는 학습 데이터 저장부(130)에 저장될 수 있다.The real shot image identification system 100 may receive a target image from the real shot image identification request system 200 . The received target image may be stored in the image storage unit 110 . In addition, the target image that has been identified as a real shot image may be stored in the learning data storage unit 130 .

실물 촬영 이미지 식별 시스템(100)은 타겟 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득할 수 있다. 상기 제1 모델 및 제2 모델을 학습시키는 동작은 도 2에 도시된 식별 모델 학습부(120)에 의해 수행될 수 있으며, 상기 제1 모델 및 제2 모델 학습에 이용되는 데이터는 학습 데이터 저장부(130)에 저장된 것일 수 있다.The real-shot image identification system 100 may obtain a first model learned to determine whether a target image is a real-shot image and a second model learned to determine whether a partial image is a real-shot image. The operation of learning the first model and the second model may be performed by the identification model learning unit 120 shown in FIG. 2, and the data used for learning the first model and the second model is a learning data storage unit. It may be stored in (130).

여기서, 상기 부분 이미지는 상기 타겟 이미지의 일부 영역을 크롭(Crop)한 이미지일 수 있다. 상기 타겟 이미지의 일부 영역을 크롭하여 부분 이미지를 획득하는 동작은 이미지 전처리부(150)에서 수행될 수 있다. 상기 부분 이미지는 크롭 이미지(Crop image) 등의 용어와 혼용되어 사용될 수 있다. 또한, 상기한 제1 모델 및 제2 모델이 학습되는 단계에 관하여는 자세하게 후술한다.Here, the partial image may be an image obtained by cropping a partial region of the target image. An operation of obtaining a partial image by cropping a partial region of the target image may be performed by the image pre-processing unit 150 . The partial image may be used interchangeably with terms such as a crop image. In addition, the step of learning the first model and the second model will be described later in detail.

다음으로, 실물 촬영 이미지 식별 시스템(100)은 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득할 수 있다. 여기서, 본 개시의 몇몇 실시예들에 따르면, 제1 출력 데이터는 상기 타겟 이미지가 실물을 촬영한 이미지일 확률 값과, 상기 타겟 이미지가 스크린(Screen)을 촬영한 이미지일 확률 값 및 상기 타겟 이미지가 출력물을 촬영한 이미지일 확률 값을 포함할 수 있다.Next, the real-shot image identification system 100 may input data of a target image to the first model and obtain first output data from the first model. Here, according to some embodiments of the present disclosure, the first output data is a probability value that the target image is an image of a real object, a probability value that the target image is an image of a screen, and the target image may include a probability value that is an image of a photographed output.

본 개시의 몇몇 실시예들에서, 스크린은 모니터와 같은 디스플레이(Display) 장치로, 출력물은 프린터 등의 장치에 의해 특정 정보가 기록된 종이 출력물로 이해될 수도 있을 것이나, 이에 한정을 두지는 아니한다.In some embodiments of the present disclosure, the screen may be understood as a display device such as a monitor, and the output may be understood as a paper output on which specific information is recorded by a device such as a printer, but is not limited thereto.

또한, 본 개시의 몇몇 실시예들에서, 실물 촬영 이미지 여부 식별 시스템(100)이 수행하는 동작은 특정인의 신분증을 촬영한 이미지가 실물 신분증을 촬영한 이미지인지를 판별하기 위하여 수행하는 것으로 이해될 수 있으나, 이는 본 개시의 이해를 돕기 위한 예시일 뿐이며, 실물 촬영 이미지 여부 식별을 요하는 상황이라면 어디에도 그 목적이 한정되지 않음에 유의하여야 한다.In addition, in some embodiments of the present disclosure, it can be understood that an operation performed by the system 100 for identifying whether or not a real-life photographed image is performed to determine whether an image of a specific person's ID card is a photographed image of a real-life ID card. However, it should be noted that this is only an example to help understanding of the present disclosure, and the purpose is not limited anywhere in a situation requiring identification of whether or not a real-life photographed image is required.

실물 촬영 이미지 식별 시스템(100)은 상기 타겟 이미지의 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득할 수 있다. 상기 제1 출력 데이터 및 제2 출력 데이터를 획득하는 단계는 이미지 식별부(140)에서 수행될 수 있으며 이에 관하여는 후술한다.The real-shot image identification system 100 may input data about a cropped image of the target image to the second model and obtain second output data from the second model. The obtaining of the first output data and the second output data may be performed by the image identification unit 140 and will be described later.

실물 촬영 이미지 식별 시스템(100)은 상기 획득한 제1 출력 데이터 및 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력할 수 있다. 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 동작은 도 2에 도시된 바와 같이 이미지 식별부(140)에서 수행될 수 있다. 또한, 본 개시의 몇몇 실시예에 따르면, 실물 촬영 이미지 식별 시스템(100)은 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 이용하여 상기 타겟 이미지인지의 여부를 평가할 수도 있다.The real-photographed image identification system 100 may output data on whether the target image is a real-photographed image by using both the acquired first and second output data. An operation of outputting data on whether the target image is a real-life image may be performed by the image identification unit 140 as shown in FIG. 2 . Also, according to some embodiments of the present disclosure, the real-shot image identification system 100 may evaluate whether or not the target image is a real-shot image by using data on whether the target image is a real-shot image.

지금까지 도 1 내지 도 2를 참조하여 실물 촬영 이미지 여부 식별 시스템(100)의 구성 및 동작과 실물 촬영 이미지 여부 식별 시스템(100)이 적용될 수 있는 예시적인 환경에 대하여 설명하였다.So far, with reference to FIGS. 1 and 2 , the configuration and operation of the real-captured image identification system 100 and exemplary environments to which the real-captured image identification system 100 can be applied have been described.

이하 도3 내지 도 10을 참조하여, 본 개시의 다른 실시예에 따른 실물 촬영 이미지 여부 식별 방법에 대해 보다 구체적으로 설명한다. 이하, 몇몇 순서도에서 설명된 단계는 특별한 언급이 없는 한 실물 촬영 이미지 여부 식별 시스템(100)에 의해 수행되는 것으로 이해될 수 있다.Hereinafter, with reference to FIGS. 3 to 10 , a method for identifying a real-life captured image according to another embodiment of the present disclosure will be described in more detail. Hereinafter, steps described in some flowcharts may be understood to be performed by the system 100 for recognizing whether or not the actual photographed image is present unless otherwise specified.

도 3에 도시된 단계 S100에서, 실물 촬영 이미지 여부 식별 시스템은 타겟 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득할 수 있다. 이하, 본 개시의 몇몇 실시예에 따른, 상기 제1 모델 및 제2 모델이 학습되는 과정에 대하여 도 4 내지 도 7을 참조하여 자세하게 설명하도록 한다.In step S100 shown in FIG. 3, the system for determining whether a real-life image is captured acquires a first model learned to determine whether a target image is a real-photographed image and a second model learned to determine whether a partial image is a real-world captured image. can Hereinafter, a process of learning the first model and the second model according to some embodiments of the present disclosure will be described in detail with reference to FIGS. 4 to 7 .

본 개시의 몇몇 실시예에 따르면, 도 4에 도시된 풀 이미지 학습 모델(40)은 타겟 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 인공 신경망 모델일 수 있다. 보다 바람직하게는, 타겟 이미지가 촬영된 환경을 분류하도록 학습된 CNN(Convolutional Neural Network) 모델일 수 있다.According to some embodiments of the present disclosure, the full image learning model 40 shown in FIG. 4 may be an artificial neural network model trained to determine whether a target image is a real-life image. More preferably, it may be a Convolutional Neural Network (CNN) model trained to classify the environment in which the target image was captured.

이하, 본 개시의 몇몇 실시예들에 대한 이해를 돕기 위해 상기 풀 이미지 학습 모델(40)을'제1 모델(40)'로 하기한다. 상기 제1 모델은 상이한 대상을 촬영한 복수의 이미지에 대한 데이터를 학습 데이터로써 입력 받을 수 있다. 상기 학습 데이터는 예를 들어, 신분증 이미지의 실물 촬영 여부를 판단하도록 학습된 제1 모델의 경우에는 실제 신분증을 촬영한 이미지, 신분증 이미지가 기록된 종이 출력물을 촬영한 이미지 및 신분증 이미지를 디스플레이 하는 스크린을 촬영한 이미지 등을 의미할 수 있으나 이에 한정을 두지는 아니한다.Hereinafter, the full image learning model 40 will be referred to as a 'first model 40' to aid understanding of some embodiments of the present disclosure. The first model may receive data on a plurality of images of different subjects as training data. The learning data is, for example, in the case of the first model learned to determine whether or not an actual ID image is captured, an image of an actual ID card, an image of a paper printout on which the ID image is recorded, and a screen displaying the ID image. It may mean an image taken, but is not limited thereto.

본 개시의 몇몇 실시예들에서, 상기 신분증 이미지의 실물 촬영 여부를 판단하도록 학습된 제1 모델에 의해 출력되는 데이터는 신분증 이미지가 촬영된 환경 분류 각각에 해당할 확률 값일 수 있다. 예를 들면, 상기 제1 모델은 입력 받은 이미지가 실제 신분증을 촬영한 이미지일 확률 값, 신분증 이미지를 디스플레이 하는 스크린을 촬영한 이미지일 확률 값 및 신분증 이미지가 기록된 종이 출력물을 촬영한 이미지일 확률 값을 모두 출력할 수 있다.In some embodiments of the present disclosure, data output by the first model trained to determine whether or not the ID image is actually captured may be a probability value corresponding to each environment category in which the ID image is captured. For example, the first model has a probability value that the input image is an actual ID card image, a probability value that is an image that captures a screen displaying the ID card image, and a probability value that is an image that captures a paper printout on which the ID image is recorded. All values can be printed.

본 개시의 몇몇 실시예들에서, 상기 제1 모델은 학습 데이터로써 입력 받는 복수의 이미지를 NxN 크기로 리사이징된 상태로 입력 받을 수도 있다. 여기서 상기 N 값은 2 이상의 자연수이면서 제1 모델의 학습을 위해 입력 받은 이미지의 크기 값 보다 작은 값일 수 있다. In some embodiments of the present disclosure, the first model may receive a plurality of input images as training data in a resized state of NxN size. Here, the N value may be a natural number greater than or equal to 2 and may be a value smaller than the size value of the image input for learning the first model.

학습 데이터로써 입력 받는 복수의 이미지의 크기가 상이할 경우, 상기 복수의 이미지 각각의 크기에 대한 학습이 요구되는 바, 실물 촬영 이미지 식별 모델을 구축하기 위하여 더 많은 학습 데이터가 요구될 수 있다. 본 실시예에 따르면, 복수의 임의의 크기를 갖는 이미지를 학습 데이터로 입력 받더라도, 실물 촬영 이미지 식별 시스템이 정사각형으로 이미지를 조정하여 적은 학습 데이터만으로도 보다 높은 정확도를 갖는 실물 촬영 이미지 식별 모델을 구축할 수 있는 것이다.If the sizes of a plurality of images input as learning data are different, learning about the size of each of the plurality of images is required, and thus more learning data may be required to build a real-life image identification model. According to this embodiment, even if a plurality of images having arbitrary sizes are input as training data, the real-life image identification system adjusts the image to a square to build a real-life image identification model with higher accuracy with less training data. It can.

본 개시의 몇몇 실시예에 따르면, '제2 모델'은 도 5에 도시된, 타겟 이미지의 일부 영역을 크롭한 이미지인 크롭 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된, 복수의 인공 신경망 모델(51, 52, 53)이 통합된 인공 신경망 모델일 수 있다. 보다 바람직하게는, 상기 크롭 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 복수의 CNN 모델이 통합된 인공 신경망 모델일 수 있다. 아울러, 상기 복수의 인공 신경망 모델의 개수는 사용자에 의해 기 정의된 값 또는 시스템 초기 값일 수 있다.According to some embodiments of the present disclosure, the 'second model' is a plurality of artificial neural network models (artificial neural network models) learned to determine whether a cropped image, which is an image obtained by cropping a partial region of a target image shown in FIG. 5, is a real-life image ( 51, 52, 53) may be an integrated artificial neural network model. More preferably, it may be an artificial neural network model in which a plurality of CNN models learned to determine whether the cropped image is a real-life image are integrated. In addition, the number of the plurality of artificial neural network models may be a value predefined by a user or an initial value of the system.

본 개시의 몇몇 실시예에 따르면, 상기 크롭 이미지는 타겟 이미지를 격자 형태로 분할한 이미지 중 적어도 하나일 수 있다. 도 6을 참조하면, 상기 타겟 이미지를 격자 형태로 분할하는 방법이 명확히 이해될 수 있을 것이며, 도 6에 첨부된 이미지에서, 구성요소 62가 복수의 크롭 이미지 중 하나에 해당할 수 있다.According to some embodiments of the present disclosure, the cropped image may be at least one of images obtained by dividing a target image in a grid pattern. Referring to FIG. 6 , a method of dividing the target image into a lattice form will be clearly understood, and in the image attached to FIG. 6 , element 62 may correspond to one of a plurality of cropped images.

이하, 본 개시의 몇몇 실시예들에 대한 이해를 돕기 위해, 상기 제2 모델에 포함된 복수의 인공 신경망 모델을 '세부 모델'또는 '제2 모델의 세부 모델'로 하기하도록 한다.Hereinafter, to help understanding of some embodiments of the present disclosure, a plurality of artificial neural network models included in the second model are referred to as 'detailed models' or 'detailed models of the second model'.

단, 상기 제2 모델의 복수의 세부 모델의 개수는 상기 크롭 이미지의 개수보다 적을 수 있다.However, the number of detailed models of the second model may be less than the number of cropped images.

상기 제2 모델은 상이한 대상을 촬영한 복수의 이미지 각각의 일부 영역을 크롭한 복수의 크롭 이미지들 대한 데이터를 학습 데이터로써 입력 받을 수 있다. 상기 학습 데이터는 예를 들어, 신분증 이미지의 실물 촬영 여부를 판단하도록 학습된 제2 모델의 경우에는 실제 신분증을 촬영한 이미지의 크롭 이미지, 신분증 이미지가 기록된 종이 출력물을 촬영한 이미지의 크롭 이미지 및 신분증 이미지를 디스플레이 하는 스크린을 촬영한 이미지의 크롭 이미지 등을 의미할 수 있으나 이에 한정을 두지는 아니한다.The second model may receive data on a plurality of cropped images obtained by cropping a partial area of each of a plurality of images of different objects as training data. The learning data is, for example, in the case of the second model learned to determine whether or not an actual ID image is captured, a cropped image of an image of an actual ID card, a cropped image of an image of a paper printout on which the ID image is recorded, and It may mean a cropped image of an image taken of a screen displaying an ID image, but is not limited thereto.

본 개시의 몇몇 실시예들에서, 도 5에 도시된 바와 같이, 제2 모델의 세부모델에 상기 복수의 크롭 이미지가 랜덤하게 샘플링 되어 입력될 수 있다. 상기 복수의 크롭 이미지의 일부를 랜덤하게 샘플링 하여 제2 모델의 세부모델에 입력하는 방법은 추후 자세히 설명하기로 한다.In some embodiments of the present disclosure, as shown in FIG. 5 , the plurality of cropped images may be randomly sampled and input to a detailed model of the second model. A method of randomly sampling some of the plurality of cropped images and inputting them to the detailed model of the second model will be described later in detail.

이미지 전체에 대한 데이터를 기초로 실물 촬영 이미지 여부를 식별하는 제1 모델의 경우, 학습 데이터로 접한 이미지와 판이한 이미지를 입력 받을 시 정확도가 하락하는 문제점을 가질 수 있다. 본 실시예에 따르면, 입력 받은 이미지의 크롭 이미지를 상세히 분석하는 제2 모델을 통해 상기 제1 모델에 의해 분석되기 어려운 이미지의 노이즈나 이미지의 질감과 같은 특징도 분석될 수 있다. 따라서, 본 실시예에 따라 보다 높은 신뢰도를 갖는 실물 촬영 이미지 여부 식별 방법 및 그 방법이 적용된 컴퓨팅 시스템이 제공될 수도 있는 것이다.In the case of the first model that identifies whether or not a real-life image is captured based on data on the entire image, accuracy may decrease when receiving an image that is different from an image encountered as training data. According to the present embodiment, features such as noise or texture of an image that are difficult to be analyzed by the first model may be analyzed through the second model that analyzes the cropped image of the input image in detail. Therefore, according to the present embodiment, a method for identifying whether or not a real-life photographed image has higher reliability and a computing system to which the method is applied may be provided.

본 개시의 몇몇 실시예에 따르면, 도 7에 도시된 바와 같이, 실물 촬영 이미지 여부 식별 시스템은 상기 풀 이미지 학습 모델(제1 모델)(40)과 분할 이미지 학습 모델(제2 모델)(50)로부터 출력된 데이터를 종합하여, 입력 받은 신분증 이미지의 실물 촬영 여부를 판단할 수 있다. 상기 실물 촬영 여부를 판단하는 단계에 관하여는 자세히 후술한다.According to some embodiments of the present disclosure, as shown in FIG. 7 , the real-life image identification system includes the full image learning model (first model) 40 and the split image learning model (second model) 50 It is possible to determine whether the input ID image is captured in real life by synthesizing the output data. The step of determining whether or not the real image was taken will be described later in detail.

지금까지, 실물 촬영 여부 식별 시스템에 포함된 제1 모델 및 제2 모델이 학습되는 단계에 관하여 자세하게 설명하였다. 이하, 도 3을 참조하여 계속 설명하도록 한다.So far, the step of learning the first model and the second model included in the real-life identification system has been described in detail. Hereinafter, the description will be continued with reference to FIG. 3 .

단계 S200에서, 실물 촬영 이미지 여부 식별 시스템은 타겟 이미지에 대한 데이터를 상기 획득한 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득할 수 있다. 상기 제1 출력 데이터를 획득하는 단계에 관하여는, 도 8을 참조하여 설명한다.In step S200, the system for identifying whether or not a real-life shot image may input data on a target image to the obtained first model and obtain first output data from the first model. The obtaining of the first output data will be described with reference to FIG. 8 .

도 8에 도시된 단계 S210에서, 실물 촬영 이미지 여부 식별 시스템은 상기 타겟 이미지를 리사이징 할 수 있다. 여기서, 상기 리사이징은 상기 타겟 이미지를 N x N 크기의 정사각형으로 조정하는 것을 의미할 수 있다. 또한, 상기 N 값은 2 이상의 자연수이면서 상기 타겟 이미지의 크기 값 보다 작은 값일 수 있다.In step S210 shown in FIG. 8 , the system for identifying whether or not the actual captured image may resize the target image. Here, the resizing may mean adjusting the target image into an NxN square. Also, the N value may be a natural number greater than or equal to 2 and a value smaller than the size value of the target image.

제1 모델이 상기 타겟 이미지의 크기를 갖는 이미지를 분석하기 위해 충분히 학습되지 않은 모델일 경우, 실물 촬영 이미지 식별 결과가 부정확하게 출력될 수 있다. 본 실시예에 따르면, 타겟 이미지의 모든 차원에서의 크기 값을 동일하게 조정하여 제1 모델에 입력함으로써, 제1 모델에 의하여 출력되는 이미지 분석 결과의 신뢰도가 제고되는 효과를 달성할 수 있다.If the first model is a model that has not been sufficiently trained to analyze an image having the size of the target image, a real-life image identification result may be incorrectly output. According to the present embodiment, by equally adjusting size values in all dimensions of the target image and inputting the values to the first model, an effect of increasing reliability of an image analysis result output by the first model may be achieved.

단계 S220에서, 실물 촬영 이미지 여부 식별 시스템은 상기 리사이징된 타겟 이미지를 제1 모델에 입력하여 제1 출력 데이터를 획득할 수 있다. 상기 제1 출력 데이터는 타겟 이미지가 촬영된 환경 분류 각각에 해당할 확률 값일 수 있다. 가령, 상기 제1 모델이 제1 촬영 환경 내지 제3 촬영 환경으로 이미지 촬영 환경을 분류하는 모델일 때, 상기 제1 모델은 상기 타겟 이미지를 분석하고, 제1 촬영 환경에서 촬영되었을 확률 값을 77.2%, 제2 촬영 환경에서 촬영되었을 확률 값을 64.1%, 제3 촬영 환경에서 촬영되었을 확률 값을 42.0%로 산출하고, 상기 산출된 복수의 확률 값들을 출력할 수 있다.In step S220, the system for identifying whether or not the actual photographed image may obtain first output data by inputting the resized target image to a first model. The first output data may be a probability value corresponding to each environment category in which the target image is photographed. For example, when the first model is a model that classifies image capturing environments into first to third capturing environments, the first model analyzes the target image and sets a probability value of being captured in the first capturing environment to 77.2. %, a probability value of being photographed in the second photographing environment is 64.1%, and a probability value of being photographed in the third photographing environment is calculated as 42.0%, and a plurality of the calculated probability values may be output.

본 개시의 몇몇 실시예에 따르면, 상기 제1 모델에 의하여 출력된 복수의 확률 값들은, 실물 촬영 이미지 여부 식별 시스템이 타겟 이미지의 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 단계에서 이용될 수 있으나, 이에 관하여는 후술한다.According to some embodiments of the present disclosure, the plurality of probability values output by the first model may be used in the step of outputting data on whether the target image is a real-shot image or not, but , which will be described later.

이하, 도 3을 참조하여 계속 설명한다.Hereinafter, the description continues with reference to FIG. 3 .

도 3의 단계 S300에서, 실물 촬영 이미지 여부 식별 시스템은 상기 타겟 이미지의 일부 영역인 크롭 이미지에 대한 데이터를 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득할 수 있다. 상기 제2 출력 데이터를 획득하는 단계에 관하여 도 9 내지 도 11을 참조하여 자세히 설명한다.In step S300 of FIG. 3 , the real shot image identification system may input data about a cropped image, which is a part of the target image, to a second model, and obtain second output data from the second model. The obtaining of the second output data will be described in detail with reference to FIGS. 9 to 11 .

도 9의 단계 S310에서, 실물 촬영 이미지 여부 식별 시스템은 타겟 이미지에서 복수의 크롭 이미지를 추출할 수 있다. 여기서, 상기 크롭 이미지는 상기 타겟 이미지를 격자 형태로 분할한 복수의 이미지 중 적어도 하나를 의미할 수 있다. 도 10을 참조하면, 타겟 이미지를 격자 형태로 분할하여 크롭 이미지(910, 920)을 추출하는 방법이 명확히 이해될 수 있을 것이다.In step S310 of FIG. 9 , the system for identifying a real-life image may extract a plurality of cropped images from the target image. Here, the cropped image may refer to at least one of a plurality of images obtained by dividing the target image in a grid pattern. Referring to FIG. 10 , a method of extracting cropped images 910 and 920 by segmenting a target image in a lattice form will be clearly understood.

단계 S310과 관련된 몇몇 실시예에서, 실물 촬영 이미지 여부 식별 시스템은 상기 타겟 이미지에서 관심 영역 이미지를 추출할 수도 있다. 보다 자세히는, 상기 타겟 이미지가 직사각형의 이미지일 경우, 격자 형태로 분할하여도 서로 같은 크기를 갖는 복수의 크롭 이미지가 추출될 수 없기 때문에, 실물 촬영 이미지 여부 식별 시스템은 상기 타겟 이미지의 중심부를 MxM 사이즈로 크롭할 수 있다.In some embodiments related to step S310, the system for identifying whether or not the actual captured image may extract a region of interest image from the target image. More specifically, when the target image is a rectangular image, since a plurality of cropped images having the same size cannot be extracted even if the target image is divided in the form of a grid, the real-life image identification system identifies the center of the target image as MxM. Can be cropped to size.

여기서, 상기 M은 상기 타겟 이미지의 크기 값에 m을 곱하여 산출된 값일 수 있다. 가령, 타겟 이미지가 폭 1000, 높이 1200의 직사각형 이미지일 때, 실물 촬영 이미지 여부 식별 시스템은 타겟 이미지의 높이 값에 0.75를 곱하고, 타겟 이미지의 폭 값에 0.8을 곱하여 800x800의 관심 영역 이미지를 추출할 수도 있는 것이다. 보다 바람직하게는, 상기 관심 영역 이미지는 상기 타겟 이미지의 중심부를 크롭한 이미지이므로, 실물 촬영 이미지 여부 식별 시스템은 타겟 이미지의 상부에서 200 픽셀, 하부에서 200 픽셀, 좌측에서 100 픽셀, 우측에서 100 픽셀을 각각 크롭하여 800x800의 관심 영역 이미지를 추출할 수 있다.Here, M may be a value calculated by multiplying the size value of the target image by m. For example, when the target image is a rectangular image with a width of 1000 and a height of 1200, the real-life image identification system multiplies the height value of the target image by 0.75 and the width value of the target image by 0.8 to extract an 800x800 ROI image. It could be. More preferably, since the ROI image is an image obtained by cropping the central portion of the target image, the system for identifying whether or not a real-life image is taken is 200 pixels from the upper part, 200 pixels from the lower part, 100 pixels from the left side, and 100 pixels from the right side of the target image. 800x800 ROI images may be extracted by cropping each.

단계 S310과 관련된 몇몇 다른 실시예에서, 실물 촬영 이미지 여부 식별 시스템은 상기 관심 영역 이미지를 격자 형태로 분할하여 NxN의 크기를 갖는 크롭 이미지를 획득할 수 있다. 여기서, 상기 N은 제1 모델에 입력된 리사이징된 타겟 이미지의 크기 값과 같은 값일 수 있다.In some other embodiments related to step S310, the system for identifying whether the actual captured image may obtain a cropped image having a size of NxN by dividing the ROI image in a grid pattern. Here, N may be the same value as the size value of the resized target image input to the first model.

다음으로, 단계 S320에서 실물 촬영 이미지 여부 식별 시스템은 상기 추출한 크롭 이미지를 제2 모델의 세부 모델에 입력하고, 복수의 크롭 이미지 각각에 대한 출력 값을 생성할 수 있다. 상기 복수의 크롭 이미지 각각에 대한 출력 값을 생성하는 방법에 관하여 도 10 내지 도 11을 참조하여 설명한다.Next, in step S320, the system for identifying whether or not the actual captured image may input the extracted cropped image to a detailed model of the second model and generate an output value for each of a plurality of cropped images. A method of generating an output value for each of the plurality of cropped images will be described with reference to FIGS. 10 to 11 .

또한, 하기 도 10 내지 도 11을 참조하여 설명되는 몇몇 실시예들에서, 본 개시의 이해를 돕기 위하여 제2 모델은 제1 내지 제3 세부 모델을 포함하는 것으로 예시한다. 또한, 상기 제2 모델은 입력 받은 이미지가 실물 촬영 이미지일 확률 값, 신분증 이미지를 디스플레이 하는 스크린을 촬영한 이미지일 확률 값 및 신분증 이미지가 기록된 종이 출력물을 촬영한 이미지일 확률 값 각각을 출력하는 인공 신경망 모델인 것으로 예시하나, 이에 한정되지는 않음에 유의하여야 한다.In addition, in some embodiments described with reference to FIGS. 10 to 11 below, the second model is illustrated as including first to third detailed models to aid understanding of the present disclosure. In addition, the second model outputs a probability value that the input image is a real-life image, a probability value that is an image of a screen displaying an ID image, and a probability value that is an image of a paper output on which an ID image is recorded. It should be noted that it is exemplified as an artificial neural network model, but is not limited thereto.

도 10을 참조하면, 상기 단계 S310에서 제1 내지 제2 크롭 이미지(910, 920)이 추출될 수 있다. 단계 S320과 관련된 몇몇 실시예에서, 상기 제1 내지 제3 세부 모델은 제1 크롭 이미지(910)가 실물 촬영 이미지일 확률 값이 가장 높다는 판단에 응답하여, 제1 크롭 이미지(910)를 실물 촬영 이미지인 것으로 결정할 수 있다.Referring to FIG. 10 , first to second cropped images 910 and 920 may be extracted in step S310. In some embodiments related to step S320, the first to third detailed models take the first cropped image 910 in real life in response to determining that the probability value of the first cropped image 910 is the highest. image can be determined.

또한, 실물 촬영 이미지 여부 식별 시스템은 상기 세부 모델들의 결정 결과(911, 912, 913)에 따라, 제1 크롭 이미지(910)를 실물 촬영 이미지로 결정한 세부 모델이 다수에 해당한다는 판단에 응답하여, 제1 크롭 이미지(910)를 실물 촬영 이미지인 것으로 결정할 수 있다. In addition, in response to the determination that the number of detailed models for which the first cropped image 910 has been determined as a real-life image corresponds to a plurality of detailed models according to the determination results 911, 912, and 913 of the detailed models, It may be determined that the first cropped image 910 is a real image.

단계 S320과 관련된 몇몇 다른 실시예에서, 제1 세부 모델은 제2 크롭 이미지(920)가 실물 촬영 이미지일 확률 값이 가장 높다는 판단에 응답하여, 제2 크롭 이미지(920)를 실물 촬영 이미지인 것으로 결정할 수 있고, 상기 제2 및 제3 세부 모델은 제2 크롭 이미지(920)가 출력물을 촬영한 이미지일 확률이 가장 높다는 판단에 응답하여, 제2 크롭 이미지(920)를 출력물 촬영 이미지인 것으로 결정할 수 있다.In some other embodiments related to step S320, the first detailed model determines that the second cropped image 920 is a real-life photographed image in response to determining that the probability value of the second cropped image 920 is the highest. The second and third detailed models may determine the second cropped image 920 as an output captured image in response to determining that the second cropped image 920 has the highest probability of being an output captured image. can

또한, 상기 실물 촬영 이미지 여부 식별 시스템은 상기 세부 모델들의 결정 결과(921, 922, 923)에 따라, 제2 크롭 이미지(920)를 출력물 촬영 이미지로 결정한 세부 모델이 다수에 해당한다는 판단에 응답하여, 제2 크롭 이미지(920)가 출력물 촬영 이미지인 것으로 결정할 수 있다.In addition, the actual photographed image identification system responds to a determination that the number of detailed models for which the second cropped image 920 has been determined as an output photographed image corresponds to a plurality according to the determination results 921, 922, and 923 of the detailed models. , it may be determined that the second cropped image 920 is a captured image of the printout.

단계 S320과 관련된 몇몇 또 다른 실시예에서, 실물 촬영 이미지 여부 식별 시스템은 제1 내지 제3 세부 모델이 출력하는, 제1 크롭 이미지(910)가 실물 촬영 이미지일 확률 값 각각의 합의 평균을 제1 크롭 이미지(910)가 실물 촬영 이미지일 중간 확률 값으로, 제1 크롭 이미지(910)가 스크린 촬영 이미지일 확률 값 각각의 합의 평균을 제1 크롭 이미지(910)가 실물 촬영 이미지일 중간 확률 값으로, 제1 크롭 이미지(910)가 출력물 촬영 이미지일 확률 값 각각의 합의 평균을 제1 크롭 이미지(910)가 출력물 촬영 이미지일 중간 확률 값으로 결정할 수 있다.In some other embodiments related to step S320, the system for identifying whether or not the real-life captured image determines the average sum of probability values that the first cropped image 910 is a real-life captured image output from the first to third detailed models is first The median probability value that the cropped image 910 is a real-life image, and the average of the sum of probability values that the first cropped image 910 is a screen-captured image is the medium probability value that the first cropped image 910 is a real-life image. , the average of the sum of probability values that the first cropped image 910 is an output captured image may be determined as an intermediate probability value that the first cropped image 910 is an output captured image.

상기 중간 확률 값을 결정하는 동작은 복수의 크롭 이미지 모두에서 수행될 수 있다.The operation of determining the intermediate probability value may be performed on all of a plurality of cropped images.

단계 S320과 관련된 몇몇 또 다른 실시예에서, 제1 내지 제3 세부 모델 각각은 복수의 크롭 이미지들 중 랜덤하게 샘플링된 일부의 크롭 이미지의 데이터를 입력 받을 수 있다. In some other embodiments related to step S320, each of the first to third detailed models may receive data of a randomly sampled part of the cropped images among the plurality of cropped images.

예를 들어, 도 11을 참조하면, 타겟 이미지(90)에서 추출된 제1 내지 제9 크롭 이미지들 중, 제1 세부 모델은 제1, 제2, 제6 크롭 이미지(90-1, 90-2, 90-6)를, 제2 세부 모델은 제4, 제5 및 제9 크롭 이미지(90-4, 90-5, 90-9)를, 제3 세부 모델은 제3, 제7 및 제8 크롭 이미지(90-3. 90-7, 90-8)를 입력 받을 수 있다. 여기서, 각각의 세부 모델이 각각의 크롭 이미지를 입력 받는 것은 본 개시의 이해를 돕기 위한 예시일 뿐이며, 각각의 세부 모델이 입력 받는 크롭 이미지의 경우의 수는 랜덤으로 지정되는 것으로 이해될 수 있을 것이다.For example, referring to FIG. 11 , among first to ninth cropped images extracted from the target image 90, a first detailed model includes first, second, and sixth cropped images 90-1, 90- 2, 90-6), the fourth, fifth, and ninth cropped images 90-4, 90-5, and 90-9 as the second detailed model, and the third, seventh, and ninth cropped images as the third detailed model. 8 cropped images (90-3, 90-7, 90-8) can be input. Here, the fact that each detailed model receives each cropped image is merely an example to help understanding of the present disclosure, and it will be understood that the number of cases of cropped images received by each detailed model is randomly designated. .

제1 내지 제3 세부 모델이 동일한 영역의 크롭 이미지를 반복적으로 입력 받을 경우, 학습된 결과에 비해 실제 이미지 분석 결과 정확도가 하락하는 문제가 발생할 수도 있다. 본 실시예에 따르면, 상기 제1 내지 제3 세부 모델은 이미지 분석 시 마다 유사하지만 동일하지 않은 데이터를 입력 받아 과적합을 예방하고, 이미지 분석 결과의 정확도가 향상되는 효과를 달성할 수도 있다.When the first to third detailed models repeatedly receive cropped images of the same region, a problem in that the accuracy of the actual image analysis result may decrease compared to the learned result may occur. According to this embodiment, the first to third detailed models receive similar but not identical data each time an image is analyzed, thereby preventing overfitting and improving the accuracy of an image analysis result.

다음으로, 단계 S330에서 실물 촬영 이미지 여부 식별 시스템은 상기 세부 모델들로부터 생성된 데이터를 이용하여 제2 출력 데이터를 생성할 수 있다. 여기서, 상기 제2 출력 데이터는 복수의 크롭 이미지를 포함하는 타겟 이미지가 실물 촬영 이미지일 확률 값, 출력물 촬영 이미지일 확률 값 및 스크린 촬영 이미지일 확률 값을 포함할 수 있다.Next, in step S330, the system for identifying whether or not the actual photographed image may generate second output data using data generated from the detailed models. Here, the second output data may include a probability value that a target image including a plurality of cropped images is a real image, a probability value that is a captured image, and a probability value that is a screen captured image.

단계 S330과 관련된 몇몇 실시예에서, 제2 모델은 단계 S320에서 결정된, 복수의 크롭 이미지가 출력물 촬영 이미지일 중간 확률 값 각각의 평균을 타겟 이미지가 출력물 촬영 이미지일 확률 값으로 결정할 수 있다.In some embodiments related to step S330, the second model may determine the average of each of the intermediate probability values that the plurality of cropped images are output captured images determined in step S320 as the probability value that the target image is an output captured image.

단계 S330과 관련된 몇몇 다른 실시예에서, 제2 모델은 단계 S320에서 결정된, 복수의 크롭 이미지가 실물 촬영 이미지일 중간 확률 값 각각의 평균을 타겟 이미지가 실물 촬영 이미지일 확률 값으로 결정할 수 있다. In some other embodiments related to step S330, the second model may determine the average of each of the intermediate probability values that the plurality of cropped images determined in step S320 is a real-photographed image as the probability value that the target image is a real-photographed image.

단계 S330과 관련된 몇몇 다른 실시예에서, 제2 모델은 단계 S320에서 결정된, 복수의 크롭 이미지가 스크린 촬영 이미지일 중간 확률 값 각각의 평균을 타겟 이미지가 스크린 촬영 이미지일 확률 값으로 결정할 수 있다.In some other embodiments related to step S330, the second model may determine the average of each of the intermediate probability values that the plurality of cropped images are screen-captured images determined in step S320 as the probability value that the target image is a screen-captured image.

지금까지 실물 촬영 이미지 식별 시스템이 제2 출력 데이터를 생성하는 방법에 관하여 자세히 설명하였다. 또한, 지금까지 설명한 각 단계는 컴퓨팅 시스템에 의하여 독립적으로 이용될 수 있으나, 복수의 단계가 필요에 의해 함께 이용될 수도 있음에 유의해야 한다.So far, the method for generating the second output data by the real-photographed image identification system has been described in detail. In addition, it should be noted that each step described so far may be used independently by the computing system, but a plurality of steps may be used together as needed.

이하 도 3을 참조하여 계속 설명한다.The description continues with reference to FIG. 3 below.

단계 S400에서 실물 촬영 이미지 여부 식별 시스템은 상기 제1 출력 데이터 및 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력할 수 있다. 보다 자세히는, 도 12를 참조하여 설명하기로 한다.In step S400, the real-life image identification system may output data on whether the target image is a real-photographed image by using both the first output data and the second output data. In more detail, it will be described with reference to FIG. 12 .

도 12에 도시된 단계 S410에서, 실물 촬영 이미지 여부 식별 시스템은 제1 출력 데이터 및 제2 출력 데이터 각각에 가중치를 부여할 수 있다.In step S410 shown in FIG. 12 , the system for identifying whether or not the actual photographed image is present may assign a weight to each of the first output data and the second output data.

단계 S410과 관련된 몇몇 실시예에서, 실물 촬영 이미지 여부 식별 시스템은 입력 받은 타겟 이미지의 밝기 또는 조도 값이 최대 임계치를 초과하거나 최소 임계치 미만이라는 판단에 응답하여, 제1 출력 데이터보다 제2 출력 데이터에 보다 높은 가중치를 부여할 수 있다.In some embodiments related to step S410, in response to determining that the brightness or illuminance value of the input target image exceeds a maximum threshold value or is less than a minimum threshold value, the system for identifying whether or not the real-life image is captured provides second output data rather than first output data. Higher weights can be assigned.

이미지 전체에 대한 데이터를 기초로 실물 촬영 이미지 여부를 식별하는 제1 모델은 학습 데이터로 접한 이미지와 판이한 이미지를 입력 받은 경우, 정확도가 하락하는 문제점을 가질 수 있는데, 일반적으로 입력 받은 이미지가 밝기 또는 조도가 학습 데이터 이미지와 판이한 경우가 이러한 경우에 해당될 수 있다. 따라서 본 실시예에 따르면, 실물 촬영 이미지 여부 식별 시스템은 비정상적인 특징 값을 갖는 이미지를 입력 받을 때에도 높은 정확도를 갖는 실물 촬영 이미지 여부 식별 방법을 실시할 수 있는 효과를 달성할 수도 있다.The first model, which identifies whether or not a real-life image is captured based on data on the entire image, may have a problem in that accuracy decreases when an image that is different from the image encountered as training data is input. In general, the input image is bright. Alternatively, a case in which the illuminance is different from that of the training data image may correspond to this case. Therefore, according to the present embodiment, the system for identifying whether a real-life captured image can achieve an effect of being able to perform a method for identifying whether a real-life captured image has high accuracy even when receiving an image having an abnormal feature value.

다음으로 단계 S420에서, 실물 촬영 이미지 여부 식별 시스템은 상기 부여한 가중치에 기초하여, 제1 출력 데이터 및 제2 출력 데이터를 합산할 수 있다.Next, in step S420, the system for identifying whether or not the actual captured image may add the first output data and the second output data based on the assigned weight.

단계 S420과 관련된 몇몇 실시예들에서, 제1 출력 데이터 및 제2 출력 데이터는 다음과 같이 계산될 수 있다.In some embodiments related to step S420, the first output data and the second output data may be calculated as follows.

Figure pat00001
단,
Figure pat00002
Figure pat00001
step,
Figure pat00002

a: 제1 출력 데이터a: first output data

b: 제2 출력 데이터b: second output data

Figure pat00003
: 제2 출력 데이터의 가중치
Figure pat00003
: Weight of the second output data

Figure pat00004
: 제1 출력 데이터의 가중치
Figure pat00004
: Weight of the first output data

여기서, 상기한 식의 a 및 b는 각각 제1 모델에 의하여 출력된 타겟 이미지가 제1 촬영 환경 이미지일 확률 값 및 제2 모델에 의하여 출력된 타겟 이미지가 제1 촬영 환경 이미지일 확률 값일 수 있다. 이 경우, 실물 촬영 이미지 여부 식별 시스템은 상기한 식의 결과를 타겟 이미지가 제1 촬영 환경 이미지일 최종 확률로 결정할 수도 있다.Here, a and b of the above equation may be a probability value that the target image output by the first model is the first capturing environment image and a probability value that the target image output by the second model is the first capturing environment image, respectively. . In this case, the actual photographed image identification system may determine the result of the above equation as a final probability that the target image is the first photographed environment image.

또한, 상기한 식의 a 및 b는 각각 제1 모델에 의하여 출력된 타겟 이미지가 제2 촬영 환경 이미지일 확률 값 및 제2 모델에 의하여 출력된 타겟 이미지가 제2 촬영 환경 이미지일 확률 값일 수 있다. 이 경우, 실물 촬영 이미지 여부 식별 시스템은 상기한 식의 결과를 타겟 이미지가 제2 촬영 환경 이미지일 최종 확률로 결정할 수도 있다.In addition, a and b of the above equation may be a probability value that the target image output by the first model is a second capturing environment image and a probability value that the target image output by the second model is a second capturing environment image, respectively. . In this case, the actual photographed image identification system may determine the result of the above equation as a final probability that the target image is the second photographed environment image.

또한, 상기한 식의 a 및 b는 각각 제1 모델에 의하여 출력된 타겟 이미지가 제3 촬영 환경 이미지일 확률 값 및 제2 모델에 의하여 출력된 타겟 이미지가 제3 촬영 환경 이미지일 확률 값일 수 있다. 이 경우, 실물 촬영 이미지 여부 식별 시스템은 상기한 식의 결과를 타겟 이미지가 제3 촬영 환경 이미지일 최종 확률로 결정할 수도 있다.In addition, a and b of the above equation may be a probability value that the target image output by the first model is a third capturing environment image and a probability value that the target image output by the second model is a third capturing environment image, respectively. . In this case, the actual photographed image identification system may determine the result of the above equation as a final probability that the target image is the third photographed environment image.

다음으로, 단계 S430에서 실물 촬영 이미지 여부 식별 시스템은 상기 합산된 제1 출력 데이터 및 제2 출력 데이터에 기초하여, 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력할 수 있다.Next, in step S430, the system for identifying whether the real-life captured image outputs data on whether the target image is a real-photographed image based on the sum of the first output data and the second output data.

단계 S430과 관련된 몇몇 실시예에서, 실물 촬영 이미지 여부 식별 시스템은 상기 단계 S420에서 계산된, 타겟 이미지가 제1 내지 제3 촬영 환경 이미지일 확률 값들을 비교할 수 있다. 예를 들어, 제1 촬영 환경이 실물 촬영 환경이라고 할 때, 실물 촬영 이미지 여부 식별 시스템은 제1 촬영 환경 이미지 확률 값이 제2 및 제3 촬영 환경 이미지 확률 값보다 높을 경우, 상기 타겟 이미지를 실물 촬영 이미지인 것으로 결정하고, 이와 관련된 데이터를 출력할 수 있다.In some embodiments related to step S430, the system for identifying whether or not the actual captured image may compare probability values that the target image is the first to third captured environment images calculated in step S420. For example, when it is assumed that the first photographing environment is a real photographing environment, the real photographed image identification system determines the target image to be real if the first photographing environment image probability value is higher than the second and third photographing environment image probability values. It is determined that it is a captured image, and data related thereto may be output.

아울러, 상기한 예시에서, 제2 또는 제3 촬영 환경 이미지 확률 값 중 적어도 하나 이상이 제1 촬영 환경 이미지 확률 값보다 높은 값을 가질 경우, 상기 타겟 이미지를 실물 촬영 이미지가 아닌 것으로 결정하고, 이와 관련된 데이터를 출력할 수도 있다.In addition, in the above example, if at least one of the second or third capturing environment image probability values has a value higher than the first capturing environment image probability value, it is determined that the target image is not a real-life capturing image, and You can also output related data.

지금까지 본 개시의 다른 실시예에 따른 실물 촬영 이미지 여부 식별 방법에 대해 자세히 설명하였다. 또한, 지금까지 설명한 각 단계는 컴퓨팅 시스템에 의해 독립적으로 이용될 수 있으나, 복수의 단계가 필요에 의해 함께 이용될 수도 있음에 유의해야 한다.So far, a method for identifying whether a real-life photographed image has been described in detail according to another embodiment of the present disclosure. In addition, it should be noted that each step described so far may be used independently by the computing system, but a plurality of steps may be used together as needed.

도 13은 본 개시의 몇몇 실시예들에 따른 실물 촬영 이미지 여부 식별 시스템의 하드웨어 구성도이다. 도 13에 도시된 실물 촬영 이미지 여부 식별 시스템(1000)은, 예를 들어 도 1을 참조하여 설명한 실물 촬영 이미지 여부 식별 시스템(100)을 가리키는 것일 수 있다. 실물 촬영 이미지 여부 식별 시스템(1000)은 하나 이상의 프로세서(1100), 시스템 버스(1600), 통신 인터페이스(1200), 프로세서(1100)에 의하여 수행되는 컴퓨터 프로그램(1500)을 로드(load)하는 메모리(1400)와, 컴퓨터 프로그램(1500)을 저장하는 스토리지(1300)를 포함할 수 있다.13 is a hardware configuration diagram of a system for identifying whether or not a real-life photographed image is present according to some embodiments of the present disclosure. The actual photographed image identification system 1000 shown in FIG. 13 may refer to the real photographed image identification system 100 described with reference to FIG. 1 , for example. The system 1000 for identifying whether or not a real photographed image is a memory for loading a computer program 1500 executed by one or more processors 1100, a system bus 1600, a communication interface 1200, and the processor 1100 ( 1400) and a storage 1300 for storing the computer program 1500.

프로세서(1100)는 실물 촬영 이미지 여부 식별 시스템(1000)의 각 구성의 전반적인 동작을 제어한다. 프로세서(1100)는 본 개시의 다양한 실시예들에 따른 방법/동작을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 메모리(1400)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(1400)는 본 개시의 다양한 실시예들에 따른 방법/동작들을 실행하기 위하여 스토리지(1300)로부터 하나 이상의 컴퓨터 프로그램(1500)을 로드(load) 할 수 있다. 버스(1600)는 실물 촬영 이미지 여부 식별 시스템(1000)의 구성 요소 간 통신 기능을 제공한다. 통신 인터페이스(1200)는 실물 촬영 이미지 여부 식별 시스템(1000)의 인터넷 통신을 지원한다. 스토리지(1300)는 하나 이상의 컴퓨터 프로그램(1500)을 비임시적으로 저장할 수 있다. 컴퓨터 프로그램(1500)은 본 개시의 다양한 실시예들에 따른 방법/동작들이 구현된 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 컴퓨터 프로그램(1500)이 메모리(1400)에 로드 되면, 프로세서(1100)는 상기 하나 이상의 인스트럭션들을 실행시킴으로써 본 개시의 다양한 실시예들에 따른 방법/동작들을 수행할 수 있다.The processor 1100 controls the overall operation of each component of the system 1000 for identifying whether or not the actual photographed image is present. The processor 1100 may perform an operation for at least one application or program for executing a method/operation according to various embodiments of the present disclosure. Memory 1400 stores various data, commands and/or information. Memory 1400 may load one or more computer programs 1500 from storage 1300 to execute methods/operations according to various embodiments of the present disclosure. The bus 1600 provides a communication function between components of the system 1000 for identifying whether or not a real-life photographed image exists. The communication interface 1200 supports Internet communication of the system 1000 for identifying whether or not a real-life image is captured. Storage 1300 may non-temporarily store one or more computer programs 1500 . Computer program 1500 may include one or more instructions in which methods/operations according to various embodiments of the present disclosure may be implemented. When the computer program 1500 is loaded into the memory 1400, the processor 1100 may execute the one or more instructions to perform methods/operations according to various embodiments of the present disclosure.

몇몇 실시예들에서, 도 13을 참조하여 실물 촬영 이미지 여부 식별 시스템(1000)은 가상 머신 등 클라우드 기술에 기반하여 서버 팜(server farm)에 포함된 하나 이상의 물리 서버(physical server)를 이용하여 구성될 수 있다. In some embodiments, referring to FIG. 13, the system 1000 for identifying whether or not a real-life captured image is configured using one or more physical servers included in a server farm based on a cloud technology such as a virtual machine. It can be.

컴퓨터 프로그램(1500)은 전체 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득하는 동작과, 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득하는 동작과, 상기 타겟 이미지의 일부 영역인 크롭 이미지(cropped image)에 대한 데이터를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 동작 및 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 동작들을 수행하는, 인스트럭션(instruction)들을 포함할 수 있다.The computer program 1500 includes an operation of obtaining a first model learned to determine whether an entire image is a real-life photographed image and a second model learned to determine whether a partial image is a real-world photographed image, and storing data on a target image as An operation of inputting data into a first model and obtaining first output data from the first model; inputting data for a cropped image, which is a partial region of the target image, into the second model; An instruction for performing operations of acquiring second output data from and outputting data on whether the target image is a real-life image by using both the first output data and the second output data may include

지금까지 도 1 내지 도 13을 참조하여 본 개시의 다양한 실시예들 및 그 실시예들에 따른 효과들을 언급하였다. 본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.So far, various embodiments of the present disclosure and effects according to the embodiments have been described with reference to FIGS. 1 to 13 . Effects according to the technical spirit of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

지금까지 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present disclosure described so far may be implemented as computer readable code on a computer readable medium. The computer program recorded on the computer-readable recording medium may be transmitted to another computing device through a network such as the Internet, installed in the other computing device, and thus used in the other computing device.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 발명이 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although actions are shown in a particular order in the drawings, it should not be understood that the actions must be performed in the specific order shown or in a sequential order, or that all shown actions must be performed to obtain a desired result. In certain circumstances, multitasking and parallel processing may be advantageous. Although the embodiments of the present disclosure have been described with reference to the accompanying drawings, those of ordinary skill in the art to which the present disclosure pertains may implement the present invention in other specific forms without changing the technical spirit or essential features. can understand that there is Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the technical ideas defined by the present disclosure.

Claims (20)

컴퓨팅 시스템에서 수행되는 방법으로서,
전체 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득하는 단계;
타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득하는 단계;
상기 타겟 이미지의 일부 영역인 크롭 이미지(cropped image)에 대한 데이터를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계; 및
상기 제1 출력 데이터 및 상기 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 단계를 포함하는,
실물 촬영 이미지 여부 식별 방법.
As a method performed in a computing system,
obtaining a first model learned to determine whether an entire image is a real-photographed image and a second model learned to determine whether a partial image is a real-photographed image;
inputting data of a target image into the first model and obtaining first output data from the first model;
inputting data for a cropped image, which is a partial region of the target image, into the second model, and obtaining second output data from the second model; and
Using both the first output data and the second output data, outputting data on whether the target image is a real-life photographed image,
How to identify whether the real-life image is taken.
제1 항에 있어서,
상기 제1 모델 및 상기 제2 모델은 입력 이미지가 실물 촬영 이미지임을 가리키는 제1 클래스와, 입력 이미지가 디스플레이 촬영 이미지임을 가리키는 제2 클래스와, 입력 이미지가 출력물 촬영 이미지임을 가리키는 제3 클래스 각각에 대한 확률 값을 출력하는 것인,
실물 촬영 이미지 여부 식별 방법.
According to claim 1,
The first model and the second model are respectively for a first class indicating that the input image is a real-life photographed image, a second class indicating that the input image is a display photographed image, and a third class indicating that the input image is an output photographed image. which outputs a probability value,
How to identify whether the real-life image is taken.
제1 항에 있어서,
상기 제1 모델로부터 제1 출력 데이터를 획득하는 단계는,
상기 타겟 이미지 원본을 N x N (단 N은 2 이상의 자연수) 사이즈로 축소 리사이징 하는 단계; 및
상기 리사이징 된 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하는 단계를 포함하는,
실물 촬영 이미지 여부 식별 방법.
According to claim 1,
Obtaining first output data from the first model,
reducing and resizing the original target image to a size of NxN (where N is a natural number greater than or equal to 2); and
Including the step of inputting data for the resized target image to the first model,
How to identify whether the real-life image is taken.
제3 항에 있어서,
상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계는,
상기 타겟 이미지 원본의 일부 영역인 상기 N x N 사이즈의 상기 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하는 단계를 포함하는,
실물 촬영 이미지 여부 식별 방법.
According to claim 3,
Obtaining second output data from the second model,
Including the step of inputting data for the cropped image of size N x N, which is a partial region of the original target image, to the second model.
How to identify whether the real-life image is taken.
제4 항에 있어서,
상기 타겟 이미지 원본의 일부 영역인 N x N 사이즈의 상기 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하는 단계는,
상기 타겟 이미지 원본을 격자 형태로 분할함으로써 복수의 상기 크롭 이미지들을 추출하는 단계; 및
상기 복수의 크롭 이미지들 각각의 데이터를, 상기 제2 모델의 복수의 세부 모델 각각에 입력하는 단계를 포함하는,
실물 촬영 이미지 여부 식별 방법.
According to claim 4,
In the step of inputting data for the cropped image of size N x N, which is a partial area of the original target image, to the second model,
extracting a plurality of the cropped images by dividing the original target image in a grid pattern; and
Including inputting data of each of the plurality of cropped images to each of a plurality of detailed models of the second model,
How to identify whether the real-life image is taken.
제5 항에 있어서,
상기 복수의 상기 크롭 이미지들을 추출하는 단계는,
상기 타겟 이미지 원본의 중심부를 M X M 사이즈로 잘라냄으로써(cropping), 관심 영역 이미지를 추출하되, 상기 M은 상기 N * m(단, m은 2 이상의 자연수)인 단계; 및
상기 관심 영역 이미지를 격자 형태로 분할함으로써 복수의 상기 크롭 이미지들을 추출하는 단계를 포함하는,
실물 촬영 이미지 여부 식별 방법.
According to claim 5,
The step of extracting the plurality of cropped images,
extracting a region-of-interest image by cropping the central portion of the original target image to an MXM size, where M is the N*m (where m is a natural number greater than or equal to 2); and
Extracting a plurality of the cropped images by dividing the ROI image in a grid form,
How to identify whether the real-life image is taken.
제5 항에 있어서,
상기 복수의 크롭 이미지는 제1 크롭 이미지를 포함하고,
상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계는,
상기 복수의 크롭 이미지 각각에 대하여, 상기 크롭 이미지의 데이터를 입력 받은 상기 제2 모델의 세부 모델 각각으로부터 출력된 데이터들을 종합하여 상기 크롭 이미지의 클래스를 결정하는 것을 반복하는 단계; 및
상기 반복하는 단계를 통하여 결정된, 상기 복수의 크롭 이미지 각각의 클래스를 종합하여, 상기 제2 출력 데이터를 획득하는 단계를 포함하는,
실물 촬영 이미지 여부 식별 방법.
According to claim 5,
The plurality of cropped images include a first cropped image,
Obtaining second output data from the second model,
For each of the plurality of cropped images, repeating determining a class of the cropped image by integrating data output from each of the detailed models of the second model that has received data of the cropped image; and
Comprising the step of obtaining the second output data by integrating the classes of each of the plurality of cropped images, determined through the repeating step,
How to identify whether the real-life image is taken.
제4 항에 있어서,
상기 제2 모델의 세부 모델 개수는 상기 크롭 이미지의 개수보다 작은,
실물 촬영 이미지 여부 식별 방법.
According to claim 4,
The number of detailed models of the second model is smaller than the number of cropped images,
How to identify whether the real-life image is taken.
제8 항에 있어서,
상기 복수의 크롭 이미지들 각각의 데이터를, 상기 제2 모델의 복수의 세부 모델 각각에 입력하는 단계는,
상기 제2 모델의 각 세부 모델에, 상기 복수의 크롭 이미지들 중 랜덤하게 샘플링된 일부의 크롭 이미지의 데이터를 입력하는 단계를 포함하는,
실물 촬영 이미지 여부 식별 방법.
According to claim 8,
The step of inputting data of each of the plurality of cropped images to each of a plurality of detailed models of the second model,
Including inputting data of randomly sampled partial cropped images among the plurality of cropped images to each detailed model of the second model.
How to identify whether the real-life image is taken.
제1 항에 있어서,
상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 단계는,
상기 제1 출력 데이터에 제1 가중치를 부여하고, 상기 제2 출력 데이터 제2 가중치를 부여하는 단계 및
상기 부여된 가중치에 기초하여, 상기 제1 출력 데이터 및 상기 제2C 출력 데이터를 합산하는 단계를 포함하는,
실물 촬영 이미지 여부 식별 방법.
According to claim 1,
In the step of outputting data on whether the target image is a real-life image,
assigning a first weight to the first output data and assigning a second weight to the second output data; and
Based on the assigned weight, summing the first output data and the 2C output data,
How to identify whether the real-life image is taken.
제10 항에 있어서,
상기 제1 가중치 및 상기 제2 가중치는,
상기 타겟 이미지의 밝기에 기초하여 부여되는 것인,
실물 촬영 이미지 여부 식별 방법.
According to claim 10,
The first weight and the second weight,
Which is given based on the brightness of the target image,
How to identify whether the real-life image is taken.
하나 이상의 프로세서; 및
하나 이상의 인스트럭션들(instructions)을 저장하는 메모리를 포함하고,
상기 하나 이상의 프로세서는,
상기 저장된 하나 이상의 인스트럭션들을 실행시킴으로써,
전체 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득하는 동작;
타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득하는 동작;
상기 타겟 이미지의 일부 영역인 크롭 이미지(cropped image)에 대한 데이터를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 동작; 및
상기 제1 출력 데이터 및 상기 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 동작을 수행하는,
실물 촬영 이미지 여부 식별 시스템.
one or more processors; and
a memory for storing one or more instructions;
The one or more processors,
By executing one or more of the stored instructions,
obtaining a first model learned to determine whether an entire image is a real-photographed image and a second model learned to determine whether a partial image is a real-photographed image;
inputting data of a target image into the first model and obtaining first output data from the first model;
inputting data for a cropped image, which is a partial region of the target image, to the second model, and obtaining second output data from the second model; and
Performing an operation of outputting data on whether the target image is a real-life photographed image by using both the first output data and the second output data,
A system for identifying real-life images.
제12 항에 있어서,
상기 제1 모델로부터 제1 출력 데이터를 획득하는 동작은,
상기 타겟 이미지 원본을 N x N (단 N은 2 이상의 자연수) 사이즈로 축소 리사이징 하는 동작; 및
상기 리사이징 된 타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하는 동작을 포함하는,
실물 촬영 이미지 여부 식별 시스템.
According to claim 12,
Obtaining first output data from the first model,
reducing and resizing the original target image to a size of NxN (where N is a natural number greater than or equal to 2); and
Including the operation of inputting data for the resized target image to the first model,
A system for identifying real-life images.
제13 항에 있어서,
상기 제2 모델로부터 제2 출력 데이터를 획득하는 동작은,
상기 타겟 이미지 원본의 일부 영역인 상기 N x N 사이즈의 상기 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하는 동작을 포함하는,
실물 촬영 이미지 여부 식별 시스템.
According to claim 13,
Obtaining second output data from the second model,
Including an operation of inputting data for the cropped image of size N x N, which is a partial region of the original target image, to the second model,
A system for identifying real-life images.
제14 항에 있어서,
상기 타겟 이미지 원본의 일부 영역인 N x N 사이즈의 상기 크롭 이미지에 대한 데이터를 상기 제2 모델에 입력하는 동작은,
상기 타겟 이미지 원본을 격자 형태로 분할함으로써 복수의 상기 크롭 이미지들을 추출하는 동작; 및
상기 복수의 크롭 이미지들 각각의 데이터를, 상기 제2 모델의 복수의 세부 모델 각각에 입력하는 동작을 포함하는,
실물 촬영 이미지 여부 식별 시스템.
According to claim 14,
The operation of inputting data for the cropped image of size N x N, which is a partial area of the original target image, to the second model,
extracting a plurality of cropped images by dividing the original target image in a grid pattern; and
Including an operation of inputting data of each of the plurality of cropped images to each of a plurality of detailed models of the second model,
A system for identifying real-life images.
제15 항에 있어서,
상기 복수의 상기 크롭 이미지들을 추출하는 동작은,
상기 타겟 이미지 원본의 중심부를 M X M 사이즈로 잘라냄으로써(cropping), 관심 영역 이미지를 추출하되, 상기 M은 상기 N * m(단, m은 2 이상의 자연수)인 동작; 및
상기 관심 영역 이미지를 격자 형태로 분할함으로써 복수의 상기 크롭 이미지들을 추출하는 동작을 포함하는,
실물 촬영 이미지 여부 식별 시스템.
According to claim 15,
The operation of extracting the plurality of cropped images,
extracting a region-of-interest image by cropping the central portion of the original target image to an MXM size, wherein M is the N*m (where m is a natural number greater than or equal to 2); and
Including an operation of extracting a plurality of the cropped images by dividing the ROI image in a grid form,
A system for identifying real-life images.
제15 항에 있어서,
상기 복수의 크롭 이미지는 제1 크롭 이미지를 포함하고,
상기 제2 모델로부터 제2 출력 데이터를 획득하는 동작은,
상기 복수의 크롭 이미지 각각에 대하여, 상기 크롭 이미지의 데이터를 입력 받은 상기 제2 모델의 세부 모델 각각으로부터 출력된 데이터들을 종합하여 상기 크롭 이미지의 클래스를 결정하는 것을 반복하는 동작; 및
상기 반복하는 단계를 통하여 결정된, 상기 복수의 크롭 이미지 각각의 클래스를 종합하여, 상기 제2 출력 데이터를 획득하는 동작을 포함하는,
실물 촬영 이미지 여부 식별 시스템.
According to claim 15,
The plurality of cropped images include a first cropped image,
Obtaining second output data from the second model,
repeating, for each of the plurality of cropped images, determining a class of the cropped image by integrating data output from each of the detailed models of the second model that has received data of the cropped image; and
Comprising an operation of obtaining the second output data by synthesizing each class of the plurality of cropped images determined through the repeating step,
A system for identifying real-life images.
제12 항에 있어서,
상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 동작은,
상기 제1 출력 데이터에 제1 가중치를 부여하고, 상기 제2 출력 데이터 제2 가중치를 부여하는 동작 및
상기 부여된 가중치에 기초하여, 상기 제1 출력 데이터 및 상기 제2 출력 데이터를 합산하는 동작을 포함하는,
실물 촬영 이미지 여부 식별 시스템.
According to claim 12,
The operation of outputting data on whether the target image is a real-life photographed image,
assigning a first weight to the first output data and assigning a second weight to the second output data; and
Based on the assigned weight, adding the first output data and the second output data.
A system for identifying real-life images.
제18 항에 있어서,
상기 제1 가중치 및 상기 제2 가중치는,
상기 타겟 이미지의 밝기에 기초하여 부여되는 것인,
실물 촬영 이미지 여부 식별 시스템.
According to claim 18,
The first weight and the second weight,
Which is given based on the brightness of the target image,
A system for identifying real-life images.
컴퓨팅 장치와 결합되어,
전체 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제1 모델 및 부분 이미지의 실물 촬영 이미지 여부를 판단하도록 학습된 제2 모델을 획득하는 단계;
타겟 이미지에 대한 데이터를 상기 제1 모델에 입력하고, 제1 모델로부터 제1 출력 데이터를 획득하는 단계;
상기 타겟 이미지의 일부 영역인 크롭 이미지(cropped image)에 대한 데이터를 상기 제2 모델에 입력하고, 상기 제2 모델로부터 제2 출력 데이터를 획득하는 단계; 및
상기 제1 출력 데이터 및 상기 제2 출력 데이터를 모두 이용하여, 상기 타겟 이미지가 실물 촬영 이미지인지 여부에 대한 데이터를 출력하는 단계를 실행시키기 위하여 컴퓨터로 판독가능한 기록매체에 저장된,
컴퓨터 프로그램.
Combined with a computing device,
obtaining a first model learned to determine whether an entire image is a real-photographed image and a second model learned to determine whether a partial image is a real-photographed image;
inputting data of a target image into the first model and obtaining first output data from the first model;
inputting data for a cropped image, which is a partial region of the target image, into the second model, and obtaining second output data from the second model; and
Stored in a computer-readable recording medium to execute a step of outputting data on whether the target image is a real-life photographed image by using both the first output data and the second output data,
computer program.
KR1020220083625A 2021-10-27 2022-07-07 Method and system for detecting recaptured image method thereof KR20230060439A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210144391 2021-10-27
KR20210144391 2021-10-27

Publications (1)

Publication Number Publication Date
KR20230060439A true KR20230060439A (en) 2023-05-04

Family

ID=86379694

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220083625A KR20230060439A (en) 2021-10-27 2022-07-07 Method and system for detecting recaptured image method thereof

Country Status (1)

Country Link
KR (1) KR20230060439A (en)

Similar Documents

Publication Publication Date Title
EP3333768A1 (en) Method and apparatus for detecting target
EP2676224B1 (en) Image quality assessment
US8644563B2 (en) Recognition of faces using prior behavior
KR101548928B1 (en) Invariant visual scene and object recognition
JP2015215876A (en) Liveness testing methods and apparatuses, and image processing methods and apparatuses
US11126827B2 (en) Method and system for image identification
CN111611873A (en) Face replacement detection method and device, electronic equipment and computer storage medium
KR20140045897A (en) Device and method for media stream recognition based on visual image matching
JP2012083938A (en) Learning device, learning method, identification device, identification method, and program
JPWO2013122009A1 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
JP2013206458A (en) Object classification based on external appearance and context in image
US20220245803A1 (en) Image enhancement processing method, device, equipment, and medium based on artificial intelligence
CN114067431A (en) Image processing method, image processing device, computer equipment and storage medium
CN112699758A (en) Sign language translation method and device based on dynamic gesture recognition, computer equipment and storage medium
JP5704909B2 (en) Attention area detection method, attention area detection apparatus, and program
JP2007025902A (en) Image processor and image processing method
JP2010176504A (en) Image processor, image processing method, and program
CN108268778B (en) Data processing method, device and storage medium
JP2006323779A (en) Image processing method and device
CN111967529A (en) Identification method, device, equipment and system
JP2007026308A (en) Image processing method and image processor
KR20230060439A (en) Method and system for detecting recaptured image method thereof
US20220122341A1 (en) Target detection method and apparatus, electronic device, and computer storage medium
CN115374517A (en) Testing method and device for wiring software, electronic equipment and storage medium
US11373313B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A201 Request for examination