KR102490136B1 - Paper identification device and method for forgery detection of documents - Google Patents

Paper identification device and method for forgery detection of documents Download PDF

Info

Publication number
KR102490136B1
KR102490136B1 KR1020210076104A KR20210076104A KR102490136B1 KR 102490136 B1 KR102490136 B1 KR 102490136B1 KR 1020210076104 A KR1020210076104 A KR 1020210076104A KR 20210076104 A KR20210076104 A KR 20210076104A KR 102490136 B1 KR102490136 B1 KR 102490136B1
Authority
KR
South Korea
Prior art keywords
image
transmitted light
paper
cnn model
light image
Prior art date
Application number
KR1020210076104A
Other languages
Korean (ko)
Other versions
KR20220167046A (en
Inventor
이중
이가영
강태이
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020210076104A priority Critical patent/KR102490136B1/en
Publication of KR20220167046A publication Critical patent/KR20220167046A/en
Application granted granted Critical
Publication of KR102490136B1 publication Critical patent/KR102490136B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 문서의 위변조 감정을 위한 종이식별 장치 및 그 방법에 대한 것이다.
본 발명에 따른 문서의 위변조 감정을 위한 종이식별 장치는 시판에서 유통되는 브랜드별 종이마다 고유의 지합 패턴을 관찰할 수 있는 투과광 이미지를 획득하는 이미지 획득부, 상기 획득한 투과광 이미지에 푸리에 변환(Fourier transform)을 적용하여 FFT 이미지를 획득하는 이미지 변환부, 입력된 영상을 분석하여 영상에 포함된 특징을 이용하여 종이를 분석하도록 하는 CNN 모델을 구축하고, 상기 구축된 CNN 모델에 상기 투과광 이미지와 상기 FFT 이미지를 각각의 입력값으로 하여 학습시키는 학습부, 그리고 분석하고자 하는 종이 시료에 적외선을 투과하여 획득한 투과광 이미지와 상기 투과광 이미지로부터 획득한 FFT 이미지를 학습이 완료된 복수의 상기 CNN 모델에 각각 입력하고, 상기 복수의 CNN 모델로부터 도출된 각각의 값을 비교하여 위변조 여부를 판단하는 판단부를 포함한다.
본 발명에 따르면, 투과광 이미지를 통해 반복적 격자 패턴의 관찰이 어려운 종이도 위변조 여부를 판단할 수 있으며, 딥러닝 기반의 CNN 모델을 이용하므로 비파괴 방법을 통해 지류의 위변조 여부를 예측할 수 있다.
The present invention relates to a paper identification device and method for forgery detection of documents.
According to the present invention, the paper identification device for detecting forgery of a document includes an image acquisition unit that acquires a transmitted light image capable of observing a unique formation pattern for each brand of paper sold in the market, and a Fourier transform (Fourier transform) on the obtained transmitted light image. transform) to obtain an FFT image, an image conversion unit that analyzes the input image and builds a CNN model that analyzes the paper using features included in the image, and builds the transmitted light image and the A learning unit that learns the FFT image as each input value, and the transmitted light image obtained by passing infrared rays through the paper sample to be analyzed and the FFT image obtained from the transmitted light image Input to the plurality of CNN models on which learning has been completed, respectively and a determination unit for comparing each value derived from the plurality of CNN models to determine whether forgery or alteration is present.
According to the present invention, it is possible to determine forgery even in paper where it is difficult to observe a repetitive grid pattern through a transmitted light image, and since a deep learning-based CNN model is used, it is possible to predict whether a paper stream is forged or altered through a non-destructive method.

Description

문서의 위변조 감정을 위한 종이식별 장치 및 그 방법{Paper identification device and method for forgery detection of documents}Paper identification device and method for forgery detection of documents

본 발명은 문서의 위변조 감정을 위한 종이식별 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 적외선 투과광 이미지 및 FFT 변환 이미지를 학습이 완료된 CNN 모델에 입력하여 복사지를 식별함으로써, 문서의 위변조 여부를 감정할 수 있는 종이식별 장치 및 그 방법에 관한 것이다. The present invention relates to a paper identification device and method for detecting forgery of a document, and more particularly, by inputting an infrared transmitted light image and an FFT converted image to a trained CNN model to identify copy paper, thereby determining whether a document is forged or altered. It relates to a paper identification device capable of performing the same and a method therefor.

사무자동화기기의 발달에 따라 정교하게 위조나 변조된 문서를 일반인들도 쉽게 제작할 수 있으며, 이러한 제작방식은 범죄에 직간접적으로 이용되고 있다. 이와 같은 위/변조 범죄 수사 및 관련 증거물의 분석을 위하여 법과학적 관점에서 다양한 분석기법들이 수립되어야 한다. With the development of office automation equipment, even ordinary people can easily produce elaborately forged or falsified documents, and this production method is directly or indirectly used in crime. For the investigation of such forgery/falsification crimes and the analysis of related evidence, various analysis techniques must be established from the viewpoint of forensic science.

그러나 법과학적 관점에서 문서감정 기법 정립은 쉽지만은 않다. 그 이유 중 하나는 분석 시료를 훼손 하지 않거나 훼손을 최소화해야만 하기 때문이다.However, it is not easy to establish a document appraisal technique from a forensic scientific point of view. One of the reasons for this is that the analyte must not be damaged or damage must be minimized.

문서감정의 분석 시료는 분석 후에도 대부분 이해 관계 당사자 간 재판을 위한 법적 근거 자료로 사용되거나 추후 재분석 가능성이 있는 것들로 감정 외에도 다른 쟁점을 위하여 사용될 경우가 많다. 그러나, 분석 과정에서 훼손된 문서는 실제 감정에서 사용하지 못하는 경우가 대부분이므로 비파괴 분석으로 수행되는 것이 일반적이다. Most of the analysis samples of document appraisal are used as legal basis data for a trial between interested parties after analysis, or are likely to be re-analyzed later, and are often used for other issues besides appraisal. However, in most cases, documents damaged in the analysis process cannot be used in actual appraisal, so it is common to perform non-destructive analysis.

한편, 문서의 위변조에 대한 분석 방법에 있어서 가장 기본적인 것은 종이 분석에 관한 것이다. 즉, 종이를 분류하거나 더 나아가 제조사 등을 식별할 수 있다면 그것만으로도 위/변조 여부를 규명하고 수사에 큰 도움을 줄 수 있다On the other hand, the most basic analysis method for document forgery relates to paper analysis. In other words, if the paper can be classified or the manufacturer can be identified, it can be of great help to the investigation by identifying forgery/falsification.

종이 분석 방법에는 성분 및 물리적 특성을 이용한 파괴적 방법과 복사지의 색상과 표면 특징을 분석하여 광학적 분류를 하는 비파괴적 방법을 포함한다. Paper analysis methods include destructive methods using components and physical properties and non-destructive methods of optical classification by analyzing the color and surface characteristics of copying paper.

비파괴 방법은 실제 감정에 사용 가능하다. 그러나 실제감정에서 시료의 오염 정도 및 문서 제작 후 시간 경과에 의한 색상의 변화 등 다양한 요인들이 존재하기 때문에 이러한 분석 방법은 제한적으로 사용되는 문제점이 있었다. Non-destructive methods can be used for real appraisal. However, since there are various factors such as the degree of contamination of the sample in the actual appraisal and the change in color due to the passage of time after document production, this analysis method has a problem of limited use.

따라서, 오염 및 잉크류로 문자가 기재된 시료 등의 제약이 없이 비파괴 분석 가능한 방법으로 시판 복사용지의 제조사 식별 가능한 방법을 필요로 하고 있다. Therefore, there is a need for a method capable of identifying the manufacturer of commercially available copy paper by a non-destructive analysis method without restrictions such as contamination and samples written with characters in ink.

대한민국 등록특허공보 제10-1573857호(2015.12.04. 공고)Republic of Korea Patent Registration No. 10-1573857 (2015.12.04. Notice)

본 발명이 이루고자 하는 기술적 과제는 적외선 투과광 이미지 및 FFT 변환 이미지를 학습이 완료된 CNN 모델에 입력하여 복사지를 식별함으로써, 문서의 위변조 여부를 감정할 수 있는 종이식별 장치 및 그 방법을 제공하기 위한 것이다.A technical problem to be achieved by the present invention is to provide a paper identification device and method capable of determining whether a document is forged or altered by inputting an infrared transmitted light image and an FFT converted image to a trained CNN model to identify copy paper.

이러한 기술적 과제를 이루기 위한 본 발명의 실시예에 따른 문서의 위변조 감정을 위한 종이식별 장치는 시판에서 유통되는 브랜드별 종이마다 고유의 지합 패턴을 관찰할 수 있는 투과광 이미지를 획득하는 이미지 획득부, 상기 획득한 투과광 이미지에 푸리에 변환(Fourier transform)을 적용하여 FFT 이미지를 획득하는 이미지 변환부, 입력된 영상을 분석하여 영상에 포함된 특징을 이용하여 종이를 분석하도록 하는 CNN 모델을 구축하고, 상기 구축된 CNN 모델에 상기 투과광 이미지와 상기 FFT 이미지를 각각의 입력값으로 하여 학습시키는 학습부, 그리고 분석하고자 하는 종이 시료에 적외선을 투과하여 획득한 투과광 이미지와 상기 투과광 이미지로부터 획득한 FFT 이미지를 학습이 완료된 복수의 상기 CNN 모델에 각각 입력하고, 상기 복수의 CNN 모델로부터 도출된 각각의 값을 비교하여 위변조 여부를 판단하는 판단부를 포함한다. In order to achieve this technical problem, the paper identification device for forgery detection of a document according to an embodiment of the present invention includes an image acquisition unit for acquiring a transmitted light image capable of observing a unique formation pattern for each brand of paper distributed in the market, the above An image conversion unit that obtains an FFT image by applying a Fourier transform to the obtained transmitted light image, and a CNN model that analyzes the input image and analyzes the paper using features included in the image, and constructs the above construction. Learning unit for learning the transmitted light image and the FFT image as respective input values to the CNN model, and learning the transmitted light image obtained by transmitting infrared rays through the paper sample to be analyzed and the FFT image obtained from the transmitted light image and a determination unit for determining whether forgery is falsified by inputting each of the plurality of completed CNN models and comparing each value derived from the plurality of CNN models.

상기 이미지 변환부는, 하기의 수학식을 이용하여 상기 투과광 이미지에 대한 푸리에 변환(Fourier transform)을 수행하고, The image conversion unit performs a Fourier transform on the transmitted light image using the following equation,

Figure 112021067656995-pat00001
Figure 112021067656995-pat00001

(여기서,

Figure 112021067656995-pat00002
는 x축 방향으로 주파수가 u/W, y축 방향으로 주파수가 v/H인 sinusoidal 주기함수를 나타낸다)(here,
Figure 112021067656995-pat00002
represents a sinusoidal periodic function with a frequency u/W in the x-axis direction and a frequency v/H in the y-axis direction)

상기 푸리에 변환(Fourier transform)을 통해 획득한 픽셀값(H(u,v)을 이용하여 푸리에 스펙트럼을 획득할 수 있다. A Fourier spectrum may be obtained using the pixel value H(u,v) obtained through the Fourier transform.

상기 이미지 변환부는, 상기 획득한 푸리에 스펙트럼을 이용하여 피크부분에 해당하는 저주파 영역을 획득하고, 상기 저주파 영역을 삭제한 다음, 푸리에 역변환을 하여 FFT 이미지를 획득할 수 있다. The image conversion unit may acquire a low-frequency region corresponding to a peak portion using the acquired Fourier spectrum, delete the low-frequency region, and perform an inverse Fourier transform to obtain an FFT image.

상기 학습부는, 상기 FFT 이미지로부터 일정한 크기를 갖는 이미지를 잘라내기 형태로 추출하되, 이를 복수 회 반복하여 상기 FFT 이미지에 대한 데이터를 증강시킨 다음, 상기 투과광 이미지와 증강된 상기 FFT 이미지를 이용하여 데이터셋을 생성할 수 있다. The learning unit extracts an image having a certain size from the FFT image in a cropped form, repeats this process a plurality of times to augment data for the FFT image, and then uses the transmitted light image and the augmented FFT image to extract the data. You can create three.

상기 학습부는, 상기 투과광 이미지를 이용하여 생성된 제1 데이터셋을 이용하여 제1 CNN 모델을 학습시키고, 상기 FFT 이미지를 이용하여 생성된 제2 데이터셋을 이용하여 제2 CNN 모델을 학습시킬 수 있다. The learning unit may train a first CNN model using a first dataset generated using the transmitted light image and a second CNN model using a second dataset generated using the FFT image. there is.

상기 판단부는, 감정하고자 하는 종이를 촬영하여 획득한 투과광 이미지와 상기 투과광 이미지로부터 획득한 FFT 이미지를 학습이 완료된 상기 제1 CNN 모델 및 상기 제2 CNN 모델에 각각 입력하여, 상기 제1 CNN 모델로부터 획득한 결과값과 제2 CNN 모델로부터 획득한 결과값을 상호 비교하여 위변조 여부를 판단할 수 있다. The determination unit inputs a transmitted light image obtained by photographing the paper to be evaluated and an FFT image obtained from the transmitted light image to the first CNN model and the second CNN model on which learning has been completed, respectively, and obtains information from the first CNN model. It is possible to determine forgery or alteration by comparing the obtained result value with the result value obtained from the second CNN model.

상기 판단부는, 하기의 수학식을 이용하여 상기 제1 CNN 모델 및 상기 제2 CNN 모델로부터 각각의 결과값(wi)을 획득할 수 있다. The determination unit may obtain each result value wi from the first CNN model and the second CNN model using the following equation.

Figure 112021067656995-pat00003
Figure 112021067656995-pat00003

상기 판단부는, 상기 제1 CNN 모델로부터 획득한 결과값과 상기 제2 CNN 모델로부터 획득한 결과값이 동일하면, 획득한 결과값을 최종 결과로 도출하고, 상기 제1 CNN 모델로부터 획득한 결과값과 상기 제2 CNN 모델로부터 획득한 결과값이 상이하면, 종이의 다른 부분을 입력 받아 동일한 결과값이 도출될 때까지 반복적으로 결과값을 도출할 수 있다. If the result obtained from the first CNN model and the result value obtained from the second CNN model are the same, the determination unit derives the obtained result value as a final result, and the result value obtained from the first CNN model. If the result value obtained from the second CNN model is different from that of the second CNN model, another part of the paper may be input and the result value may be repeatedly derived until the same result value is derived.

또한, 본 발명의 실시예에 따른 종이식별 장치를 이용한 종이 식별 방법에 있어서, 시판에서 유통되는 브랜드별 종이마다 고유의 지합 패턴을 관찰할 수 있는 투과광 이미지를 획득하는 단계, 상기 획득한 투과광 이미지에 푸리에 변환(Fourier transform)을 적용하여 FFT 이미지를 획득하는 단계, 입력된 영상을 분석하여 영상에 포함된 특징을 이용하여 종이를 분석하도록 하는 CNN 모델을 구축하고, 상기 구축된 CNN 모델에 상기 투과광 이미지와 상기 FFT 이미지를 각각의 입력값으로 하여 학습시키는 단계, 그리고 분석하고자 하는 종이 시료에 적외선을 투과하여 획득한 투과광 이미지와 상기 투과광 이미지로부터 획득한 FFT 이미지를 학습이 완료된 복수의 상기 CNN 모델에 각각 입력하고, 상기 복수의 CNN 모델로부터 도출된 각각의 값을 비교하여 위변조 여부를 판단하는 단계를 포함한다. In addition, in the paper identification method using the paper identification device according to an embodiment of the present invention, the step of acquiring a transmitted light image from which a unique formation pattern can be observed for each brand of paper distributed in the market, Acquiring an FFT image by applying a Fourier transform, analyzing the input image and constructing a CNN model to analyze the paper using features included in the image, and using the built CNN model to transmit the transmitted light image. And learning the FFT image as each input value, and transmitting the transmitted light image obtained by passing infrared rays through the paper sample to be analyzed and the FFT image obtained from the transmitted light image to the plurality of CNN models on which learning has been completed, respectively input, and comparing each value derived from the plurality of CNN models to determine whether forgery or alteration is present.

이와 같이 본 발명에 따르면, 투과광 이미지를 통해 반복적 격자 패턴의 관찰이 어려운 종이도 위변조 여부를 판단할 수 있으며, 딥러닝 기반의 CNN 모델을 이용하므로 비파괴 방법을 통해 지류의 위변조 여부를 예측할 수 있다. As such, according to the present invention, it is possible to determine whether or not paper is forged or falsified even if it is difficult to observe a repetitive grid pattern through a transmitted light image, and since a deep learning-based CNN model is used, it is possible to predict forgery or falsification of paper streams through a non-destructive method.

도 1은 본 발명의 실시예에 따른 종이식별 장치를 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 종이식별 장치를 이용하여 종이를 식별하는 방법을 설명하기 위한 순서도이다.
도 3은 제조사마다 상이하게 나타나는 지합 패턴을 설명하기 위한 예시도이다.
도 4는 도 2에 도시된 S220단계에서 획득한 FFT 이미지 변환 과정을 설명한 예시도이다.
도 5는 도 2에 도시된 S220단계에서 FFT 변환하여 주기적 성분의 존재 여부를 관찰한 결과를 나타내는 예시도이다.
도 6는 도 2에 도시된 S230단계에서 구축된 CNN 모델을 설명하기 위한 예시도이다.
1 is a configuration diagram for explaining a paper identification device according to an embodiment of the present invention.
2 is a flowchart illustrating a method of identifying paper using a paper identification device according to an embodiment of the present invention.
3 is an exemplary diagram for explaining formation patterns that appear differently for each manufacturer.
FIG. 4 is an exemplary view illustrating a process of converting an FFT image obtained in step S220 shown in FIG. 2 .
FIG. 5 is an exemplary view showing a result of observing whether a periodic component is present or not by performing FFT conversion in step S220 shown in FIG. 2 .
FIG. 6 is an exemplary view for explaining the CNN model built in step S230 shown in FIG. 2 .

이하 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In this process, the thickness of lines or the size of components shown in the drawings may be exaggerated for clarity and convenience of description.

또한 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서, 이는 측정 대상자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or practice of a measurement target or operator. Therefore, definitions of these terms will have to be made based on the content throughout this specification.

이하에서는 도 1을 이용하여 본 발명의 실시예에 따른 종이식별 장치(100)에 대해 더욱 상세하게 설명한다. Hereinafter, the paper identification device 100 according to an embodiment of the present invention will be described in more detail with reference to FIG. 1 .

도 1은 본 발명의 실시예에 따른 종이식별 장치를 설명하기 위한 구성도이다. 1 is a configuration diagram for explaining a paper identification device according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따르면 종이식별 장치(100)는 이미지 획득부(110), 이미지 변환부(120), 학습부(130) 및 판단부(140)를 포함한다. As shown in FIG. 1, according to an embodiment of the present invention, the paper identification device 100 includes an image acquisition unit 110, an image conversion unit 120, a learning unit 130, and a determination unit 140. .

먼저, 이미지 획득부(110)는 투과광 이미지를 획득한다. First, the image acquisition unit 110 acquires a transmitted light image.

이를 다시 설명하면, 사용자는 종이의 표면을 관찰하기 위하여 적외선 또는 자외선을 투과한 상태에서 종이를 촬영하여 투과광 이미지를 획득한다. 그리고, 획득한 투과광 이미지는 종이식별 장치(100)에 전달된다. In other words, in order to observe the surface of the paper, the user acquires a transmitted light image by photographing the paper in a state in which infrared or ultraviolet light is transmitted. Then, the acquired transmitted light image is transferred to the paper identification device 100 .

그 다음, 이미지 변환부(120)는 수신된 투과광 이미지에 푸리에 변환(Fourier transform)을 적용하여 FFT 이미지로 변환시킨다. Next, the image conversion unit 120 converts the received transmitted light image into an FFT image by applying a Fourier transform.

이미지 변환부(120)는 투과광 이미지의 x축 또는 y축을 시간축으로 놓고 좌표의 변화에 따라 변하는 이미지 픽셀의 밝기 변화를 신호로 해석한다. 즉, 이미지 변환부(120)는 투과광 이미지로부터 도출된 푸리에 변환 계수를 이용하여 푸리에 스펙트럼을 획득한다. 한편, FFT변환을 하면 원점 H(0, 0) 주변의 저주파 영역에서 강한 피크(peak)가 나타나고 원점에서 멀어질수록 즉, 고주파 영역으로 갈수록 값이 급격히 작아지는 형태를 갖는다. 반복적인 패턴이 없는 이미지는 저주파영역에서만 강한 피크점이 나타나고 멀어질수록 급격하게 0으로 수렴한다. 그러나 이미지 내에 반복적인 패턴이 존재할 경우, 고주파 영역에서도 강한 피크가 발생된다. 따라서, 이미지 변환부(120)는 푸리에 스펙트럼에서 나타난 저주파 영역인 중심부분을 제거하고 남아있는 성분 중 역치 이상의 값만 추출하여 FFT 이미지를 획득한다. The image conversion unit 120 sets the x-axis or the y-axis of the transmitted light image as a time axis and interprets a change in brightness of an image pixel that changes according to a change in coordinate as a signal. That is, the image converter 120 obtains a Fourier spectrum by using a Fourier transform coefficient derived from the transmitted light image. On the other hand, when FFT conversion is performed, a strong peak appears in the low-frequency region around the origin H (0, 0), and the value rapidly decreases as the distance from the origin increases, that is, toward the high-frequency region. In the image without repetitive patterns, a strong peak appears only in the low-frequency region and rapidly converges to 0 as the distance increases. However, when a repetitive pattern exists in an image, a strong peak is generated even in a high frequency region. Accordingly, the image conversion unit 120 removes the central portion, which is a low-frequency region shown in the Fourier spectrum, and extracts only values greater than or equal to a threshold value among the remaining components to obtain an FFT image.

그 다음, 학습부(130)는 투과광 이미지를 이용하여 제1 데이터셋을 생성하고, 획득한 FFT 이미지를 이용하여 제2 데이터셋을 생성한다. 그리고, 학습부(130)는 제1 데이터셋을 이용하여 구축된 제1 CNN모델을 학습시키고, 제2 데이터셋을 이용하여 구축된 제2 CNN모델을 학습시킨다. Next, the learning unit 130 generates a first dataset using the transmitted light image, and generates a second dataset using the acquired FFT image. Then, the learning unit 130 trains the first CNN model built using the first dataset and the second CNN model built using the second dataset.

학습이 완료된 상태에서 감정하고자 하는 투과광 이미지를 수신하면, 판단부(140)는 수신된 투과광 이미지와 투과광 이미지로부터 획득한 FFT 이미지를 제1 CNN모델 및 제2 CNN모델에 입력하여 각각의 결과값을 획득한다. 그리고, 판단부(140)는 제1 CNN모델로부터 획득한 결과값과 제2 CNN모델로부터 획득한 결과값을 비교하여 두 결과가 동일할 경우 최종 결과를 도출한다. When the transmitted light image to be evaluated is received in a state in which learning is completed, the determination unit 140 inputs the received transmitted light image and the FFT image obtained from the transmitted light image to the first CNN model and the second CNN model to obtain respective result values. Acquire Then, the determination unit 140 compares the result value obtained from the first CNN model and the result value obtained from the second CNN model, and derives a final result when the two results are the same.

이하에서는 도 2 내지 도 6을 이용하여 본 발명의 실시예에 따른 종이식별 장치를 이용한 종이 식별 방법에 대해 더욱 상세하게 설명한다. Hereinafter, a paper identification method using a paper identification device according to an embodiment of the present invention will be described in more detail with reference to FIGS. 2 to 6 .

도 2는 본 발명의 실시예에 따른 종이식별 장치를 이용하여 종이를 식별하는 방법을 설명하기 위한 순서도이다. 2 is a flowchart illustrating a method of identifying paper using a paper identification device according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 본 발명의 실시예에 따른 종이식별 장치(100)를 이용한 종이 식별 방법은 학습하는 단계와 종이 식별 단계로 구분된다. As shown in FIG. 2 , the paper identification method using the paper identification device 100 according to an embodiment of the present invention is divided into a learning step and a paper identification step.

먼저, 학습하는 단계를 살펴보면, 종이식별 장치(100)는 종이의 투과광 이미지를 수신한다(S210).First, looking at the learning step, the paper identification device 100 receives the transmitted light image of the paper (S210).

제조사 종이마다 투과광을 이용하여 시료의 표면을 관찰하면, 각 시료마다 고유의 짜임 패턴이 관찰되며, 이러한 짜임새를 지합이라고 한다. 지합은 제조공정 특히 공장의 제조라인 구성으로부터 가장 많은 영향을 받으며 그 외 성분의 결합 비율 등에 의하여 그 차이가 나타난다. When the surface of a sample is observed using transmitted light for each manufacturer's paper, a unique weave pattern is observed for each sample, and this weave is called formation. Formation is most affected by the manufacturing process, especially the composition of the manufacturing line in the factory, and the difference is shown by the combination ratio of other components.

제지회사의 제조 공정 특히 공장의 제조라인은 거대한 하나의 유기적 장치로 한 번 구성되면 변화하기 어렵기 때문에 오랜 기간 동안 그 고유성을 유지할 수 있다. 이 고유성은 지합 특성으로 나타난다. The manufacturing process of a paper company, especially the production line of a factory, can maintain its uniqueness for a long period of time because it is difficult to change once it is composed of a huge organic device. This uniqueness is expressed as a formation characteristic.

도 3은 제조사마다 상이하게 나타나는 지합 패턴을 설명하기 위한 예시도이다. 3 is an exemplary diagram for explaining formation patterns that appear differently for each manufacturer.

도 3에 도시된 바와 같이, 투과광 이미지에는 브랜드 별로 각각 고유의 지합 패턴을 포함한다. 따라서, 이미지 획득부(110)는 지합 패턴을 관찰할 수 있는 투과광 이미지를 획득한다.As shown in FIG. 3, the transmitted light image includes a unique formation pattern for each brand. Accordingly, the image acquisition unit 110 acquires a transmitted light image through which the formation pattern can be observed.

그 다음, 이미지 변환부(120)는 획득한 투과광 이미지에 푸리에 변환(Fourier transform)을 적용하여 FFT 이미지를 획득한다(S220). Next, the image conversion unit 120 acquires an FFT image by applying a Fourier transform to the acquired transmitted light image (S220).

먼저, 이미지 변환부(120)는 하기의 수학식 1을 이용하여 투과광 이미지에 대한 푸리에 변환 계수(H(u,v))를 획득한다. First, the image converter 120 obtains a Fourier transform coefficient (H(u,v)) for a transmitted light image using Equation 1 below.

Figure 112021067656995-pat00004
Figure 112021067656995-pat00004

여기서, 여기서 H(u, v)는 x축 방향으로 주파수(frequency) u, y축 방향으로 v인 주기함수 성분의 계수이다 Here, H(u, v) is the coefficient of the periodic function component with frequency u in the x-axis direction and v in the y-axis direction.

다만, 이미지는 연속(continuous)이 아닌 이산(discrete) 신호이고, 한정된 유한(finite) 구간에서 정의되는 신호이다.However, the image is a discrete signal rather than a continuous signal, and is a signal defined in a limited finite period.

따라서, 이미지 변환부(120)는 하기의 수학식 2에 의해 푸리에 변환 계수를 산출한다. Accordingly, the image transform unit 120 calculates the Fourier transform coefficient by Equation 2 below.

Figure 112021067656995-pat00005
Figure 112021067656995-pat00005

여기서,

Figure 112021067656995-pat00006
는 x축 방향으로 주파수가 u/W, y축 방향으로 주파수가 v/H인 sinusoidal 주기함수를 나타낸다. here,
Figure 112021067656995-pat00006
represents a sinusoidal periodic function with a frequency u/W in the x-axis direction and a frequency v/H in the y-axis direction.

도 4는 도 2에 도시된 S220단계에서 획득한 FFT 이미지 변환 과정을 설명한 예시도이다. FIG. 4 is an exemplary view illustrating a process of converting an FFT image obtained in step S220 shown in FIG. 2 .

도 4에 도시된 바와 같이, 투과광 이미지에 푸리에 변환을 적용하면, 원점 H(0, 0) 주변의 저주파 영역에서 강한 피크(peak)가 나타나고 원점에서 멀어질수록 즉, 고주파 영역으로 갈수록 값이 급격히 작아지는 형태를 갖는다. 반복적인 패턴이 없는 이미지는 저주파영역에서만 강한 피크점이 나타나고 멀어질수록 급격하게 0으로 수렴한다. 그러나 이미지 내에 반복적인 패턴이 존재할 경우, 고주파 영역에서도 강한 피크가 보인다.As shown in FIG. 4, when Fourier transform is applied to the transmitted light image, a strong peak appears in the low-frequency region around the origin H (0, 0), and the value rapidly increases as the distance from the origin increases, that is, toward the high-frequency region. has a smaller form. In the image without repetitive patterns, a strong peak appears only in the low-frequency region and rapidly converges to 0 as the distance increases. However, when a repetitive pattern exists in an image, a strong peak is seen even in a high frequency region.

따라서, 이미지 변환부(120)는 지합패턴이 잘 나타나도록 FFT 병환 영상의 중심 부분을 추출하고, 추출된 중심 부분을 제거하고 남아있는 성분 중 역치 이상의 값만 추출한다. Accordingly, the image conversion unit 120 extracts the central portion of the FFT disease image so that the matching pattern appears well, removes the extracted central portion, and extracts only values greater than or equal to a threshold value among the remaining components.

도 5는 도 2에 도시된 S220단계에서 FFT 변환하여 주기적 성분의 존재 여부를 관찰한 결과를 나타내는 예시도이다. FIG. 5 is an exemplary view showing a result of observing whether a periodic component is present or not by performing FFT conversion in step S220 shown in FIG. 2 .

도 5에 도시된 바와 같이, 본 발명의 실시예에서의 이미지 변환부(120)는 도 3에 도시된 7개의 투과광 이미지에 푸리에 변환을 적용하여 주기적 성분의 존재여부를 관찰한 결과 3, 4, 6, 7번에서는 명확한 구분점을 확인되었으나, 나머지 종이에서는 미약하게 관찰되었다. As shown in FIG. 5, the image conversion unit 120 in the embodiment of the present invention applies Fourier transform to the seven transmitted light images shown in FIG. In Nos. 6 and 7, a clear dividing point was confirmed, but it was weakly observed in the remaining papers.

그 다음, 학습부(130)는 S210단계에서 획득한 투과광 이미지를 이용하여 제1 데이터셋을 생성하고, S220단계에서 획득한 FFT 이미지를 이용하여 제2 데이터셋을 생성하고, 생성된 제1 데이터셋과 제2 데이터셋을 이용하여 기 구축된 CNN 모델을 학습시킨다(S230). Next, the learning unit 130 generates a first dataset using the transmitted light image obtained in step S210, generates a second dataset using the FFT image obtained in step S220, and generates the first data. A pre-built CNN model is trained using the set and the second dataset (S230).

자세히는, 학습부(130)는 300 x 300의 투과광 이미지로부터 무작위 위치에서 250 x 250 의 이미지를 크롭핑한다. 이를 대략 20회 반복하여 투과광 이미지에 대한 데이터를 증강시킨다. In detail, the learning unit 130 crops a 250 x 250 image at a random position from a 300 x 300 transmitted light image. This is repeated about 20 times to augment the data for the transmitted light image.

또한, 학습부(130)는 300 x 300 의 FFT 이미지로부터 무작위 위치에서 112 x 112의 이미지를 크롭핑한다. 이를 대략 20회 반복하여 FFT 이미지에 대한 데이터를 증강시킨다. Also, the learning unit 130 crops a 112 x 112 image at a random location from a 300 x 300 FFT image. This is repeated approximately 20 times to augment the data for the FFT image.

그 다음, 학습부(130)는 증강된 투과광 이미지에 대한 데이터 중에서 무작위로 추출하여 제1 데이터 셋을 형성하고, 증강된 FFT 이미지에 대한 데이터 중에서 무작위로 추출하여 제2 데이터 셋을 형성한다. Next, the learning unit 130 randomly extracts data for the augmented transmitted light image to form a first data set, and randomly extracts data for the augmented FFT image to form a second data set.

그리고, 학습부(130)는 제1 데이터셋과 제2 데이터셋을 이용하여 기 구축된 CNN 모델을 학습시킨다. Then, the learning unit 130 learns the previously built CNN model using the first dataset and the second dataset.

부연하자면, 학습부(130)는 CNN(Convolution Neural Network)을 구축한다. 구축된 CNN 모델은 영상 또는 이미지에서 고유한 특징을 찾아내고 새로운 영상이 입력되었을 경우 미리 학습된 고유 특징을 기반으로 가장 유사한 특징을 매칭하여 자동으로 분류한다. To elaborate, the learning unit 130 constructs a Convolution Neural Network (CNN). The built CNN model finds unique features in a video or image, and when a new image is input, it automatically classifies by matching the most similar features based on the pre-learned unique features.

도 6는 도 2에 도시된 S230단계에서 구축된 CNN 모델을 설명하기 위한 예시도이다. FIG. 6 is an exemplary view for explaining the CNN model built in step S230 shown in FIG. 2 .

도 6에 도시된 바와 같이, 학습부(130)는 ResNet50을 기반으로 하는 CNN 모델을 구축한다. As shown in FIG. 6, the learning unit 130 builds a CNN model based on ResNet50.

본 발명의 실시예에 따른 ResNet50을 기반으로 하는 CNN 모델은 예측 값과 실제 레이블 값 사이의 오류를 계산하기 위해 손실 함수를 사용하며, 하기의 수학식 3을 이용하여 CNN 모델의 최종 출력단을 변형시킨다. The CNN model based on ResNet50 according to an embodiment of the present invention uses a loss function to calculate the error between the predicted value and the actual label value, and transforms the final output stage of the CNN model using Equation 3 below. .

Figure 112021067656995-pat00007
Figure 112021067656995-pat00007

그리고, CNN 모델은 변형된 최종 출력단을 이용하여 하기의 수학식 4와 같이 최고 기대값을 추출한다. Then, the CNN model extracts the highest expected value as shown in Equation 4 below using the modified final output stage.

Figure 112021067656995-pat00008
Figure 112021067656995-pat00008

그리고, 학습부(130)는 구축된 제1 CNN 모델에 제1 데이터셋을 입력하여 학습시키고, 제2 CNN 모델에 제2 데이터셋을 입력하여 학습시킨다. Then, the learning unit 130 inputs the first data set to the built first CNN model for learning, and inputs the second data set to the second CNN model for learning.

제1 CNN 모델과 제2 CNN 모델은 상기 기재된 바와 같이, ResNet50을 기반으로 하는 CNN 모델이다. 다만, 입력되는 영상의 크기 및 종류가 상이하므로 훈련되는 네트워크 및 출력의 정확도가 상이하므로, 입력된 영상에 따라 제1 CNN 모델와 제2 CNN 모델로 구분하여 설명한다. As described above, the first CNN model and the second CNN model are CNN models based on ResNet50. However, since the sizes and types of the input images are different, the network to be trained and the accuracy of the output are different, so the first CNN model and the second CNN model are classified and described according to the input images.

S230단계가 완료되면, 판단부(140)는 식별하고자 하는 종이의 투과광 이미지를 수신한다(S240). When step S230 is completed, the determination unit 140 receives the transmitted light image of the paper to be identified (S240).

이때, 수신된 투과광 이미지는 300x300의 gray 영상으로 형성된다. At this time, the received transmitted light image is formed as a 300x300 gray image.

그 다음, 판단부(140)는 수신된 투과광 이미지에 푸리에 변환을 적용하여 획득한 FFT 이미지를 수신한다(S250). Next, the determination unit 140 receives an FFT image obtained by applying a Fourier transform to the received transmitted light image (S250).

부연하자면, 판단부(140)는 S220단계와 동일한 방법으로 생성된 FFT 이미지를 수신한다. 즉, 이미지 변환부(120)는 300x300의 gray 영상에 푸리에 변환을 적용하여 FFT 변환 이미지를 획득하고, 획득한 FFT 변환 이미지로부터 주기적 성분을 추출하여 최종적으로 FFT 이미지를 획득한다. In other words, the determination unit 140 receives the FFT image generated in the same way as in step S220. That is, the image conversion unit 120 obtains an FFT-converted image by applying a Fourier transform to a 300x300 gray image, extracts periodic components from the obtained FFT-converted image, and finally acquires an FFT image.

그 다음, 판단부(140)는 학습이 완료된 제1 CNN 모델 및 제2 CNN 모델에 획득한 투과광 이미지 및 FFT 이미지를 입력하여 결과값을 획득한다(S260).Next, the determination unit 140 inputs the acquired transmitted light image and the FFT image to the first CNN model and the second CNN model for which learning has been completed, and obtains a result value (S260).

이를 다시 설명하면, 판단부(140)는 획득한 투과광 이미지로부터 50회 반복하여 크롭핑을 수행한다. 그러면, 판단부(140)는 50개의 투과광 이미지를 제1 CNN 모델에 입력하고, 제1 CNN 모델은 수학식 4를 통해 투과광 이미지에 대한 결과값을 추출한다. To explain this again, the determination unit 140 repeatedly performs cropping on the obtained transmitted light image 50 times. Then, the determination unit 140 inputs 50 transmitted light images to the first CNN model, and the first CNN model extracts a resultant value for the transmitted light image through Equation 4.

또한, 판단부(140)는 획득한 FFT 이미지로부터 50회 반복하여 크롭핑을 수행하고, 크롭핑하여 획득한 50개의 FFT 이미지를 제2 CNN 모델에 입력한다. 그러면, 제2 CNN 모델은 수학식 4를 통해 FFT 이미지에 대한 결과값을 추출한다. In addition, the determination unit 140 repeats cropping 50 times from the obtained FFT image, and inputs the 50 FFT images obtained by cropping to the second CNN model. Then, the second CNN model extracts the result value for the FFT image through Equation 4.

그 다음, 판단부(140)는 제1 CNN 모델로부터 획득한 결과값과 제2 CNN 모델로부터 획득한 결과값을 서로 비교하고, 비교한 결과 동일한 값이면 해당 결과값을 최종 결과값으로 도출한다. Then, the determination unit 140 compares the result value obtained from the first CNN model and the result value obtained from the second CNN model, and derives the result value as the final result value if the result of the comparison is the same.

반편에 상이한 값이면, 판단부(140)는 식별하고자 하는 종이의 다른 부분에 대한 투과광 이미지 또는 FFT 이미지를 제1 CNN 모델 및 제2 CNN 모델에 입력하여 새로운 결과를 도출한다. 즉, 동일한 결과값이 도출될 때까지 반복 수행한다. On the other hand, if the values are different, the determination unit 140 derives a new result by inputting the transmitted light image or the FFT image of the other part of the paper to be identified to the first CNN model and the second CNN model. That is, it is repeated until the same result value is derived.

이와 같이 본 발명에 따르면, 투과광 이미지를 통해 반복적 격자 패턴의 관찰이 어려운 종이도 위변조 여부를 판단할 수 있으며, 딥러닝 기반의 CNN 모델을 이용하므로 비파괴 방법을 통해 지류의 위변조 여부를 예측할 수 있다. As such, according to the present invention, it is possible to determine whether or not paper is forged or falsified even if it is difficult to observe a repetitive grid pattern through a transmitted light image, and since a deep learning-based CNN model is used, it is possible to predict forgery or falsification of paper streams through a non-destructive method.

본 발명은 도면에 도시된 실시예를 참고로 하여 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술이 속하는 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호범위는 아래의 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is only exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. will be. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the claims below.

100 : 종이식별 장치
110 : 이미지 획득부
120 : 이미지 변환부
130 : 학습부
140 : 판단부
100: paper identification device
110: image acquisition unit
120: image conversion unit
130: learning unit
140: judgment unit

Claims (16)

문서의 위변조 감정을 위한 종이식별 장치에 있어서,
시판에서 유통되는 브랜드별 종이마다 고유의 지합 패턴을 관찰할 수 있는 투과광 이미지를 획득하는 이미지 획득부,
상기 획득한 투과광 이미지에 푸리에 변환(Fourier transform)을 적용하여 FFT 이미지를 획득하는 이미지 변환부,
입력된 영상을 분석하여 영상에 포함된 특징을 이용하여 종이를 분석하도록 하는 CNN 모델을 구축하고, 상기 구축된 CNN 모델에 상기 투과광 이미지와 상기 FFT 이미지를 각각의 입력값으로 하여 학습시키는 학습부, 그리고
분석하고자 하는 종이 시료에 적외선을 투과하여 획득한 투과광 이미지와 상기 투과광 이미지로부터 획득한 FFT 이미지를 학습이 완료된 복수의 상기 CNN 모델에 각각 입력하고, 상기 복수의 CNN 모델로부터 도출된 각각의 값을 비교하여 위변조 여부를 판단하는 판단부를 포함하는 종이식별 장치.
In the paper identification device for forgery detection of documents,
An image acquisition unit for obtaining a transmitted light image to observe a unique formation pattern for each brand of paper distributed in the market;
An image conversion unit for acquiring an FFT image by applying a Fourier transform to the obtained transmitted light image;
A learning unit that analyzes an input image and builds a CNN model that analyzes paper using features included in the image, and learns the built CNN model with the transmitted light image and the FFT image as input values, respectively; And
A transmitted light image obtained by transmitting infrared rays through a paper sample to be analyzed and an FFT image obtained from the transmitted light image are respectively input into a plurality of trained CNN models, and each value derived from the plurality of CNN models is compared. Paper identification device including a determination unit for determining whether or not forgery.
제1항에 있어서,
상기 이미지 변환부는,
하기의 수학식을 이용하여 상기 투과광 이미지에 대한 푸리에 변환(Fourier transform)을 수행하고,
Figure 112021067656995-pat00009

(여기서,
Figure 112021067656995-pat00010
는 x축 방향으로 주파수가 u/W, y축 방향으로 주파수가 v/H인 sinusoidal 주기함수를 나타낸다)
상기 푸리에 변환(Fourier transform)을 통해 획득한 픽셀값(H(u,v)을 이용하여 푸리에 스펙트럼을 획득하는 종이식별 장치.
According to claim 1,
The image conversion unit,
Performing a Fourier transform on the transmitted light image using the following equation,
Figure 112021067656995-pat00009

(here,
Figure 112021067656995-pat00010
represents a sinusoidal periodic function with a frequency u/W in the x-axis direction and a frequency v/H in the y-axis direction)
Paper identification device for acquiring a Fourier spectrum using the pixel value (H (u, v) obtained through the Fourier transform.
제1항에 있어서,
상기 이미지 변환부는,
상기 획득한 푸리에 스펙트럼을 이용하여 피크부분에 해당하는 저주파 영역을 획득하고, 상기 저주파 영역을 삭제한 다음, 푸리에 역변환을 하여 FFT 이미지를 획득하는 종이식별 장치.
According to claim 1,
The image conversion unit,
A paper identification device for acquiring a low-frequency region corresponding to a peak portion using the obtained Fourier spectrum, deleting the low-frequency region, and then performing inverse Fourier transform to obtain an FFT image.
제1항에 있어서,
상기 학습부는,
상기 FFT 이미지로부터 일정한 크기를 갖는 이미지를 잘라내기 형태로 추출하되, 이를 복수 회 반복하여 상기 FFT 이미지에 대한 데이터를 증강시킨 다음, 상기 투과광 이미지와 증강된 상기 FFT 이미지를 이용하여 데이터셋을 생성하는 종이식별 장치.
According to claim 1,
The learning unit,
Extracting an image having a certain size from the FFT image in a cropped form, repeating this a plurality of times to augment data for the FFT image, and then generating a dataset using the transmitted light image and the augmented FFT image paper identification device.
제1항에 있어서,
상기 학습부는,
상기 투과광 이미지를 이용하여 생성된 제1 데이터셋을 이용하여 제1 CNN 모델을 학습시키고,
상기 FFT 이미지를 이용하여 생성된 제2 데이터셋을 이용하여 제2 CNN 모델을 학습시키는 종이식별 장치.
According to claim 1,
The learning unit,
Learning a first CNN model using a first dataset generated using the transmitted light image;
A paper identification device for learning a second CNN model using a second dataset generated using the FFT image.
제5항에 있어서,
상기 판단부는,
감정하고자 하는 종이를 촬영하여 획득한 투과광 이미지와 상기 투과광 이미지로부터 획득한 FFT 이미지를 학습이 완료된 상기 제1 CNN 모델 및 상기 제2 CNN 모델에 각각 입력하여,
상기 제1 CNN 모델로부터 획득한 결과값과 제2 CNN 모델로부터 획득한 결과값을 상호 비교하여 위변조 여부를 판단하는 종이식별 장치.
According to claim 5,
The judge,
By inputting the transmitted light image obtained by photographing the paper to be evaluated and the FFT image obtained from the transmitted light image to the first CNN model and the second CNN model on which learning has been completed, respectively,
A paper identification device for determining whether forgery is falsified by comparing the result value obtained from the first CNN model and the result value obtained from the second CNN model.
제6항에 있어서,
상기 판단부는,
하기의 수학식을 이용하여 상기 제1 CNN 모델 및 상기 제2 CNN 모델로부터 각각의 결과값(wi)을 획득하는 종이식별 장치:
Figure 112021067656995-pat00011
According to claim 6,
The judge,
Paper identification device for obtaining each result value wi from the first CNN model and the second CNN model using the following equation:
Figure 112021067656995-pat00011
제7항에 있어서,
상기 판단부는,
상기 제1 CNN 모델로부터 획득한 결과값과 상기 제2 CNN 모델로부터 획득한 결과값이 동일하면, 획득한 결과값을 최종 결과로 도출하고,
상기 제1 CNN 모델로부터 획득한 결과값과 상기 제2 CNN 모델로부터 획득한 결과값이 상이하면, 종이의 다른 부분을 입력 받아 동일한 결과값이 도출될 때까지 반복적으로 결과값을 도출하는 종이식별 장치.
According to claim 7,
The judge,
If the result value obtained from the first CNN model and the result value obtained from the second CNN model are the same, the obtained result value is derived as a final result;
If the result values obtained from the first CNN model and the result values obtained from the second CNN model are different, a paper identification device that receives different parts of the paper and repeatedly derives result values until the same result value is obtained. .
종이식별 장치를 이용한 종이 식별 방법에 있어서,
시판에서 유통되는 브랜드별 종이마다 고유의 지합 패턴을 관찰할 수 있는 투과광 이미지를 획득하는 단계,
상기 획득한 투과광 이미지에 푸리에 변환(Fourier transform)을 적용하여 FFT 이미지를 획득하는 단계,
입력된 영상을 분석하여 영상에 포함된 특징을 이용하여 종이를 분석하도록 하는 CNN 모델을 구축하고, 상기 구축된 CNN 모델에 상기 투과광 이미지와 상기 FFT 이미지를 각각의 입력값으로 하여 학습시키는 단계, 그리고
분석하고자 하는 종이 시료에 적외선을 투과하여 획득한 투과광 이미지와 상기 투과광 이미지로부터 획득한 FFT 이미지를 학습이 완료된 복수의 상기 CNN 모델에 각각 입력하고, 상기 복수의 CNN 모델로부터 도출된 각각의 값을 비교하여 위변조 여부를 판단하는 단계를 포함하는 종이 식별 방법.
In the paper identification method using a paper identification device,
Obtaining a transmitted light image capable of observing a unique formation pattern for each brand of paper distributed in the market;
Acquiring an FFT image by applying a Fourier transform to the obtained transmitted light image;
Analyzing the input image and constructing a CNN model that analyzes the paper using features included in the image, and learning the built CNN model with the transmitted light image and the FFT image as respective input values, and
A transmitted light image obtained by transmitting infrared rays through a paper sample to be analyzed and an FFT image obtained from the transmitted light image are respectively input into a plurality of trained CNN models, and each value derived from the plurality of CNN models is compared. Paper identification method comprising the step of determining whether forgery or falsification.
제9항에 있어서,
상기 FFT 이미지를 획득하는 단계는,
하기의 수학식을 이용하여 상기 투과광 이미지에 대한 푸리에 변환(Fourier transform)을 수행하고,
Figure 112021067656995-pat00012

(여기서,
Figure 112021067656995-pat00013
는 x축 방향으로 주파수가 u/W, y축 방향으로 주파수가 v/H인 sinusoidal 주기함수를 나타낸다)
상기 푸리에 변환(Fourier transform)을 통해 획득한 픽셀값(H(u,v)을 이용하여 푸리에 스펙트럼을 획득하는 종이 식별 방법.
According to claim 9,
Acquiring the FFT image,
Performing a Fourier transform on the transmitted light image using the following equation,
Figure 112021067656995-pat00012

(here,
Figure 112021067656995-pat00013
represents a sinusoidal periodic function with a frequency u/W in the x-axis direction and a frequency v/H in the y-axis direction)
Paper identification method for obtaining a Fourier spectrum using the pixel value (H (u, v) obtained through the Fourier transform.
제9항에 있어서,
상기 FFT 이미지를 획득하는 단계는,
상기 획득한 푸리에 스펙트럼을 이용하여 피크부분에 해당하는 저주파 영역을 획득하고, 상기 저주파 영역을 삭제한 다음, 푸리에 역변환을 하여 FFT 이미지를 획득하는 종이 식별 방법.
According to claim 9,
Acquiring the FFT image,
A paper identification method of acquiring a low-frequency region corresponding to a peak portion using the obtained Fourier spectrum, deleting the low-frequency region, and then performing inverse Fourier transform to obtain an FFT image.
제9항에 있어서,
상기 학습시키는 단계는,
상기 FFT 이미지로부터 일정한 크기를 갖는 이미지를 잘라내기 형태로 추출하되, 이를 복수 회 반복하여 상기 FFT 이미지에 대한 데이터를 증강시킨 다음, 상기 투과광 이미지와 증강된 상기 FFT 이미지를 이용하여 복수의 데이터셋을 생성하는 종이 식별 방법.
According to claim 9,
The learning step is
An image having a certain size is extracted from the FFT image in a cropped form, and data for the FFT image is augmented by repeating this multiple times, and then a plurality of datasets are generated using the transmitted light image and the augmented FFT image. How to identify the paper you create.
제12항에 있어서,
상기 학습시키는 단계는,
상기 투과광 이미지를 이용하여 생성된 제1 데이터셋을 이용하여 제1 CNN 모델을 학습시키고,
상기 FFT 이미지를 이용하여 생성된 제2 데이터셋을 이용하여 제2 CNN 모델을 학습시키는 종이 식별 방법.
According to claim 12,
The learning step is
Learning a first CNN model using a first dataset generated using the transmitted light image;
Paper identification method for learning a second CNN model using a second dataset generated using the FFT image.
제13항에 있어서,
상기 위변조 여부를 판단하는 단계는,
감정하고자 하는 종이를 촬영하여 획득한 투과광 이미지와 상기 투과광 이미지로부터 획득한 FFT 이미지를 학습이 완료된 상기 제1 CNN 모델 및 상기 제2 CNN 모델에 각각 입력하여,
상기 제1 CNN 모델로부터 획득한 결과값과 제2 CNN 모델로부터 획득한 결과값을 상호 비교하여 위변조 여부를 판단하는 종이 식별 방법.
According to claim 13,
The step of determining whether the forgery is,
By inputting the transmitted light image obtained by photographing the paper to be evaluated and the FFT image obtained from the transmitted light image to the first CNN model and the second CNN model on which learning has been completed, respectively,
Paper identification method for determining whether forgery or falsification is determined by comparing the result value obtained from the first CNN model and the result value obtained from the second CNN model.
제14항에 있어서,
상기 위변조 여부를 판단하는 단계는,
하기의 수학식을 이용하여 상기 제1 CNN 모델 및 상기 제2 CNN 모델로부터 각각의 결과값(wi)을 획득하는 종이 식별 방법:
Figure 112021067656995-pat00014
According to claim 14,
The step of determining whether the forgery is,
Paper identification method for obtaining each result value wi from the first CNN model and the second CNN model using the following equation:
Figure 112021067656995-pat00014
제15항에 있어서,
상기 위변조 여부를 판단하는 단계는,
상기 제1 CNN 모델로부터 획득한 결과값과 상기 제2 CNN 모델로부터 획득한 결과값이 동일하면, 획득한 결과값을 최종 결과로 도출하고,
상기 제1 CNN 모델로부터 획득한 결과값과 상기 제2 CNN 모델로부터 획득한 결과값이 상이하면, 종이의 다른 부분을 입력 받아 동일한 결과값이 도출될 때까지 반복적으로 결과값을 도출하는 종이 식별 방법.
According to claim 15,
The step of determining whether the forgery is,
If the result value obtained from the first CNN model and the result value obtained from the second CNN model are the same, the obtained result value is derived as a final result;
If the result value obtained from the first CNN model and the result value obtained from the second CNN model are different, a paper identification method for repeatedly deriving the result value by receiving another part of the paper until the same result value is derived. .
KR1020210076104A 2021-06-11 2021-06-11 Paper identification device and method for forgery detection of documents KR102490136B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210076104A KR102490136B1 (en) 2021-06-11 2021-06-11 Paper identification device and method for forgery detection of documents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210076104A KR102490136B1 (en) 2021-06-11 2021-06-11 Paper identification device and method for forgery detection of documents

Publications (2)

Publication Number Publication Date
KR20220167046A KR20220167046A (en) 2022-12-20
KR102490136B1 true KR102490136B1 (en) 2023-01-20

Family

ID=84539163

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210076104A KR102490136B1 (en) 2021-06-11 2021-06-11 Paper identification device and method for forgery detection of documents

Country Status (1)

Country Link
KR (1) KR102490136B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012121247A (en) 2010-12-09 2012-06-28 National Printing Bureau Print possible of truth discrimination, and method of attesting this print
JP2013039726A (en) 2011-08-16 2013-02-28 National Printing Bureau Printed matter allowing authenticity discrimination, device and method of preparing the printed matter, and device and method of authenticating the printed mater allowing authenticity discrimination
KR102142719B1 (en) 2020-02-07 2020-08-07 대한민국 Method of Constructing Database of Periodic Marks on Paper and Method of Identification on Paper Using Same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101140699B1 (en) * 2010-06-03 2012-05-03 한국조폐공사 Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor
KR101573857B1 (en) 2014-04-04 2015-12-04 대한민국 A Printed Document Having Function Of Preventing From Forging/Manipulating, The Method Thereof and The Inspecting Method Of The Printed Document

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012121247A (en) 2010-12-09 2012-06-28 National Printing Bureau Print possible of truth discrimination, and method of attesting this print
JP2013039726A (en) 2011-08-16 2013-02-28 National Printing Bureau Printed matter allowing authenticity discrimination, device and method of preparing the printed matter, and device and method of authenticating the printed mater allowing authenticity discrimination
KR102142719B1 (en) 2020-02-07 2020-08-07 대한민국 Method of Constructing Database of Periodic Marks on Paper and Method of Identification on Paper Using Same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
한국정보통신학회논문지

Also Published As

Publication number Publication date
KR20220167046A (en) 2022-12-20

Similar Documents

Publication Publication Date Title
Bayram et al. Image manipulation detection
CN106920206B (en) Steganalysis method based on antagonistic neural network
KR101140699B1 (en) Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor
US11625906B2 (en) Method for identifying works of art at the stroke level
IL283243B1 (en) Optical-mode selection for multi-mode semiconductor inspection
KR20190072074A (en) Malware detection system and method thereof
Ramachandra et al. Detecting face morphing attacks with collaborative representation of steerable features
Mahale et al. Image inconsistency detection using local binary pattern (LBP)
Kalka et al. A preliminary study on identifying sensors from iris images
Tsai et al. Digital forensics of microscopic images for printed source identification
KR102490136B1 (en) Paper identification device and method for forgery detection of documents
Scheidat et al. Biometric authentication based on 2D/3D sensing of forensic handwriting traces
Niola et al. A problem of emphasizing features of a surface roughness by means the Discrete Wavelet Transform
WO2015185883A1 (en) Synthetic latent fingerprint images
Thaiyalnayaki et al. Finger print recognition using discrete wavelet transform
Ardizzone et al. Detection of duplicated regions in tampered digital images by bit-plane analysis
JP2009134466A (en) Recognition processing device, method, and computer program
US20060159319A1 (en) Pattern recognition systems and methods
Iorliam et al. Using benford’s law divergence and neural networks for classification and source identification of biometric images
Gupta et al. Energy deviation measure: a technique for digital image forensics
Ahmed Integrated fingerprint verification method using a composite signature-based watermarking technique
Das et al. Image splicing detection using feature based machine learning methods and deep learning mechanisms
van der Maaten et al. Identifying the real van gogh with brushstroke textons
Baskar et al. Computer graphic and photographic image classification using transfer learning approach
Qian et al. Separation of high-resolution samples of overlapping latent fingerprints using relaxation labeling

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant