KR101140699B1 - Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor - Google Patents

Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor Download PDF

Info

Publication number
KR101140699B1
KR101140699B1 KR1020100052297A KR20100052297A KR101140699B1 KR 101140699 B1 KR101140699 B1 KR 101140699B1 KR 1020100052297 A KR1020100052297 A KR 1020100052297A KR 20100052297 A KR20100052297 A KR 20100052297A KR 101140699 B1 KR101140699 B1 KR 101140699B1
Authority
KR
South Korea
Prior art keywords
feature point
digital image
image
feature
digital
Prior art date
Application number
KR1020100052297A
Other languages
Korean (ko)
Other versions
KR20110132770A (en
Inventor
이흥규
최창희
류승진
최정호
현대경
류진호
김종희
오준택
Original Assignee
한국조폐공사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국조폐공사, 한국과학기술원 filed Critical 한국조폐공사
Priority to KR1020100052297A priority Critical patent/KR101140699B1/en
Publication of KR20110132770A publication Critical patent/KR20110132770A/en
Application granted granted Critical
Publication of KR101140699B1 publication Critical patent/KR101140699B1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon
    • G07D7/2016Testing patterns thereon using feature extraction, e.g. segmentation, edge detection or Hough-transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따르면, 다양한 특징점의 추출이 가능한 보안 인쇄물 위조식별 시스템 및 그 방법을 개발할 수 있다.
또한, 다량의 원본에 대한 디지털이미지와 위조본에 대한 디지털이미지 각각으로부터 추출한 특징점에 대하여 기계학습을 진행하여 위조여부식별을 위한 학습모델을 생성 가능한 디지털 포렌직 기술을 이용한 보안 인쇄물 위조식별 시스템 및 그 방법을 구현할 수 있다.
본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템은 이미지변환부(10); 특징점추출부(20); 기계학습부(30); 및 위조여부식별부(40);를 포함한다.
According to the present invention, it is possible to develop a security printed material forgery identification system and method capable of extracting various feature points.
In addition, security printed counterfeit identification system and method using digital forensic technology that can generate a learning model for counterfeit identification by conducting machine learning for each feature point extracted from digital image for a large number of originals and digital image for counterfeit. Can be implemented.
Security imitation forgery identification system according to an embodiment of the present invention is an image conversion unit 10; Feature point extracting unit 20; Machine learning unit 30; And forgery identification unit 40; includes.

Description

디지털 포렌직 기술을 이용한 보안 인쇄물 위조식별 시스템 및 그 방법 {Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor}Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor}

본 발명은 보안 인쇄물 위조식별 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게는 디지털 포렌직(Forensic) 기술을 이용하여 보안 인쇄물의 위조를 식별하는 시스템 및 그 방법에 관한 것이다.The present invention relates to a security imprint forgery identification system and method, and more particularly, to a system and method for identifying forgery of a security print using digital forensic technology.

최근 5만원권의 등장과 여러 상품권의 유통이 활발해짐에 따라 보안 인쇄물의 위조가 급증하고 있다. 또한 스캐너와 컬러 프린터의 급속한 발전이 이와 같은 위조를 가속화 시키고 있다. 그래서 현금을 다루는 일반 사업장에서의 위조여부를 식별하는 시스템에 대한 요구가 급증하게 되었다.With the advent of 50,000 won bills and the circulation of various gift certificates, the counterfeiting of security prints is rapidly increasing. The rapid development of scanners and color printers is also accelerating this forgery. Thus, the demand for a system for identifying counterfeit in a general business dealing with cash has surged.

이러한 스캐너와 프린터에 의한 위조물의 식별을 위해, OPC 드럼을 돌리는 기어의 역회전 현상으로 인해서 각속도가 일정하지 않게 됨에 따라 발생하는 준 주기적인 변동 때문에 인쇄 문서에 밴딩(Banding)이라는 결함이 주기적으로 생긴다는 사실을 이용하여 흑백 레이저 프린터를 식별하는 기술이 소개되었다. 이 기술은 하프톤 이미지 인쇄물에는 적용하기가 쉽고 좋은 결과를 얻을 수 있지만, 지폐와 같은 텍스트 인쇄물에는 적용하기 어렵기 때문에 텍스트 인쇄물을 이용해서 프린터를 식별하려면 새로운 특징점이 필요하다. For the identification of counterfeits by scanners and printers, banding defects occur periodically in printed documents due to quasi-periodic fluctuations caused by the angular velocity becoming inconsistent due to the reverse rotation of the gears that rotate the OPC drum. A technique for identifying monochrome laser printers using facts has been introduced. This technique is easy to apply to halftone image prints and achieves good results, but it is difficult to apply to text prints such as banknotes, so new features are needed to identify printers using text prints.

또한, 기 출원 특허 'CCD 이미지 센서를 이용한 이권종 분류 및 위폐 식별 계수기(출원번호:1020030023962)'는 이진화 방법을 이용하여 위폐를 식별하였으나, 식별율 향상을 위한 다양한 특징점 추출이 어렵고, CCD 이미지 센서 외의 다른 디지털 영상 획득 장치에의 적용이 어렵다. In addition, the previously applied patent 'Kwon Heterogeneous Classification and Counterfeit Identification Counter using CCD Image Sensor (Application No .: 1020030023962)' identifies a counterfeit using a binarization method, but it is difficult to extract various feature points to improve the identification rate. It is difficult to apply to other digital image acquisition devices.

본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 다양한 특징점의 추출이 가능한 보안 인쇄물 위조식별 시스템 및 그 방법을 개발하는 것에 그 목적이 있다. The present invention has an object to solve the above technical problem, and the object of the present invention is to develop a security printed material forgery identification system and method capable of extracting various feature points.

또한 본 발명의 보안 인쇄물 위조식별 시스템 및 그 방법은 다량의 원본에 대한 디지털이미지와 위조본에 대한 디지털이미지로부터 추출한 특징점에 의해 기계학습을 진행하여 위조여부식별을 위한 학습모델을 생성 가능하도록 하는 것에 그 목적이 있다.In addition, the security imprint forgery identification system and method of the present invention is to enable the machine learning by the feature points extracted from the digital image for a large number of originals and the digital image for the counterfeit to generate a learning model for identification of counterfeit or not The purpose is.

본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템은, 인쇄물을 디지털이미지로 변환하여 디지털이미지를 생성하는 이미지변환부; 상기의 디지털이미지의 특징점을 추출하는 특징점추출부; 상기 특징점을 이용하여 기계학습을 실시하는 기계학습부; 및 상기 기계학습 결과로부터 상기 인쇄물의 위조여부를 식별하는 위조여부식별부;를 포함한다.Security imitation forgery identification system according to an embodiment of the present invention, the image conversion unit for generating a digital image by converting the printed matter into a digital image; A feature point extraction unit for extracting feature points of the digital image; A machine learning unit for performing machine learning using the feature points; And a forgery identification unit for identifying whether the printed article is forged from the machine learning result.

또한 상기 이미지변환부는, 상기 인쇄물 중 원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부; 및 상기 인쇄물 중 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부;를 포함하는 것이 바람직하다.In addition, the image conversion unit, the first image conversion unit for generating the original digital image and the counterfeit digital image by converting the original print and the counterfeit print out of the prints into a digital image; And a second image converting unit converting the test print out of the printed matter into a digital image to generate a test print digital image.

아울러 상기 특징점추출부는, 상기 원본디지털이미지 및 상기 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부; 및 상기 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부;를 포함하는 것을 특징으로 한다.The feature point extracting unit may include: a first feature point extracting unit extracting feature points of the original digital image and the counterfeit original digital image; And a second feature point extractor for extracting feature points of the test print digital image.

상기 기계학습부의 바람직한 일실시예는, 상기 원본인쇄물 및 위조본인쇄물의 디지털이미지로부터 다수의 특징점을 이용하는 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택기; 상기 특징점선택기에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성기; 및 상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류기;를 포함한다.One preferred embodiment of the machine learning unit, a feature point selector for selecting some feature points by the SVM (Support Vector Machine) method using a plurality of feature points from the digital image of the original print and the counterfeit print; A learning model generator for generating a learning model of a feature point vector set based on some feature points selected by the feature point selector; And an SVM classifier for selecting a class to be included in the test print by using the feature points of the test print digital image based on the generated learning model.

또한 상기 SVM분류기는 분류 함수의 오류율을 최소화하기 위한 슬랙(Slack) 변수와 커널(Kernel) 함수를 적용하는 것을 특징으로 한다.In addition, the SVM classifier is characterized by applying a Slack variable and a Kernel function to minimize the error rate of the classification function.

아울러 상기 커널(Kernel) 함수는 RBF(Radial Basis Function) 커널(Kernel)인 것을 특징으로 한다.
In addition, the kernel function is characterized in that the radial basis function (RBF) kernel (Kernel).

구체적으로 상기 특징점선택기는 순차적 전방 유동 선택 알고리즘을 사용하여 일부 특징점을 선택하는 것을 특징으로 한다.Specifically, the feature point selector selects some feature points using a sequential forward flow selection algorithm.

상세하게는 상기 제1특징점추출부 또는 상기 제2특징점추출부는 추출한 특징점으로부터 특징점 벡터를 구성하는 것을 특징으로 하며, 상기 특징점은 이산웨이블릿변환기반의 특징점; 화질측정도구기반의 특징점; 텍스처기반의 특징점; 정보이론기반의 특징점; 및 망점구조분석기반의 특징점;을 포함하는 것을 특징으로 한다.
In detail, the first feature point extractor or the second feature point extractor comprises a feature point vector from the extracted feature points, wherein the feature points are discrete wavelet transform-based feature points; Feature point based on image quality measurement tool; Texture-based feature points; Information theory-based features; And dotnet structure analysis-based feature points.

구체적으로 상기 이산웨이블릿변환기반의 특징점은 고주파 부대역내의 통계적 특징에 의한 특징점; 고주파 부대역 사이의 통계적 특징에 의한 특징점; 및 고주파 부대역의 컬러 채널 사이의 상관 계수에 의한 특징점;을 포함하되, 상기 고주파 부대역은 이미지의 가로방향과 세로방향에 대해 저역필터와 고역필터 및 다운 샘플링 과정을 수행함으로써 결정되는 4가지 부대역 중, 가로방향과 세로방향 중 어느 하나 이상에 대해 고주파 특성을 갖는 3가지 부대역을 포함하는 것을 특징으로 한다.Specifically, the discrete wavelet transform-based feature points may be characterized by statistical features within a high frequency subband; Feature points due to statistical features between high frequency subbands; And a feature point by a correlation coefficient between color channels of a high frequency subband, wherein the high frequency subband is determined by performing a low pass filter, a high pass filter, and a down sampling process on a horizontal direction and a vertical direction of an image. Among the inverse, it characterized in that it comprises three subbands having a high frequency characteristics in any one or more of the transverse direction and the longitudinal direction.

바람직한 일실시예에 의한 상기 고주파 부대역내의 통계적 특징에 의한 특징점은 이산웨이블릿변환 이후 각 단계별 고주파 부대역의 표준편차, 왜도 및 첨도를 포함하는 것을 특징으로 한다.Characteristic point by the statistical feature in the high frequency subband according to a preferred embodiment is characterized in that it comprises the standard deviation, skewness and kurtosis of each step of the high frequency subband after the discrete wavelet transform.

또한, 상기 고주파 부대역 사이의 통계적 특징에 의한 특징점은 이산웨이블릿변환 이후 각 부대역의 근사값과 부대역의 값의 오차에 대한 평균, 분산, 첨도 및 왜도를 포함하는 것을 특징으로 한다.In addition, the feature point by the statistical feature between the high frequency subbands is characterized by including the mean, variance, kurtosis, and skewness of the error of the approximation value of each subband and the value of the subband after the discrete wavelet transform.

구체적으로 상기 컬러 채널 사이의 상관 계수에 의한 특징점은, 각 컬러 채널에 대해 이산웨이블릿변환을 수행함으로써 결정되는 R과 G사이, R와 B사이, G과 B사이, C와 M 사이, C와 Y 사이, C와 K 사이, M과 Y 사이, M과 K 사이, Y와 K 사이의 고주파 부대역에 대한 상관 계수인 것을 특징으로 한다.
Specifically, the feature point by the correlation coefficient between the color channels is between R and G, between R and B, between G and B, between C and M, and between C and Y determined by performing discrete wavelet transform for each color channel. It is characterized in that the correlation coefficient for the high frequency subbands between, between C and K, between M and Y, between M and K, and between Y and K.

바람직한 일실시예에 따른 상기 화질측정도구기반의 특징점은 입력된 임의의 이미지와, 저주파필터에 의해 입력된 이미지로부터 잡음을 제거한 이미지 사이의 공간 영역에서, 픽셀의 차이 값, 주파수 영역에서 계수의 차이 값, 두 입력의 상관 계수, 그리고 인지 시각 모델을 적용한 픽셀의 차이 값 중 어느 하나 이상의 척도를 이용하여 잡음 기반으로 추출한 특징점인 것을 특징으로 한다.According to a preferred embodiment of the present invention, the image quality measurement tool-based feature points include a pixel difference value and a coefficient difference in a frequency domain in a spatial domain between an arbitrary image input and an image from which noise is removed from an image input by a low frequency filter. It is a feature point extracted based on noise using at least one of a value, a correlation coefficient between two inputs, and a difference value between pixels to which a cognitive visual model is applied.

또한 상기의 저주파필터는 평균화필터, 가우시안필터, 중간값필터 및 위너필터를 포함하는 것을 특징으로 한다.
The low frequency filter may include an averaging filter, a Gaussian filter, a median filter, and a wiener filter.

상기 텍스처기반의 특징점은 GLCM(Gray Level Co-occurrence Matrices)을 이용하여 구해진 에너지, 대조 및 유사의 3가지 통계적 특성을 포함하는 것이 발람직하다.It is preferable that the texture-based feature points include three statistical characteristics of energy, contrast and similar obtained using Gray Level Co-occurrence Matrices (GLCM).

또한 상기 텍스처기반의 특징점은 임의의 픽셀값과 픽셀근사값의 차이의 평균과 표준편차를 더 포함하는 것을 특징으로 한다.
The texture-based feature may further include an average and a standard deviation of the difference between an arbitrary pixel value and an approximation of a pixel.

상기 정보이론기반의 특징점의 바람직한 일실시예는, R, G, B 각 채널에서의 엔트로피 값과, R과 G, G와 B, B와 R 채널 사이의 상호 정보 값을 포함하는 것을 특징으로 한다.
A preferred embodiment of the information theory-based feature point is characterized in that it includes an entropy value in each of R, G, and B channels, and mutual information values between R and G, G, B, B, and R channels. .

구체적으로 상기 망점구조분석기반의 특징점은 허프(Hough) 변환을 통해 이미지에 존재하는 직선 정보를 원점으로부터의 거리와 각도 형태로 산출하고, 산출된 직선의 각도 정보를 이용하여 구축된 히스토그램의 빈도를 포함하는 것을 특징으로 한다.
Specifically, the feature point based on the network structure analysis calculates the linear information existing in the image in the form of distance and angle from the origin through Hough transformation, and calculates the frequency of the histogram constructed using the calculated angle information of the straight line. It is characterized by including.

본 발명의 다른 일실시예에 따른 보안 인쇄물 위조식별 시스템은, 인쇄물학습장치 및 인쇄물식별장치를 포함하되, 상기 인쇄물학습장치는 원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부; 상기 원본디지털이미지 및 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부; 상기 원본디지털이미지 및 위조본디지털이미지의 다수의 특징점을 이용하는 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택기; 및 상기 특징점선택기에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성기;를 포함하는 것을 특징을 한다.Security printed material forgery identification system according to another embodiment of the present invention, including a print learning device and a print identification device, the print learning device converts the original print and the counterfeit printed material into a digital image of the original digital image and counterfeit copy A first image converting unit generating a digital image; A first feature point extraction unit for extracting feature points of the original digital image and the counterfeit digital image; A feature point selector for selecting some feature points by a SVM (Support Vector Machine) method using a plurality of feature points of the original digital image and the counterfeit digital image; And a learning model generator for generating a learning model of the feature point vector set based on some feature points selected by the feature point selector.

또한, 상기 인쇄물식별장치는 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부; 상기 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부; 상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류기; 및 상기 SVM분류기의 클래스로부터 상기 테스트인쇄물의 위조여부를 식별하는 위조여부식별부;를 포함하는 것을 특징으로 한다.
The print identification device may further include: a second image converting unit converting the test print into a digital image to generate a test print digital image; A second feature point extracting unit extracting feature points of the test print digital image; An SVM classifier for selecting a class to be included in the test print by using feature points of the test print digital image based on the generated learning model; And a forgery identification unit for identifying whether the test print is forged from the class of the SVM classifier.

본 발명의 바람직한 일실시예에 따른 보안 인쇄물 위조식별 시스템에 의한 보안 인쇄물 위조식별 방법은, 상기 이미지변환부가 원본인쇄물을 디지털이미지로 변환하여 원본디지털이미지를 생성하는 원본디지털화단계; 상기 이미지변환부가 위조본인쇄물을 디지털이미지로 변환하여 위조본디지털이미지를 생성하는 위조본디지털화단계; 상기 특징점추출부가 상기 원본디지털이미지의 특징점을 추출하는 원본특징점추출단계; 상기 특징점추출부가 상기 위조본디지털이미지의 특징점을 추출하는 위조본특징점추출단계; 상기 기계학습부가 상기 원본디지털이미지의 특징점과 위조본디지털이미지의 특징점으로부터 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택단계; 상기 기계학습부가 상기 특징점선택단계에서 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성단계; 상기 이미지변환부가 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 테스트인쇄물디지털화단계; 상기 특징점추출부가 상기 테스트인쇄물디지털이미지로부터 특징점을 추출하는 테스트인쇄물특징점추출단계; 상기 기계학습부가 상기 학습모델생성단계에서 생성된 학습모델을 바탕으로 테스트인쇄물특징점추출단계에서 추출된 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류단계; 및 상기 위조여부식별부에서 상기 SVM분류단계에서 선정된 클래스에 의해 테스트인쇄물의 위조여부를 식별하는 위조여부식별단계;를 포함한다.Security imprint forgery identification method by the security imprint forgery identification system according to an embodiment of the present invention, Original image digitizing step of generating the original digital image by converting the original printout to a digital image; A counterfeit digitizing step of generating a counterfeit digital image by converting the counterfeit printed matter into a digital image by the image converting unit; An original feature point extraction step of extracting a feature point of the original digital image by the feature point extraction unit; A counterfeit feature feature extraction step of extracting a feature point of the counterfeit bone digital image by the feature point extractor; A feature point selecting step of the machine learning unit selecting some feature points from the feature points of the original digital image and the feature points of the fake digital image by a SVM (Support Vector Machine) method; A learning model generation step of generating, by the machine learning unit, a learning model of a feature point vector set based on some feature points selected in the feature point selection step; A test print digitizing step of generating a test print digital image by converting the test print into a digital image by the image conversion unit; A test print feature point extracting step of extracting a feature point from the test point digital image by the feature point extracting unit; An SVM classification step of selecting, by the machine learning unit, a class to include the test print using the feature points extracted in the test print feature point extraction step based on the learning model generated in the learning model generation step; And a forgery identification step of identifying whether the test print is forged by the class selected in the SVM classification step in the forgery identification unit.

본 발명의 보안 인쇄물 위조식별 시스템과 그 방법에 따르면, 다양한 특징점의 추출이 가능하다.According to the security imprint forgery identification system and method of the present invention, it is possible to extract various feature points.

또한 다량의 원본에 대한 디지털이미지와 위조본에 대한 디지털이미지로부터 추출한 특징점에 의해 기계학습을 진행하여 위조여부식별을 위한 학습모델을 생성 가능하도록 하는 보안 인쇄물 위조식별 시스템과 방법을 구현할 수 있다.In addition, it is possible to implement a security printed counterfeit identification system and method that can generate a learning model for counterfeit identification by conducting machine learning based on feature images extracted from digital images of a large number of originals and digital images of counterfeit text.

도 1은 본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템의 구성도이다.
도 2는 본 발명의 또 다른 일실시예에 따른 보안 인쇄물 위조식별 시스템의 구성도이다.
도 3은 본 발명의 기계학습부의 구성도를 나타낸다.
도 4는 본 발명의 또 다른 일실시예에 따른 보안 인쇄물 위조식별 시스템의 구성도이다.
도 5는 본 발명의 보안 인쇄물 위조식별 방법에 대한 흐름도를 나타낸다.
도 6은 예제 이미지를 통한 이산웨이블릿변환기반의 특징점을 구하기 위해 사용된 필터 구조를 나타낸다.
도 7은 컬러 프린터로 위조된 문서의 프린팅 잡음을 나타낸다.
도 8은 본 발명의 일실시예에 따른 화질측정도구를 추출하는 과정을 나타낸다.
도 9는 본 발명에서 사용된 17가지의 화질측정도구를 나타낸다.
도 10은 GLCM을 이용한 3가지의 통계적 특성을 나타낸다.
도 11은 부드러운 영역의 해당 픽셀과 그 이웃 값을 나타낸다.
도 12는 프린터(3)를 이용하여 망점 인쇄 방식으로 출력된 회색 영상을 스캔하여 시안(Cyan), 마젠타(Magenta), 옐로우(Yellow) 채널로 분리한 그림이다.
도 13은 서로 다른 프린터로 출력한 시안 영역의 망점구조이다.
도 14는 망점구조분석 과정을 나타낸다.
도 15는 SFFS 알고리즘의 흐름도를 나타낸다.
도 16은 SFFS를 이용하여 선택된 특징점의 수와 판별률의 관계를 나타낸다.
도 17은 SVM분류기를 도식화한 것이다.
도 18은 커널 함수를 이용한 선형 분리의 개념도를 나타낸다.
1 is a block diagram of a security printed material forgery identification system according to an embodiment of the present invention.
2 is a block diagram of a security printed material forgery identification system according to another embodiment of the present invention.
Figure 3 shows a block diagram of the machine learning portion of the present invention.
Figure 4 is a block diagram of a security print counterfeit identification system according to another embodiment of the present invention.
5 is a flowchart illustrating a security print counterfeit identification method of the present invention.
FIG. 6 shows a filter structure used to obtain discrete wavelet transform based feature points through an example image.
7 shows the printing noise of a forged document with a color printer.
8 illustrates a process of extracting an image quality measuring tool according to an embodiment of the present invention.
9 shows 17 image quality measurement tools used in the present invention.
10 shows three statistical characteristics using GLCM.
Fig. 11 shows corresponding pixels and their neighbor values in the soft area.
FIG. 12 is a diagram of a gray image output by dot printing using a printer 3 and separated into cyan, magenta, and yellow channels.
13 is a dot structure of a cyan area output to different printers.
14 shows a process of network structure analysis.
15 shows a flowchart of the SFFS algorithm.
16 shows the relationship between the number of feature points selected and the discrimination rate using SFFS.
17 is a schematic diagram of an SVM classifier.
18 shows a conceptual diagram of linear separation using a kernel function.

이하, 첨부된 도면을 참조하면서 본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템과 방법에 대해 상세히 설명하기로 한다. Hereinafter, with reference to the accompanying drawings will be described in detail for the security printed material forgery identification system according to an embodiment of the present invention.

본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다.
The following examples of the present invention are intended to embody the present invention, but not to limit or limit the scope of the present invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

우선, 도 1은 본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템의 구성도이다.First, Figure 1 is a block diagram of a security print counterfeit identification system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템은 이미지변환부(10); 특징점추출부(20); 기계학습부(30); 및 위조여부식별부(40);를 포함한다. As shown in FIG. 1, the security printed matter forgery identification system according to an embodiment of the present invention includes an image conversion unit 10; Feature point extracting unit 20; Machine learning unit 30; And forgery identification unit 40; includes.

또한 도 2에 도시된 바와 같이, 본 발명의 다른 일실시예에 따른 인쇄물 위조식별 시스템은 제1이미지변환부(50); 제1특징점추출부(60); 기계학습부(30); 제2이미지변환부(70); 제2특징점추출부(80); 및 위조여부식별부(40);를 포함한다.
In addition, as shown in Figure 2, the printed material forgery identification system according to another embodiment of the present invention includes a first image conversion unit (50); First feature point extraction unit 60; Machine learning unit 30; A second image converter 70; Second feature point extracting unit 80; And forgery identification unit 40; includes.

아래에 도 1과 더불어 도 2에 의해 본 발명의 인쇄물 위조식별 시스템에 대해 상세히 설명하기로 한다.The forgery identification system of the printed matter of the present invention will be described in detail with reference to FIG. 1 below.

인쇄물의 경우 본 발명에 적용하기 위해서는 디지털이미지로 변환할 필요가 있다. 따라서 상기 이미지변환부(10)는 인쇄물을 디지털이미지로 변환하는 역할을 수행한다. 상기 이미지변환부(10)의 예로서는 스캐너, 디지털카메라 등을 들 수 있을 것이다.In the case of printed matter, it is necessary to convert it into a digital image in order to apply the present invention. Therefore, the image conversion unit 10 serves to convert the printed matter into a digital image. Examples of the image converter 10 may include a scanner, a digital camera, and the like.

도 1과 도 2로부터 알 수 있는 것과 같이 상기 이미지변환부(10)는 원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부(50); 및 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부(60);를 포함할 수 있다.As can be seen from Figures 1 and 2, the image conversion unit 10 converts the original print and the counterfeit print to a digital image to generate a first digital image and a counterfeit print digital image 50 ; And a second image converter 60 converting the test print into a digital image to generate a test print digital image.

상기의 디지털이미지로부터 인쇄물의 위조여부를 판별하기 위해서는, 원본디지털이미지와 위조본디지털이미지의 차이를 나타낼 수 있는 특징점을 추출할 필요가 있다. 상기 특징점추출부(20)는 디지털이미지의 특징점을 추출하는 역할을 수행한다.In order to determine whether the printed object is forged from the digital image, it is necessary to extract a feature point that may indicate a difference between the original digital image and the fake digital image. The feature point extractor 20 extracts feature points of the digital image.

도 1과 도 2로부터 알 수 있는 것과 같이, 상기 특징점추출부(20)는 상기 제1이미지변환부에 의한 원본디지털이미지와 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부(60); 및 상기 제2이미지변환부에 의한 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부(80);를 포함할 수 있다.
As can be seen from Figures 1 and 2, the feature point extraction unit 20 is a first feature point extraction unit 60 for extracting feature points of the original digital image and the fake digital image by the first image conversion unit; And a second feature point extractor 80 extracting a feature point of the test print digital image by the second image converter.

상기 기계학습부(30)는 도 3에 도시된 바와 같이, 특징점선택기(31); 학습모델생성기(32); 및 SVM분류기(33)를 포함하며, 상기 특징점을 이용하여 기계학습을 실시한다. 기계학습을 통해서 적절한 분류 함수를 만들 수 있고, 이렇게 만들어진 분류 함수를 이용하여 새로운 입력에 대응하는 클래스를 예측할 수 있다. The machine learning unit 30, as shown in Figure 3, a feature point selector 31; Learning model generator 32; And an SVM classifier 33, which performs machine learning using the feature points. Through machine learning, we can create appropriate classification functions, and use them to predict the class corresponding to the new input.

구체적으로 상기 특징점선택기(31)는 상기 원본디지털미이지와 상기 위조본디지털이미지로부터 다수의 특징점을 이용하는 SVM(Support Vector Machine)에 기반한 방식에 의해 일부 특징점을 선택한다. 그리고 상기 학습모델생성기(32)는 상기 특징점선택기(31)에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하며, 상기 SVM분류기(33)는 상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 역할을 한다.Specifically, the feature point selector 31 selects some feature points by a method based on SVM (Support Vector Machine) using a plurality of feature points from the original digital image and the fake digital image. The learning model generator 32 generates a learning model of the feature point vector set based on some feature points selected by the feature point selector 31, and the SVM classifier 33 generates the test print based on the generated learning model. Using the feature of the digital image serves to select the class to be included in the test print.

상기 기계학습부(30)에서 사용된 특징점 선택 기법과 SVM 기법에 대해서는 좀 더 상세히 후술하기로 한다.The feature point selection technique and the SVM technique used in the machine learning unit 30 will be described later in more detail.

최종적으로, 상기 위조여부식별부(40)는 상기 SVM분류기(33)에서 선정된 클래스에 의해 테스트인쇄물의 위조여부를 식별하게 된다.
Finally, the counterfeit identification unit 40 identifies whether the test print is forged by the class selected by the SVM classifier 33.

또한 도 4에 도시된 바와 같이, 본 발명의 다른 일실시예에 의한 보안 인쇄물 위조식별 시스템(100)은 인쇄물학습장치(110) 및 인쇄물식별장치(120)를 포함한다.In addition, as shown in FIG. 4, the secure printed matter forgery identification system 100 according to another embodiment of the present invention includes a print learning apparatus 110 and a print identification apparatus 120.

상기 인쇄물학습장치(110)는, 제1이미지변환부(50); 제1특징점추출부(60); 특징점선택기(31); 및 학습모델생성기(32);를 포함하는 것을 특징을 한다. The print learning apparatus 110 may include a first image converting unit 50; First feature point extraction unit 60; A feature point selector 31; And a learning model generator 32.

또한, 상기 인쇄물식별장치(120)는, 제2이미지변환부(70); 제2특징점추출부(80); SVM분류기(33) 및 위조여부식별부(40)를 포함하는 것을 특징으로 한다.
In addition, the printed matter identification device 120, the second image conversion unit 70; Second feature point extracting unit 80; SVM classifier 33 and the counterfeit identification unit 40 is characterized in that it comprises a.

상술한 본 발명의 보안 인쇄물 위조식별 시스템(100)을 이용한 보안 인쇄물 위조식별 방법을 도 5의 흐름도에 의해 설명하기로 한다.The security print forgery identification method using the security print forgery identification system 100 of the present invention described above will be described with reference to the flowchart of FIG. 5.

즉 본 발명의 보안 인쇄물 위조식별 방법은, 상기 이미지변환부(10)가 원본인쇄물을 디지털이미지로 변환하여 원본디지털이미지를 생성하는 원본디지털화단계(S110); 상기 이미지변환부(10)가 위조본인쇄물을 디지털이미지로 변환하여 위조본디지털이미지를 생성하는 위조본디지털화단계(S115); 상기 특징점추출부(20)가 상기 원본디지털이미지의 특징점을 추출하는 원본특징점추출단계(S120); 상기 특징점추출부(20)가 상기 위조본디지털이미지의 특징점을 추출하는 위조본특징점추출단계(S125); 상기 기계학습부(30)가 상기 원본디지털이미지의 특징점과 상기 위조본디지털이미지의 특징점으로부터 SVM 방식에 의해 일부 특징점을 선택하는 특징점선택단계(S130); 상기 기계학습부(30)가 상기 S130 단계에서 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성단계(S135); 상기 이미지변환부(10)가 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 테스트인쇄물디지털화단계(S140); 상기 특징점추출부(20)가 상기 상기 테스트인쇄물디지털이미지로부터 특징점을 추출하는 테스트인쇄물특징점추출단계(S145); 상기 기계학습부(30)가 상기 S135 단계에서 생성된 학습모델을 바탕으로 S145 단계에서 추출된 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류단계(S150); 및 상기 위조여부식별부(40)에서 상기 S150 단계에서 선정된 클래스에 의해 테스트인쇄물의 위조여부를 식별하는 위조여부식별단계(S155);를 포함한다.
That is, the security printed material forgery identification method of the present invention, the image conversion unit 10 converts the original printout into a digital image to generate an original digital image (S110); Counterfeit digitization step (S115) by the image conversion unit 10 converts the counterfeit printed matter to a digital image to generate a fake digital image; An original feature point extraction step (S120) of the feature point extraction unit 20 to extract a feature point of the original digital image; A counterfeit feature feature extraction step (S125) of extracting feature points of the counterfeit bone digital image by the feature point extractor 20; A feature point selection step of the machine learning unit 30 selecting some feature points from the feature points of the original digital image and the feature points of the fake digital image by SVM method; A learning model generation step (S135) of which the machine learning unit 30 generates a learning model of the feature point vector set by the partial feature points selected in step S130; A test printout digitizing step of converting the test printout into a digital image and generating a test printout digital image by the image conversion unit 10 (S140); A test print feature point extracting step (S145) of the feature point extracting unit 20 to extract a feature point from the test print digital image; An SVM classification step (S150) of which the machine learning unit 30 selects a class to include the test print using the feature points extracted in step S145 based on the learning model generated in step S135; And a forgery identification step (S155) of identifying whether or not the forgery of the test prints by the class selected in the step S150 in the forgery identification unit (40).

본 발명의 특징점추출부(20), 제1특징점추출부(60) 및 제2특징점추출부(80)에서의 특징점 추출 기법에 대해 하기에 자세히 설명하기로 한다.
A feature point extraction technique in the feature point extractor 20, the first feature point extractor 60, and the second feature point extractor 80 of the present invention will be described in detail below.

특징점 추출 기법Feature Point Extraction Technique

디지털이미지로 이루어진 검사 대상의 위조여부를 식별하기 위해 다량의 특징점을 추출하여 검사 대상을 벡터의 형태로 정량화한다. 본 발명에서는 이산웨이블릿변환(Discrete Wavelet Transform)기반의 특징점, 화질측정도구(Image Quality Measures)기반의 특징점, 텍스처(Texture)기반의 특징점, 정보이론(Information Theory)기반의 특징점 및 망점구조분석(Halftone Texture Analysis)기반의 특징점이 사용되었다. In order to identify the forgery of the test object consisting of digital images, a large number of feature points are extracted and the test object is quantified in the form of a vector. In the present invention, a discrete wavelet transform based feature point, image quality measure based feature point, texture based feature point, information theory based feature point and halftone structure analysis (Halftone) Texture Analysis based feature points were used.

각 특징점의 추출 과정에 대해 하기에 상세히 설명하기로 한다.
The extraction process of each feature point will be described in detail below.

이산웨이블릿변환기반의 특징점Discrete Wavelet Transform-Based Features

이산웨이블릿변환을 통해서 주어진 이미지는 다단계로 구성된 고주파 영역과 저주파 영역으로 나누어진다. 이때 고주파로 나타나는 영역은 이미지의 잡음을 대표한다. 상기의 잡음은 컬러 프린터 또는 컬러 영역마다 조금씩 다르기 때문에 이들을 적절히 나타내는 통계치는 이미지를 표현하는 특징점으로 간주할 수 있다. 이산웨이블릿변환은 아래에 설명하는 것과 같은 과정을 거친다. Through the discrete wavelet transform, a given image is divided into a multi-stage high frequency region and a low frequency region. At this time, the high frequency region represents the noise of the image. Since the noise is slightly different for each color printer or color area, the statistics representing them properly can be regarded as feature points representing an image. Discrete wavelet transform is the same as described below.

먼저 이산웨이블릿의 기저함수 Ψj,k(t)는 수학식 1과 같이 나타낼 수 있다.First, the basis function Ψ j, k (t) of the discrete wavelet can be expressed by Equation 1.

Figure 112010035654266-pat00001
Figure 112010035654266-pat00001

임의의 신호 f(t)는 기저함수 Ψj,k(t)와 웨이블릿 계수 aj,k의 결합된 형태로 표현된다. 즉, 수학식 2와 같이 나타낼 수 있다.The arbitrary signal f (t) is represented by the combined form of the basis function Ψ j, k (t) and wavelet coefficients a j, k . That is, it can be expressed as Equation 2.

Figure 112010035654266-pat00002
Figure 112010035654266-pat00002

웨이블릿을 이용한 다해상도 분석에서는 두 개의 기본 함수, 즉 스케일 함수 Ψj,k(t)와 웨이블릿 함수 Φj,k(t)가 존재하며 이는 수학식 3과 같다. cj와 dj는 각각의 함수에 대한 신장 계수를 의미한다.In multiresolution analysis using wavelets, there are two basic functions, namely, the scale function Ψ j, k (t) and the wavelet function Φ j, k (t). c j and d j are the elongation coefficients for each function.

Figure 112010035654266-pat00003
Figure 112010035654266-pat00003

도 6에 예제 이미지를 사용한 필터 구조를 도시하였다. 필터 L(z)와 H(z)는 각각 스케일링 함수 Φ(t)와 웨이블릿 함수 Ψ(t)에 일치하는 신장 계수이고, L은 저역필터, H는 고역필터를 나타낸다. 저역필터와 고역필터를 통해 이미지를 가로(Row) 방향으로 두 대역으로 나누고, 그 결과 데이터를 반만 취하는 다운 샘플링 과정을 수행한다. 다음으로, 다운 샘플링된 두 개의 대역을 각각 세로(Column) 방향 두 대역으로 나누고, 다시 그 결과 데이터를 반만 취하는 다운 샘플링 과정을 수행한다. 이러한 과정을 통하여 신호를 4가지 해상도, 즉 LL, LH, HL 및 HH로 표현하게 된다.6 illustrates a filter structure using an example image. The filters L (z) and H (z) are elongation coefficients corresponding to the scaling functions? (T) and wavelet function? (T), respectively, where L is a low pass filter and H is a high pass filter. The low pass filter and the high pass filter divide the image into two bands in the horizontal direction, and as a result, the downsampling process takes half the data. Next, each of the two down-sampled bands is divided into two vertical bands, and again, a down-sampling process of taking half the data is performed. Through this process, the signal is expressed in four resolutions, LL, LH, HL, and HH.

본 발명에서는 이산웨이블릿변환 이후 각 고주파 부대역 즉, LH, HL, HH 내의 통계적 특징, 고주파 부대역 사이의 통계적 특징, 그리고 고주파 부대역에서의 컬러 채널 사이의 상관 계수를 산출하였다.
In the present invention, after the discrete wavelet transform, statistical characteristics within each high frequency subband, that is, LH, HL, and HH, statistical characteristics between the high frequency subbands, and correlation coefficients between color channels in the high frequency subbands are calculated.

고주파 부대역 내의 특징점Feature points in high frequency subband

부대역 내의 잡음을 대표하는 특징점으로 이산웨이블릿변환 이후 각 단계 별 고주파 부대역 즉, LH, HL, HH 영역의 표준편차, 첨도 및 왜도를 수학식 4, 수학식 5 및 수학식 6에 의해 각각 구한다.As a characteristic point representing noise in subbands, the standard deviation, kurtosis, and skewness of the high frequency subbands of each step after the discrete wavelet transform, that is, LH, HL, and HH regions, are expressed by Equations 4, 5, and 6, respectively. Obtain

Figure 112010035654266-pat00004
Figure 112010035654266-pat00004

Figure 112010035654266-pat00005
Figure 112010035654266-pat00005

Figure 112010035654266-pat00006
Figure 112010035654266-pat00006

이미지는 RGB(Red, Green, Blue) 3개의 채널로 이루어져 있으므로 이산웨이블릿변환의 레벨 i에 따라 27xi 개의 특징점을 추출할 수 있다. 여기서 한 가지 더 고려해야 할 점은 프린터 출력물은 CMYK(Cyan, Magenta, Yellow, Black)의 4개의 채널로 구성되어 있다는 점이다. 그러므로 추가적으로 36xi개의 특징점을 추출할 수 있다. Since the image is composed of three channels (Red, Green, Blue), 27xi feature points can be extracted according to the level i of the discrete wavelet transform. One more thing to consider here is that the printer output consists of four channels of CMYK (Cyan, Magenta, Yellow, Black). Therefore, 36xi feature points can be extracted.

64x64에서 128x128 사이의 작은 크기의 ROI(Region of Interest)를 사용하여 1단계 웨이블릿 특징점만을 추출한다고 가정하면, 63개의 부대역내의 특징점을 추출하게 된다.
Assuming that only one level wavelet feature point is extracted using a region of interest (ROI) of 64x64 to 128x128, feature points within 63 subbands are extracted.

고주파 부대역 사이의 특징점Feature points between high frequency subbands

이산웨이블릿변환 이후 각 부대역의 계수 값은 주변 부대역의 계수 값과 주변 계수 값의 선형 보간의 형태로 나타내어 질 수 있다. i번째 단계에서 LH, HL, HH의 근사값은 각각 수학식 7, 수학식 8, 수학식 9와 같이 나타낼 수 있다.After the discrete wavelet transform, the coefficient values of each subband may be expressed in the form of linear interpolation between the coefficient values of the neighboring subbands and the neighbor coefficients. Approximate values of LH, HL, and HH in the i th step may be represented by Equations 7, 8, and 9, respectively.

Figure 112010035654266-pat00007
Figure 112010035654266-pat00007

Figure 112010035654266-pat00008
Figure 112010035654266-pat00008

Figure 112010035654266-pat00009
Figure 112010035654266-pat00009

먼저

Figure 112010035654266-pat00010
의 값을 구해보자.
Figure 112010035654266-pat00011
의 계수를
Figure 112010035654266-pat00012
로 나타내면
Figure 112010035654266-pat00013
이다.
Figure 112010035654266-pat00014
Figure 112010035654266-pat00015
의 최소자승오류는 수학식 10과 같다.first
Figure 112010035654266-pat00010
Let's get the value of.
Figure 112010035654266-pat00011
Coefficient of
Figure 112010035654266-pat00012
If expressed as
Figure 112010035654266-pat00013
to be.
Figure 112010035654266-pat00014
Wow
Figure 112010035654266-pat00015
The least square error of

Figure 112010035654266-pat00016
Figure 112010035654266-pat00016

Figure 112010035654266-pat00017
를 최소화 시키는 이차 비선형 최적화 문제를 풀면
Figure 112010035654266-pat00018
는 수학식 11과 같다.
Figure 112010035654266-pat00017
Solve a quadratic nonlinear optimization problem that minimizes
Figure 112010035654266-pat00018
Is the same as Equation 11.

Figure 112010035654266-pat00019
Figure 112010035654266-pat00019

상기에서

Figure 112010035654266-pat00020
를 구했으므로
Figure 112010035654266-pat00021
를 구할 수 있고,
Figure 112010035654266-pat00022
Figure 112010035654266-pat00023
사이의 오차는
Figure 112010035654266-pat00024
로 나타낸다. 동일한 방법으로
Figure 112010035654266-pat00025
Figure 112010035654266-pat00026
를 구하고 각각에 대하여 평균, 분산, 첨도 및 왜도를 구한다. 이는 부대역 사이의 통계적 특성을 드러내는 특징점이라고 할 수 있다. 부대역 내의 특징점과 마찬가지로, R, G, B, C, M, Y, K 각 채널의 LH, HL, HH 영역에서 부대역 사이의 특징점을 구한다. 상기의 과정을 통해서 총 84개의 부대역 사이의 특징점을 추출할 수 있다.
From above
Figure 112010035654266-pat00020
Since we got
Figure 112010035654266-pat00021
You can get
Figure 112010035654266-pat00022
Wow
Figure 112010035654266-pat00023
The error between
Figure 112010035654266-pat00024
Respectively. In the same way
Figure 112010035654266-pat00025
Wow
Figure 112010035654266-pat00026
And calculate the mean, variance, kurtosis, and skewness for each. This is a feature that reveals the statistical characteristics between subbands. Like the feature points in the subbands, the feature points between the subbands in the LH, HL, and HH regions of the R, G, B, C, M, Y, and K channels are obtained. Through the above process, feature points between a total of 84 subbands can be extracted.

컬러 채널 사이의 상관 계수Correlation coefficient between color channels

이미 설명한 바와 같이 이산웨이블릿변환 이후 LH, HL, HH 영역은 이미지의 잡음을 대표한다. 이러한 잡음은 각 컬러 채널에 따라 고유의 분포를 가진다. 그러므로 컬러 이미지 채널 사이의 잡음을 정량화한 값 역시 프린터의 컬러 특성을 나타내는 중요한 특징으로 볼 수 있다. As already explained, after the discrete wavelet transform, the LH, HL, and HH regions represent the noise of the image. This noise has a unique distribution for each color channel. Therefore, the quantified noise between the color image channels is also an important characteristic of the color characteristics of the printer.

본 발명에서는 컬러 채널 사이의 잡음을 정량화하기 위해 상관 계수를 이용한다. 먼저 각 컬러 채널에 대해 이산웨이블릿변환을 수행한다. 다음으로 LH, HL, HH 각 영역에 대하여 R과 G사이, R과 B사이, G와 B사이, C와 M 사이, C와 Y 사이, C와 K 사이, M과 Y 사이, M과 K 사이, Y와 K 사이의 상관 계수를 구하여 특징점 벡터로 삼는다. 상관 계수는 수학식 12와 같다. In the present invention, the correlation coefficient is used to quantify the noise between the color channels. First, discrete wavelet transform is performed for each color channel. Next, between R and G, between R and B, between G and B, between C and M, between C and Y, between C and K, between M and Y, and between M and K , And calculate the correlation coefficient between Y and K as the feature point vector. The correlation coefficient is shown in Equation 12.

Figure 112010035654266-pat00027
Figure 112010035654266-pat00027

상기의 과정을 통해 총 27개의 이산웨이블릿변환기반의 컬러 채널 사이의 상관 계수를 구할 수 있다.
Through the above process, a correlation coefficient between a total of 27 discrete wavelet transform based color channels can be obtained.

화질측정도구기반의 특징점Feature Point of Image Quality Measuring Tool

도 7로부터 알 수 있는 것과 같이, 컬러 프린터로 위조된 문서는 원본 문서에는 존재하지 않는 고유의 프린팅 잡음을 내포한다. 프린팅 잡음은 망점 인쇄 방식 자체의 특성에 의하여 생기는 특징이므로 임의로 감소시키거나 제거할 수 없다. 실제로 위조본의 프린팅 잡음을 추출하여 원본과 비교하면 확연히 구분되는 서로 다른 값을 확인할 수 있다.As can be seen from FIG. 7, a document forged with a color printer contains inherent printing noise that does not exist in the original document. The printing noise is a characteristic caused by the characteristics of the dot printing method itself and cannot be arbitrarily reduced or eliminated. In fact, the printing noise of the counterfeit can be extracted and compared to the original to show distinct values.

다만 이미지는 단일 기준으로 정량화될 수 없다. 이미지를 다양한 기준에서 측정하는 방법으로 여러 종류의 화질측정도구(Image Quality Measures, IQM)가 있다. 본 발명에서는 주어진 이미지

Figure 112010035654266-pat00028
와 저주파 필터를 사용하여 잡음을 제거한 이미지
Figure 112010035654266-pat00029
를 입력으로 받아 공간 영역에서 픽셀의 차이 값, 주파수 영역에서 계수의 차이 값, 두 입력의 상관 계수 그리고 인지 시각 모델을 적용한 픽셀의 차이 값으로 분류되는 17가지의 척도를 이용하여 잡음을 측정하였다. 이처럼 다양한 척도를 이용하여 이미지를 정량화한 벡터는 이미지를 구분할 수 있는 좋은 특징점이 된다. However, images cannot be quantified on a single basis. There are several types of image quality measures (IQM) that measure images based on various criteria. In the present invention, a given image
Figure 112010035654266-pat00028
And noise-free images using low-frequency filters
Figure 112010035654266-pat00029
The noise was measured using 17 scales, which are classified into the difference value of the pixel in the spatial domain, the difference value of the coefficient in the frequency domain, the correlation coefficient of the two inputs, and the difference value of the pixel using the cognitive visual model. As such, a vector that quantifies an image using various scales is a good feature to distinguish the images.

또한 본 발명에서는 주어진 이미지

Figure 112010035654266-pat00030
에 대하여 잡음을 제거하는 방법을 변경해 가며, 총 4가지의
Figure 112010035654266-pat00031
를 생성하였다. 이후
Figure 112010035654266-pat00032
와 서로 다른
Figure 112010035654266-pat00033
을 이용하여 4 세트의 화질측정도구를 추출하였다. 도 8은 상기의 화질측정도구를 추출하는 과정을 나타낸다.Also in the present invention a given image
Figure 112010035654266-pat00030
We are changing the method of removing noise with respect to
Figure 112010035654266-pat00031
Generated. after
Figure 112010035654266-pat00032
And different
Figure 112010035654266-pat00033
Four sets of image quality measurement tools were extracted. 8 shows a process of extracting the image quality measuring tool.

상기의 화질측정도구를 추출하는 과정에서 사용되는 잡음필터는 평균화필터(3x3), 가우시안필터(3x3), 중간값필터(3x3) 및 위너필터(3x3)의 4가지 종류이다The noise filters used in the process of extracting the image quality measurement tool are four types: averaging filter (3x3), Gaussian filter (3x3), intermediate value filter (3x3), and Wiener filter (3x3).

상기의 화질측정도구를 추출하는 과정을 정리하면 다음과 같다. The process of extracting the image quality measuring tool is as follows.

서로 다른 필터를 적용한

Figure 112010035654266-pat00034
에 대하여 상기의 4종류의 필터를 사용하여 화질측정도구를 적용하여 잡음 기반의 특징점을 추출하였다. D1~D3는 픽셀 차이 값을 나타낸다. C1~C5는 상관 계수를, S1~S6은 주파수 영역에서 계수의 차이 값이다. 마지막으로 H1~H3은 인지 시각 모델 U(x)를 적용한 이후 추출한 특징점이다. 4가지 잡음제거 필터를 이용하여 17가지의 화질측정도구를 추출하면 총 68개의 특징점을 구할 수 있다. 도 9에 17가지의 화질측정도구를 나타낸다.
Different filters
Figure 112010035654266-pat00034
The noise-based feature points were extracted by applying the image quality measurement tool using the above four types of filters. D1 to D3 represent pixel difference values. C1 to C5 are correlation coefficients, and S1 to S6 are difference values of coefficients in the frequency domain. Finally, H1 to H3 are feature points extracted after applying the cognitive visual model U (x). A total of 68 feature points can be obtained by extracting 17 image quality measurement tools using four noise reduction filters. Fig. 9 shows 17 image quality measurement tools.

텍스처기반의 특징점Texture Based Features

텍스처는 특정 공간 영역에서 픽셀 값의 변화에 관한 함수로 정의될 수 있다. 위조된 문서는 프린팅 잡음으로 인해 도 7에서 알 수 있는 것과 같이 원본과 상이한 텍스처를 가지게 된다. 그러므로 이러한 텍스처의 통계적 특성은 또 다른 특징점이 될 수 있다. The texture can be defined as a function of the change in pixel value in a specific spatial region. Forged documents will have a different texture than the original, as can be seen in Figure 7 due to printing noise. Therefore, the statistical properties of these textures can be another feature point.

본 발명에서 사용한 알고리즘에서는 GLCM(Gray Level Co-occurrence Matrices)을 구한 이후, GLCM의 통계적 특성을 추출하여 이를 특징점으로 간주한다. 방향벡터 d에 관한 GxG의 GLCM Pd는 수학식 13과 같이 정의된다. 이때 G는 흑백 이미지를 표현하는데 사용되는 색상의 수를 나타내며 일반적으로 256을 사용한다.In the algorithm used in the present invention, after obtaining GLCM (Gray Level Co-occurrence Matrices), the statistical characteristics of GLCM are extracted and considered as feature points. GLCM Pd of GxG with respect to the direction vector d is defined as in Equation 13. In this case, G represents the number of colors used to represent a black and white image and generally uses 256.

Figure 112010035654266-pat00035
Figure 112010035654266-pat00035

즉, 방향벡터 d에 따른 2차원 히스토그램으로 나타낼 수 있다. 구성된 GLCM을 관찰함으로써 주어진 이미지의 특성을 알 수 있다. 예를 들어, GLCM의 대부분의 값이 대각선에 치중되어 있다면 방향벡터 d의 방향으로 영상에서 유사점이 많음을 의미한다. 여기서 도 10에 나타낸 3가지 통계적 특징을 구한다.That is, it can be represented by a two-dimensional histogram according to the direction vector d. By observing the constructed GLCM, we can know the characteristics of a given image. For example, if most values of GLCM are centered on a diagonal line, this means that there are many similarities in the image in the direction of the direction vector d. Here, three statistical features shown in FIG. 10 are obtained.

본 발명에서는 d(0,1), d(1,0), d(1,1), d(1,-1)에서 d(0,4), d(4,0), d(4,4), d(4,-4)까지 총 16가지 방향벡터에 관하여 3개의 통계적 특성, 즉 48개의 특징점을 추출하였다.In the present invention, d (0,1), d (1,0), d (1,1), d (1, -1) to d (0,4), d (4,0), d (4, 4) Three statistical properties, 48 feature points, were extracted for 16 direction vectors up to d (4, -4).

다음으로 살펴볼 또 다른 텍스처기반의 특징점은 대부분의 이미지에서 이웃 픽셀의 값은 유사하다는 점에 기반을 둔다. 이미지의 경계를 제외한 나머지 영역의 픽셀 값은 부드럽게 변한다. 부드러운 영역을 어두운 영역과 밝은 영역으로 다시 나누면 각 영역의 해당 픽셀 값의 근사값

Figure 112010035654266-pat00036
는 주어진 계수
Figure 112010035654266-pat00037
와 주변 픽셀 값의 선형 보간으로 만들어 질 수 있다. 도 11은 부드러운 영역의 해당 픽셀과 그 이웃 값을 나타낸다.Another texture-based feature to look at next is based on the similarity of neighbor pixel values in most images. Pixel values in the rest of the image, except the boundaries of the image, change smoothly. Subdividing soft areas into dark and light areas approximates the corresponding pixel values in each area.
Figure 112010035654266-pat00036
Is given coefficient
Figure 112010035654266-pat00037
And linear interpolation of surrounding pixel values. Fig. 11 shows corresponding pixels and their neighbor values in the soft area.

상기의 조건을 만족하는

Figure 112010035654266-pat00038
를 구하기 위해서 수학식 14와 같은 비선형 최적화 문제를 푼다.Satisfying the above conditions
Figure 112010035654266-pat00038
To solve this problem, we solve a nonlinear optimization problem such as

Figure 112010035654266-pat00039
Figure 112010035654266-pat00039

여기에서

Figure 112010035654266-pat00040
를 구하면
Figure 112010035654266-pat00041
을 구할 수 있다. 이 때,
Figure 112010035654266-pat00042
의 평균과 표준 편차를 또 다른 특징점으로 둔다. RGB 각각에서 어두운 영역과 밝은 영역에 대하여 평균과 표준편차를 구할 수 있으므로 총 12개의 특징점을 구할 수 있다.
From here
Figure 112010035654266-pat00040
If you find
Figure 112010035654266-pat00041
Can be obtained. At this time,
Figure 112010035654266-pat00042
Let the mean and standard deviation of be another feature point. Since the average and standard deviation can be obtained for the dark and bright areas of each RGB, a total of 12 feature points can be obtained.

정보이론기반의 특징점Information theory based features

망점구조 인쇄 방식으로 컬러 이미지를 출력할 경우 각 컬러 채널은 고유의 잡음을 내포한다. 각 컬러 채널마다 잡음의 강도가 다르므로 각 컬러 채널의 엔트로피와 컬러 채널 사이의 상호 정보는 검사 대상물의 특성을 대표하는 중요한 특징점으로 볼 수 있다. When outputting color images with halftone printing, each color channel contains inherent noise. Since the intensity of noise is different for each color channel, mutual information between the entropy of each color channel and the color channel can be regarded as an important characteristic point representing the characteristics of the object under test.

먼저 엔트로피는 수학식 15와 같이 나타낼 수 있다.First, entropy may be expressed as in Equation 15.

Figure 112010035654266-pat00043
Figure 112010035654266-pat00043

엔트로피는 해당 사건의 불확실성 정도를 측정하는 척도이다. 검사 대상물이 위조본일 경우 컬러 채널의 잡음으로 인해 원본과 구분되는 엔트로피 값을 가지게 된다. 그러므로 각 컬러 채널의 엔트로피는 검사 대상물을 대표하는 특징점으로 볼 수 있다. Entropy is a measure of the degree of uncertainty in a given event. If the object under test is a counterfeit, the noise in the color channel will have an entropy value that is distinct from the original. Therefore, the entropy of each color channel can be seen as a characteristic point representing the inspection object.

다음으로 상호 정보는 수학식 16과 같이 표현된다.Next, the mutual information is expressed as in Equation 16 below.

Figure 112010035654266-pat00044
Figure 112010035654266-pat00044

상호 정보는 사건 X와 사건 Y 사이의 의존성에 관한 척도이다. 즉, 사건 X 와 Y가 독립적인 사건이라면 상호 정보 I(X;Y)는 0을 가진다. 그러나 사건 X가 발생했을 때 사건 Y가 항상 발생한다면 상호 정보 값은 X의 엔트로피 값과 동일하다. Mutual information is a measure of the dependency between event X and event Y. That is, if events X and Y are independent events, mutual information I (X; Y) has zero. However, if event Y always occurs when event X occurs, the mutual information value is equal to the entropy value of X.

만약 검사 대상물이 원본일 경우 각 컬러 채널의 값은 잡음을 거의 내포하고 있지 않으므로 컬러 채널의 값은 종속성을 띄게 된다. 이에 따라 상호 정보 값은 커지게 된다. 그러나 검사 대상물이 위조본일 경우 각 컬러 채널마다 존재하는 고유의 잡음으로 인해 채널 사이의 독립성이 증가하고 상호 정보 값은 작아지게 된다. 그러므로 상호정보 또한 검사 대상물을 표현하는 특징으로 볼 수 있다. If the test object is the original, the value of each color channel contains little noise, so the value of the color channel is dependent. As a result, the mutual information value becomes large. However, if the object to be inspected is a counterfeit, the inherent noise present in each color channel increases the independence between the channels and decreases the mutual information value. Therefore, mutual information can also be seen as a feature that represents an object to be inspected.

이상을 종합하여 본 과제에서는 R, G, B 각 채널에서의 엔트로피 값과 R과 G, G와 B, B와 R 채널 사이의 상호 정보 값을 정보이론 기반의 특징점으로 삼는다.
Summarizing the above, in this project, the values of entropy in each of R, G, and B channels and mutual information values between R, G, G, B, B, and R channels are used as information theory-based feature points.

망점구조분석기반의 특징점Characteristic point based on network structure analysis

컬러 프린터는 지폐 등의 선화 인쇄물과 달리 망점 인쇄 방식으로 대상을 출력한다. 그러므로 망점구조가 확인 가능할 정도의 고해상도로 검사 대상물의 일부를 스캔하면 자동으로 위조여부를 탐지할 수 있는 시스템을 구성할 수 있다. 더 나아가 스캔된 망점구조의 분석을 통해 검사 대상물을 출력한 프린터 모델까지 식별할 수 있다. 컬러 프린터는 일반적으로 CMYK의 4가지 잉크를 사용하여 대상을 출력한다. CMYK의 각 채널은 모아레(Moire) 효과, 에지 강조 효과 등을 막기 위해 서로 다른 각도로 출력된다. 도 12는 시판 프린터 중 한 모델인 프린터(3)를 이용하여 망점 인쇄 방식으로 출력된 회색 영상을 스캔하여 Cyan, Magenta, Yellow 채널로 분리한 그림이다. The color printer outputs the object by a dot printing method, unlike line drawing prints such as banknotes. Therefore, if a part of the object is scanned at a high resolution such that the halftone structure can be confirmed, a system capable of automatically detecting a forgery can be configured. Furthermore, the analysis of the scanned dot structure can identify the printer model that outputs the inspection object. A color printer typically uses four inks from CMYK to print the object. Each channel of CMYK is output at different angles to prevent moire effects, edge enhancement effects, and so on. FIG. 12 is a diagram of a gray image output by dot printing using a printer 3, one of commercially available printers, and separated into cyan, magenta, and yellow channels.

도 12를 통해서 각 컬러 채널은 동일한 망점구조를 가지더라도 서로 다른 각도로 출력됨을 알 수 있다. 또한 이러한 망점구조는 프린터의 제작사 및 프린터 모델에 따라 다양한 형태를 가진다. 12, it can be seen that each color channel is output at different angles even though they have the same network structure. In addition, the network structure has various forms according to the manufacturer and printer model of the printer.

도 13은 서로 다른 프린터로 출력한 Cyan 영역의 망점구조이다. 13 is a dot structure of a cyan region outputted to different printers.

결론적으로 CMYK 채널의 각도 정보는 프린터 모델을 역추적 하는데 사용할 수 있는 좋은 특징점이라는 사실을 유추할 수 있다. 각 채널의 각도 정보를 구하기 위해 각 채널에 허프(Hough) 변환을 적용한다. 허프 변환은 수학식 17과 같이 나타낼 수 있다.In conclusion, we can infer that the angular information of the CMYK channel is a good feature that can be used to trace back the printer model. A Hough transform is applied to each channel to obtain angle information of each channel. The Hough transform may be expressed as in Equation 17.

Figure 112010035654266-pat00045
Figure 112010035654266-pat00045

허프 변환을 통해서 이미지에 존재하는 대부분의 직선 정보를 극좌표 즉, 원점으로부터의 거리와 각도의 형태로 구할 수 있다. 스캐너에 의해 스캔된 이미지의 망점구조는 대부분의 영역에서 유사하므로 추출된 직선의 각도 정보 역시 대부분 유사한 값을 가지게 된다. 그러므로 추출된 직선의 각도 정보를 이용하여 히스토그램을 구축하면 각 프린터 모델마다 고유의 피크를 가지는 서로 다른 형태의 히스토그램을 구축할 수 있다. The Hough transform can obtain most linear information in the image in the form of polar coordinates, that is, distance and angle from the origin. Since the halftone structure of the image scanned by the scanner is similar in most areas, the angle information of the extracted straight line also has a similar value. Therefore, if the histogram is constructed using the extracted angle information of the straight line, it is possible to construct a different type of histogram having a unique peak for each printer model.

도 14는 상기의 망점구조분석 과정을 상세히 보여주고 있다.14 shows the above-described halftone structure analysis process in detail.

도 14의 (a)는 시판의 프린터 모델 중 하나인 프린터(5)로 출력한 이미지를, 도 14의 (b)와 (c)는 프린터(4)로 출력한 이미지를 보여준다. 각각에서 왼쪽의 그림은 이미지의 망점구조와 이를 대표하는 직선을 보여주며, 가운데 그림은 허프 변환 과정을 나타낸다. 마지막으로 오른쪽 그림은 추출된 직선의 각도 정보를 이용하여 구축한 히스토그램이다. (a)와 (b)를 비교해보면 비슷한 이미지라 할지라도 서로 다른 프린터로 출력한 경우 구축되는 히스토그램은 서로 다른 형태를 나타내는 것을 관찰할 수 있다. 그러나 (c)와 (d)를 비교해보면 비록 서로 다른 형태의 이미지라고 하더라도 동일한 프린터로 출력한 경우, 구축되는 히스토그램은 유사한 형태를 가지는 것을 확인할 수 있다. 14A illustrates an image output by a printer 5, which is one of commercially available printer models, and FIGS. 14B and 14C illustrate an image output by a printer 4. In each case, the figure on the left shows the halftone structure of the image and the straight lines representing it, and the middle figure shows the Hough transform process. Finally, the figure on the right is a histogram constructed from the angle information of the extracted straight lines. Comparing (a) and (b), it can be observed that the histogram constructed when different printers print similar images even if they are similar images. However, if you compare (c) and (d), you can see that even if the images are of different types, the histograms that are constructed have similar shapes when outputted to the same printer.

이에 반해 지폐 등의 선화 인쇄물은 망점 인쇄물과 같은 규칙적인 인쇄 패턴을 가지지 않으므로 특정 분포를 형성하는 히스토그램을 생성하지 않는다. 그러므로 허프 변환을 이용하여 생성된 히스토그램은 중요한 특징점으로 볼 수 있다. In contrast, linear prints, such as banknotes, do not have a regular printing pattern like a dot print, and thus do not generate histograms that form a specific distribution. Therefore, the histogram generated using Hough transform can be regarded as an important feature.

본 발명에서는 Cyan, Magenta, Yellow의 3가지 채널에서 36개의 빈을 가지는 히스토그램을 구성한다. 이상을 통해 총 108개의 특징점을 추출한다.
In the present invention, a histogram having 36 bins in three channels of Cyan, Magenta, and Yellow is constructed. Through the above, a total of 108 feature points are extracted.

다음으로, 본 발명의 기계학습부(30)에서 사용되는 기법들에 대해 보다 자세히 살펴보기로 한다.
Next, the techniques used in the machine learning unit 30 of the present invention will be described in more detail.

특징점 선택 기법Feature Point Selection Technique

상술한 바와 같이 검사 대상에서 추출할 수 있는 수많은 특징점에 대하여 살펴보았다. 그러나 너무 많은 특징점의 사용은 시스템의 과부하를 야기할 수 있다. 실제로 보안 제품의 위조여부를 식별하는 시스템의 성능은 일반적인 PC의 성능보다 훨씬 낮다. As described above, a number of feature points that can be extracted from the inspection object were described. However, using too many feature points can cause system overload. In fact, the performance of a system that identifies forgery of a security product is much lower than that of a typical PC.

그러므로 주어진 후보 특징점의 집합에서 가장 적절한 특징점만을 선택하여 계산량, 메모리 등의 자원을 절약할 필요가 있다. 주어진 후보 특징점 중 위조여부의 식별 또는 모델 역추적에 가장 적합한 특징점을 찾기 위하여 본 발명에서는 순차적 전방 유동 선택 알고리즘(Sequential Forward Floating Selection, SFFS)을 사용하여 최적의 특징점을 선택하였다. SFFS는 동적으로 특징점을 선택 또는 삭제함으로써 최적의 특징점의 집합을 구성하는 기법으로 도 15의 순서도로 나타날 수 있다.Therefore, it is necessary to save resources such as computation and memory by selecting only the most appropriate feature points from a given set of candidate feature points. In order to find the most suitable feature point for counterfeit identification or model traceback among the given candidate feature points, an optimal feature point was selected using a sequential forward floating selection algorithm (SFFS). SFFS may be shown in the flowchart of FIG. 15 as a technique for constructing an optimal set of feature points by dynamically selecting or deleting feature points.

먼저 알고리즘에 사용된 용어를 정의하면 다음과 같다. m은 알고리즘의 총 실행 횟수를, M은 최대 실행 횟수를 나타낸다. Z는 선택된 특징점의 집합을 나타내며 U는 전체 특징점의 집합을 나타낸다. CR은 선택된 특징 벡터와 SVM분류기를 이용하여 2-fold cross validation을 통해 계산된 분류 성능을 나타낸다. 마지막으로 J는 m단계에서 분류 성능이 가장 좋을 때의 분류 결과 값을 말한다. 단계1과 단계2를 통하여 SFFS 알고리즘은 분류 성능을 가장 높이는 특징점 하나를 선택하여 Z에 추가한다. 다음으로 전체 알고리즘의 수행횟수가 M 보다 많은지 검사한다. 만약 m > M 이라면 현재까지의 특징점 선택 히스토리를 살펴본 후 가장 분류결과가 좋을 때의 특징점 집합과 그 때의 분류 결과를 리턴한다. 그 외의 경우 선택된 특징점 중 필요 없다고 판단되는 특징점을 동적으로 Z에서 제거하는 작업을 4, 5, 6 단계를 걸쳐서 수행한다. 검사 성능 향상에 큰 도움이 되지 않는 특징점은 계속해서 Z에서 제거 해준다. 더 이상 제거할 특징점이 존재하지 않으면 단계1로 돌아가 필요한 특징점을 추가한다. First, the terms used in the algorithm are defined as follows. m represents the total number of executions of the algorithm, and M represents the maximum number of executions. Z represents the set of selected feature points and U represents the set of all feature points. CR represents the classification performance calculated through 2-fold cross validation using the selected feature vector and SVM classifier. Finally, J is the classification result value when the classification performance is the best in step m. In steps 1 and 2, the SFFS algorithm selects one feature point that has the highest classification performance and adds it to Z. Next, we check if the total number of algorithms runs is greater than M. If m> M, the feature point selection history to date is examined and the set of feature points at the best classification result and the result of classification at that time are returned. In other cases, the process of dynamically removing Z from the selected feature points that is not necessary is performed in 4, 5, and 6 steps. Features that don't really help test performance continue to be removed from Z. If there are no more feature points to remove, go back to step 1 and add the required feature points.

도 16은 SFFS를 이용하여 선택된 특징점의 수와 판별률의 관계를 보여준다. 도 16으로부터 알 수 있는 것과 같이 선택된 특징점의 수가 약 30개를 넘어가면 분류 성능에는 큰 영향을 미치지 않음을 확인할 수 있다.16 shows the relationship between the number of feature points selected and the discrimination rate using SFFS. As can be seen from FIG. 16, when the number of selected feature points exceeds about 30, it may be confirmed that the classification performance is not significantly affected.

SFFS의 과정을 통하여 이산웨이블릿변환기반의 특징점이 분류 성능에 큰 영향을 끼침을 확인할 수 있었다. 특히 이산웨이블릿변환 이후 채널간의 상관 계수 기반 특징점과 부대역 사이의 특징점이 주로 선택되는 것을 알 수 있다
Through the process of SFFS, it is confirmed that the feature point based on discrete wavelet transform has a big influence on classification performance. In particular, it can be seen that after discrete wavelet transform, feature points between correlation coefficient-based feature points and subbands are mainly selected.

본 발명에서는 상술한 바와 같은 특징점 선택 기법에 의해 상기 특징점선택기(31)에서 디지털이미지의 다수의 특징점로부터 SVM에 기반한 방식에 의해 일부 특징점을 선택하고, 상기 학습모델생성기(32)에 의해 상기 특징점선택기(31)에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성한다.In the present invention, the feature point selector 31 selects some feature points from a plurality of feature points of the digital image by the SVM based method, and the learning model generator 32 selects the feature points. A learning model of the feature point vector set is generated from some feature points selected by (31).

상기 특징점선택기(31)에서의 학습 및 SVM분류기(33)에서 클래스를 선정하기 위해 사용되는 SVM 기법에 대해 하기에 좀 더 자세히 알아보기로 한다.
The SVM technique used for learning in the feature point selector 31 and selecting a class in the SVM classifier 33 will be described in more detail below.

SVM 기법SVM Technique

특징점 선택 및 학습모델 생성 이후, 주어진 테스트인쇄물의 특징점을 바탕으로 위조여부를 식별하는 기술이 필요하다. SVM은 이러한 목적에 적합한 범용적인 지도 학습 방법 중 하나이다. SVM분류기를 위조여부식별에 사용하기 위해서는, 먼저 이를 주어진 입력의 부분집합으로 학습시켜야 한다. 주어진 입력이 두 개의 집합으로 나눠진다고 가정하면 수학식 18과 같이 표기될 수 있다. 여기에서

Figure 112010035654266-pat00046
는 주어진 특징점의 벡터이고,
Figure 112010035654266-pat00047
는 그때 진위 여부를 나타낸다. After feature point selection and learning model generation, a technique is needed to identify forgery based on the feature points of a given test print. SVM is one of the most popular supervised learning methods for this purpose. To use an SVM classifier for forgery identification, you must first train it on a subset of the given input. Assuming that a given input is divided into two sets, it can be written as From here
Figure 112010035654266-pat00046
Is the vector of the given feature points,
Figure 112010035654266-pat00047
Indicates authenticity at that time.

Figure 112010035654266-pat00048
Figure 112010035654266-pat00048

이와 같은 두 집합을 나누는 다차원 평면은

Figure 112010035654266-pat00049
로 나타내어진다. 각 집합에서
Figure 112010035654266-pat00050
에 가장 가까운 점을 서포트벡터(support vector) 로 정의한다. SVM은 주어진 입력에서 서포트벡터와 두 집합을 나누는 다차원 평면 사이의 기하학적인 거리를 최대화 하는 것을 목표로 한다. 서포트벡터가 아래의 두 평면상에 존재 한다면 두 평면 사이의 거리는
Figure 112010035654266-pat00051
이다. 또한, The multidimensional plane that divides these two sets
Figure 112010035654266-pat00049
It is represented by In each assembly
Figure 112010035654266-pat00050
Define the point closest to the support vector. SVM aims to maximize the geometric distance between the support vector and the multidimensional plane that divides the two sets at a given input. If the support vector is on two planes below, the distance between them
Figure 112010035654266-pat00051
to be. Also,

Figure 112010035654266-pat00052
Figure 112010035654266-pat00052

이고, 이상을 간단히 도식화 하면 도 17과 같다.17 is simply shown in FIG.

Figure 112010035654266-pat00053
를 최대화 시키기 위해서는
Figure 112010035654266-pat00054
를 최소화 시켜야 한다. 이상을 종합하면 수학식 19와 같이 최적화 문제를 유도할 수 있다.
Figure 112010035654266-pat00053
To maximize
Figure 112010035654266-pat00054
Should be minimized. In sum, the optimization problem can be derived as shown in Equation (19).

Figure 112010035654266-pat00055
Figure 112010035654266-pat00055

본 발명에서는 일반성을 잃지 않고

Figure 112010035654266-pat00056
Figure 112010035654266-pat00057
로 치환할 수 있고, 이는
Figure 112010035654266-pat00058
Figure 112010035654266-pat00059
를 찾기 위한 수학식 20과 같은 전형적인 이차 비선형 최적화 문제가 된다.In the present invention without losing generality
Figure 112010035654266-pat00056
To
Figure 112010035654266-pat00057
Which can be substituted by
Figure 112010035654266-pat00058
Wow
Figure 112010035654266-pat00059
It is a typical quadratic nonlinear optimization problem, such as (20).

Figure 112010035654266-pat00060
Figure 112010035654266-pat00060

주어진 문제를 쌍대(dual) 영역에서 풀면

Figure 112010035654266-pat00061
Figure 112010035654266-pat00062
를 구할 수 있다. 이상의 과정에서 우리는 주어진 입력의 진위 여부를 판별할 수 있는 SVM분류기를 학습시켰다. 이후 주어진 입력
Figure 112010035654266-pat00063
에 대하여
Figure 112010035654266-pat00064
이면
Figure 112010035654266-pat00065
는 첫 번째 클래스로 분류되며,
Figure 112010035654266-pat00066
이면 두 번째 클래스로 분류된다. Solving a given problem in the dual realm
Figure 112010035654266-pat00061
Wow
Figure 112010035654266-pat00062
Can be obtained. In the above process, we have learned an SVM classifier that can determine the authenticity of a given input. Since given input
Figure 112010035654266-pat00063
about
Figure 112010035654266-pat00064
If
Figure 112010035654266-pat00065
Is classified as the first class,
Figure 112010035654266-pat00066
Is classified as the second class.

만약 이미지 채널의 개수 K > 2 이상의 클래스로 주어진 문제를 분류해야 한다면, 하나의 집합과 그 외 나머지 모든 집합의 합집합을 나누는 K개의 이진 SVM분류 문제를 학습시킨다. 이후 주어진 입력

Figure 112010035654266-pat00067
에 대하여 가장 높은 결과 값을 보이는 SVM분류기의 집합으로 분류한다. If we need to classify a given problem as a class with more than the number of image channels, K> 2, we will learn K binary SVM classification problems that divide the set of one set with all other sets. Since given input
Figure 112010035654266-pat00067
Classify the set of SVM classifiers with the highest result.

이상에서 선형 분리가 가능한 경우의 SVM분류기를 살펴보았다. 그러나 입력 데이터는 항상 선형 분리가 가능한 것은 아니다. 선형분리가 불가능한 경우에도 분류 함수의 오류율을 최소화 하기위해 슬랙(Slack) 변수와 커널(Kernel) 함수의 개념을 도입하여 SVM분류기를 구성한다. 슬랙 변수는 비록 두 클래스가 완전히 선형으로 나눠지지 않더라도 다차원평면에 적절한 오류치를 미리 더하여 선형분류기의 오류를 최소화 하는데 사용된다. 슬랙 변수가 적용된 SVM분류기는 수학식 21과 같다.In the above, we looked at the SVM classifier when linear separation is possible. However, input data is not always linearly separable. Even when the linear separation is impossible, the SVM classifier is composed by introducing the concept of Slack variable and Kernel function to minimize the error rate of the classification function. Slack variables are used to minimize errors in the linear classifier by adding the appropriate error values to the multidimensional plane in advance, even though the two classes are not completely linearly divided. The SVM classifier to which the slack variable is applied is shown in Equation 21.

Figure 112010035654266-pat00068
Figure 112010035654266-pat00068

하지만 슬랙 변수만으로는 선형 분리가 불가능한 입력 데이터를 완벽히 분리 할 수 없다. 그러므로 비선형 분리의 입력 데이터를 선형 분리가 가능한 형태로 사상하는 커널 함수의 개념을 도입한다. 커널 함수의 개념은 도 18과 같다. However, slack variables alone cannot completely separate input data that cannot be linearly separated. Therefore, we introduce the concept of a kernel function that maps input data of nonlinear separation into a form capable of linear separation. The concept of a kernel function is shown in FIG.

커널 기법을 통해 선형 분리가 불가능한 2차원 데이터가 3차원으로 사상되고 이에 따라 선형 분리가 가능한 형태로 바뀜을 확인 할 수 있다. 본 발명에서는 수학식 22와 같은 RBF(Radial Basis Function) 커널을 이용하여 비선형 입력 데이터를 선형으로 사상했다.Through the kernel technique, it is possible to confirm that two-dimensional data that cannot be linearly separated into three-dimensional map and change into a form capable of linear separation accordingly. In the present invention, nonlinear input data is linearly mapped using a radial basis function (RWB) kernel as shown in Equation (22).

Figure 112010035654266-pat00069
Figure 112010035654266-pat00069

슬랙 변수와 커널 함수의 도입으로 C와

Figure 112010035654266-pat00070
로 나타나는 2개의 변수가 추가된다. 이는 교차검증(cross-validation)을 통해 최적의 분류 성능을 나타내는 값으로 결정된다.
The introduction of Slack variables and kernel functions
Figure 112010035654266-pat00070
Two variables are indicated by. This is determined by a value representing the optimal classification performance through cross-validation.

마지막으로, 상기와 같이 SVM분류기(33)에 의해 선정된 클래스에 의해 상기 위조여부식별부(40)는 테스트인쇄물의 위조여부를 성공적으로 판별할 수 있다.
Finally, the counterfeit identification unit 40 can determine whether the forgery of the test print successfully by the class selected by the SVM classifier 33 as described above.

100 : 보안 인쇄물 위조식별 시스템
110 : 인쇄물학습장치 120: 인쇄물식별장치
10 : 이미지변환부 20 : 특징점추출부
30 : 기계학습부 40 : 위조여부식별부
50 : 제1이미지변환부 60 : 제1특징점추출부
70 : 제2이미지변환부 80 : 제2특징점추출부
31 : 특징점선택기 32 : 학습모델생성기
33 : SVM분류기
100: security print counterfeit identification system
110: print learning device 120: print identification device
10: image conversion unit 20: feature point extraction unit
30: machine learning part 40: counterfeit identification part
50: first image converter 60: first feature point extractor
70: second image conversion unit 80: second feature point extraction unit
31: feature point selector 32: learning model generator
33: SVM Classifier

Claims (19)

디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템에 있어서,
인쇄물을 변환하여 디지털이미지를 생성하는 이미지변환부;
상기의 디지털이미지의 특징점을 추출하는 특징점추출부;
상기 특징점을 이용하여 기계학습을 실시하는 기계학습부; 및
상기 기계학습 결과로부터 상기 인쇄물의 위조여부를 식별하는 위조여부식별부;를 포함하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
In security printed counterfeit identification system using digital forensic technology,
An image converting unit converting the printed matter to generate a digital image;
A feature point extraction unit for extracting feature points of the digital image;
A machine learning unit for performing machine learning using the feature points; And
Security forgery identification system using a digital forensic technology, including; forgery identification unit for identifying whether the forgery of the print from the machine learning results.
디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템에 있어서, 인쇄물학습장치 및 인쇄물식별장치를 포함하되,
상기 인쇄물학습장치는,
원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부;
상기 원본디지털이미지 및 상기 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부;
상기 원본디지털이미지 및 상기 위조본디지털이미지의 다수의 특징점을 이용하는 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택기; 및
상기 특징점선택기에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성기;를 포함하는 것을 특징을 하며,
상기 인쇄물식별장치는,
테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부;
상기 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부;
상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류기; 및
상기 SVM분류기의 클래스로부터 상기 테스트인쇄물의 위조여부를 식별하는 위조여부식별부;를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
In the secure forgery identification system using digital forensic technology, including a print learning device and a print identification device,
The printed matter learning device,
A first image conversion unit converting the original prints and the fake prints into digital images to generate original digital images and fake digital images;
A first feature point extracting unit for extracting feature points of the original digital image and the counterfeit original digital image;
A feature point selector for selecting some feature points by a SVM (Support Vector Machine) method using a plurality of feature points of the original digital image and the counterfeit digital image; And
And a learning model generator for generating a learning model of the feature point vector set based on some feature points selected by the feature point selector.
The printed matter identification device,
A second image converting unit converting the test print into a digital image to generate a test print digital image;
A second feature point extracting unit extracting feature points of the test print digital image;
An SVM classifier for selecting a class to be included in the test print by using feature points of the test print digital image based on the generated learning model; And
Security forgery forgery identification system using a digital forensic (Forensic) technology comprising a; forgery identification unit for identifying whether the forgery of the test print from the class of the SVM classifier.
제1항에 있어서,
상기 이미지변환부는,
상기 인쇄물 중 원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부; 및
상기 인쇄물 중 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부;를 포함하며,
상기 특징점추출부는,
상기 원본디지털이미지 및 상기 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부; 및
상기 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부;를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 1,
The image conversion unit,
A first image conversion unit converting the original print and the counterfeit print out of the prints into a digital image to generate an original digital image and a counterfeit print digital image; And
And a second image converting unit converting the test print out of the prints into a digital image to generate a test print digital image.
The feature point extraction unit,
A first feature point extracting unit for extracting feature points of the original digital image and the counterfeit original digital image; And
And a second feature point extracting unit extracting a feature point of the test print digital image. The printed matter forgery identification system of claim 1, further comprising a digital forensic technology.
제3항에 있어서, 상기 기계학습부는,
상기 원본디지털이미지 및 상기 위조본디지털이미지로부터 다수의 특징점을 이용하는 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택기;
상기 특징점선택기에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성기; 및
상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류기;를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 3, wherein the machine learning unit,
A feature point selector for selecting some feature points by an SVM (Support Vector Machine) method using a plurality of feature points from the original digital image and the fake digital image;
A learning model generator for generating a learning model of a feature point vector set based on some feature points selected by the feature point selector; And
Security printed material forgery identification system using a digital forensic technology, characterized in that it includes; SVM classifier for selecting a class to be included in the test prints using the feature points of the test printout digital image based on the generated learning model .
제4항에 있어서,
상기 특징점선택기는 순차적 전방 유동 선택 알고리즘을 사용하여 일부 특징점을 선택하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 4, wherein
The feature point selector is a security forgery identification system using a digital forensic technology, characterized in that for selecting some feature points using a sequential forward flow selection algorithm.
제3항에 있어서,
상기 제1특징점추출부 또는 상기 제2특징점추출부는 추출한 특징점으로부터 특징점 벡터를 구성하는 것을 특징으로 하며,
상기 특징점은,
이산웨이블릿변환기반의 특징점;
화질측정도구기반의 특징점;
텍스처기반의 특징점;
정보이론기반의 특징점; 및
망점구조분석기반의 특징점;을 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 3,
Wherein the first feature point extractor or the second feature point extractor constitutes a feature point vector from the extracted feature points,
The feature point,
Feature of discrete wavelet transform;
Feature point based on image quality measurement tool;
Texture-based feature points;
Information theory-based features; And
Security point forgery identification system using digital forensic technology, including;
제6항에 있어서, 상기 이산웨이블릿변환기반의 특징점은,
고주파 부대역내의 통계적 특징에 의한 특징점;
고주파 부대역 사이의 통계적 특징에 의한 특징점; 및
고주파 부대역의 컬러 채널 사이의 상관 계수에 의한 특징점;을 포함하되,
상기 고주파 부대역은, 이미지의 가로방향과 세로방향에 대해 저역필터와 고역필터 및 다운 샘플링 과정을 수행함으로써 결정되는 4가지 부대역 중, 가로방향과 세로방향 중 어느 하나 이상에 대해 고주파 특성을 갖는 3가지 부대역을 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 6, wherein the discrete wavelet transform-based feature point,
Feature points due to statistical features in high frequency subbands;
Feature points due to statistical features between high frequency subbands; And
Characterized by the correlation coefficient between the color channels of the high frequency subband; including,
The high frequency subband has a high frequency characteristic in any one or more of the horizontal direction and the vertical direction among four subbands determined by performing a low pass filter, a high pass filter, and a downsampling process in the horizontal and vertical directions of the image. Security printed counterfeit identification system using digital forensic technology, characterized in that it comprises three sub-bands.
제7항에 있어서, 상기 고주파 부대역내의 통계적 특징에 의한 특징점은,
이산웨이블릿변환 이후 각 단계별 고주파 부대역의 표준편차, 왜도 및 첨도를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 7, wherein the characteristic point due to statistical features in the high frequency subband,
Security printed material forgery identification system using digital forensic technology, characterized in that it comprises a standard deviation, distortion and kurtosis of each high frequency subband after the discrete wavelet transform.
제7항에 있어서, 상기 고주파 부대역 사이의 통계적 특징에 의한 특징점은,
이산웨이블릿변환 이후 각 부대역의 근사값과 부대역의 값의 오차에 대한 평균, 분산, 첨도 및 왜도를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 7, wherein the feature point by the statistical feature between the high frequency subband,
Security forgery identification system using digital forensic technology, characterized in that it includes the average, variance, kurtosis, and skewness of the error of the approximate value of each subband and the subband value after the discrete wavelet transform.
제7항에 있어서, 상기 컬러 채널 사이의 상관 계수에 의한 특징점은,
각 컬러 채널에 대해 이산웨이블릿변환을 수행함으로써 결정되는 R과 G사이, R와 B사이, G과 B사이, C와 M 사이, C와 Y 사이, C와 K 사이, M과 Y 사이, M과 K 사이, Y와 K 사이의 고주파 부대역에 대한 상관 계수인 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 7, wherein the feature point by the correlation coefficient between the color channels,
Between R and G, between R and B, between G and B, between C and M, between C and Y, between C and K, between M and Y, and between M and Y determined by performing discrete wavelet transform for each color channel. A security printed material forgery identification system using digital forensic technology, characterized in that it is a correlation coefficient for high frequency subbands between K and Y and K.
제6항에 있어서, 상기 화질측정도구기반의 특징점은,
입력된 임의의 이미지와, 저주파필터에 의해 입력된 이미지로부터 잡음을 제거한 이미지 사이의 공간 영역에서, 픽셀의 차이 값, 주파수 영역에서 계수의 차이 값, 두 입력의 상관 계수, 그리고 인지 시각 모델을 적용한 픽셀의 차이 값 중 어느 하나 이상의 척도를 이용하여 잡음 기반으로 추출한 특징점인 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 6, wherein the feature-based feature point,
In the spatial domain between any input image and the image from which noise is removed from the image input by the low frequency filter, the difference value of the pixel, the difference value of the coefficient in the frequency domain, the correlation coefficient of the two inputs, and the cognitive visual model are applied. Security printed material forgery identification system using digital forensic technology, characterized in that the extracted feature point based on any one or more of the difference value of the pixel.
제11항에 있어서, 상기의 저주파필터는,
평균화필터, 가우시안필터, 중간값필터 및 위너필터를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 11, wherein the low frequency filter,
Security forgery identification system using digital forensic technology, characterized in that it comprises an averaging filter, Gaussian filter, median filter, and Wiener filter.
제6항에 있어서, 상기 텍스처기반의 특징점은,
GLCM(Gray Level Co-occurrence Matrices)을 이용하여 구해진 에너지, 대조 및 유사의 3가지 통계적 특성을 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 6, wherein the texture-based feature point,
Security imprint forgery identification system using digital forensic technology, characterized by including three statistical characteristics of energy, contrast and similar obtained using Gray Level Co-occurrence Matrices (GLCM).
제13항에 있어서, 상기 텍스처기반의 특징점은,
임의의 픽셀값과 픽셀근사값의 차이의 평균과 표준편차를 더 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 13, wherein the texture-based feature point,
Security forgery identification system using digital forensic technology, characterized in that it further comprises the average and standard deviation of the difference between the arbitrary pixel value and the pixel approximation value.
제6항에 있어서, 상기 정보이론기반의 특징점은,
R, G, B 각 채널에서의 엔트로피 값과, R과 G, G와 B, B와 R 채널 사이의 상호 정보 값을 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
According to claim 6, The information theory-based feature point,
Security imprint forgery identification system using digital forensic technology, characterized in that it includes entropy values in each of R, G, and B channels, and mutual information values between R, G, G, B, B, and R channels. .
제6항에 있어서, 상기 망점구조분석기반의 특징점은,
허프(Hough) 변환을 통해 이미지에 존재하는 직선 정보를 원점으로부터의 거리와 각도 형태로 산출하고 산출된 직선의 각도 정보를 이용하여 구축된 히스토그램의 빈도를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 6, wherein the feature point based on the network structure analysis,
A digital forensic, characterized by calculating the straight line information present in the image through the Hough transform in the form of distance and angle from the origin and using the calculated angle information of the straight line. Security imitation identification system using technology.
제2항에 있어서, 상기 SVM분류기는,
분류 함수의 오류율을 최소화하기 위한 슬랙(Slack) 변수와 커널(Kernel) 함수를 적용하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 2, wherein the SVM classifier,
Security forgery identification system using digital forensic technology characterized by applying Slack variable and Kernel function to minimize error rate of classification function.
제17항에 있어서, 상기 커널(Kernel) 함수는,
RBF(Radial Basis Function) 커널(Kernel)인 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 17, wherein the kernel function (Kernel),
Security printed material forgery identification system using digital forensic technology, characterized in that the RBF (Radial Basis Function) Kernel.
이미지변환부, 특징점추출부, 기계학습부 및 위조여부식별부를 포함하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템에 의한 보안 인쇄물 위조식별 방법에 있어서,
상기 이미지변환부가 원본인쇄물을 디지털이미지로 변환하여 원본디지털이미지를 생성하는 원본디지털화단계;
상기 이미지변환부가 위조본인쇄물을 디지털이미지로 변환하여 위조본디지털이미지를 생성하는 위조본디지털화단계;
상기 특징점추출부가 상기 원본디지털이미지의 특징점을 추출하는 원본특징점추출단계;
상기 특징점추출부가 상기 위조본디지털이미지의 특징점을 추출하는 위조본특징점추출단계;
상기 기계학습부가 상기 원본디지털이미지의 특징점과 위조본디지털이미지의 특징점으로부터 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택단계;
상기 기계학습부가 상기 특징점선택단계에서 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성단계;
상기 이미지변환부가 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 테스트인쇄물디지털화단계;
상기 특징점추출부가 상기 테스트인쇄물디지털이미지로부터 특징점을 추출하는 테스트인쇄물특징점추출단계;
상기 기계학습부가 상기 학습모델생성단계에서 생성된 학습모델을 바탕으로 테스트인쇄물특징점추출단계에서 추출된 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류단계; 및
상기 위조여부식별부에서 상기 SVM분류단계에서 선정된 클래스에 의해 테스트인쇄물의 위조여부를 식별하는 위조여부식별단계;를 포함하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 방법.
In the security print forgery identification method by the security forgery identification system using digital forensic technology including an image conversion unit, feature point extraction unit, machine learning unit and forgery identification unit,
An original digitization step of generating an original digital image by converting the original printout into a digital image;
A counterfeit digitizing step of generating a counterfeit digital image by converting the counterfeit printed matter into a digital image by the image converting unit;
An original feature point extraction step of extracting a feature point of the original digital image by the feature point extraction unit;
A counterfeit feature feature extraction step of extracting a feature point of the counterfeit bone digital image by the feature point extractor;
A feature point selecting step of the machine learning unit selecting some feature points from the feature points of the original digital image and the feature points of the fake digital image by a SVM (Support Vector Machine) method;
A learning model generation step of generating, by the machine learning unit, a learning model of a feature point vector set based on some feature points selected in the feature point selection step;
A test print digitizing step of generating a test print digital image by converting the test print into a digital image by the image conversion unit;
A test print feature point extracting step of extracting a feature point from the test point digital image by the feature point extracting unit;
An SVM classification step of selecting, by the machine learning unit, a class to include the test print using the feature points extracted in the test print feature point extraction step based on the learning model generated in the learning model generation step; And
Security forgery identification method using a digital forensic technology comprising a; forgery identification step of identifying whether the forgery of the test print by the class selected in the SVM classification step in the forgery identification unit.
KR1020100052297A 2010-06-03 2010-06-03 Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor KR101140699B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100052297A KR101140699B1 (en) 2010-06-03 2010-06-03 Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100052297A KR101140699B1 (en) 2010-06-03 2010-06-03 Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor

Publications (2)

Publication Number Publication Date
KR20110132770A KR20110132770A (en) 2011-12-09
KR101140699B1 true KR101140699B1 (en) 2012-05-03

Family

ID=45500639

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100052297A KR101140699B1 (en) 2010-06-03 2010-06-03 Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor

Country Status (1)

Country Link
KR (1) KR101140699B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102196573B1 (en) 2019-06-25 2020-12-30 대한민국 A Method Providing Information On Counterfeit Bills Throuth Remote Analysis
KR102620111B1 (en) 2023-07-19 2024-01-02 이성진 Prints With Information Security Features

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8917930B2 (en) 2012-05-08 2014-12-23 Hewlett-Packard Development Company, L.P. Selecting metrics for substrate classification
KR101716043B1 (en) * 2015-09-01 2017-03-14 성균관대학교산학협력단 Apparatus and method for high speed multiple object recognition for factory automation
EP3504661B1 (en) * 2016-08-24 2023-08-16 Google LLC Change detection based imagery acquisition tasking system
KR101981284B1 (en) * 2017-10-23 2019-05-22 연세대학교 산학협력단 Apparatus Processing Image and Method thereof
KR101936947B1 (en) * 2017-12-04 2019-01-09 포항공과대학교 산학협력단 Method for temporal information encoding of the video segment frame-wise features for video recognition
KR102022058B1 (en) * 2018-02-20 2019-11-04 주식회사 디로그 Method and system for detecting counterfeit of web page
KR102377056B1 (en) * 2020-05-28 2022-03-18 경일대학교산학협력단 The apparatus and method of detecting a image forgery
KR102490136B1 (en) * 2021-06-11 2023-01-20 대한민국 Paper identification device and method for forgery detection of documents
KR102663350B1 (en) * 2021-11-08 2024-05-07 숭실대학교산학협력단 Adversarial perturbation image detection method and computer program stored in a recording medium to execute the method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040090056A (en) * 2003-04-16 2004-10-22 정보통신연구진흥원 A Banknote Counter for Discriminating Denomination and for Detecting Counterfeit Bill by Using CCD Image Sensor
KR20050009503A (en) * 2003-07-16 2005-01-25 노희옥 Bill counting device which can discriminate counterfeit note from the bill and sum the denomination of the bill and mehtod thereof
KR20070075738A (en) * 2006-01-16 2007-07-24 노틸러스효성 주식회사 Method for checking the bill using by a magnetic sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040090056A (en) * 2003-04-16 2004-10-22 정보통신연구진흥원 A Banknote Counter for Discriminating Denomination and for Detecting Counterfeit Bill by Using CCD Image Sensor
KR20050009503A (en) * 2003-07-16 2005-01-25 노희옥 Bill counting device which can discriminate counterfeit note from the bill and sum the denomination of the bill and mehtod thereof
KR20070075738A (en) * 2006-01-16 2007-07-24 노틸러스효성 주식회사 Method for checking the bill using by a magnetic sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102196573B1 (en) 2019-06-25 2020-12-30 대한민국 A Method Providing Information On Counterfeit Bills Throuth Remote Analysis
KR102620111B1 (en) 2023-07-19 2024-01-02 이성진 Prints With Information Security Features

Also Published As

Publication number Publication date
KR20110132770A (en) 2011-12-09

Similar Documents

Publication Publication Date Title
KR101140699B1 (en) Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor
CN110717450B (en) Training method and detection method for automatically identifying copied image of original document
Gou et al. Intrinsic sensor noise features for forensic analysis on scanners and scanned images
US20030161534A1 (en) Feature recognition using loose gray scale template matching
US11010857B2 (en) Signal encoding based on spectral requirements
EP2014082A1 (en) Generating a bitonal image from a scanned colour image
JP2010530095A (en) Authentication of security documents, especially banknotes
US11354767B2 (en) Signal encoding for physical objects including dark ink
RU2543931C2 (en) Authentication protected documents, in particular banknotes
Borges et al. Robust and transparent color modulation for text data hiding
Wu et al. A printer forensics method using halftone dot arrangement model
JP2004336282A (en) Image processor, image processing program and recording medium recorded with relevant program
CN112217958B (en) Method for preprocessing digital watermark carrier image irrelevant to device color space
Khanna et al. Survey of scanner and printer forensics at purdue university
US6633411B1 (en) Method and apparatus for repurposing binary images
Van Beusekom et al. Automatic counterfeit protection system code classification
Boiangiu et al. Methods of bitonal image conversion for modern and classic documents
Joshi et al. Source printer identification from document images acquired using smartphone
Cu et al. A robust data hiding scheme using generated content for securing genuine documents
KR20110086990A (en) Color laser printer identification method
JPH0856287A (en) Image discrimination device
KR101124488B1 (en) Color laser printer identification method through noise characteristics analysis
Zhang et al. Image Splicing Detection Based on Complex Features of Camera Noise Characteristics
CN116137842B (en) Moire fringe generation prediction device, moire fringe generation prediction system, and moire fringe generation prediction method
CN112053275B (en) Printing and scanning attack resistant PDF document watermarking method and device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160328

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170418

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180405

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200122

Year of fee payment: 9