KR101140699B1 - Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor - Google Patents
Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor Download PDFInfo
- Publication number
- KR101140699B1 KR101140699B1 KR1020100052297A KR20100052297A KR101140699B1 KR 101140699 B1 KR101140699 B1 KR 101140699B1 KR 1020100052297 A KR1020100052297 A KR 1020100052297A KR 20100052297 A KR20100052297 A KR 20100052297A KR 101140699 B1 KR101140699 B1 KR 101140699B1
- Authority
- KR
- South Korea
- Prior art keywords
- feature point
- digital image
- image
- feature
- digital
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07D—HANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
- G07D7/00—Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
- G07D7/20—Testing patterns thereon
- G07D7/2016—Testing patterns thereon using feature extraction, e.g. segmentation, edge detection or Hough-transformation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
본 발명에 따르면, 다양한 특징점의 추출이 가능한 보안 인쇄물 위조식별 시스템 및 그 방법을 개발할 수 있다.
또한, 다량의 원본에 대한 디지털이미지와 위조본에 대한 디지털이미지 각각으로부터 추출한 특징점에 대하여 기계학습을 진행하여 위조여부식별을 위한 학습모델을 생성 가능한 디지털 포렌직 기술을 이용한 보안 인쇄물 위조식별 시스템 및 그 방법을 구현할 수 있다.
본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템은 이미지변환부(10); 특징점추출부(20); 기계학습부(30); 및 위조여부식별부(40);를 포함한다. According to the present invention, it is possible to develop a security printed material forgery identification system and method capable of extracting various feature points.
In addition, security printed counterfeit identification system and method using digital forensic technology that can generate a learning model for counterfeit identification by conducting machine learning for each feature point extracted from digital image for a large number of originals and digital image for counterfeit. Can be implemented.
Security imitation forgery identification system according to an embodiment of the present invention is an image conversion unit 10; Feature point extracting unit 20; Machine learning unit 30; And forgery identification unit 40; includes.
Description
본 발명은 보안 인쇄물 위조식별 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게는 디지털 포렌직(Forensic) 기술을 이용하여 보안 인쇄물의 위조를 식별하는 시스템 및 그 방법에 관한 것이다.The present invention relates to a security imprint forgery identification system and method, and more particularly, to a system and method for identifying forgery of a security print using digital forensic technology.
최근 5만원권의 등장과 여러 상품권의 유통이 활발해짐에 따라 보안 인쇄물의 위조가 급증하고 있다. 또한 스캐너와 컬러 프린터의 급속한 발전이 이와 같은 위조를 가속화 시키고 있다. 그래서 현금을 다루는 일반 사업장에서의 위조여부를 식별하는 시스템에 대한 요구가 급증하게 되었다.With the advent of 50,000 won bills and the circulation of various gift certificates, the counterfeiting of security prints is rapidly increasing. The rapid development of scanners and color printers is also accelerating this forgery. Thus, the demand for a system for identifying counterfeit in a general business dealing with cash has surged.
이러한 스캐너와 프린터에 의한 위조물의 식별을 위해, OPC 드럼을 돌리는 기어의 역회전 현상으로 인해서 각속도가 일정하지 않게 됨에 따라 발생하는 준 주기적인 변동 때문에 인쇄 문서에 밴딩(Banding)이라는 결함이 주기적으로 생긴다는 사실을 이용하여 흑백 레이저 프린터를 식별하는 기술이 소개되었다. 이 기술은 하프톤 이미지 인쇄물에는 적용하기가 쉽고 좋은 결과를 얻을 수 있지만, 지폐와 같은 텍스트 인쇄물에는 적용하기 어렵기 때문에 텍스트 인쇄물을 이용해서 프린터를 식별하려면 새로운 특징점이 필요하다. For the identification of counterfeits by scanners and printers, banding defects occur periodically in printed documents due to quasi-periodic fluctuations caused by the angular velocity becoming inconsistent due to the reverse rotation of the gears that rotate the OPC drum. A technique for identifying monochrome laser printers using facts has been introduced. This technique is easy to apply to halftone image prints and achieves good results, but it is difficult to apply to text prints such as banknotes, so new features are needed to identify printers using text prints.
또한, 기 출원 특허 'CCD 이미지 센서를 이용한 이권종 분류 및 위폐 식별 계수기(출원번호:1020030023962)'는 이진화 방법을 이용하여 위폐를 식별하였으나, 식별율 향상을 위한 다양한 특징점 추출이 어렵고, CCD 이미지 센서 외의 다른 디지털 영상 획득 장치에의 적용이 어렵다. In addition, the previously applied patent 'Kwon Heterogeneous Classification and Counterfeit Identification Counter using CCD Image Sensor (Application No .: 1020030023962)' identifies a counterfeit using a binarization method, but it is difficult to extract various feature points to improve the identification rate. It is difficult to apply to other digital image acquisition devices.
본 발명은 전술한 바와 같은 기술적 과제를 해결하는 데 목적이 있는 발명으로서, 다양한 특징점의 추출이 가능한 보안 인쇄물 위조식별 시스템 및 그 방법을 개발하는 것에 그 목적이 있다. The present invention has an object to solve the above technical problem, and the object of the present invention is to develop a security printed material forgery identification system and method capable of extracting various feature points.
또한 본 발명의 보안 인쇄물 위조식별 시스템 및 그 방법은 다량의 원본에 대한 디지털이미지와 위조본에 대한 디지털이미지로부터 추출한 특징점에 의해 기계학습을 진행하여 위조여부식별을 위한 학습모델을 생성 가능하도록 하는 것에 그 목적이 있다.In addition, the security imprint forgery identification system and method of the present invention is to enable the machine learning by the feature points extracted from the digital image for a large number of originals and the digital image for the counterfeit to generate a learning model for identification of counterfeit or not The purpose is.
본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템은, 인쇄물을 디지털이미지로 변환하여 디지털이미지를 생성하는 이미지변환부; 상기의 디지털이미지의 특징점을 추출하는 특징점추출부; 상기 특징점을 이용하여 기계학습을 실시하는 기계학습부; 및 상기 기계학습 결과로부터 상기 인쇄물의 위조여부를 식별하는 위조여부식별부;를 포함한다.Security imitation forgery identification system according to an embodiment of the present invention, the image conversion unit for generating a digital image by converting the printed matter into a digital image; A feature point extraction unit for extracting feature points of the digital image; A machine learning unit for performing machine learning using the feature points; And a forgery identification unit for identifying whether the printed article is forged from the machine learning result.
또한 상기 이미지변환부는, 상기 인쇄물 중 원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부; 및 상기 인쇄물 중 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부;를 포함하는 것이 바람직하다.In addition, the image conversion unit, the first image conversion unit for generating the original digital image and the counterfeit digital image by converting the original print and the counterfeit print out of the prints into a digital image; And a second image converting unit converting the test print out of the printed matter into a digital image to generate a test print digital image.
아울러 상기 특징점추출부는, 상기 원본디지털이미지 및 상기 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부; 및 상기 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부;를 포함하는 것을 특징으로 한다.The feature point extracting unit may include: a first feature point extracting unit extracting feature points of the original digital image and the counterfeit original digital image; And a second feature point extractor for extracting feature points of the test print digital image.
상기 기계학습부의 바람직한 일실시예는, 상기 원본인쇄물 및 위조본인쇄물의 디지털이미지로부터 다수의 특징점을 이용하는 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택기; 상기 특징점선택기에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성기; 및 상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류기;를 포함한다.One preferred embodiment of the machine learning unit, a feature point selector for selecting some feature points by the SVM (Support Vector Machine) method using a plurality of feature points from the digital image of the original print and the counterfeit print; A learning model generator for generating a learning model of a feature point vector set based on some feature points selected by the feature point selector; And an SVM classifier for selecting a class to be included in the test print by using the feature points of the test print digital image based on the generated learning model.
또한 상기 SVM분류기는 분류 함수의 오류율을 최소화하기 위한 슬랙(Slack) 변수와 커널(Kernel) 함수를 적용하는 것을 특징으로 한다.In addition, the SVM classifier is characterized by applying a Slack variable and a Kernel function to minimize the error rate of the classification function.
아울러 상기 커널(Kernel) 함수는 RBF(Radial Basis Function) 커널(Kernel)인 것을 특징으로 한다.
In addition, the kernel function is characterized in that the radial basis function (RBF) kernel (Kernel).
구체적으로 상기 특징점선택기는 순차적 전방 유동 선택 알고리즘을 사용하여 일부 특징점을 선택하는 것을 특징으로 한다.Specifically, the feature point selector selects some feature points using a sequential forward flow selection algorithm.
상세하게는 상기 제1특징점추출부 또는 상기 제2특징점추출부는 추출한 특징점으로부터 특징점 벡터를 구성하는 것을 특징으로 하며, 상기 특징점은 이산웨이블릿변환기반의 특징점; 화질측정도구기반의 특징점; 텍스처기반의 특징점; 정보이론기반의 특징점; 및 망점구조분석기반의 특징점;을 포함하는 것을 특징으로 한다.
In detail, the first feature point extractor or the second feature point extractor comprises a feature point vector from the extracted feature points, wherein the feature points are discrete wavelet transform-based feature points; Feature point based on image quality measurement tool; Texture-based feature points; Information theory-based features; And dotnet structure analysis-based feature points.
구체적으로 상기 이산웨이블릿변환기반의 특징점은 고주파 부대역내의 통계적 특징에 의한 특징점; 고주파 부대역 사이의 통계적 특징에 의한 특징점; 및 고주파 부대역의 컬러 채널 사이의 상관 계수에 의한 특징점;을 포함하되, 상기 고주파 부대역은 이미지의 가로방향과 세로방향에 대해 저역필터와 고역필터 및 다운 샘플링 과정을 수행함으로써 결정되는 4가지 부대역 중, 가로방향과 세로방향 중 어느 하나 이상에 대해 고주파 특성을 갖는 3가지 부대역을 포함하는 것을 특징으로 한다.Specifically, the discrete wavelet transform-based feature points may be characterized by statistical features within a high frequency subband; Feature points due to statistical features between high frequency subbands; And a feature point by a correlation coefficient between color channels of a high frequency subband, wherein the high frequency subband is determined by performing a low pass filter, a high pass filter, and a down sampling process on a horizontal direction and a vertical direction of an image. Among the inverse, it characterized in that it comprises three subbands having a high frequency characteristics in any one or more of the transverse direction and the longitudinal direction.
바람직한 일실시예에 의한 상기 고주파 부대역내의 통계적 특징에 의한 특징점은 이산웨이블릿변환 이후 각 단계별 고주파 부대역의 표준편차, 왜도 및 첨도를 포함하는 것을 특징으로 한다.Characteristic point by the statistical feature in the high frequency subband according to a preferred embodiment is characterized in that it comprises the standard deviation, skewness and kurtosis of each step of the high frequency subband after the discrete wavelet transform.
또한, 상기 고주파 부대역 사이의 통계적 특징에 의한 특징점은 이산웨이블릿변환 이후 각 부대역의 근사값과 부대역의 값의 오차에 대한 평균, 분산, 첨도 및 왜도를 포함하는 것을 특징으로 한다.In addition, the feature point by the statistical feature between the high frequency subbands is characterized by including the mean, variance, kurtosis, and skewness of the error of the approximation value of each subband and the value of the subband after the discrete wavelet transform.
구체적으로 상기 컬러 채널 사이의 상관 계수에 의한 특징점은, 각 컬러 채널에 대해 이산웨이블릿변환을 수행함으로써 결정되는 R과 G사이, R와 B사이, G과 B사이, C와 M 사이, C와 Y 사이, C와 K 사이, M과 Y 사이, M과 K 사이, Y와 K 사이의 고주파 부대역에 대한 상관 계수인 것을 특징으로 한다.
Specifically, the feature point by the correlation coefficient between the color channels is between R and G, between R and B, between G and B, between C and M, and between C and Y determined by performing discrete wavelet transform for each color channel. It is characterized in that the correlation coefficient for the high frequency subbands between, between C and K, between M and Y, between M and K, and between Y and K.
바람직한 일실시예에 따른 상기 화질측정도구기반의 특징점은 입력된 임의의 이미지와, 저주파필터에 의해 입력된 이미지로부터 잡음을 제거한 이미지 사이의 공간 영역에서, 픽셀의 차이 값, 주파수 영역에서 계수의 차이 값, 두 입력의 상관 계수, 그리고 인지 시각 모델을 적용한 픽셀의 차이 값 중 어느 하나 이상의 척도를 이용하여 잡음 기반으로 추출한 특징점인 것을 특징으로 한다.According to a preferred embodiment of the present invention, the image quality measurement tool-based feature points include a pixel difference value and a coefficient difference in a frequency domain in a spatial domain between an arbitrary image input and an image from which noise is removed from an image input by a low frequency filter. It is a feature point extracted based on noise using at least one of a value, a correlation coefficient between two inputs, and a difference value between pixels to which a cognitive visual model is applied.
또한 상기의 저주파필터는 평균화필터, 가우시안필터, 중간값필터 및 위너필터를 포함하는 것을 특징으로 한다.
The low frequency filter may include an averaging filter, a Gaussian filter, a median filter, and a wiener filter.
상기 텍스처기반의 특징점은 GLCM(Gray Level Co-occurrence Matrices)을 이용하여 구해진 에너지, 대조 및 유사의 3가지 통계적 특성을 포함하는 것이 발람직하다.It is preferable that the texture-based feature points include three statistical characteristics of energy, contrast and similar obtained using Gray Level Co-occurrence Matrices (GLCM).
또한 상기 텍스처기반의 특징점은 임의의 픽셀값과 픽셀근사값의 차이의 평균과 표준편차를 더 포함하는 것을 특징으로 한다.
The texture-based feature may further include an average and a standard deviation of the difference between an arbitrary pixel value and an approximation of a pixel.
상기 정보이론기반의 특징점의 바람직한 일실시예는, R, G, B 각 채널에서의 엔트로피 값과, R과 G, G와 B, B와 R 채널 사이의 상호 정보 값을 포함하는 것을 특징으로 한다.
A preferred embodiment of the information theory-based feature point is characterized in that it includes an entropy value in each of R, G, and B channels, and mutual information values between R and G, G, B, B, and R channels. .
구체적으로 상기 망점구조분석기반의 특징점은 허프(Hough) 변환을 통해 이미지에 존재하는 직선 정보를 원점으로부터의 거리와 각도 형태로 산출하고, 산출된 직선의 각도 정보를 이용하여 구축된 히스토그램의 빈도를 포함하는 것을 특징으로 한다.
Specifically, the feature point based on the network structure analysis calculates the linear information existing in the image in the form of distance and angle from the origin through Hough transformation, and calculates the frequency of the histogram constructed using the calculated angle information of the straight line. It is characterized by including.
본 발명의 다른 일실시예에 따른 보안 인쇄물 위조식별 시스템은, 인쇄물학습장치 및 인쇄물식별장치를 포함하되, 상기 인쇄물학습장치는 원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부; 상기 원본디지털이미지 및 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부; 상기 원본디지털이미지 및 위조본디지털이미지의 다수의 특징점을 이용하는 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택기; 및 상기 특징점선택기에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성기;를 포함하는 것을 특징을 한다.Security printed material forgery identification system according to another embodiment of the present invention, including a print learning device and a print identification device, the print learning device converts the original print and the counterfeit printed material into a digital image of the original digital image and counterfeit copy A first image converting unit generating a digital image; A first feature point extraction unit for extracting feature points of the original digital image and the counterfeit digital image; A feature point selector for selecting some feature points by a SVM (Support Vector Machine) method using a plurality of feature points of the original digital image and the counterfeit digital image; And a learning model generator for generating a learning model of the feature point vector set based on some feature points selected by the feature point selector.
또한, 상기 인쇄물식별장치는 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부; 상기 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부; 상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류기; 및 상기 SVM분류기의 클래스로부터 상기 테스트인쇄물의 위조여부를 식별하는 위조여부식별부;를 포함하는 것을 특징으로 한다.
The print identification device may further include: a second image converting unit converting the test print into a digital image to generate a test print digital image; A second feature point extracting unit extracting feature points of the test print digital image; An SVM classifier for selecting a class to be included in the test print by using feature points of the test print digital image based on the generated learning model; And a forgery identification unit for identifying whether the test print is forged from the class of the SVM classifier.
본 발명의 바람직한 일실시예에 따른 보안 인쇄물 위조식별 시스템에 의한 보안 인쇄물 위조식별 방법은, 상기 이미지변환부가 원본인쇄물을 디지털이미지로 변환하여 원본디지털이미지를 생성하는 원본디지털화단계; 상기 이미지변환부가 위조본인쇄물을 디지털이미지로 변환하여 위조본디지털이미지를 생성하는 위조본디지털화단계; 상기 특징점추출부가 상기 원본디지털이미지의 특징점을 추출하는 원본특징점추출단계; 상기 특징점추출부가 상기 위조본디지털이미지의 특징점을 추출하는 위조본특징점추출단계; 상기 기계학습부가 상기 원본디지털이미지의 특징점과 위조본디지털이미지의 특징점으로부터 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택단계; 상기 기계학습부가 상기 특징점선택단계에서 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성단계; 상기 이미지변환부가 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 테스트인쇄물디지털화단계; 상기 특징점추출부가 상기 테스트인쇄물디지털이미지로부터 특징점을 추출하는 테스트인쇄물특징점추출단계; 상기 기계학습부가 상기 학습모델생성단계에서 생성된 학습모델을 바탕으로 테스트인쇄물특징점추출단계에서 추출된 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류단계; 및 상기 위조여부식별부에서 상기 SVM분류단계에서 선정된 클래스에 의해 테스트인쇄물의 위조여부를 식별하는 위조여부식별단계;를 포함한다.Security imprint forgery identification method by the security imprint forgery identification system according to an embodiment of the present invention, Original image digitizing step of generating the original digital image by converting the original printout to a digital image; A counterfeit digitizing step of generating a counterfeit digital image by converting the counterfeit printed matter into a digital image by the image converting unit; An original feature point extraction step of extracting a feature point of the original digital image by the feature point extraction unit; A counterfeit feature feature extraction step of extracting a feature point of the counterfeit bone digital image by the feature point extractor; A feature point selecting step of the machine learning unit selecting some feature points from the feature points of the original digital image and the feature points of the fake digital image by a SVM (Support Vector Machine) method; A learning model generation step of generating, by the machine learning unit, a learning model of a feature point vector set based on some feature points selected in the feature point selection step; A test print digitizing step of generating a test print digital image by converting the test print into a digital image by the image conversion unit; A test print feature point extracting step of extracting a feature point from the test point digital image by the feature point extracting unit; An SVM classification step of selecting, by the machine learning unit, a class to include the test print using the feature points extracted in the test print feature point extraction step based on the learning model generated in the learning model generation step; And a forgery identification step of identifying whether the test print is forged by the class selected in the SVM classification step in the forgery identification unit.
본 발명의 보안 인쇄물 위조식별 시스템과 그 방법에 따르면, 다양한 특징점의 추출이 가능하다.According to the security imprint forgery identification system and method of the present invention, it is possible to extract various feature points.
또한 다량의 원본에 대한 디지털이미지와 위조본에 대한 디지털이미지로부터 추출한 특징점에 의해 기계학습을 진행하여 위조여부식별을 위한 학습모델을 생성 가능하도록 하는 보안 인쇄물 위조식별 시스템과 방법을 구현할 수 있다.In addition, it is possible to implement a security printed counterfeit identification system and method that can generate a learning model for counterfeit identification by conducting machine learning based on feature images extracted from digital images of a large number of originals and digital images of counterfeit text.
도 1은 본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템의 구성도이다.
도 2는 본 발명의 또 다른 일실시예에 따른 보안 인쇄물 위조식별 시스템의 구성도이다.
도 3은 본 발명의 기계학습부의 구성도를 나타낸다.
도 4는 본 발명의 또 다른 일실시예에 따른 보안 인쇄물 위조식별 시스템의 구성도이다.
도 5는 본 발명의 보안 인쇄물 위조식별 방법에 대한 흐름도를 나타낸다.
도 6은 예제 이미지를 통한 이산웨이블릿변환기반의 특징점을 구하기 위해 사용된 필터 구조를 나타낸다.
도 7은 컬러 프린터로 위조된 문서의 프린팅 잡음을 나타낸다.
도 8은 본 발명의 일실시예에 따른 화질측정도구를 추출하는 과정을 나타낸다.
도 9는 본 발명에서 사용된 17가지의 화질측정도구를 나타낸다.
도 10은 GLCM을 이용한 3가지의 통계적 특성을 나타낸다.
도 11은 부드러운 영역의 해당 픽셀과 그 이웃 값을 나타낸다.
도 12는 프린터(3)를 이용하여 망점 인쇄 방식으로 출력된 회색 영상을 스캔하여 시안(Cyan), 마젠타(Magenta), 옐로우(Yellow) 채널로 분리한 그림이다.
도 13은 서로 다른 프린터로 출력한 시안 영역의 망점구조이다.
도 14는 망점구조분석 과정을 나타낸다.
도 15는 SFFS 알고리즘의 흐름도를 나타낸다.
도 16은 SFFS를 이용하여 선택된 특징점의 수와 판별률의 관계를 나타낸다.
도 17은 SVM분류기를 도식화한 것이다.
도 18은 커널 함수를 이용한 선형 분리의 개념도를 나타낸다.1 is a block diagram of a security printed material forgery identification system according to an embodiment of the present invention.
2 is a block diagram of a security printed material forgery identification system according to another embodiment of the present invention.
Figure 3 shows a block diagram of the machine learning portion of the present invention.
Figure 4 is a block diagram of a security print counterfeit identification system according to another embodiment of the present invention.
5 is a flowchart illustrating a security print counterfeit identification method of the present invention.
FIG. 6 shows a filter structure used to obtain discrete wavelet transform based feature points through an example image.
7 shows the printing noise of a forged document with a color printer.
8 illustrates a process of extracting an image quality measuring tool according to an embodiment of the present invention.
9 shows 17 image quality measurement tools used in the present invention.
10 shows three statistical characteristics using GLCM.
Fig. 11 shows corresponding pixels and their neighbor values in the soft area.
FIG. 12 is a diagram of a gray image output by dot printing using a
13 is a dot structure of a cyan area output to different printers.
14 shows a process of network structure analysis.
15 shows a flowchart of the SFFS algorithm.
16 shows the relationship between the number of feature points selected and the discrimination rate using SFFS.
17 is a schematic diagram of an SVM classifier.
18 shows a conceptual diagram of linear separation using a kernel function.
이하, 첨부된 도면을 참조하면서 본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템과 방법에 대해 상세히 설명하기로 한다. Hereinafter, with reference to the accompanying drawings will be described in detail for the security printed material forgery identification system according to an embodiment of the present invention.
본 발명의 하기의 실시예는 본 발명을 구체화하기 위한 것일 뿐 본 발명의 권리범위를 제한하거나 한정하는 것이 아님은 물론이다. 본 발명의 상세한 설명 및 실시예로부터 본 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 본 발명의 권리범위에 속하는 것으로 해석된다.
The following examples of the present invention are intended to embody the present invention, but not to limit or limit the scope of the present invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.
우선, 도 1은 본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템의 구성도이다.First, Figure 1 is a block diagram of a security print counterfeit identification system according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 보안 인쇄물 위조식별 시스템은 이미지변환부(10); 특징점추출부(20); 기계학습부(30); 및 위조여부식별부(40);를 포함한다. As shown in FIG. 1, the security printed matter forgery identification system according to an embodiment of the present invention includes an
또한 도 2에 도시된 바와 같이, 본 발명의 다른 일실시예에 따른 인쇄물 위조식별 시스템은 제1이미지변환부(50); 제1특징점추출부(60); 기계학습부(30); 제2이미지변환부(70); 제2특징점추출부(80); 및 위조여부식별부(40);를 포함한다.
In addition, as shown in Figure 2, the printed material forgery identification system according to another embodiment of the present invention includes a first image conversion unit (50); First feature
아래에 도 1과 더불어 도 2에 의해 본 발명의 인쇄물 위조식별 시스템에 대해 상세히 설명하기로 한다.The forgery identification system of the printed matter of the present invention will be described in detail with reference to FIG. 1 below.
인쇄물의 경우 본 발명에 적용하기 위해서는 디지털이미지로 변환할 필요가 있다. 따라서 상기 이미지변환부(10)는 인쇄물을 디지털이미지로 변환하는 역할을 수행한다. 상기 이미지변환부(10)의 예로서는 스캐너, 디지털카메라 등을 들 수 있을 것이다.In the case of printed matter, it is necessary to convert it into a digital image in order to apply the present invention. Therefore, the
도 1과 도 2로부터 알 수 있는 것과 같이 상기 이미지변환부(10)는 원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부(50); 및 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부(60);를 포함할 수 있다.As can be seen from Figures 1 and 2, the
상기의 디지털이미지로부터 인쇄물의 위조여부를 판별하기 위해서는, 원본디지털이미지와 위조본디지털이미지의 차이를 나타낼 수 있는 특징점을 추출할 필요가 있다. 상기 특징점추출부(20)는 디지털이미지의 특징점을 추출하는 역할을 수행한다.In order to determine whether the printed object is forged from the digital image, it is necessary to extract a feature point that may indicate a difference between the original digital image and the fake digital image. The
도 1과 도 2로부터 알 수 있는 것과 같이, 상기 특징점추출부(20)는 상기 제1이미지변환부에 의한 원본디지털이미지와 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부(60); 및 상기 제2이미지변환부에 의한 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부(80);를 포함할 수 있다.
As can be seen from Figures 1 and 2, the feature
상기 기계학습부(30)는 도 3에 도시된 바와 같이, 특징점선택기(31); 학습모델생성기(32); 및 SVM분류기(33)를 포함하며, 상기 특징점을 이용하여 기계학습을 실시한다. 기계학습을 통해서 적절한 분류 함수를 만들 수 있고, 이렇게 만들어진 분류 함수를 이용하여 새로운 입력에 대응하는 클래스를 예측할 수 있다. The
구체적으로 상기 특징점선택기(31)는 상기 원본디지털미이지와 상기 위조본디지털이미지로부터 다수의 특징점을 이용하는 SVM(Support Vector Machine)에 기반한 방식에 의해 일부 특징점을 선택한다. 그리고 상기 학습모델생성기(32)는 상기 특징점선택기(31)에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하며, 상기 SVM분류기(33)는 상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 역할을 한다.Specifically, the
상기 기계학습부(30)에서 사용된 특징점 선택 기법과 SVM 기법에 대해서는 좀 더 상세히 후술하기로 한다.The feature point selection technique and the SVM technique used in the
최종적으로, 상기 위조여부식별부(40)는 상기 SVM분류기(33)에서 선정된 클래스에 의해 테스트인쇄물의 위조여부를 식별하게 된다.
Finally, the
또한 도 4에 도시된 바와 같이, 본 발명의 다른 일실시예에 의한 보안 인쇄물 위조식별 시스템(100)은 인쇄물학습장치(110) 및 인쇄물식별장치(120)를 포함한다.In addition, as shown in FIG. 4, the secure printed matter
상기 인쇄물학습장치(110)는, 제1이미지변환부(50); 제1특징점추출부(60); 특징점선택기(31); 및 학습모델생성기(32);를 포함하는 것을 특징을 한다. The
또한, 상기 인쇄물식별장치(120)는, 제2이미지변환부(70); 제2특징점추출부(80); SVM분류기(33) 및 위조여부식별부(40)를 포함하는 것을 특징으로 한다.
In addition, the printed
상술한 본 발명의 보안 인쇄물 위조식별 시스템(100)을 이용한 보안 인쇄물 위조식별 방법을 도 5의 흐름도에 의해 설명하기로 한다.The security print forgery identification method using the security print
즉 본 발명의 보안 인쇄물 위조식별 방법은, 상기 이미지변환부(10)가 원본인쇄물을 디지털이미지로 변환하여 원본디지털이미지를 생성하는 원본디지털화단계(S110); 상기 이미지변환부(10)가 위조본인쇄물을 디지털이미지로 변환하여 위조본디지털이미지를 생성하는 위조본디지털화단계(S115); 상기 특징점추출부(20)가 상기 원본디지털이미지의 특징점을 추출하는 원본특징점추출단계(S120); 상기 특징점추출부(20)가 상기 위조본디지털이미지의 특징점을 추출하는 위조본특징점추출단계(S125); 상기 기계학습부(30)가 상기 원본디지털이미지의 특징점과 상기 위조본디지털이미지의 특징점으로부터 SVM 방식에 의해 일부 특징점을 선택하는 특징점선택단계(S130); 상기 기계학습부(30)가 상기 S130 단계에서 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성단계(S135); 상기 이미지변환부(10)가 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 테스트인쇄물디지털화단계(S140); 상기 특징점추출부(20)가 상기 상기 테스트인쇄물디지털이미지로부터 특징점을 추출하는 테스트인쇄물특징점추출단계(S145); 상기 기계학습부(30)가 상기 S135 단계에서 생성된 학습모델을 바탕으로 S145 단계에서 추출된 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류단계(S150); 및 상기 위조여부식별부(40)에서 상기 S150 단계에서 선정된 클래스에 의해 테스트인쇄물의 위조여부를 식별하는 위조여부식별단계(S155);를 포함한다.
That is, the security printed material forgery identification method of the present invention, the image conversion unit 10 converts the original printout into a digital image to generate an original digital image (S110); Counterfeit digitization step (S115) by the image conversion unit 10 converts the counterfeit printed matter to a digital image to generate a fake digital image; An original feature point extraction step (S120) of the feature point extraction unit 20 to extract a feature point of the original digital image; A counterfeit feature feature extraction step (S125) of extracting feature points of the counterfeit bone digital image by the feature point extractor 20; A feature point selection step of the machine learning unit 30 selecting some feature points from the feature points of the original digital image and the feature points of the fake digital image by SVM method; A learning model generation step (S135) of which the machine learning unit 30 generates a learning model of the feature point vector set by the partial feature points selected in step S130; A test printout digitizing step of converting the test printout into a digital image and generating a test printout digital image by the image conversion unit 10 (S140); A test print feature point extracting step (S145) of the feature point extracting unit 20 to extract a feature point from the test print digital image; An SVM classification step (S150) of which the machine learning unit 30 selects a class to include the test print using the feature points extracted in step S145 based on the learning model generated in step S135; And a forgery identification step (S155) of identifying whether or not the forgery of the test prints by the class selected in the step S150 in the forgery identification unit (40).
본 발명의 특징점추출부(20), 제1특징점추출부(60) 및 제2특징점추출부(80)에서의 특징점 추출 기법에 대해 하기에 자세히 설명하기로 한다.
A feature point extraction technique in the
특징점 추출 기법Feature Point Extraction Technique
디지털이미지로 이루어진 검사 대상의 위조여부를 식별하기 위해 다량의 특징점을 추출하여 검사 대상을 벡터의 형태로 정량화한다. 본 발명에서는 이산웨이블릿변환(Discrete Wavelet Transform)기반의 특징점, 화질측정도구(Image Quality Measures)기반의 특징점, 텍스처(Texture)기반의 특징점, 정보이론(Information Theory)기반의 특징점 및 망점구조분석(Halftone Texture Analysis)기반의 특징점이 사용되었다. In order to identify the forgery of the test object consisting of digital images, a large number of feature points are extracted and the test object is quantified in the form of a vector. In the present invention, a discrete wavelet transform based feature point, image quality measure based feature point, texture based feature point, information theory based feature point and halftone structure analysis (Halftone) Texture Analysis based feature points were used.
각 특징점의 추출 과정에 대해 하기에 상세히 설명하기로 한다.
The extraction process of each feature point will be described in detail below.
이산웨이블릿변환기반의 특징점Discrete Wavelet Transform-Based Features
이산웨이블릿변환을 통해서 주어진 이미지는 다단계로 구성된 고주파 영역과 저주파 영역으로 나누어진다. 이때 고주파로 나타나는 영역은 이미지의 잡음을 대표한다. 상기의 잡음은 컬러 프린터 또는 컬러 영역마다 조금씩 다르기 때문에 이들을 적절히 나타내는 통계치는 이미지를 표현하는 특징점으로 간주할 수 있다. 이산웨이블릿변환은 아래에 설명하는 것과 같은 과정을 거친다. Through the discrete wavelet transform, a given image is divided into a multi-stage high frequency region and a low frequency region. At this time, the high frequency region represents the noise of the image. Since the noise is slightly different for each color printer or color area, the statistics representing them properly can be regarded as feature points representing an image. Discrete wavelet transform is the same as described below.
먼저 이산웨이블릿의 기저함수 Ψj,k(t)는 수학식 1과 같이 나타낼 수 있다.First, the basis function Ψ j, k (t) of the discrete wavelet can be expressed by
임의의 신호 f(t)는 기저함수 Ψj,k(t)와 웨이블릿 계수 aj,k의 결합된 형태로 표현된다. 즉, 수학식 2와 같이 나타낼 수 있다.The arbitrary signal f (t) is represented by the combined form of the basis function Ψ j, k (t) and wavelet coefficients a j, k . That is, it can be expressed as
웨이블릿을 이용한 다해상도 분석에서는 두 개의 기본 함수, 즉 스케일 함수 Ψj,k(t)와 웨이블릿 함수 Φj,k(t)가 존재하며 이는 수학식 3과 같다. cj와 dj는 각각의 함수에 대한 신장 계수를 의미한다.In multiresolution analysis using wavelets, there are two basic functions, namely, the scale function Ψ j, k (t) and the wavelet function Φ j, k (t). c j and d j are the elongation coefficients for each function.
도 6에 예제 이미지를 사용한 필터 구조를 도시하였다. 필터 L(z)와 H(z)는 각각 스케일링 함수 Φ(t)와 웨이블릿 함수 Ψ(t)에 일치하는 신장 계수이고, L은 저역필터, H는 고역필터를 나타낸다. 저역필터와 고역필터를 통해 이미지를 가로(Row) 방향으로 두 대역으로 나누고, 그 결과 데이터를 반만 취하는 다운 샘플링 과정을 수행한다. 다음으로, 다운 샘플링된 두 개의 대역을 각각 세로(Column) 방향 두 대역으로 나누고, 다시 그 결과 데이터를 반만 취하는 다운 샘플링 과정을 수행한다. 이러한 과정을 통하여 신호를 4가지 해상도, 즉 LL, LH, HL 및 HH로 표현하게 된다.6 illustrates a filter structure using an example image. The filters L (z) and H (z) are elongation coefficients corresponding to the scaling functions? (T) and wavelet function? (T), respectively, where L is a low pass filter and H is a high pass filter. The low pass filter and the high pass filter divide the image into two bands in the horizontal direction, and as a result, the downsampling process takes half the data. Next, each of the two down-sampled bands is divided into two vertical bands, and again, a down-sampling process of taking half the data is performed. Through this process, the signal is expressed in four resolutions, LL, LH, HL, and HH.
본 발명에서는 이산웨이블릿변환 이후 각 고주파 부대역 즉, LH, HL, HH 내의 통계적 특징, 고주파 부대역 사이의 통계적 특징, 그리고 고주파 부대역에서의 컬러 채널 사이의 상관 계수를 산출하였다.
In the present invention, after the discrete wavelet transform, statistical characteristics within each high frequency subband, that is, LH, HL, and HH, statistical characteristics between the high frequency subbands, and correlation coefficients between color channels in the high frequency subbands are calculated.
고주파 부대역 내의 특징점Feature points in high frequency subband
부대역 내의 잡음을 대표하는 특징점으로 이산웨이블릿변환 이후 각 단계 별 고주파 부대역 즉, LH, HL, HH 영역의 표준편차, 첨도 및 왜도를 수학식 4, 수학식 5 및 수학식 6에 의해 각각 구한다.As a characteristic point representing noise in subbands, the standard deviation, kurtosis, and skewness of the high frequency subbands of each step after the discrete wavelet transform, that is, LH, HL, and HH regions, are expressed by
이미지는 RGB(Red, Green, Blue) 3개의 채널로 이루어져 있으므로 이산웨이블릿변환의 레벨 i에 따라 27xi 개의 특징점을 추출할 수 있다. 여기서 한 가지 더 고려해야 할 점은 프린터 출력물은 CMYK(Cyan, Magenta, Yellow, Black)의 4개의 채널로 구성되어 있다는 점이다. 그러므로 추가적으로 36xi개의 특징점을 추출할 수 있다. Since the image is composed of three channels (Red, Green, Blue), 27xi feature points can be extracted according to the level i of the discrete wavelet transform. One more thing to consider here is that the printer output consists of four channels of CMYK (Cyan, Magenta, Yellow, Black). Therefore, 36xi feature points can be extracted.
64x64에서 128x128 사이의 작은 크기의 ROI(Region of Interest)를 사용하여 1단계 웨이블릿 특징점만을 추출한다고 가정하면, 63개의 부대역내의 특징점을 추출하게 된다.
Assuming that only one level wavelet feature point is extracted using a region of interest (ROI) of 64x64 to 128x128, feature points within 63 subbands are extracted.
고주파 부대역 사이의 특징점Feature points between high frequency subbands
이산웨이블릿변환 이후 각 부대역의 계수 값은 주변 부대역의 계수 값과 주변 계수 값의 선형 보간의 형태로 나타내어 질 수 있다. i번째 단계에서 LH, HL, HH의 근사값은 각각 수학식 7, 수학식 8, 수학식 9와 같이 나타낼 수 있다.After the discrete wavelet transform, the coefficient values of each subband may be expressed in the form of linear interpolation between the coefficient values of the neighboring subbands and the neighbor coefficients. Approximate values of LH, HL, and HH in the i th step may be represented by Equations 7, 8, and 9, respectively.
먼저 의 값을 구해보자. 의 계수를 로 나타내면 이다. 와 의 최소자승오류는 수학식 10과 같다.first Let's get the value of. Coefficient of If expressed as to be. Wow The least square error of
를 최소화 시키는 이차 비선형 최적화 문제를 풀면 는 수학식 11과 같다. Solve a quadratic nonlinear optimization problem that minimizes Is the same as Equation 11.
상기에서 를 구했으므로 를 구할 수 있고, 와 사이의 오차는 로 나타낸다. 동일한 방법으로 와 를 구하고 각각에 대하여 평균, 분산, 첨도 및 왜도를 구한다. 이는 부대역 사이의 통계적 특성을 드러내는 특징점이라고 할 수 있다. 부대역 내의 특징점과 마찬가지로, R, G, B, C, M, Y, K 각 채널의 LH, HL, HH 영역에서 부대역 사이의 특징점을 구한다. 상기의 과정을 통해서 총 84개의 부대역 사이의 특징점을 추출할 수 있다.
From above Since we got You can get Wow The error between Respectively. In the same way Wow And calculate the mean, variance, kurtosis, and skewness for each. This is a feature that reveals the statistical characteristics between subbands. Like the feature points in the subbands, the feature points between the subbands in the LH, HL, and HH regions of the R, G, B, C, M, Y, and K channels are obtained. Through the above process, feature points between a total of 84 subbands can be extracted.
컬러 채널 사이의 상관 계수Correlation coefficient between color channels
이미 설명한 바와 같이 이산웨이블릿변환 이후 LH, HL, HH 영역은 이미지의 잡음을 대표한다. 이러한 잡음은 각 컬러 채널에 따라 고유의 분포를 가진다. 그러므로 컬러 이미지 채널 사이의 잡음을 정량화한 값 역시 프린터의 컬러 특성을 나타내는 중요한 특징으로 볼 수 있다. As already explained, after the discrete wavelet transform, the LH, HL, and HH regions represent the noise of the image. This noise has a unique distribution for each color channel. Therefore, the quantified noise between the color image channels is also an important characteristic of the color characteristics of the printer.
본 발명에서는 컬러 채널 사이의 잡음을 정량화하기 위해 상관 계수를 이용한다. 먼저 각 컬러 채널에 대해 이산웨이블릿변환을 수행한다. 다음으로 LH, HL, HH 각 영역에 대하여 R과 G사이, R과 B사이, G와 B사이, C와 M 사이, C와 Y 사이, C와 K 사이, M과 Y 사이, M과 K 사이, Y와 K 사이의 상관 계수를 구하여 특징점 벡터로 삼는다. 상관 계수는 수학식 12와 같다. In the present invention, the correlation coefficient is used to quantify the noise between the color channels. First, discrete wavelet transform is performed for each color channel. Next, between R and G, between R and B, between G and B, between C and M, between C and Y, between C and K, between M and Y, and between M and K , And calculate the correlation coefficient between Y and K as the feature point vector. The correlation coefficient is shown in Equation 12.
상기의 과정을 통해 총 27개의 이산웨이블릿변환기반의 컬러 채널 사이의 상관 계수를 구할 수 있다.
Through the above process, a correlation coefficient between a total of 27 discrete wavelet transform based color channels can be obtained.
화질측정도구기반의 특징점Feature Point of Image Quality Measuring Tool
도 7로부터 알 수 있는 것과 같이, 컬러 프린터로 위조된 문서는 원본 문서에는 존재하지 않는 고유의 프린팅 잡음을 내포한다. 프린팅 잡음은 망점 인쇄 방식 자체의 특성에 의하여 생기는 특징이므로 임의로 감소시키거나 제거할 수 없다. 실제로 위조본의 프린팅 잡음을 추출하여 원본과 비교하면 확연히 구분되는 서로 다른 값을 확인할 수 있다.As can be seen from FIG. 7, a document forged with a color printer contains inherent printing noise that does not exist in the original document. The printing noise is a characteristic caused by the characteristics of the dot printing method itself and cannot be arbitrarily reduced or eliminated. In fact, the printing noise of the counterfeit can be extracted and compared to the original to show distinct values.
다만 이미지는 단일 기준으로 정량화될 수 없다. 이미지를 다양한 기준에서 측정하는 방법으로 여러 종류의 화질측정도구(Image Quality Measures, IQM)가 있다. 본 발명에서는 주어진 이미지 와 저주파 필터를 사용하여 잡음을 제거한 이미지 를 입력으로 받아 공간 영역에서 픽셀의 차이 값, 주파수 영역에서 계수의 차이 값, 두 입력의 상관 계수 그리고 인지 시각 모델을 적용한 픽셀의 차이 값으로 분류되는 17가지의 척도를 이용하여 잡음을 측정하였다. 이처럼 다양한 척도를 이용하여 이미지를 정량화한 벡터는 이미지를 구분할 수 있는 좋은 특징점이 된다. However, images cannot be quantified on a single basis. There are several types of image quality measures (IQM) that measure images based on various criteria. In the present invention, a given image And noise-free images using low-frequency filters The noise was measured using 17 scales, which are classified into the difference value of the pixel in the spatial domain, the difference value of the coefficient in the frequency domain, the correlation coefficient of the two inputs, and the difference value of the pixel using the cognitive visual model. As such, a vector that quantifies an image using various scales is a good feature to distinguish the images.
또한 본 발명에서는 주어진 이미지 에 대하여 잡음을 제거하는 방법을 변경해 가며, 총 4가지의 를 생성하였다. 이후 와 서로 다른 을 이용하여 4 세트의 화질측정도구를 추출하였다. 도 8은 상기의 화질측정도구를 추출하는 과정을 나타낸다.Also in the present invention a given image We are changing the method of removing noise with respect to Generated. after And different Four sets of image quality measurement tools were extracted. 8 shows a process of extracting the image quality measuring tool.
상기의 화질측정도구를 추출하는 과정에서 사용되는 잡음필터는 평균화필터(3x3), 가우시안필터(3x3), 중간값필터(3x3) 및 위너필터(3x3)의 4가지 종류이다The noise filters used in the process of extracting the image quality measurement tool are four types: averaging filter (3x3), Gaussian filter (3x3), intermediate value filter (3x3), and Wiener filter (3x3).
상기의 화질측정도구를 추출하는 과정을 정리하면 다음과 같다. The process of extracting the image quality measuring tool is as follows.
서로 다른 필터를 적용한 에 대하여 상기의 4종류의 필터를 사용하여 화질측정도구를 적용하여 잡음 기반의 특징점을 추출하였다. D1~D3는 픽셀 차이 값을 나타낸다. C1~C5는 상관 계수를, S1~S6은 주파수 영역에서 계수의 차이 값이다. 마지막으로 H1~H3은 인지 시각 모델 U(x)를 적용한 이후 추출한 특징점이다. 4가지 잡음제거 필터를 이용하여 17가지의 화질측정도구를 추출하면 총 68개의 특징점을 구할 수 있다. 도 9에 17가지의 화질측정도구를 나타낸다.
Different filters The noise-based feature points were extracted by applying the image quality measurement tool using the above four types of filters. D1 to D3 represent pixel difference values. C1 to C5 are correlation coefficients, and S1 to S6 are difference values of coefficients in the frequency domain. Finally, H1 to H3 are feature points extracted after applying the cognitive visual model U (x). A total of 68 feature points can be obtained by extracting 17 image quality measurement tools using four noise reduction filters. Fig. 9 shows 17 image quality measurement tools.
텍스처기반의 특징점Texture Based Features
텍스처는 특정 공간 영역에서 픽셀 값의 변화에 관한 함수로 정의될 수 있다. 위조된 문서는 프린팅 잡음으로 인해 도 7에서 알 수 있는 것과 같이 원본과 상이한 텍스처를 가지게 된다. 그러므로 이러한 텍스처의 통계적 특성은 또 다른 특징점이 될 수 있다. The texture can be defined as a function of the change in pixel value in a specific spatial region. Forged documents will have a different texture than the original, as can be seen in Figure 7 due to printing noise. Therefore, the statistical properties of these textures can be another feature point.
본 발명에서 사용한 알고리즘에서는 GLCM(Gray Level Co-occurrence Matrices)을 구한 이후, GLCM의 통계적 특성을 추출하여 이를 특징점으로 간주한다. 방향벡터 d에 관한 GxG의 GLCM Pd는 수학식 13과 같이 정의된다. 이때 G는 흑백 이미지를 표현하는데 사용되는 색상의 수를 나타내며 일반적으로 256을 사용한다.In the algorithm used in the present invention, after obtaining GLCM (Gray Level Co-occurrence Matrices), the statistical characteristics of GLCM are extracted and considered as feature points. GLCM Pd of GxG with respect to the direction vector d is defined as in Equation 13. In this case, G represents the number of colors used to represent a black and white image and generally uses 256.
즉, 방향벡터 d에 따른 2차원 히스토그램으로 나타낼 수 있다. 구성된 GLCM을 관찰함으로써 주어진 이미지의 특성을 알 수 있다. 예를 들어, GLCM의 대부분의 값이 대각선에 치중되어 있다면 방향벡터 d의 방향으로 영상에서 유사점이 많음을 의미한다. 여기서 도 10에 나타낸 3가지 통계적 특징을 구한다.That is, it can be represented by a two-dimensional histogram according to the direction vector d. By observing the constructed GLCM, we can know the characteristics of a given image. For example, if most values of GLCM are centered on a diagonal line, this means that there are many similarities in the image in the direction of the direction vector d. Here, three statistical features shown in FIG. 10 are obtained.
본 발명에서는 d(0,1), d(1,0), d(1,1), d(1,-1)에서 d(0,4), d(4,0), d(4,4), d(4,-4)까지 총 16가지 방향벡터에 관하여 3개의 통계적 특성, 즉 48개의 특징점을 추출하였다.In the present invention, d (0,1), d (1,0), d (1,1), d (1, -1) to d (0,4), d (4,0), d (4, 4) Three statistical properties, 48 feature points, were extracted for 16 direction vectors up to d (4, -4).
다음으로 살펴볼 또 다른 텍스처기반의 특징점은 대부분의 이미지에서 이웃 픽셀의 값은 유사하다는 점에 기반을 둔다. 이미지의 경계를 제외한 나머지 영역의 픽셀 값은 부드럽게 변한다. 부드러운 영역을 어두운 영역과 밝은 영역으로 다시 나누면 각 영역의 해당 픽셀 값의 근사값 는 주어진 계수 와 주변 픽셀 값의 선형 보간으로 만들어 질 수 있다. 도 11은 부드러운 영역의 해당 픽셀과 그 이웃 값을 나타낸다.Another texture-based feature to look at next is based on the similarity of neighbor pixel values in most images. Pixel values in the rest of the image, except the boundaries of the image, change smoothly. Subdividing soft areas into dark and light areas approximates the corresponding pixel values in each area. Is given coefficient And linear interpolation of surrounding pixel values. Fig. 11 shows corresponding pixels and their neighbor values in the soft area.
상기의 조건을 만족하는 를 구하기 위해서 수학식 14와 같은 비선형 최적화 문제를 푼다.Satisfying the above conditions To solve this problem, we solve a nonlinear optimization problem such as
여기에서 를 구하면 을 구할 수 있다. 이 때, 의 평균과 표준 편차를 또 다른 특징점으로 둔다. RGB 각각에서 어두운 영역과 밝은 영역에 대하여 평균과 표준편차를 구할 수 있으므로 총 12개의 특징점을 구할 수 있다.
From here If you find Can be obtained. At this time, Let the mean and standard deviation of be another feature point. Since the average and standard deviation can be obtained for the dark and bright areas of each RGB, a total of 12 feature points can be obtained.
정보이론기반의 특징점Information theory based features
망점구조 인쇄 방식으로 컬러 이미지를 출력할 경우 각 컬러 채널은 고유의 잡음을 내포한다. 각 컬러 채널마다 잡음의 강도가 다르므로 각 컬러 채널의 엔트로피와 컬러 채널 사이의 상호 정보는 검사 대상물의 특성을 대표하는 중요한 특징점으로 볼 수 있다. When outputting color images with halftone printing, each color channel contains inherent noise. Since the intensity of noise is different for each color channel, mutual information between the entropy of each color channel and the color channel can be regarded as an important characteristic point representing the characteristics of the object under test.
먼저 엔트로피는 수학식 15와 같이 나타낼 수 있다.First, entropy may be expressed as in
엔트로피는 해당 사건의 불확실성 정도를 측정하는 척도이다. 검사 대상물이 위조본일 경우 컬러 채널의 잡음으로 인해 원본과 구분되는 엔트로피 값을 가지게 된다. 그러므로 각 컬러 채널의 엔트로피는 검사 대상물을 대표하는 특징점으로 볼 수 있다. Entropy is a measure of the degree of uncertainty in a given event. If the object under test is a counterfeit, the noise in the color channel will have an entropy value that is distinct from the original. Therefore, the entropy of each color channel can be seen as a characteristic point representing the inspection object.
다음으로 상호 정보는 수학식 16과 같이 표현된다.Next, the mutual information is expressed as in Equation 16 below.
상호 정보는 사건 X와 사건 Y 사이의 의존성에 관한 척도이다. 즉, 사건 X 와 Y가 독립적인 사건이라면 상호 정보 I(X;Y)는 0을 가진다. 그러나 사건 X가 발생했을 때 사건 Y가 항상 발생한다면 상호 정보 값은 X의 엔트로피 값과 동일하다. Mutual information is a measure of the dependency between event X and event Y. That is, if events X and Y are independent events, mutual information I (X; Y) has zero. However, if event Y always occurs when event X occurs, the mutual information value is equal to the entropy value of X.
만약 검사 대상물이 원본일 경우 각 컬러 채널의 값은 잡음을 거의 내포하고 있지 않으므로 컬러 채널의 값은 종속성을 띄게 된다. 이에 따라 상호 정보 값은 커지게 된다. 그러나 검사 대상물이 위조본일 경우 각 컬러 채널마다 존재하는 고유의 잡음으로 인해 채널 사이의 독립성이 증가하고 상호 정보 값은 작아지게 된다. 그러므로 상호정보 또한 검사 대상물을 표현하는 특징으로 볼 수 있다. If the test object is the original, the value of each color channel contains little noise, so the value of the color channel is dependent. As a result, the mutual information value becomes large. However, if the object to be inspected is a counterfeit, the inherent noise present in each color channel increases the independence between the channels and decreases the mutual information value. Therefore, mutual information can also be seen as a feature that represents an object to be inspected.
이상을 종합하여 본 과제에서는 R, G, B 각 채널에서의 엔트로피 값과 R과 G, G와 B, B와 R 채널 사이의 상호 정보 값을 정보이론 기반의 특징점으로 삼는다.
Summarizing the above, in this project, the values of entropy in each of R, G, and B channels and mutual information values between R, G, G, B, B, and R channels are used as information theory-based feature points.
망점구조분석기반의 특징점Characteristic point based on network structure analysis
컬러 프린터는 지폐 등의 선화 인쇄물과 달리 망점 인쇄 방식으로 대상을 출력한다. 그러므로 망점구조가 확인 가능할 정도의 고해상도로 검사 대상물의 일부를 스캔하면 자동으로 위조여부를 탐지할 수 있는 시스템을 구성할 수 있다. 더 나아가 스캔된 망점구조의 분석을 통해 검사 대상물을 출력한 프린터 모델까지 식별할 수 있다. 컬러 프린터는 일반적으로 CMYK의 4가지 잉크를 사용하여 대상을 출력한다. CMYK의 각 채널은 모아레(Moire) 효과, 에지 강조 효과 등을 막기 위해 서로 다른 각도로 출력된다. 도 12는 시판 프린터 중 한 모델인 프린터(3)를 이용하여 망점 인쇄 방식으로 출력된 회색 영상을 스캔하여 Cyan, Magenta, Yellow 채널로 분리한 그림이다. The color printer outputs the object by a dot printing method, unlike line drawing prints such as banknotes. Therefore, if a part of the object is scanned at a high resolution such that the halftone structure can be confirmed, a system capable of automatically detecting a forgery can be configured. Furthermore, the analysis of the scanned dot structure can identify the printer model that outputs the inspection object. A color printer typically uses four inks from CMYK to print the object. Each channel of CMYK is output at different angles to prevent moire effects, edge enhancement effects, and so on. FIG. 12 is a diagram of a gray image output by dot printing using a
도 12를 통해서 각 컬러 채널은 동일한 망점구조를 가지더라도 서로 다른 각도로 출력됨을 알 수 있다. 또한 이러한 망점구조는 프린터의 제작사 및 프린터 모델에 따라 다양한 형태를 가진다. 12, it can be seen that each color channel is output at different angles even though they have the same network structure. In addition, the network structure has various forms according to the manufacturer and printer model of the printer.
도 13은 서로 다른 프린터로 출력한 Cyan 영역의 망점구조이다. 13 is a dot structure of a cyan region outputted to different printers.
결론적으로 CMYK 채널의 각도 정보는 프린터 모델을 역추적 하는데 사용할 수 있는 좋은 특징점이라는 사실을 유추할 수 있다. 각 채널의 각도 정보를 구하기 위해 각 채널에 허프(Hough) 변환을 적용한다. 허프 변환은 수학식 17과 같이 나타낼 수 있다.In conclusion, we can infer that the angular information of the CMYK channel is a good feature that can be used to trace back the printer model. A Hough transform is applied to each channel to obtain angle information of each channel. The Hough transform may be expressed as in Equation 17.
허프 변환을 통해서 이미지에 존재하는 대부분의 직선 정보를 극좌표 즉, 원점으로부터의 거리와 각도의 형태로 구할 수 있다. 스캐너에 의해 스캔된 이미지의 망점구조는 대부분의 영역에서 유사하므로 추출된 직선의 각도 정보 역시 대부분 유사한 값을 가지게 된다. 그러므로 추출된 직선의 각도 정보를 이용하여 히스토그램을 구축하면 각 프린터 모델마다 고유의 피크를 가지는 서로 다른 형태의 히스토그램을 구축할 수 있다. The Hough transform can obtain most linear information in the image in the form of polar coordinates, that is, distance and angle from the origin. Since the halftone structure of the image scanned by the scanner is similar in most areas, the angle information of the extracted straight line also has a similar value. Therefore, if the histogram is constructed using the extracted angle information of the straight line, it is possible to construct a different type of histogram having a unique peak for each printer model.
도 14는 상기의 망점구조분석 과정을 상세히 보여주고 있다.14 shows the above-described halftone structure analysis process in detail.
도 14의 (a)는 시판의 프린터 모델 중 하나인 프린터(5)로 출력한 이미지를, 도 14의 (b)와 (c)는 프린터(4)로 출력한 이미지를 보여준다. 각각에서 왼쪽의 그림은 이미지의 망점구조와 이를 대표하는 직선을 보여주며, 가운데 그림은 허프 변환 과정을 나타낸다. 마지막으로 오른쪽 그림은 추출된 직선의 각도 정보를 이용하여 구축한 히스토그램이다. (a)와 (b)를 비교해보면 비슷한 이미지라 할지라도 서로 다른 프린터로 출력한 경우 구축되는 히스토그램은 서로 다른 형태를 나타내는 것을 관찰할 수 있다. 그러나 (c)와 (d)를 비교해보면 비록 서로 다른 형태의 이미지라고 하더라도 동일한 프린터로 출력한 경우, 구축되는 히스토그램은 유사한 형태를 가지는 것을 확인할 수 있다. 14A illustrates an image output by a
이에 반해 지폐 등의 선화 인쇄물은 망점 인쇄물과 같은 규칙적인 인쇄 패턴을 가지지 않으므로 특정 분포를 형성하는 히스토그램을 생성하지 않는다. 그러므로 허프 변환을 이용하여 생성된 히스토그램은 중요한 특징점으로 볼 수 있다. In contrast, linear prints, such as banknotes, do not have a regular printing pattern like a dot print, and thus do not generate histograms that form a specific distribution. Therefore, the histogram generated using Hough transform can be regarded as an important feature.
본 발명에서는 Cyan, Magenta, Yellow의 3가지 채널에서 36개의 빈을 가지는 히스토그램을 구성한다. 이상을 통해 총 108개의 특징점을 추출한다.
In the present invention, a histogram having 36 bins in three channels of Cyan, Magenta, and Yellow is constructed. Through the above, a total of 108 feature points are extracted.
다음으로, 본 발명의 기계학습부(30)에서 사용되는 기법들에 대해 보다 자세히 살펴보기로 한다.
Next, the techniques used in the
특징점 선택 기법Feature Point Selection Technique
상술한 바와 같이 검사 대상에서 추출할 수 있는 수많은 특징점에 대하여 살펴보았다. 그러나 너무 많은 특징점의 사용은 시스템의 과부하를 야기할 수 있다. 실제로 보안 제품의 위조여부를 식별하는 시스템의 성능은 일반적인 PC의 성능보다 훨씬 낮다. As described above, a number of feature points that can be extracted from the inspection object were described. However, using too many feature points can cause system overload. In fact, the performance of a system that identifies forgery of a security product is much lower than that of a typical PC.
그러므로 주어진 후보 특징점의 집합에서 가장 적절한 특징점만을 선택하여 계산량, 메모리 등의 자원을 절약할 필요가 있다. 주어진 후보 특징점 중 위조여부의 식별 또는 모델 역추적에 가장 적합한 특징점을 찾기 위하여 본 발명에서는 순차적 전방 유동 선택 알고리즘(Sequential Forward Floating Selection, SFFS)을 사용하여 최적의 특징점을 선택하였다. SFFS는 동적으로 특징점을 선택 또는 삭제함으로써 최적의 특징점의 집합을 구성하는 기법으로 도 15의 순서도로 나타날 수 있다.Therefore, it is necessary to save resources such as computation and memory by selecting only the most appropriate feature points from a given set of candidate feature points. In order to find the most suitable feature point for counterfeit identification or model traceback among the given candidate feature points, an optimal feature point was selected using a sequential forward floating selection algorithm (SFFS). SFFS may be shown in the flowchart of FIG. 15 as a technique for constructing an optimal set of feature points by dynamically selecting or deleting feature points.
먼저 알고리즘에 사용된 용어를 정의하면 다음과 같다. m은 알고리즘의 총 실행 횟수를, M은 최대 실행 횟수를 나타낸다. Z는 선택된 특징점의 집합을 나타내며 U는 전체 특징점의 집합을 나타낸다. CR은 선택된 특징 벡터와 SVM분류기를 이용하여 2-fold cross validation을 통해 계산된 분류 성능을 나타낸다. 마지막으로 J는 m단계에서 분류 성능이 가장 좋을 때의 분류 결과 값을 말한다. 단계1과 단계2를 통하여 SFFS 알고리즘은 분류 성능을 가장 높이는 특징점 하나를 선택하여 Z에 추가한다. 다음으로 전체 알고리즘의 수행횟수가 M 보다 많은지 검사한다. 만약 m > M 이라면 현재까지의 특징점 선택 히스토리를 살펴본 후 가장 분류결과가 좋을 때의 특징점 집합과 그 때의 분류 결과를 리턴한다. 그 외의 경우 선택된 특징점 중 필요 없다고 판단되는 특징점을 동적으로 Z에서 제거하는 작업을 4, 5, 6 단계를 걸쳐서 수행한다. 검사 성능 향상에 큰 도움이 되지 않는 특징점은 계속해서 Z에서 제거 해준다. 더 이상 제거할 특징점이 존재하지 않으면 단계1로 돌아가 필요한 특징점을 추가한다. First, the terms used in the algorithm are defined as follows. m represents the total number of executions of the algorithm, and M represents the maximum number of executions. Z represents the set of selected feature points and U represents the set of all feature points. CR represents the classification performance calculated through 2-fold cross validation using the selected feature vector and SVM classifier. Finally, J is the classification result value when the classification performance is the best in step m. In
도 16은 SFFS를 이용하여 선택된 특징점의 수와 판별률의 관계를 보여준다. 도 16으로부터 알 수 있는 것과 같이 선택된 특징점의 수가 약 30개를 넘어가면 분류 성능에는 큰 영향을 미치지 않음을 확인할 수 있다.16 shows the relationship between the number of feature points selected and the discrimination rate using SFFS. As can be seen from FIG. 16, when the number of selected feature points exceeds about 30, it may be confirmed that the classification performance is not significantly affected.
SFFS의 과정을 통하여 이산웨이블릿변환기반의 특징점이 분류 성능에 큰 영향을 끼침을 확인할 수 있었다. 특히 이산웨이블릿변환 이후 채널간의 상관 계수 기반 특징점과 부대역 사이의 특징점이 주로 선택되는 것을 알 수 있다
Through the process of SFFS, it is confirmed that the feature point based on discrete wavelet transform has a big influence on classification performance. In particular, it can be seen that after discrete wavelet transform, feature points between correlation coefficient-based feature points and subbands are mainly selected.
본 발명에서는 상술한 바와 같은 특징점 선택 기법에 의해 상기 특징점선택기(31)에서 디지털이미지의 다수의 특징점로부터 SVM에 기반한 방식에 의해 일부 특징점을 선택하고, 상기 학습모델생성기(32)에 의해 상기 특징점선택기(31)에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성한다.In the present invention, the
상기 특징점선택기(31)에서의 학습 및 SVM분류기(33)에서 클래스를 선정하기 위해 사용되는 SVM 기법에 대해 하기에 좀 더 자세히 알아보기로 한다.
The SVM technique used for learning in the
SVM 기법SVM Technique
특징점 선택 및 학습모델 생성 이후, 주어진 테스트인쇄물의 특징점을 바탕으로 위조여부를 식별하는 기술이 필요하다. SVM은 이러한 목적에 적합한 범용적인 지도 학습 방법 중 하나이다. SVM분류기를 위조여부식별에 사용하기 위해서는, 먼저 이를 주어진 입력의 부분집합으로 학습시켜야 한다. 주어진 입력이 두 개의 집합으로 나눠진다고 가정하면 수학식 18과 같이 표기될 수 있다. 여기에서 는 주어진 특징점의 벡터이고, 는 그때 진위 여부를 나타낸다. After feature point selection and learning model generation, a technique is needed to identify forgery based on the feature points of a given test print. SVM is one of the most popular supervised learning methods for this purpose. To use an SVM classifier for forgery identification, you must first train it on a subset of the given input. Assuming that a given input is divided into two sets, it can be written as From here Is the vector of the given feature points, Indicates authenticity at that time.
이와 같은 두 집합을 나누는 다차원 평면은 로 나타내어진다. 각 집합에서 에 가장 가까운 점을 서포트벡터(support vector) 로 정의한다. SVM은 주어진 입력에서 서포트벡터와 두 집합을 나누는 다차원 평면 사이의 기하학적인 거리를 최대화 하는 것을 목표로 한다. 서포트벡터가 아래의 두 평면상에 존재 한다면 두 평면 사이의 거리는 이다. 또한, The multidimensional plane that divides these two sets It is represented by In each assembly Define the point closest to the support vector. SVM aims to maximize the geometric distance between the support vector and the multidimensional plane that divides the two sets at a given input. If the support vector is on two planes below, the distance between them to be. Also,
이고, 이상을 간단히 도식화 하면 도 17과 같다.17 is simply shown in FIG.
를 최대화 시키기 위해서는 를 최소화 시켜야 한다. 이상을 종합하면 수학식 19와 같이 최적화 문제를 유도할 수 있다. To maximize Should be minimized. In sum, the optimization problem can be derived as shown in Equation (19).
본 발명에서는 일반성을 잃지 않고 를 로 치환할 수 있고, 이는 와 를 찾기 위한 수학식 20과 같은 전형적인 이차 비선형 최적화 문제가 된다.In the present invention without losing generality To Which can be substituted by Wow It is a typical quadratic nonlinear optimization problem, such as (20).
주어진 문제를 쌍대(dual) 영역에서 풀면 와 를 구할 수 있다. 이상의 과정에서 우리는 주어진 입력의 진위 여부를 판별할 수 있는 SVM분류기를 학습시켰다. 이후 주어진 입력 에 대하여 이면 는 첫 번째 클래스로 분류되며, 이면 두 번째 클래스로 분류된다. Solving a given problem in the dual realm Wow Can be obtained. In the above process, we have learned an SVM classifier that can determine the authenticity of a given input. Since given input about If Is classified as the first class, Is classified as the second class.
만약 이미지 채널의 개수 K > 2 이상의 클래스로 주어진 문제를 분류해야 한다면, 하나의 집합과 그 외 나머지 모든 집합의 합집합을 나누는 K개의 이진 SVM분류 문제를 학습시킨다. 이후 주어진 입력 에 대하여 가장 높은 결과 값을 보이는 SVM분류기의 집합으로 분류한다. If we need to classify a given problem as a class with more than the number of image channels, K> 2, we will learn K binary SVM classification problems that divide the set of one set with all other sets. Since given input Classify the set of SVM classifiers with the highest result.
이상에서 선형 분리가 가능한 경우의 SVM분류기를 살펴보았다. 그러나 입력 데이터는 항상 선형 분리가 가능한 것은 아니다. 선형분리가 불가능한 경우에도 분류 함수의 오류율을 최소화 하기위해 슬랙(Slack) 변수와 커널(Kernel) 함수의 개념을 도입하여 SVM분류기를 구성한다. 슬랙 변수는 비록 두 클래스가 완전히 선형으로 나눠지지 않더라도 다차원평면에 적절한 오류치를 미리 더하여 선형분류기의 오류를 최소화 하는데 사용된다. 슬랙 변수가 적용된 SVM분류기는 수학식 21과 같다.In the above, we looked at the SVM classifier when linear separation is possible. However, input data is not always linearly separable. Even when the linear separation is impossible, the SVM classifier is composed by introducing the concept of Slack variable and Kernel function to minimize the error rate of the classification function. Slack variables are used to minimize errors in the linear classifier by adding the appropriate error values to the multidimensional plane in advance, even though the two classes are not completely linearly divided. The SVM classifier to which the slack variable is applied is shown in
하지만 슬랙 변수만으로는 선형 분리가 불가능한 입력 데이터를 완벽히 분리 할 수 없다. 그러므로 비선형 분리의 입력 데이터를 선형 분리가 가능한 형태로 사상하는 커널 함수의 개념을 도입한다. 커널 함수의 개념은 도 18과 같다. However, slack variables alone cannot completely separate input data that cannot be linearly separated. Therefore, we introduce the concept of a kernel function that maps input data of nonlinear separation into a form capable of linear separation. The concept of a kernel function is shown in FIG.
커널 기법을 통해 선형 분리가 불가능한 2차원 데이터가 3차원으로 사상되고 이에 따라 선형 분리가 가능한 형태로 바뀜을 확인 할 수 있다. 본 발명에서는 수학식 22와 같은 RBF(Radial Basis Function) 커널을 이용하여 비선형 입력 데이터를 선형으로 사상했다.Through the kernel technique, it is possible to confirm that two-dimensional data that cannot be linearly separated into three-dimensional map and change into a form capable of linear separation accordingly. In the present invention, nonlinear input data is linearly mapped using a radial basis function (RWB) kernel as shown in Equation (22).
슬랙 변수와 커널 함수의 도입으로 C와 로 나타나는 2개의 변수가 추가된다. 이는 교차검증(cross-validation)을 통해 최적의 분류 성능을 나타내는 값으로 결정된다.
The introduction of Slack variables and kernel functions Two variables are indicated by. This is determined by a value representing the optimal classification performance through cross-validation.
마지막으로, 상기와 같이 SVM분류기(33)에 의해 선정된 클래스에 의해 상기 위조여부식별부(40)는 테스트인쇄물의 위조여부를 성공적으로 판별할 수 있다.
Finally, the
100 : 보안 인쇄물 위조식별 시스템
110 : 인쇄물학습장치 120: 인쇄물식별장치
10 : 이미지변환부 20 : 특징점추출부
30 : 기계학습부 40 : 위조여부식별부
50 : 제1이미지변환부 60 : 제1특징점추출부
70 : 제2이미지변환부 80 : 제2특징점추출부
31 : 특징점선택기 32 : 학습모델생성기
33 : SVM분류기100: security print counterfeit identification system
110: print learning device 120: print identification device
10: image conversion unit 20: feature point extraction unit
30: machine learning part 40: counterfeit identification part
50: first image converter 60: first feature point extractor
70: second image conversion unit 80: second feature point extraction unit
31: feature point selector 32: learning model generator
33: SVM Classifier
Claims (19)
인쇄물을 변환하여 디지털이미지를 생성하는 이미지변환부;
상기의 디지털이미지의 특징점을 추출하는 특징점추출부;
상기 특징점을 이용하여 기계학습을 실시하는 기계학습부; 및
상기 기계학습 결과로부터 상기 인쇄물의 위조여부를 식별하는 위조여부식별부;를 포함하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
In security printed counterfeit identification system using digital forensic technology,
An image converting unit converting the printed matter to generate a digital image;
A feature point extraction unit for extracting feature points of the digital image;
A machine learning unit for performing machine learning using the feature points; And
Security forgery identification system using a digital forensic technology, including; forgery identification unit for identifying whether the forgery of the print from the machine learning results.
상기 인쇄물학습장치는,
원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부;
상기 원본디지털이미지 및 상기 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부;
상기 원본디지털이미지 및 상기 위조본디지털이미지의 다수의 특징점을 이용하는 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택기; 및
상기 특징점선택기에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성기;를 포함하는 것을 특징을 하며,
상기 인쇄물식별장치는,
테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부;
상기 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부;
상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류기; 및
상기 SVM분류기의 클래스로부터 상기 테스트인쇄물의 위조여부를 식별하는 위조여부식별부;를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
In the secure forgery identification system using digital forensic technology, including a print learning device and a print identification device,
The printed matter learning device,
A first image conversion unit converting the original prints and the fake prints into digital images to generate original digital images and fake digital images;
A first feature point extracting unit for extracting feature points of the original digital image and the counterfeit original digital image;
A feature point selector for selecting some feature points by a SVM (Support Vector Machine) method using a plurality of feature points of the original digital image and the counterfeit digital image; And
And a learning model generator for generating a learning model of the feature point vector set based on some feature points selected by the feature point selector.
The printed matter identification device,
A second image converting unit converting the test print into a digital image to generate a test print digital image;
A second feature point extracting unit extracting feature points of the test print digital image;
An SVM classifier for selecting a class to be included in the test print by using feature points of the test print digital image based on the generated learning model; And
Security forgery forgery identification system using a digital forensic (Forensic) technology comprising a; forgery identification unit for identifying whether the forgery of the test print from the class of the SVM classifier.
상기 이미지변환부는,
상기 인쇄물 중 원본인쇄물과 위조본인쇄물을 디지털이미지로 변환하여 원본디지털이미지 및 위조본디지털이미지를 생성하는 제1이미지변환부; 및
상기 인쇄물 중 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 제2이미지변환부;를 포함하며,
상기 특징점추출부는,
상기 원본디지털이미지 및 상기 위조본디지털이미지의 특징점을 추출하는 제1특징점추출부; 및
상기 테스트인쇄물디지털이미지의 특징점을 추출하는 제2특징점추출부;를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 1,
The image conversion unit,
A first image conversion unit converting the original print and the counterfeit print out of the prints into a digital image to generate an original digital image and a counterfeit print digital image; And
And a second image converting unit converting the test print out of the prints into a digital image to generate a test print digital image.
The feature point extraction unit,
A first feature point extracting unit for extracting feature points of the original digital image and the counterfeit original digital image; And
And a second feature point extracting unit extracting a feature point of the test print digital image. The printed matter forgery identification system of claim 1, further comprising a digital forensic technology.
상기 원본디지털이미지 및 상기 위조본디지털이미지로부터 다수의 특징점을 이용하는 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택기;
상기 특징점선택기에 의해 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성기; 및
상기 생성된 학습모델을 바탕으로 상기 테스트인쇄물디지털이미지의 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류기;를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 3, wherein the machine learning unit,
A feature point selector for selecting some feature points by an SVM (Support Vector Machine) method using a plurality of feature points from the original digital image and the fake digital image;
A learning model generator for generating a learning model of a feature point vector set based on some feature points selected by the feature point selector; And
Security printed material forgery identification system using a digital forensic technology, characterized in that it includes; SVM classifier for selecting a class to be included in the test prints using the feature points of the test printout digital image based on the generated learning model .
상기 특징점선택기는 순차적 전방 유동 선택 알고리즘을 사용하여 일부 특징점을 선택하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 4, wherein
The feature point selector is a security forgery identification system using a digital forensic technology, characterized in that for selecting some feature points using a sequential forward flow selection algorithm.
상기 제1특징점추출부 또는 상기 제2특징점추출부는 추출한 특징점으로부터 특징점 벡터를 구성하는 것을 특징으로 하며,
상기 특징점은,
이산웨이블릿변환기반의 특징점;
화질측정도구기반의 특징점;
텍스처기반의 특징점;
정보이론기반의 특징점; 및
망점구조분석기반의 특징점;을 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 3,
Wherein the first feature point extractor or the second feature point extractor constitutes a feature point vector from the extracted feature points,
The feature point,
Feature of discrete wavelet transform;
Feature point based on image quality measurement tool;
Texture-based feature points;
Information theory-based features; And
Security point forgery identification system using digital forensic technology, including;
고주파 부대역내의 통계적 특징에 의한 특징점;
고주파 부대역 사이의 통계적 특징에 의한 특징점; 및
고주파 부대역의 컬러 채널 사이의 상관 계수에 의한 특징점;을 포함하되,
상기 고주파 부대역은, 이미지의 가로방향과 세로방향에 대해 저역필터와 고역필터 및 다운 샘플링 과정을 수행함으로써 결정되는 4가지 부대역 중, 가로방향과 세로방향 중 어느 하나 이상에 대해 고주파 특성을 갖는 3가지 부대역을 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 6, wherein the discrete wavelet transform-based feature point,
Feature points due to statistical features in high frequency subbands;
Feature points due to statistical features between high frequency subbands; And
Characterized by the correlation coefficient between the color channels of the high frequency subband; including,
The high frequency subband has a high frequency characteristic in any one or more of the horizontal direction and the vertical direction among four subbands determined by performing a low pass filter, a high pass filter, and a downsampling process in the horizontal and vertical directions of the image. Security printed counterfeit identification system using digital forensic technology, characterized in that it comprises three sub-bands.
이산웨이블릿변환 이후 각 단계별 고주파 부대역의 표준편차, 왜도 및 첨도를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 7, wherein the characteristic point due to statistical features in the high frequency subband,
Security printed material forgery identification system using digital forensic technology, characterized in that it comprises a standard deviation, distortion and kurtosis of each high frequency subband after the discrete wavelet transform.
이산웨이블릿변환 이후 각 부대역의 근사값과 부대역의 값의 오차에 대한 평균, 분산, 첨도 및 왜도를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 7, wherein the feature point by the statistical feature between the high frequency subband,
Security forgery identification system using digital forensic technology, characterized in that it includes the average, variance, kurtosis, and skewness of the error of the approximate value of each subband and the subband value after the discrete wavelet transform.
각 컬러 채널에 대해 이산웨이블릿변환을 수행함으로써 결정되는 R과 G사이, R와 B사이, G과 B사이, C와 M 사이, C와 Y 사이, C와 K 사이, M과 Y 사이, M과 K 사이, Y와 K 사이의 고주파 부대역에 대한 상관 계수인 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 7, wherein the feature point by the correlation coefficient between the color channels,
Between R and G, between R and B, between G and B, between C and M, between C and Y, between C and K, between M and Y, and between M and Y determined by performing discrete wavelet transform for each color channel. A security printed material forgery identification system using digital forensic technology, characterized in that it is a correlation coefficient for high frequency subbands between K and Y and K.
입력된 임의의 이미지와, 저주파필터에 의해 입력된 이미지로부터 잡음을 제거한 이미지 사이의 공간 영역에서, 픽셀의 차이 값, 주파수 영역에서 계수의 차이 값, 두 입력의 상관 계수, 그리고 인지 시각 모델을 적용한 픽셀의 차이 값 중 어느 하나 이상의 척도를 이용하여 잡음 기반으로 추출한 특징점인 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 6, wherein the feature-based feature point,
In the spatial domain between any input image and the image from which noise is removed from the image input by the low frequency filter, the difference value of the pixel, the difference value of the coefficient in the frequency domain, the correlation coefficient of the two inputs, and the cognitive visual model are applied. Security printed material forgery identification system using digital forensic technology, characterized in that the extracted feature point based on any one or more of the difference value of the pixel.
평균화필터, 가우시안필터, 중간값필터 및 위너필터를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 11, wherein the low frequency filter,
Security forgery identification system using digital forensic technology, characterized in that it comprises an averaging filter, Gaussian filter, median filter, and Wiener filter.
GLCM(Gray Level Co-occurrence Matrices)을 이용하여 구해진 에너지, 대조 및 유사의 3가지 통계적 특성을 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 6, wherein the texture-based feature point,
Security imprint forgery identification system using digital forensic technology, characterized by including three statistical characteristics of energy, contrast and similar obtained using Gray Level Co-occurrence Matrices (GLCM).
임의의 픽셀값과 픽셀근사값의 차이의 평균과 표준편차를 더 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 13, wherein the texture-based feature point,
Security forgery identification system using digital forensic technology, characterized in that it further comprises the average and standard deviation of the difference between the arbitrary pixel value and the pixel approximation value.
R, G, B 각 채널에서의 엔트로피 값과, R과 G, G와 B, B와 R 채널 사이의 상호 정보 값을 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
According to claim 6, The information theory-based feature point,
Security imprint forgery identification system using digital forensic technology, characterized in that it includes entropy values in each of R, G, and B channels, and mutual information values between R, G, G, B, B, and R channels. .
허프(Hough) 변환을 통해 이미지에 존재하는 직선 정보를 원점으로부터의 거리와 각도 형태로 산출하고 산출된 직선의 각도 정보를 이용하여 구축된 히스토그램의 빈도를 포함하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 6, wherein the feature point based on the network structure analysis,
A digital forensic, characterized by calculating the straight line information present in the image through the Hough transform in the form of distance and angle from the origin and using the calculated angle information of the straight line. Security imitation identification system using technology.
분류 함수의 오류율을 최소화하기 위한 슬랙(Slack) 변수와 커널(Kernel) 함수를 적용하는 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 2, wherein the SVM classifier,
Security forgery identification system using digital forensic technology characterized by applying Slack variable and Kernel function to minimize error rate of classification function.
RBF(Radial Basis Function) 커널(Kernel)인 것을 특징으로 하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 시스템.
The method of claim 17, wherein the kernel function (Kernel),
Security printed material forgery identification system using digital forensic technology, characterized in that the RBF (Radial Basis Function) Kernel.
상기 이미지변환부가 원본인쇄물을 디지털이미지로 변환하여 원본디지털이미지를 생성하는 원본디지털화단계;
상기 이미지변환부가 위조본인쇄물을 디지털이미지로 변환하여 위조본디지털이미지를 생성하는 위조본디지털화단계;
상기 특징점추출부가 상기 원본디지털이미지의 특징점을 추출하는 원본특징점추출단계;
상기 특징점추출부가 상기 위조본디지털이미지의 특징점을 추출하는 위조본특징점추출단계;
상기 기계학습부가 상기 원본디지털이미지의 특징점과 위조본디지털이미지의 특징점으로부터 SVM(Support Vector Machine) 방식에 의해 일부 특징점을 선택하는 특징점선택단계;
상기 기계학습부가 상기 특징점선택단계에서 선택된 일부 특징점에 의해 특징점벡터집합의 학습모델을 생성하는 학습모델생성단계;
상기 이미지변환부가 테스트인쇄물을 디지털이미지로 변환하여 테스트인쇄물디지털이미지를 생성하는 테스트인쇄물디지털화단계;
상기 특징점추출부가 상기 테스트인쇄물디지털이미지로부터 특징점을 추출하는 테스트인쇄물특징점추출단계;
상기 기계학습부가 상기 학습모델생성단계에서 생성된 학습모델을 바탕으로 테스트인쇄물특징점추출단계에서 추출된 특징점을 이용하여 상기 테스트인쇄물이 포함될 클래스를 선정하는 SVM분류단계; 및
상기 위조여부식별부에서 상기 SVM분류단계에서 선정된 클래스에 의해 테스트인쇄물의 위조여부를 식별하는 위조여부식별단계;를 포함하는 디지털 포렌직(Forensic) 기술을 이용한 보안 인쇄물 위조식별 방법.In the security print forgery identification method by the security forgery identification system using digital forensic technology including an image conversion unit, feature point extraction unit, machine learning unit and forgery identification unit,
An original digitization step of generating an original digital image by converting the original printout into a digital image;
A counterfeit digitizing step of generating a counterfeit digital image by converting the counterfeit printed matter into a digital image by the image converting unit;
An original feature point extraction step of extracting a feature point of the original digital image by the feature point extraction unit;
A counterfeit feature feature extraction step of extracting a feature point of the counterfeit bone digital image by the feature point extractor;
A feature point selecting step of the machine learning unit selecting some feature points from the feature points of the original digital image and the feature points of the fake digital image by a SVM (Support Vector Machine) method;
A learning model generation step of generating, by the machine learning unit, a learning model of a feature point vector set based on some feature points selected in the feature point selection step;
A test print digitizing step of generating a test print digital image by converting the test print into a digital image by the image conversion unit;
A test print feature point extracting step of extracting a feature point from the test point digital image by the feature point extracting unit;
An SVM classification step of selecting, by the machine learning unit, a class to include the test print using the feature points extracted in the test print feature point extraction step based on the learning model generated in the learning model generation step; And
Security forgery identification method using a digital forensic technology comprising a; forgery identification step of identifying whether the forgery of the test print by the class selected in the SVM classification step in the forgery identification unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100052297A KR101140699B1 (en) | 2010-06-03 | 2010-06-03 | Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020100052297A KR101140699B1 (en) | 2010-06-03 | 2010-06-03 | Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110132770A KR20110132770A (en) | 2011-12-09 |
KR101140699B1 true KR101140699B1 (en) | 2012-05-03 |
Family
ID=45500639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100052297A KR101140699B1 (en) | 2010-06-03 | 2010-06-03 | Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101140699B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102196573B1 (en) | 2019-06-25 | 2020-12-30 | 대한민국 | A Method Providing Information On Counterfeit Bills Throuth Remote Analysis |
KR102620111B1 (en) | 2023-07-19 | 2024-01-02 | 이성진 | Prints With Information Security Features |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8917930B2 (en) | 2012-05-08 | 2014-12-23 | Hewlett-Packard Development Company, L.P. | Selecting metrics for substrate classification |
KR101716043B1 (en) * | 2015-09-01 | 2017-03-14 | 성균관대학교산학협력단 | Apparatus and method for high speed multiple object recognition for factory automation |
EP3504661B1 (en) * | 2016-08-24 | 2023-08-16 | Google LLC | Change detection based imagery acquisition tasking system |
KR101981284B1 (en) * | 2017-10-23 | 2019-05-22 | 연세대학교 산학협력단 | Apparatus Processing Image and Method thereof |
KR101936947B1 (en) * | 2017-12-04 | 2019-01-09 | 포항공과대학교 산학협력단 | Method for temporal information encoding of the video segment frame-wise features for video recognition |
KR102022058B1 (en) * | 2018-02-20 | 2019-11-04 | 주식회사 디로그 | Method and system for detecting counterfeit of web page |
KR102377056B1 (en) * | 2020-05-28 | 2022-03-18 | 경일대학교산학협력단 | The apparatus and method of detecting a image forgery |
KR102490136B1 (en) * | 2021-06-11 | 2023-01-20 | 대한민국 | Paper identification device and method for forgery detection of documents |
KR102663350B1 (en) * | 2021-11-08 | 2024-05-07 | 숭실대학교산학협력단 | Adversarial perturbation image detection method and computer program stored in a recording medium to execute the method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040090056A (en) * | 2003-04-16 | 2004-10-22 | 정보통신연구진흥원 | A Banknote Counter for Discriminating Denomination and for Detecting Counterfeit Bill by Using CCD Image Sensor |
KR20050009503A (en) * | 2003-07-16 | 2005-01-25 | 노희옥 | Bill counting device which can discriminate counterfeit note from the bill and sum the denomination of the bill and mehtod thereof |
KR20070075738A (en) * | 2006-01-16 | 2007-07-24 | 노틸러스효성 주식회사 | Method for checking the bill using by a magnetic sensor |
-
2010
- 2010-06-03 KR KR1020100052297A patent/KR101140699B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040090056A (en) * | 2003-04-16 | 2004-10-22 | 정보통신연구진흥원 | A Banknote Counter for Discriminating Denomination and for Detecting Counterfeit Bill by Using CCD Image Sensor |
KR20050009503A (en) * | 2003-07-16 | 2005-01-25 | 노희옥 | Bill counting device which can discriminate counterfeit note from the bill and sum the denomination of the bill and mehtod thereof |
KR20070075738A (en) * | 2006-01-16 | 2007-07-24 | 노틸러스효성 주식회사 | Method for checking the bill using by a magnetic sensor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102196573B1 (en) | 2019-06-25 | 2020-12-30 | 대한민국 | A Method Providing Information On Counterfeit Bills Throuth Remote Analysis |
KR102620111B1 (en) | 2023-07-19 | 2024-01-02 | 이성진 | Prints With Information Security Features |
Also Published As
Publication number | Publication date |
---|---|
KR20110132770A (en) | 2011-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101140699B1 (en) | Forgery Detection System for Security Printing Resource Based on Digital Forensic Technology and Method Therefor | |
CN110717450B (en) | Training method and detection method for automatically identifying copied image of original document | |
Gou et al. | Intrinsic sensor noise features for forensic analysis on scanners and scanned images | |
US20030161534A1 (en) | Feature recognition using loose gray scale template matching | |
US11010857B2 (en) | Signal encoding based on spectral requirements | |
EP2014082A1 (en) | Generating a bitonal image from a scanned colour image | |
JP2010530095A (en) | Authentication of security documents, especially banknotes | |
US11354767B2 (en) | Signal encoding for physical objects including dark ink | |
RU2543931C2 (en) | Authentication protected documents, in particular banknotes | |
Borges et al. | Robust and transparent color modulation for text data hiding | |
Wu et al. | A printer forensics method using halftone dot arrangement model | |
JP2004336282A (en) | Image processor, image processing program and recording medium recorded with relevant program | |
CN112217958B (en) | Method for preprocessing digital watermark carrier image irrelevant to device color space | |
Khanna et al. | Survey of scanner and printer forensics at purdue university | |
US6633411B1 (en) | Method and apparatus for repurposing binary images | |
Van Beusekom et al. | Automatic counterfeit protection system code classification | |
Boiangiu et al. | Methods of bitonal image conversion for modern and classic documents | |
Joshi et al. | Source printer identification from document images acquired using smartphone | |
Cu et al. | A robust data hiding scheme using generated content for securing genuine documents | |
KR20110086990A (en) | Color laser printer identification method | |
JPH0856287A (en) | Image discrimination device | |
KR101124488B1 (en) | Color laser printer identification method through noise characteristics analysis | |
Zhang et al. | Image Splicing Detection Based on Complex Features of Camera Noise Characteristics | |
CN116137842B (en) | Moire fringe generation prediction device, moire fringe generation prediction system, and moire fringe generation prediction method | |
CN112053275B (en) | Printing and scanning attack resistant PDF document watermarking method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160328 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170418 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180405 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20200122 Year of fee payment: 9 |