KR20200046182A - Deep-running-based image correction detection system and method for providing non-correction detection service using the same - Google Patents

Deep-running-based image correction detection system and method for providing non-correction detection service using the same Download PDF

Info

Publication number
KR20200046182A
KR20200046182A KR1020180124383A KR20180124383A KR20200046182A KR 20200046182 A KR20200046182 A KR 20200046182A KR 1020180124383 A KR1020180124383 A KR 1020180124383A KR 20180124383 A KR20180124383 A KR 20180124383A KR 20200046182 A KR20200046182 A KR 20200046182A
Authority
KR
South Korea
Prior art keywords
correction
image
deep learning
detection system
unit
Prior art date
Application number
KR1020180124383A
Other languages
Korean (ko)
Other versions
KR102157375B1 (en
Inventor
김현기
Original Assignee
엔에이치엔 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엔에이치엔 주식회사 filed Critical 엔에이치엔 주식회사
Priority to KR1020180124383A priority Critical patent/KR102157375B1/en
Publication of KR20200046182A publication Critical patent/KR20200046182A/en
Application granted granted Critical
Publication of KR102157375B1 publication Critical patent/KR102157375B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/10Protecting distributed programs or content, e.g. vending or licensing of copyrighted material ; Digital rights management [DRM]
    • G06F21/16Program or content traceability, e.g. by watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Bioethics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Technology Law (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

According to an embodiment, a deep learning-based image correction detection system is a deep learning-based image correction detection system for discriminating forgery and alteration in an input image. The deep learning-based image correction detection system comprises: a specialized convolutional neural network for detecting correction feature information in the pixel domain of the input image; a Markov statistics based network that detects whether the input image is compressed after the input image is converted into a frequency domain and correction feature information in the compressed image; an integrated feature refinement unit that combines the correction feature information of the specialized convolutional neural network with the correction feature information of the Markov statistics based network; and a correction discrimination unit for discriminating forgery and alteration of the input image based on the correction feature information combined by the integrated feature refinement unit.

Description

딥러닝 기반 이미지 보정 탐지 시스템 및 이를 이용하여 무보정 탐지 서비스를 제공하는 방법 {Deep-running-based image correction detection system and method for providing non-correction detection service using the same}Deep-running-based image correction detection system and method for providing non-correction detection service using the same}

본 발명은 딥러닝 기반 이미지 보정 탐지 시스템 및 이를 이용하여 무보정 탐지 서비스를 제공하는 방법에 관한 것이다. 보다 상세하게는 딥러닝을 기반으로 이미지의 보정여부를 정확하게 판정하는 보정 탐지 시스템과, 이러한 시스템을 이용하여 무보정 여부를 탐지해주는 서비스를 제공하는 방법에 관한 것이다. The present invention relates to a deep learning-based image correction detection system and a method for providing a correction-free detection service using the same. More specifically, the present invention relates to a correction detection system that accurately determines whether an image is corrected based on deep learning, and a method of providing a service for detecting whether there is no correction using such a system.

디지털 카메라 및 모바일 폰의 발전으로 누구나 고화질의 디지털 이미지를 생성할 수 있게 되었으며, 특히 소셜 네트워크 서비스 (Social Network Services, SNS)의 영향으로 이미지를 업로드하고공유하여 타인에게 사진을유통할 수 있다. With the development of digital cameras and mobile phones, anyone can create high-quality digital images, and in particular, images can be distributed to others by uploading and sharing images under the influence of social network services (SNS).

또한, 어도비 포토샵 (Adobe PhotoShop) 과같은 정교한 이미지 편집 소프 트웨어와 소셜 네트워크 서비스 자체 이미지 편집기능, 그리고 다수 이미지 편집 어플리케이션 (application)의 보급으로 인해 원본 이미지를 쉽게 수정할 수 있게 되었다. 특히, 블러링 (blurring), 메디안 필터링 (median filtering), 가우시안 노이즈 (Gaussian noise), 리샘플링 (resampling), 절삭 (cropping), 색상변조와 같은 이미지 리터칭 기법으로 실제 이미지와 다르게 특정 요소를 감추거나, 복사-붙여넣기(copy-move), 스플라이싱 (splicing)의 방법으로 새로운요소를 추가하는 등의 이미지 위변조가 일어날 수 있으며, 전문가의 도움없이는 이미지의 무결성을 파악하기 어려워 뉴스 및 소셜네트워크에 해당 위변조된 이미지가 원본 이미지처럼 유통될 수 있고 위변조 흔적을 누락하여 위조된 이미지가 법원의 증거로 인정될 수 있는 심각한 사례가 발생할 수 있다.In addition, sophisticated image editing software such as Adobe PhotoShop, social network service's own image editing function, and the spread of multiple image editing applications have made it easy to modify the original image. In particular, image retouching techniques such as blurring, median filtering, Gaussian noise, resampling, cropping, and color modulation hide specific elements different from actual images, or Image forgery can occur, such as adding new elements by copy-move or splicing, and it is difficult to understand the integrity of the image without the help of experts. Serious cases can arise where the forged image can be distributed like the original image and the forged image can be recognized as court evidence by omitting the forgery trail.

이미지 편집 소프트웨어의 빠른 확산으로 누구나 쉽게 영상을 제작, 유통할 수 있으며 특히 이미지의 위변조 또한 간단하고 정교하게 이루어지고 있다. 이러한 이미지 위변조를 탐지하는 기술은 이전부터 지속적으로 연구되어 왔지만 특정 파일 포맷, 조작, 압축 퀄리티 등 매우 제한적인 환경에서만 동작하는 단점이있다. With the rapid spread of image editing software, anyone can easily produce and distribute images, especially forgery and alteration of images. Techniques for detecting such forgery and alteration have been continuously studied from the past, but there are disadvantages of operating only in very limited environments such as a specific file format, manipulation, and compression quality.

이러한 이미지 위변조를 탐지하기위해 이미지 포렌식 기법이 연구되어왔다 Image forensic techniques have been studied to detect such forgery and alteration.

종래의 기술들은 패턴 변화를 분석하여 색상변조를 탐지하는 기법과, 이미지의 리샘플링 흔적을 분석하는 기법 등이 지속적으로 연구해왔다. Conventional techniques have continuously studied techniques for detecting color modulation by analyzing pattern changes, and techniques for analyzing traces of resampling of images.

그러나 이러한 기법들은 각기 다른 조작과 파일 포맷 및 특정 환경에서만 동작하여 더 다양한 조작 및 포맷에 모두 적용하기 어려운 제약이있다. However, these techniques have limitations that are difficult to apply to all of the various manipulations and formats because they operate only in different operations, file formats, and specific environments.

한편, 딥 러닝 기술 중 컨볼루션 뉴럴 네트워크는 컴퓨터 비전 문제를 해결하는데 탁월한 성능을 보였고, 이 컨볼루션 뉴럴 네트워크를 이용하여 다양한 이미지 조작을 탐지하려는 연구가 진행되었다. Meanwhile, among the deep learning technologies, the convolutional neural network showed excellent performance in solving computer vision problems, and studies were conducted to detect various image manipulations using the convolutional neural network.

자세히, 컨볼루션 뉴럴 네트워크 (convolutional neural network, CNN) 은 물체의인식, 구별 등 컴퓨터 비전 문제를 해결하는데 탁월한 성능을 보였다. In detail, the convolutional neural network (CNN) showed excellent performance in solving computer vision problems such as object recognition and distinction.

그러나 컨볼루션 뉴럴 네트워크를 그대로 이미지 포렌식에 적용할 경우 좋은 학습 성능을 보이지 않아, 선행기술 1은 컨볼루션 뉴럴 네트워크 사용 이전 전처리 과정을 수행할 필요성을 파악하였다. However, if the convolutional neural network is applied to the image forensic as it is, it does not show good learning performance, and prior art 1 has identified the need to perform a pre-processing process before using the convolutional neural network.

특히, 선행기술 1은 컨볼루션 뉴럴 네트워크 앞단에 특화된 레이어를 설계하여 기존 선행기술들에 비해 압도적인 이미지 조작 검출 성능을 보였다In particular, Prior Art 1 designed a layer specialized at the front of the convolutional neural network, showing an overwhelming image manipulation detection performance compared to the existing prior arts.

도 1은 선행기술 1의 딥러닝 뉴럴 네트워크 구조로, 컨볼루션 뉴럴 네트워크의 맨 처음 레이어에 이미지 포렌식 기법에 특화된 바야르 필터(bayar filter) 를 포함하는 것을 특징으로 한다. 이 바야르 필터는 컨볼루션 뉴럴 네트워크가 어떠한 전처리 과정 (pre-processing) 이나 특징 추출 (feature extraction)없이 레이어 구조만으로 이미지 변화에 보다 더 적응하여 학습할 수 있게 하는 역할을 하여, 이미지 조작 검출 성능을 향상시켰다. 1 is a deep learning neural network structure of prior art 1, characterized by including a bayar filter specialized in an image forensic technique at the very first layer of a convolutional neural network. This Bayard filter improves image manipulation detection performance by allowing the convolutional neural network to learn more adaptively to image changes with only the layer structure without any pre-processing or feature extraction. Ordered.

Figure pat00001
Figure pat00001

자세히, 바야르 필터는, 상기 수학식 1과 같이 이 필터에서는 중앙 가중치 (weight) 값을 -1 로 고정하고 이웃 가중치 값들의 합이 1이 되도록 강제하며 학습이 진행한다. 여기서, l, m은 픽셀의 좌표를 의미한다. In detail, the Bayar filter, as in Equation 1 above, in this filter, the central weight value is fixed to -1, the sum of neighbor weight values is forced to be 1, and learning proceeds. Here, l and m denote pixel coordinates.

이러한 바야르 필터를 이용한 선행기술 1의 뉴럴 네트워크는 무압축 이미지에서의 블러, 노이즈, 메디안, 리사이징과 같은 변화들을 매우 잘 검출하였다. The neural network of the prior art 1 using this Bayard filter very well detected changes such as blur, noise, median, and resizing in the uncompressed image.

그러나 선행기술 1은 압축된 이미지에서는 조작된 흔적들이 압축 과정에서 생기는 데이터 손실로 인해 추적하기 어려운 단점이 있다. However, the prior art 1 has a disadvantage in that it is difficult to trace the manipulated traces in the compressed image due to data loss caused by the compression process.

또한, 선행기술 1은 그레이스케일 이미지에 특화되어, 컬러 이미지에서의 조작된 흔적은 잘 검출하지 못하는 단점이 있다. In addition, the prior art 1 is specialized in a grayscale image, and there is a disadvantage in that it is difficult to detect a manipulated trace in a color image.

즉, 선행기술 1은 무압축 이미지만을 대상으로하여 이미지가 생성되고 유통되는 과정에서 필수적으로 겪는 압축에 대한 고려를 하지 않아 실제 대부분의 이미지가 압축되어 있는 점과, 대부분의 디지털 이미지는 컬러 이미지인 점을 고려할 때, 실제 기술 사용에는 어려운 문제가 있다. In other words, prior art 1 targets only uncompressed images and does not take into account the compression that is essentially experienced in the process of generating and distributing images, and that most of the images are compressed, and most digital images are color images. Considering the point, there is a difficult problem in using the actual technology.

(선행기술 1) Belhassen Bayar and Matthew C Stamm. “A deep learning approach to universal image manipulation detection using a new convolutional layer. In Proceedings of the 4th ACM Workshop on Information Hiding and Multimedia Security”(Prior Art 1) Belhassen Bayar and Matthew C Stamm. “A deep learning approach to universal image manipulation detection using a new convolutional layer. In Proceedings of the 4th ACM Workshop on Information Hiding and Multimedia Security ”

현재 대부분의 디지털 이미지는 제이팩(JPEG) 포맷과 같은 압축 포맷을 통해 저장되고 있으며, 압축된 이미지에서는 조작된 흔적들이 압축 과정에서 생기는 데이터 손실로 인해 추적하기 어려워진다. Currently, most digital images are stored in a compressed format such as the JPEG format, and in the compressed image, manipulation marks are difficult to track due to data loss during compression.

특히, 이미지 위변조는 제이팩 압축 포맷으로 저장된 이미지를 포토샵과 같은 소프트웨어에서 정교하게 조작한 뒤 이미지를 재저장(re-save) 하는 과정을 거치기 때문에 재압축 즉, 이중 제이펙 압축이 필연적으로 일어나게 되어, 조작된 흔적들이 더욱 데이터 손실되는 문제가 있다. In particular, image forgery is recompressed, that is, double JPEG compression is inevitably caused because the image stored in the JPAK compression format is elaborated in software such as Photoshop and then re-save the image. However, there is a problem in that the manipulated traces are more lost.

따라서, 본 발명은, 압축된 환경에서 이미지 조작을 탐지할 수 있는 딥러닝 기반 이미지 보정 탐지 시스템을 제공하는 것을 목적으로 한다. Accordingly, an object of the present invention is to provide a deep learning-based image correction detection system capable of detecting image manipulation in a compressed environment.

또한, 본 발명은, 컬러 이미지에 대한 이미지 조작도 정밀하게 탐지할 수 있는 딥러닝 기반 이미지 보정 탐지 시스템을 제공하는 것을 목적으로 한다.In addition, an object of the present invention is to provide a deep learning-based image correction detection system capable of accurately detecting image manipulation on a color image.

또한, 본 발명은, 상기 정밀한 딥러닝 기반 이미지 보정 탐지 시스템을 이용하여 무보정 탐지 서비스를 제공하는 방법을 제공하는 것을 목적으로 한다. In addition, an object of the present invention is to provide a method for providing an uncorrected detection service using the precise deep learning-based image correction detection system.

실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템은, 입력 이미지에 위변조를 판별하는 딥러닝 기반 이미지 보정 탐지 시스템으로서, 상기 입력 이미지를 픽셀 도메인에서 보정 특징 정보를 검출하는 특화된 컨볼루션 뉴럴 네트워크; 상기 입력 이미지를 주파수 도메인으로 변환한 후 압축 여부와 압축된 이미지에서의 보정 특징 정보를 검출하는 마르코브 특성(Markov statistics) 기반 네트워크; 상기 특화된 컨볼루션 뉴럴 네트워크의 보정 특징 정보와, 상기 마르코브 특성 기반 네트워크의 보정 특징 정보를 결합하는 통합 특징 정제부; 및 상기 통합 특징 정제부에서 결합된 보정 특징 정보를 기초로 상기 입력 이미지의 위변조를 구별하는 보정 구별부;를 포함한다. A deep learning-based image correction detection system according to an embodiment includes: a deep learning-based image correction detection system for determining forgery and alteration in an input image, a specialized convolutional neural network for detecting correction feature information in the pixel domain of the input image; A Markov statistics-based network that detects whether the input image is compressed in the frequency domain and whether it is compressed and correction characteristic information in the compressed image; An integrated feature refiner that combines the correction feature information of the specialized convolutional neural network with the correction feature information of the Markov characteristic based network; And a correction discrimination unit for discriminating forgery and alteration of the input image based on the correction feature information combined by the integrated feature refinement unit.

이때, 상기 입력 이미지를 일정 크기의 규격으로 이미지 블록화하는 이미지 블록부를 더 포함할 수 있다. In this case, an image block unit for blocking the input image to a standard size may be further included.

또한, 상기 특화된 컨볼루션 뉴럴 네트워크는, 보정 특징 전처리부, 보정 특징 추출부 및 제 1 특징 정제부를 포함할 수 있다. In addition, the specialized convolutional neural network may include a correction feature pre-processing unit, a correction feature extraction unit, and a first feature purification unit.

또한, 상기 보정 특징 추출부는, 복수의 레이어를 포함하며, 상기 각각의 레이어는, 컨볼루션 레이어(convolutional layer), 배치 정규화 (batch normalization), 정류된 선형 유닛 (ReLU) 함수를 포함할 수 있다. In addition, the correction feature extraction unit includes a plurality of layers, and each layer may include a convolutional layer, a batch normalization, and a rectified linear unit (ReLU) function.

이때, 상기 복수의 레이어에 포함된 모든 컨볼루션 레이어의 크기는, 5×5 이하이고, 스트라이드는 1일 수 있다. In this case, the size of all the convolutional layers included in the plurality of layers may be 5 × 5 or less, and the stride may be 1.

또한, 상기 마르코브 특성 기반 네트워크는, 도메인 변환부, 픽셀차 산출부, 임계값 함수, 매트릭스 변환부 및 제 2 특징 정제부를 포함할 수 있다. In addition, the Markov characteristic-based network may include a domain transform unit, a pixel difference calculator, a threshold function, a matrix transform unit, and a second feature refiner.

이?, 상기 도메인 변환부는, 이미지 블록부에서 블록화된 이미지 블록을 이산 코사인 변환 (DCT) 하여 주파수 도메인에서의 데이터로 처리할 수 있다. In this case, the domain transform unit may process the image block blocked by the image block unit by discrete cosine transform (DCT) to process data in the frequency domain.

또한, 상기 통합 특징 정제부는, 완전 연결층(fully connected layer)으로 구성되며, 상기 특화된 컨볼루션 뉴럴 네트워크의 보정 특징 정보를 나타내는 벡터와, 상기 마르코브 특성 기반 네트워크의 보정 특징 정보를 나타내는 벡터를 그대로 결합하여 분류기로 전달하는 구조를 가질 수 있다. In addition, the integrated feature refiner comprises a fully connected layer, a vector representing correction characteristic information of the specialized convolutional neural network, and a vector representing correction feature information of the Markov characteristic based network. It can have a structure that combines and delivers to a classifier.

또한, 상기 보정 구별부는, 보정 가능성이 있는 픽셀들을 검출하고, 상기 픽셀들의 보정 가능성 확률값을 산출하고, 위변조 가능성이 높은 픽셀들을 확률값에 따라 서로 다른 색으로 표시한 위변조 확인 맵을 출력할 수 있다. In addition, the correction discrimination unit may detect pixels with correction possibility, calculate a correction probability value of the pixels, and output a forgery confirmation map displaying pixels with high probability of forgery in different colors according to the probability value.

실시예에 따른 무보정 탐지 서비스를 제공하는 방법은, 상기 딥러닝 기반 이미지 보정 탐지 시스템을 사용하여 무보정 탐지 서비스를 제공하는 방법으로서, 사용자로부터 위변조를 판별할 입력 이미지를 수신하는 단계; 상기 입력된 이미지를 일정 규격으로 블록화하여 이미지 블록을 생성하는 단계; 상기 이미지 블록을 상기 딥러닝 기반 이미지 보정 탐지 시스템에 입력하고, 상기 딥러닝 기반 이미지 보정 탐지 시스템으로부터 위변조 확인 맵을 출력하는 단계; 및 상기 위변조 확인 맵과 상기 입력 이미지를 딥러닝하여 위변조 여부를 예 또는 아니요의 레이블로 출력하는 단계;를 포함한다. A method of providing an uncorrected detection service according to an embodiment includes a method of providing an uncorrected detection service using the deep learning-based image correction detection system, comprising: receiving an input image for determining forgery and alteration from a user; Generating an image block by blocking the input image to a certain standard; Inputting the image block into the deep learning based image correction detection system, and outputting a forgery confirmation map from the deep learning based image correction detection system; And deep-learning the forgery confirmation map and the input image to output whether the forgery is falsified with a label of yes or no.

이때, 위변조 여부가 예로 판별되면, 위변조 가능성이 높은 영역을 하이라이트 하는 입력 이미지를 생성하는 단계와, 상기 생성된 입력 이미지를 사용자에게 제공하는 단계를 더 포함할 수 있다. At this time, when it is determined whether the forgery is falsified, the method may further include generating an input image highlighting a region having high possibility of forgery and providing the generated input image to the user.

또한, 위변조 여부가 아니요로 판별되면, 상기 입력 이미지에 보정이 없다는 확인 도장을 합성하여 상기 사용자에게 제공하는 단계를 더 포함할 수 있다. In addition, when it is determined that the falsification is No, the method may further include synthesizing a confirmation stamp that there is no correction in the input image and providing it to the user.

실시예에 따른 딥러닝 기반 이미지 보정 탐지는. 다양한 압축 환경에서 일어나는 이미지 조작을 탐지하는 합성곱 뉴럴 네트워크와 압축을 고려한 마르코프 특성 기반의 뉴럴 네트워크를 결합하여 이미지 조작을 압축된 환경에서도 잘 탐지할 수 있다.Deep learning based image correction detection according to an embodiment. The image manipulation can be well detected in a compressed environment by combining a convolutional neural network that detects image manipulation in various compression environments and a neural network based on Markov's characteristics considering compression.

또한, 실시예에 따른 딥러닝 기반 이미지 보정 탐지는. 다양한 압축 환경에서 일어나는 이미지 조작을 탐지할 수 있을 뿐만 아니라, 컬러 이미지의 위변조를 빠르고 강하게 탐지할 수 잇다.In addition, the deep learning-based image correction detection according to the embodiment. In addition to being able to detect image manipulation occurring in various compression environments, it is possible to quickly and strongly detect forgery and alteration of color images.

또한, 실시예에 따른 무보정 탐지 서비스를 제공하는 방법은, 컬러 이미지이며 압축된 이미지인 경우에도 정밀하게 보정 여부를 판별할 수 있으며, 판별된 결과를 사용자가 직관적으로 인식할 수 있게 제공할 수 있는 장점이 있다.In addition, the method for providing the uncorrected detection service according to the embodiment can accurately determine whether to correct the color image even if it is a compressed image, and provide the determined result so that the user can intuitively recognize it. There is an advantage.

도 1은 선행기술 1의 컨볼루션 뉴럴 네트워크 구조를 나타낸다.
도 2는 본 발명의 제 1 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템의 구조도를 나타낸다.
도 3은 본 발명의 제 1 실시예에 따른 특화된 컨볼루션 뉴럴 네트워크의 세부 구조도이다.
도 4는 본 발명의 제 1 실시예에 따른 마르코프 네트워크의 세부 구조도이다.
도 5는 본 발명의 제 1 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템에 의해 위변조된 이미지를 탐지한 실험 결과를 나타낸다.
도 6a 내지 도 6d들은 각기 다른 환경에서 본 발명의 제 1 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템의 탐지 정확도와 선행기술 1의 탐지 정확도를 비교하여 나타낸 그래프들이다.
도 7은 본 발명의 제 2 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템의 블록도이다.
도 8는 본 발명의 제 2 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템의 세부 구조도이다.
도 9a 내지 도 9c는 각기 다른 리사이즈 비율의 이미지들에 대해 각기 다른 뉴럴 네트워크 시스템들이 이미지 조작 탐지 정확도를 비교한 그래프들이다.
도 10은 본 발명의 실시예에 따른 무보정 탐지 서비스를 제공하는 방법을 설명하기 위한 흐름도이다.
도 11a는 본 발명의 실시예에 따른 무보정 탐지 서비스가 이미지의 보정이 없을 때에 무보정 확인 도장을 이미지 상에 찍어주는 서비스를 나타낸다.
도 11b는 본 발명의 실시예에 따른 무보정 탐지 서비스가 이미지의 보정이 검출됐을때 보정 의심 영역을 부각하여 알려주는 서비스를 나타낸다.
1 shows the convolutional neural network structure of prior art 1.
2 shows a structural diagram of a deep learning-based image correction detection system according to a first embodiment of the present invention.
3 is a detailed structural diagram of a specialized convolutional neural network according to a first embodiment of the present invention.
4 is a detailed structural diagram of a Markov network according to a first embodiment of the present invention.
5 shows an experimental result of detecting a forged image by a deep learning-based image correction detection system according to a first embodiment of the present invention.
6A to 6D are graphs comparing the detection accuracy of the deep learning based image correction detection system and the detection accuracy of the prior art 1 according to the first embodiment of the present invention in different environments.
7 is a block diagram of a deep learning-based image correction detection system according to a second embodiment of the present invention.
8 is a detailed structural diagram of a deep learning-based image correction detection system according to a second embodiment of the present invention.
9A to 9C are graphs comparing image manipulation detection accuracy of different neural network systems for images of different resizing ratios.
10 is a flowchart for explaining a method of providing an uncorrected detection service according to an embodiment of the present invention.
11A illustrates a service in which an uncompensated detection service according to an embodiment of the present invention takes an uncompensated confirmation stamp on an image when there is no correction of an image.
FIG. 11B illustrates a service in which an uncorrected detection service according to an embodiment of the present invention highlights a suspected correction area when a correction of an image is detected.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. 이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 또한, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 또한, 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다.The present invention can be applied to various transformations and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention and methods for achieving them will be clarified with reference to embodiments described below in detail with reference to the drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms. In the following examples, terms such as first and second are not used in a limiting sense, but for the purpose of distinguishing one component from other components. In addition, a singular expression includes a plural expression unless the context clearly indicates otherwise. In addition, terms such as include or have means that a feature or component described in the specification exists, and does not preclude the possibility of adding one or more other features or components in advance. In addition, in the drawings, the size of components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to what is shown.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be denoted by the same reference numerals when describing with reference to the drawings, and redundant description thereof will be omitted. .

<단말기><Terminal>

실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템의 뉴럴 네트워크 구조는, 컴퓨터 언어를 통해 작성된다. 따라서, 단말기는 메모리에 설치되어 램을 통해 프로세서가 상기 컴퓨터 언어를 독출함으로써, 프로세서를 통해 딥러닝 기반 이미지 보정 탐지가 수행될 수 있다. 마찬가지로, 실시예에 따른 무보정 탐지 서비스를 제공하는 방법 또한 프로세서에서 무보정 탐지 프로그램 실행을 통해 구현될 수 있다. The neural network structure of the deep learning-based image correction detection system according to the embodiment is created through a computer language. Accordingly, the terminal is installed in the memory, and the processor reads the computer language through RAM, so that deep learning-based image correction detection can be performed through the processor. Likewise, a method for providing a correction-free detection service according to an embodiment may also be implemented through execution of a correction-free detection program in a processor.

따라서, 딥러닝 기반 이미지 보정 탐지 시스템을 구동하는 주체는 단말기의 프로세서이다. Therefore, the subject driving the deep learning-based image correction detection system is the processor of the terminal.

실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템의 단말기는, 데이터를 처리하는 프로세서와, 이미지 딥러닝을 수행하기 위한 이미지 딥러닝 구동 프로그램을 저장하는 메모리를 포함할 수 있으며, 프로세서가 상기 이미니 딥러닝 구동 프로그램을 독출하여, 구축된 뉴럴 네트워크 시스템에 따라서 하기 기술하는 이미지 딥러닝을 수행하게 된다.The terminal of the deep learning-based image correction detection system according to the embodiment may include a processor that processes data and a memory that stores an image deep learning driving program for performing image deep learning, and the processor is the image deep By reading the running drive program, image deep learning described below is performed according to the established neural network system.

실시예에 따라서 딥러닝 기반 이미지 보정 탐지 시스템은, 전체 유닛들을 제어하는 메인 프로세서와, 이미지 딥러닝에 따라 뉴럴 네트워크 구동시 필요한 연산을 처리하는 그래픽 처리장치(Graphics Processing Unit, GPU)를 포함하도록 구성될 수 있다. According to an embodiment, the deep learning-based image correction detection system is configured to include a main processor that controls all units and a graphic processing unit (GPU) that processes calculations required when driving a neural network according to image deep learning. Can be.

그리고 실시예에 따른 단말기는, 상기 딥러닝 기반 이미지 보정 탐지 프로그램이 설치된 서버 컴퓨터, 컴퓨터, 스마트 폰, 디지털방송용 단말, 휴대폰, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 태블릿 PC(tablet PC), 웨어러블 디바이스(wearable device) 등이 포함될 수 있다. And the terminal according to the embodiment, the server computer, computer, smart phone, digital broadcasting terminal, the mobile phone, PDA (personal digital assistants), PMP (portable multimedia player), navigation, tablet PC with the deep learning-based image correction detection program installed (tablet PC), a wearable device may be included.

실시예에 따른 딥러닝 기반 이미지 보정 탐지 프로그램과 무보정 탐지 서비스를 제공하기 위한 프로그램은 네트워크를 통해 제공되며, 단말기와 서버의 데이터 교환을 통해 단말기를 통해 최종 서비스가 제공될 수 있다. A program for providing a deep learning-based image correction detection program and an uncorrected detection service according to an embodiment is provided through a network, and a final service may be provided through the terminal through data exchange between the terminal and the server.

<제 1 실시예 - 딥러닝 기반 이미지 보정 탐지 시스템> < First embodiment-Deep learning based image correction detection system>

도 2는 본 발명의 제 1 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템의 구조도를 나타낸다. 2 shows a structural diagram of a deep learning-based image correction detection system according to a first embodiment of the present invention.

도 2를 참조하면, 제 1 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템(10)은, 이중 뉴럴 네트워크 (two stream network) 구조로, 다양한 압축 환경에서 일어 나는 이미지 조작에 대하여 각 조작을 탐지하도록 이미지 포렌식 기법에 특화된 컨볼루션 뉴럴 네트워크(100)와, 이미지의 압축 여부를 고려한 마르코프 특성(Markov characteristics) 기반의 뉴럴 네트워크(200)와, 뉴럴 네트워크에서 추출된 이미지 보정 특징을 정제하고 조작여부를 판별하는 보정 특징 정제부(310) 및 보정 구별부(320)를 포함한다. Referring to FIG. 2, the deep learning-based image correction detection system 10 according to the first embodiment has a dual stream network structure to detect each operation for image manipulations occurring in various compression environments. The convolutional neural network 100 specialized in the image forensic technique, the Markov characteristics-based neural network 200 considering whether or not the image is compressed, and the image correction characteristics extracted from the neural network are refined and determined to be manipulated. It includes a correction feature refining unit 310 and the correction discrimination unit 320.

1.One. 이중 뉴럴 네트워크 네트워크 구조 및 입력 데이터Dual neural network network structure and input data

실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템(10)의 이중 뉴럴 네트워크(two stream neural network)의 구조는 도 2와 같다. The structure of the two stream neural network of the deep learning based image correction detection system 10 according to the embodiment is shown in FIG. 2.

자세히, 딥러닝 기반 이미지 보정 탐지 시스템(10)은, 이미지 조작을 탐지하는 특화된 컨볼루션 뉴럴 네트워크(100)(constrained convolutional neural network)과 압축을 고려한 마르코프 특성(Markov statistics) 기반의 뉴럴 네트워크(200)를 결합한 이중 네트워크 구조이다. In detail, the deep learning-based image correction detection system 10 includes a specialized convolutional neural network 100 for detecting image manipulation and a neural network 200 based on Markov statistics considering compression. It is a dual network structure combining.

이러한 이중 뉴럴 네트워크 구조는, 기존의 컨볼루션 뉴럴 네트워크를 디지털 이미지 포렌식 기법에 바로 적용하기 어려웠던 문제점들을 해결하기 위해, 픽셀 도메인에 서만 고려하였던 기존 연구와 달리 주파수 도메인에서도 이미지의 조작 여부를 고려할 수 있어, 적어도 일회 이상 압축된 이미지의 조작여부 검출에 특화될 수 있다. This dual neural network structure can consider whether the image is manipulated in the frequency domain, unlike the existing research that was considered only in the pixel domain, in order to solve problems that were difficult to directly apply the existing convolutional neural network to the digital image forensic technique. , It can be specialized in detecting whether or not the compressed image is manipulated at least once.

실시예에서 이미지 조작을 검출할 입력 이미지 대상은, 제이펙 압축된 이미지 내에 정상 이미지 블록과 위변조된 이미지 블록을 구별하여 탐지하는 것이다. 실제로 이미지 위변조가 일어나는 상황은 제이펙 압축된 이미지를 편집소프트웨어를 통해 불러온 뒤, 이미지에 국부 조작하여 재 저장하고 유통시키는 것이며 특히 이미지를 재 저장할 때 역시 제이펙 압축을 거치게 되므로 조작된 영역과 정상인 영역은 모두 이중 압축되어 있어 두 영역을 구별하는 것이 필요하다. 앞서 언급한 이미지 위변조의 종류중 복사-붙여넣기와 스플라이 싱은 조작시 필연적으로 흔적을 감추기 위해 블러링 또는 메디안 필터링을 진행하며, 붙여 넣어진 객체의 자연스러움을위해 리샘플링 또한 생기게 된다. 따라서, 이하에서는 제이펙 압축되 이미지에서 이미지 조작을 검출하는 것을 대상으로 한정하여 설명한다. In an embodiment, an input image target to detect image manipulation is to distinguish and detect a normal image block and a forged image block in a JPEG compressed image. The actual image forgery and alteration occurs when the JPEG compressed image is loaded through the editing software and then locally stored in the image for re-storage and distribution. Especially, when re-storing the image, the JPEG is also compressed, so the manipulated area and normal people The regions are all double compressed, so it is necessary to distinguish the two regions. Among the types of image forgery mentioned above, copy-paste and splicing inevitably perform blurring or median filtering to hide traces during manipulation, and resampling also occurs for the naturalness of pasted objects. Therefore, hereinafter, it is limited to the object of detecting an image manipulation in an image that is compressed by JPEG.

2.2. 특화된 컨볼루션 뉴럴 네트워크(100) Specialized Convolutional Neural Network (100)

도 2 내지 도 3을 참조하면, 실시예에 따른 특화된 컨볼루션 뉴럴 네트워크(100)는, 이미지 블록부(110), 보정 특징 전처리부(120), 보정 특징 추출부(130), 제 1 특징 정제부(140)를 포함할 수 있다. 2 to 3, the specialized convolutional neural network 100 according to an embodiment includes an image block unit 110, a correction feature pre-processing unit 120, a correction feature extraction unit 130, and a first feature refinement It may include a portion 140.

자세히, 이미지 블록부(110)는, 컨벌루션 뉴럴 네트워크에 이미지를 입력하기 적합한 사이즈로 입력 이미지를 블록화시킬 수 있다. 예를 들어, 이미지 블록부(110)는, 이미지 블록이 64x64가 되도록 이미지를 자를 수 있다. In detail, the image block unit 110 may block the input image to a size suitable for inputting the image in the convolutional neural network. For example, the image block unit 110 may crop the image so that the image block is 64x64.

다음으로, 블록화된 이미지 블록은, 보정 특징 전처리부(120)에 입력된다. Next, the blocked image block is input to the correction feature preprocessing unit 120.

자세히, 보정 특징 전처리부(120)는, 특화된 컨볼루션 레이어(constrained convolution layer)를 포함한다. 이러한 특화된 컨볼루션 레이어는, 선행기술 1의 바야르 필터와 동일하게 수학식 1과 같이 동작할 수 있다. In detail, the correction feature preprocessing unit 120 includes a specialized constrained convolution layer. The specialized convolution layer may operate as shown in Equation 1 in the same manner as the Bayard filter of Prior Art 1.

다음으로, 보정 특징 전처리부(120)에서 처리되어 출력된 전처리 이미지는, 보정 특징 추출부(130)에 입력될 수 있다. Next, the pre-processed image processed and output by the correction feature pre-processing unit 120 may be input to the correction feature extraction unit 130.

보정 특징 추출부(130)는, 복수의 레이어를 포함하며, 각각의 레이어는, 컨볼루션 레이어(convolutional layer), 배치 정규화 (batch normalization), 정류된 선형 유닛 (ReLU) 함수, 맥스 풀링(max pooling layer)를 포함할 수 있다. The correction feature extracting unit 130 includes a plurality of layers, and each layer includes a convolutional layer, a batch normalization, a rectified linear unit (ReLU) function, and max pooling layer).

자세히, 도 3을 참조하면, 제 1 레이어(131)와, 제 2 레이어(132)와, 제 3 레이어(133)를 포함하며, 각각 컨벌루션 레이어(135), 배치 정규화(136), 정류된 선형 유닛함수(137)을 포함하며, 제 1 레이어(131)와 제 2 레이어(132)는 맥스 풀링 레이어(138)를 더 포함하는 것을 알 수 있다. In detail, referring to FIG. 3, including the first layer 131, the second layer 132, and the third layer 133, the convolution layer 135, the batch normalization 136, and the rectified linear, respectively It can be seen that the unit function 137 is included, and the first layer 131 and the second layer 132 further include a max pooling layer 138.

즉, 특징 추출부(130)는 복수의 컨볼루션 레이어를 포함하여 구성되는데, 이와 같이 복수의 레이어를 쌓기 위하여, 특징 추출부(130)에 포함되는 컨볼루션 레이어는 모두 5×5이하인 것이 바람직하다. That is, the feature extraction unit 130 includes a plurality of convolutional layers. In order to stack the plurality of layers, it is preferable that all of the convolution layers included in the feature extraction unit 130 are 5 × 5 or less. .

특히, 2번째 이후에 쌓이는 컨볼루션 레이어는, 3×3이하인 것이 바람직하다. 또한, 각각의 컨볼루션 레이어의 스트라이드 (stride)는 조작의 흔적을 놓칠 수 있으므로 1로 고정되며, 풀링 레이어 (pooling layer)만 2 이상의 정수로 설정될 수 있다. In particular, it is preferable that the convolution layer accumulated after the second is 3 × 3 or less. In addition, the stride of each convolution layer is fixed to 1 because the trace of manipulation can be missed, and only the pooling layer can be set to an integer of 2 or more.

자세히, 컨볼루션 레이어를 작은 필터 사이즈를 사용하는 이유로는 첫째로 여러 개의 정류된 선형 유닛 (rectified linear unit, ReLU) 함수를 사용할 수 있기 때문이다. 이는 큰 필터를 사용하는 하나의 레이어 대신 작은 필터를 사용하는 여러 레이어로 대체할 수 있게 한다. 둘째로는 학습해야할 가중치 (weight)의 수를많이 줄이는 역할을 한다. 선행기술 1처럼, 7×7 컨볼루션 레이어 하나를 사용하는 것보다는 실시예처럼 3×3 컨볼루션 레이어 3개를 사용할 경우 가중치의 수가 적게 됨이 명백하며, 학습될 가중치가 적다는 것은 정규화 측면에서 큰 이점을 가질 수 있다.In detail, the reason for using a small filter size for the convolution layer is because it is possible to use several rectified linear unit (ReLU) functions first. This makes it possible to replace multiple layers using small filters instead of one layer using large filters. Second, it reduces the number of weights to be learned. As in the prior art 1, it is clear that the number of weights is less when using 3 3 × 3 convolutional layers as in the embodiment rather than using one 7 × 7 convolutional layer. It can have a big advantage.

또한, 배치 정규화 (batch normalization)을 사용하여 제안하는 네트워크의 과적합 (over-fitting)을 방지했다.In addition, we used batch normalization to prevent the proposed network from overfitting.

이와 같은 특징 추출부(130)를 통해 추출된 보정 특징은, 제 1 특징 정제부(140)로 전달될 수 있다. The correction feature extracted through the feature extraction unit 130 may be transmitted to the first feature purification unit 140.

제 1 특징 정제부(140)는, 적어도 하나 이상의 완전 연결층(fully connected layer)을 포함하여, 추출된 이미지 보정 특징들을 정제하고 구별하도록 학습될 수 있다. The first feature refiner 140 may be trained to refine and distinguish the extracted image correction features, including at least one fully connected layer.

실시예에서 제 1 특징 정제부(140)는, 2개의 완전 연결층(141, 142) 과 각각의 완전 연결층 출력단에는 정류된 선형 유닛함수로 구성될 수 있다. In an embodiment, the first feature refining unit 140 may be composed of two fully connected layers 141 and 142 and rectified linear unit functions at the output terminals of each fully connected layer.

제 1 특징 정제부(140)에서 정제된 보정 특징은, 마르코브 특성 기반 네트워크(200)에서 추출된 보정 특징과 함께, 통합 특징 정제부(310)로 전달된다. The revised feature refined by the first feature refining unit 140 is transmitted to the integrated feature refining unit 310 together with the revised feature extracted from the Markov characteristic-based network 200.

3.3. 마르코브 특성(Markov statistics) 기반 네트워크Network based on Markov statistics

실시예에 따른 마르코브 특성 기반 네트워크(200)는, 단일 제이펙 (single-JPEG) 압축과 이중 제이펙 (double-JPEG) 압축을 구분하고, 이중 제이팩 압축시 이미지 변형을 여부를 검출할 수 있다. The Markov characteristic-based network 200 according to an embodiment may distinguish between single-JPEG compression and double-JPEG compression, and detect whether an image is deformed when compressing a double-JPEG. have.

이러한 마르코브 특성 기반 네트워크(200)는, 주파수 도메인에서도 이미지의 조작 여부를 고려하여, 제이팩 포맷 압축 이미지에서의 이미지 변형을 효과적으로 탐지할 수 있다.The Markov characteristic-based network 200 can effectively detect image deformation in a J-pack format compressed image in consideration of whether or not the image is manipulated in the frequency domain.

도 2 및 도 4를 참조하면, 실시예에 따른 마르코브 특성 기반 네트워크(200)는, 도메인 변환부(210), 픽셀차 산출부(220), 임계값 함수(230), 매트릭스 변환부(240) 및 제 2 특징 정제부(250)를 포함한다. 2 and 4, the Markov characteristic-based network 200 according to the embodiment includes a domain converter 210, a pixel difference calculator 220, a threshold function 230, and a matrix converter 240 ) And the second feature refining unit 250.

자세히, 도메인 변환부(210)는, 이미지 블록부(110)에서 블록화된 이미지 블록을 이산 코사인 변환 (DCT) 하여 주파수 도메인에서의 데이터로 처리하게 된다. 자세히, 도메인 변환부(210)는, 네트워크는 입력된 이미지 블록을 8×8 블록마다 이산 코사인 변환 (DCT) 하여 주파수 도메인에서의 데이터로 처리하게 된다. In detail, the domain converter 210 performs discrete cosine transform (DCT) on the image block blocked by the image block unit 110 to process the data in the frequency domain. In detail, the domain converter 210 performs a discrete cosine transform (DCT) on the input image block every 8 × 8 blocks to process the data in the frequency domain.

그리고 픽셀차 산출부(220)는, 이산 코사인 변환이 된 블록 Bx,y에 대하여 하기 수학식 2와 같이 각각 수평, 수직 방향으로 이웃 픽셀과의 차이를 구한 배열 Bh, Bv들을 구할 수 있다. In addition, the pixel difference calculator 220 may obtain the arrays Bh and Bv in which the difference between neighboring pixels is obtained in the horizontal and vertical directions, respectively, as shown in Equation 2 below for blocks Bx and y subjected to discrete cosine transformation.

Figure pat00002
Figure pat00002

다음으로, 임계값 함수(230)는, 배열값들을 임계값 범위 [-4, 4] 안으로 매핑시킨다. Next, the threshold function 230 maps the array values into the threshold range [-4, 4].

다음으로, 매트릭스 변환부(240)는, 해당 블록의 값으로 하기 수학식 3과 같이 수평방향의 블록 Bh의 9×9 전이 확률 행렬 (TPM)을 구하며 수평, 수직에 대한 두 전이 확률 행렬을 [1, 9×9×2] 일차원 벡터로 결합한다. Next, the matrix transform unit 240 obtains a 9 × 9 transition probability matrix (TPM) of the horizontal block Bh as the value of the corresponding block, as shown in Equation 3 below, and calculates two transition probability matrices for horizontal and vertical [ 1, 9 × 9 × 2] Combined into a one-dimensional vector.

Figure pat00003
Figure pat00003

이후 결합된 일차원 벡터는, 제 2 특징 정제부(250)로 전달되고, 제 2 특징 전달부는 완전 연결층(fully connected layer)으로 구성될 수 있다. Thereafter, the combined one-dimensional vector is delivered to the second feature refinement unit 250, and the second feature delivery unit may be configured as a fully connected layer.

이러한 마르코브 특성 기반 네트워크(200)는, 이미지 포렌식 기법에 이중 네트워크 망에 적합하게 변형된 네트워크로, 단일, 이중 제이팩 압축된 이미지를 주파수 도메인으로 변환하여 분석함으로써, 압축된 이미지에서의 이미지 변형을 정밀하게 탐지할 수 있다. The Markov characteristic-based network 200 is an image forensic technique that is transformed into a network suitable for a dual network, transforms and analyzes single and double J-pack compressed images into a frequency domain, thereby transforming images in the compressed image. Can be accurately detected.

4.4. 통합 특징 정제부(310) 및 보정 구별부(320)Integrated feature refining unit 310 and correction discrimination unit 320

마지막으로는 특화된 컨볼루션 뉴럴 네트워크(100)와, 마르코브 특성(Markov statistics) 기반 네트워크에서 출력된 각각의 보정 특징 정보는, 통합 특징 정제부(310)로 전달된다. Finally, each correction feature information output from the specialized convolutional neural network 100 and the Markov statistics based network is transmitted to the integrated feature refiner 310.

통합 특징 정제부(310)는, 완전 연결층(311, 312)으로 구성되며, 상기 특징 정보들을 결합하여 최종적으로 분류를 위한 학습을 시도한다. The integrated feature refining unit 310 is composed of the complete connection layers 311 and 312, and combines the feature information to finally try to learn for classification.

실시예에 따른 통합 특징 정제부(310)는, 이미지 포렌식을 위해 미세한 특성의 데이터 손실을 막기 위해 평균으로 결하는 방법보다 두 완결층의 벡터들을 그대로 결합하여 분류기로 전달하는 구조를 갖는다. The integrated feature refinement unit 310 according to the embodiment has a structure in which vectors of the two complete layers are combined and transferred to a classifier rather than a method of performing an average to prevent data loss of minute characteristics for an image forensic.

이와 같이 통합 특징 정제부(310)에서 결합된 보정 특징 정보는, 보정 구별부(320)로 전달된다. The correction feature information combined by the integrated feature refining unit 310 is transmitted to the correction discrimination unit 320.

보정 구별부(320)는, 보정 가능성이 있는 픽셀들을 검출하고, 상기 픽셀들의 보정 가능성 확률값을 산출하고, 이를 위변조 확인 맵으로 추출할 수 있다. 즉, 도 5와 같이 위변조 가능성이 높은 픽셀들을 확률값에 따라 서로다른 색으로 표시한 위변조 확인 맵을 출력할 수 있다. The correction discrimination unit 320 may detect pixels with correction possibility, calculate a correction probability value of the pixels, and extract them as a forgery confirmation map. That is, as shown in FIG. 5, a forgery confirmation map displaying pixels with high probability of forgery in different colors according to a probability value may be output.

이러한 보정 구별부(320)는, 소프트맥스(softmax) 함수와, 기존에 널리 쓰이던 확률적 구배강하 (stochastic gradient descent) 보다 더 빠르게 국소 최소치 (local minima)에서 벗어날 수 있는 아담 옵티마이저 (Adam optimizer)를 포함한다. The correction discrimination unit 320, a softmax function, and an Adam optimizer capable of escaping from a local minima faster than a stochastic gradient descent that has been widely used in the past. It includes.

자세히, 도 5를 참조하면, 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템(10)은, 원본 이미지에서 위변조된 이미지(그림 (a)) 가 입력되었을 때, 위변조된 영역을 그림 (b)와 같이 픽셀별로 변조 확률값도 나타내어 탐지한 결과를 출력할 수 있다. In detail, referring to FIG. 5, the deep learning-based image correction detection system 10 according to the embodiment, when a forged image (Figure (a)) is input from the original image, the forged region is shown in Figure (b). Similarly, the modulation probability value for each pixel can also be displayed to output the detected result.

이와 같이 설계된 딥러닝 기반 이미지 보정 탐지는. 다양한 압축 환경에서 일어나는 이미지 조작을 탐지하는 합성곱 뉴럴 네트워크와 압축을 고려한 마르코프 특성 기반의 뉴럴 네트워크(200)를 결합하여 이미지 조작을 압축된 환경에서도 잘 탐지할 수 있다.Deep learning based image correction detection designed in this way. The image manipulation can be well detected even in a compressed environment by combining the convolutional neural network that detects image manipulation in various compression environments and the neural network 200 based on the Markov characteristic considering compression.

Figure pat00004
Figure pat00004

자세히, 표 1은, 선행기술 1의 딥러닝 네트워크(bayas)와, 본 실시예 1의 네트워크의 이미지 위변조 별 탐지율을 나타낸 표이다. In detail, Table 1 is a table showing the deep learning network (bayas) of the prior art 1 and the detection rate of each image forgery of the network of the first embodiment.

표 1을 보면 알 수 있듯이, 두가지 네트워크가, 총 네 가지의 이미지 변형유형 (가우시안 블러링, 가우시안 노이즈, 메디안 필터링, 리샘플링)에 대하여 이중 압축된 이미지에서도 해당 변형을 탐지하는 실험을 진행하였다. As can be seen from Table 1, the two networks conducted experiments to detect the deformation in a double compressed image for a total of four image transformation types (Gaussian blurring, Gaussian noise, median filtering, and resampling).

, 모든 변형과 다양한 압축 퀄리티 (Q1 = 70, 90 / Q2 = 60, 70, 80, 90) 에 대하여 실시예 1의 네트워크는 선행기술 1의 Bayar 기법 보다 모두 우위를 기록한 것을 표 1을 통해 확인할 수 있다. , It can be confirmed through Table 1 that the network of Example 1 recorded all advantages over the Bayar technique of Prior Art 1 for all variations and various compression qualities (Q1 = 70, 90 / Q2 = 60, 70, 80, 90). have.

또한, 도 6a 내지 도 6d를 참조하면, 실시예 1의 네트워크가 각 이미지 변형 유형 별로 매 학습구간마다 항상 선행기술 1보다 높은 탐지율을 기록하는 것을 탐지 정확도 그래프를 통해 확인할 수 있다. Also, referring to FIGS. 6A to 6D, it can be confirmed through a detection accuracy graph that the network of Example 1 always records a higher detection rate than Prior Art 1 for each learning section for each image transformation type.

<제 2 실시예 - 딥러닝 기반 이미지 보정 탐지 시스템> < Second embodiment-Deep learning based image correction detection system>

이하, 제 2 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템(20)을 설명하며, 제 1 실시예와 중복되는 설명은 생략할 수 있다. Hereinafter, the deep learning-based image correction detection system 20 according to the second embodiment will be described, and a description overlapping with the first embodiment may be omitted.

도 7을 참조하면, 제 2 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템(20)은, 이미지 블록화부(410), 보정 특징 전처리부(420), 보정 특징 추출부(430), 보정 특징 정제부(441) 및 보정 구별부(442)를 포함한다. Referring to FIG. 7, the deep learning-based image correction detection system 20 according to the second embodiment includes an image blocking unit 410, a correction feature pre-processing unit 420, a correction feature extraction unit 430, and a correction feature refinement It includes a section 441 and a correction discrimination section 442.

자세히, 도 7 내지 도 8을 참조하면, 이미지 블록화부(410)는, 입력된 이미지의 크기를 컨벌루션 뉴럴 네트워크에 입력하기 적합한 크기로 조절할 수 있다. In detail, referring to FIGS. 7 to 8, the image blocker 410 may adjust the size of the input image to a size suitable for input to a convolutional neural network.

본 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템(20)은, 컬러 이미지를 분석하기 적합하여, 입력된 이미지는 컬러 이미지이며 컬러별 레이어를 다르게 구성해 복수의 레이어로 구성될 수 있다. The deep learning-based image correction detection system 20 according to the present embodiment is suitable for analyzing a color image, and the input image is a color image and may be composed of a plurality of layers by differently configuring layers for each color.

실시예에서 이미지 블록화부(410)는, 이미지 블록이 256x256x3이 되도록 이미지를 자를 수 있다. In an embodiment, the image blocker 410 may crop the image so that the image block is 256x256x3.

다음으로 블록화된 이미지는 보정 특징 전처리부(420)에 전달될 수 있다. Next, the blocked image may be transferred to the correction feature pre-processing unit 420.

보정 특징 전처리부(420)는, 고역 통과 필터(High-pass filter)를 사용하여 이미지의 보정 특징 확대화할 수 있다. The correction feature pre-processing unit 420 may enlarge the correction feature of the image using a high-pass filter.

자세히, 보정 특징 전처리부(420)는, 고역 통과 필터를 포함하여, 리사이즈 트레이스 특징(resize trace feature)을 부각할 수 있다. In detail, the correction feature pre-processing unit 420 may include a high-pass filter to highlight a resize trace feature.

이러한 보정 특징 전 처리부는, 이미지 내의 숨겨진 stego 정보들을 찾는 방법을 이미지 포렌식 기법과 유사하다고 판단되어 착안한 것이다. The pre-processing unit for the correction feature is considered to be a method for finding hidden stego information in an image, similar to an image forensic technique.

리사이즈 특징이 부각된 이미지 블록은, 이미지 보정 특징 추출부(430)에 입력될 수 있다. The image block in which the resize feature is highlighted may be input to the image correction feature extraction unit 430.

상기 보정 특징 추출부(430)는, 미리 훈련된 딥러닝 컨볼루션 뉴럴 네트워크 모델 을 사용하여 이미지 보정 특징을 추출할 수 있다. The correction feature extraction unit 430 may extract an image correction feature using a pre-trained deep learning convolutional neural network model.

자세히, 보정 특징 추출부(430)는, 복수의 컨볼루션 레이어(convolutional layer), 배치 정규화 (batch normalization), 정류된 선형 유닛 (ReLU) 함수, 복수의 맥스 풀링(max pooling layer)를 포함할 수 있다.In detail, the correction feature extraction unit 430 may include a plurality of convolutional layers, a batch normalization, a rectified linear unit (ReLU) function, and a plurality of max pooling layers. have.

실시예에 따른 보정 특징 추출부(430)는, 기 학습된 VGG19 컨볼루션 뉴럴 네트워크 모델일 수 있다. 예를 들어, 보정 특징 추출부(430)는 2개의 컨벌루션 레이어, 풀링 레이어, 2개의 컨벌루션 레이어, 풀링 레이어, 4개의 컨벌루션 레이어, 풀링 레이어 및 2개의 컨벌루션 레이어가 순차적으로 적층된 구조를 가질 수 있다. The correction feature extraction unit 430 according to the embodiment may be a pre-trained VGG19 convolutional neural network model. For example, the correction feature extraction unit 430 may have a structure in which two convolution layers, a pooling layer, two convolution layers, a pooling layer, four convolution layers, a pooling layer, and two convolution layers are sequentially stacked. .

이때, 보정 특징 추출부(430)는, 기 학습된 컨볼루션 뉴럴 네트워크 모델이면서, 입력 이미지 별로 가중치가 변화되는 모델일 수 있다. In this case, the correction feature extracting unit 430 may be a pre-trained convolutional neural network model and a model in which the weight is changed for each input image.

자세히, 실시예에 따른 기 학습된 VGG19 컨볼루션 뉴럴 네트워크에 가중치(w)를 이미지 별로 변형되어 위변조 특징(VGG feature)을 추출하도록 학습시킬 수 있다. In detail, the weight (w) of the pre-trained VGG19 convolutional neural network according to the embodiment may be modified for each image to be trained to extract the forgery-feature feature (VGG feature).

또한, 보정 특징 추출부(430)에 포함된 복수의 컨볼루션 레이어는, 복수의 레이어로 쌓이므로 컨볼루션 레이어는 모두 3×3이하의 크기인 것이 바람직하다. 또한, 각각의 컨볼루션 레이어의 스트라이드 (stride)는 조작의 흔적을 놓칠 수 있으므로 1로 고정되며, 풀링 레이어 (pooling layer)만 2 이상의 정수로 설정될 수 있다.In addition, since the plurality of convolution layers included in the correction feature extraction unit 430 are stacked as a plurality of layers, it is preferable that all of the convolution layers have a size of 3 × 3 or less. In addition, the stride of each convolution layer is fixed to 1 because the trace of manipulation can be missed, and only the pooling layer can be set to an integer of 2 or more.

그리고 보정 특징 추출부(430)에서 추출된 보정 특징 정보는, 특징 정제부에 입력된다. Then, the correction feature information extracted by the correction feature extraction unit 430 is input to the feature refinement unit.

특징 정제부(441)는, 완전 연결 접속층 (Fully-connected Layer)를 사용하여 추출된 이미지 보정 특징들을 정제하고 구별하도록 학습될 수 있다. The feature refiner 441 may be trained to refine and distinguish the image correction features extracted using a fully-connected layer.

자세히, 특징 정제부(441)는, 적어도 하나 이상의 완전 연결층(fully connected layer)을 포함하여, 추출된 이미지 보정 특징들을 정제하고 구별하도록 학습될 수 있다.In detail, the feature refiner 441 may be trained to refine and distinguish the extracted image correction features, including at least one fully connected layer.

실시예에서 특징 정제부(441)는, 2개의 완전 연결층 (fully connected layer)과 각각의 완전 연결층 출력단에는 정류된 선형 유닛함수로 구성될 수 있다. In an embodiment, the feature refining unit 441 may be composed of two fully connected layers and a rectified linear unit function at the output terminals of each fully connected layer.

이와 같이 특징 정제부(441)에서 결합된 보정 특징 정보는, 보정 구별부(442)로 전달된다. The correction feature information combined in the feature refining portion 441 is transmitted to the correction discriminating portion 442.

보정 구별부(442)는, 보정 가능성이 있는 픽셀들을 검출하고, 상기 픽셀들의 보정 가능성 확률값을 산출할 수 있다. The correction discrimination unit 442 may detect pixels with correction possibility, and calculate a correction probability value of the pixels.

그리고 보정 구별부(442)는, 소프트맥스(Softmax) 함수를 통해 이미지 블록의 보정 여부 를 0~1 사이의 확률로 나타낼 수 있다. In addition, the correction discrimination unit 442 may indicate whether the image block is corrected through a softmax function with a probability between 0 and 1.

자세히, 이러한 보정 구별부(442)는, 소프트맥스 (softmax) 함수와, 기존에 널리 쓰이던 확률적 구배강하 (stochastic gradient descent) 보다 더 빠르게 국소 최소치 (local minima)에서 벗어날 수 있는 아담 옵티마이저 (Adam optimizer)를 포함할 수 있다. In detail, the correction discrimination unit 442 is a softmax function and an Adam optimizer that can escape from a local minima faster than a conventional stochastic gradient descent. optimizer).

이와 같이 설계된 딥러닝 기반 이미지 보정 탐지는. 다양한 압축 환경에서 일어나는 이미지 조작을 탐지할 수 있을 뿐만 아니라, 컬러 이미지의 위변조를 빠르고 강하게 탐지할 수 잇다. Deep learning based image correction detection designed in this way. In addition to being able to detect image manipulation occurring in various compression environments, it is possible to quickly and strongly detect forgery and alteration of color images.

이하, 본 실시예에 따른 네트워크의 성능을 확인하기 위해 선행기술 1과 리사이즈 비율을 달리한 이미지를 입력하며, 위변조 추출 정확도를 산출하였다.Hereinafter, in order to check the performance of the network according to the present embodiment, an image having a different resizing ratio from prior art 1 was input, and forgery extraction accuracy was calculated.

도 9a 내지 도 9c를 보면, 모든 리사이즈 비율에서 본 실시예에 따른 네트워크가, 선행기술 1의 네트워크에 비해 빠르게 학습되어 동작하는 것을 확인할 수 있으며, 그 정확도 또한 높은 것을 확인할 수 있다. 9A to 9C, it can be seen that the network according to the present embodiment is learned and operated faster than the network of the prior art 1 at all resizing ratios, and its accuracy is also high.

<무보정 탐지 서비스><Non-compensation detection service>

이하, 전술한 실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템(10, 20)을 사용하여 무보정 탐지 서비스를 제공하는 방법을 상세히 설명한다. Hereinafter, a method of providing an uncorrected detection service using the deep learning-based image correction detection systems 10 and 20 according to the above-described embodiment will be described in detail.

이러한 서비스는, 사용자의 단말기를 통해 제공할 수 있으며, 보정 탐지는 무보정 탐지 서비스 제공서버에서 이루어질 수 있다. Such a service may be provided through a user's terminal, and correction detection may be performed by a server for providing a correction-free detection service.

즉, 사용자는 단말기를 통해 서비스 제공서버에 접속하여, 확인하고자 하는 이미지를 업로드한 후 서비스 제공서버에서 확인된 이미지를 수신하는 방식으로 서비스를 제공받을 수 있다. That is, the user may be provided with a service by accessing the service providing server through a terminal, uploading an image to be checked, and receiving the verified image from the service providing server.

도 10을 참조하면, 먼저, 사용자는 단말기를 통해 위변조가 의심되는 입력 이미지(I)를 입력할 수 있다.Referring to FIG. 10, first, a user may input an input image I suspected of forgery and alteration through a terminal.

자세히, 사용자는, 단말기에 저장된 이미지를 서비스 제공서버에 송신하여, 위변조 확인을 요청할 수 있다. In detail, the user can request forgery verification by transmitting the image stored in the terminal to the service providing server.

서비스 제공서버는, 입력받은 입력 이미지를 블록화하여 이미지 블록(IB)으로 생성하고, 생성된 이미지 블록(IB)을 딥러닝 기반 이미지 보정 탐지 시스템(10, 20)에 입력할 수 있다. The service providing server may block the input image received, generate it as an image block (IB), and input the generated image block (IB) to the deep learning-based image correction detection systems 10 and 20.

실시예에 따른 딥러닝 기반 이미지 보정 탐지 시스템(10, 20)은, 입력된 이미지 블록(IB)을 딥러닝하여, 이미지에서 보정이 의심되는 픽셀과 상기 픽셀의 위변조 확률 값을 표시한 위변조 확인 맵(PM)을 추출할 수 있다. The deep learning-based image correction detection system 10 and 20 according to an embodiment deep-learns an input image block (IB), and a forgery confirmation map displaying a pixel for which correction is suspected in an image and a forgery probability value of the pixel (PM) can be extracted.

서비스 제공서버는, 위변조 확인 맵(PM)을 다시 컨볼루션 뉴럴 네트워크(30)를 통해 딥러닝하여, 위변조 여부를 예/아니요의 레이블로 출력할 수 있다. The service providing server may deep-learn the forgery confirmation map (PM) again through the convolutional neural network 30, and output whether the forgery or alteration is a yes / no label.

이때, 상기 컨볼루션 네트워크는, 위변조 여부가 예로 판별되면, 위변조 확률이 높은 픽셀들의 위치 및 배열들로부터 어떠한 위변조 유형이 있었는지와, 위변조 가능성이 높은 영역을 하이라이트 하는 입력 이미지를 생성할 수 있다. In this case, if it is determined that the forgery is falsified, the convolutional network may generate an input image highlighting the type of forgery and the area with high probability of forgery from the positions and arrangements of pixels having a high probability of forgery.

좀더 자세히, 도 11a를 참조하면, 서비스 제공서버는, 위변조 여부가 아니요로 판별되면, 입력 이미지(I)에 보정이 없다는 확인 도장(Y)을 합성하여, 사용자에게 제공할 수 있다. In more detail, referring to FIG. 11A, if it is determined that the forgery or alteration is NO, the service providing server may synthesize and provide a confirmation stamp Y that there is no correction in the input image I.

또한, 도 11b를 참조하면, 서비스 제공서버는, 위변조 여부가 예로 판별되면, 입력 이미지(I)에서 위변조 가능성이 높은 영역을 하이라이트(N) 하고, 위변조 유형 정보를 추가로 나타낼 수 있다. In addition, referring to FIG. 11B, when it is determined whether the forgery is falsified, the service providing server may highlight (N) an area of high probability of forgery in the input image I and further indicate forgery type information.

이와 같은 무보정 탐지 서비스를 제공하는 방법은, 컬러 이미지이며 압축된 이미지인 경우에도 정밀하게 보정 여부를 판별할 수 있으며, 판별된 결과를 사용자가 직관적으로 인식할 수 있게 제공할 수 있는 장점이 있다. The method of providing the uncorrected detection service has the advantage of being able to accurately determine whether to correct the color image even in the case of a compressed image, and to provide the user with intuitive recognition of the determined result. .

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and can be recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention or may be known and usable by those skilled in the computer software field. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floptical disks. medium), and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device can be changed to one or more software modules to perform the processing according to the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are examples, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings are illustrative examples of functional connections and / or physical or circuit connections. In the actual device, alternative or additional various functional connections, physical It can be represented as a connection, or circuit connections. In addition, unless specifically mentioned, such as “essential”, “important”, etc., it may not be a necessary component for application of the present invention.

또한 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술할 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정하여져야만 할 것이다.In addition, the detailed description of the present invention has been described with reference to preferred embodiments of the present invention. And it will be understood that various modifications and changes can be made to the present invention without departing from the technical scope. Therefore, the technical scope of the present invention should not be limited to the contents described in the detailed description of the specification, but should be defined by the claims.

Claims (12)

입력 이미지에 위변조를 판별하는 딥러닝 기반 이미지 보정 탐지 시스템으로서,
상기 입력 이미지를 픽셀 도메인에서 보정 특징 정보를 검출하는 특화된 컨볼루션 뉴럴 네트워크;
상기 입력 이미지를 주파수 도메인으로 변환한 후 압축 여부와 압축된 이미지에서의 보정 특징 정보를 검출하는 마르코브 특성(Markov statistics) 기반 네트워크;
상기 특화된 컨볼루션 뉴럴 네트워크의 보정 특징 정보와, 상기 마르코브 특성 기반 네트워크의 보정 특징 정보를 결합하는 통합 특징 정제부; 및
상기 통합 특징 정제부에서 결합된 보정 특징 정보를 기초로 상기 입력 이미지의 위변조를 구별하는 보정 구별부;를 포함하는
딥러닝 기반 이미지 보정 탐지 시스템.
A deep learning-based image correction detection system that determines forgery and alteration in the input image,
A specialized convolutional neural network for detecting correction feature information in the pixel domain of the input image;
A Markov statistics-based network that detects whether the input image is compressed in the frequency domain and whether it is compressed and correction characteristic information in the compressed image;
An integrated feature refiner that combines the correction feature information of the specialized convolutional neural network with the correction feature information of the Markov characteristic based network; And
It includes; a correction discrimination unit for discriminating forgery and alteration of the input image based on the correction feature information combined by the integrated feature refinement unit
Deep learning based image correction detection system.
제 1 항에 있어서,
상기 입력 이미지를 일정 크기의 규격으로 이미지 블록화하는 이미지 블록부를 더 포함하는
딥러닝 기반 이미지 보정 탐지 시스템.
According to claim 1,
Further comprising an image block unit for image blocking the input image to a standard size
Deep learning based image correction detection system.
제 1 항에 있어서,
상기 특화된 컨볼루션 뉴럴 네트워크는,
보정 특징 전처리부, 보정 특징 추출부 및 제 1 특징 정제부를 포함하는
딥러닝 기반 이미지 보정 탐지 시스템.
According to claim 1,
The specialized convolutional neural network,
A correction feature pre-processing unit, a correction feature extraction unit and a first feature purification unit
Deep learning based image correction detection system.
제 3 항에 있어서,
상기 보정 특징 추출부는,
복수의 레이어를 포함하며, 상기 각각의 레이어는, 컨볼루션 레이어(convolutional layer), 배치 정규화 (batch normalization), 정류된 선형 유닛 (ReLU) 함수를 포함하는
딥러닝 기반 이미지 보정 탐지 시스템.
The method of claim 3,
The correction feature extraction unit,
It includes a plurality of layers, and each layer includes a convolutional layer, a batch normalization, and a rectified linear unit (ReLU) function.
Deep learning based image correction detection system.
제 4 항에 있어서,
상기 복수의 레이어에 포함된 모든 컨볼루션 레이어의 크기는, 5×5 이하이고, 스트라이드는 1인
딥러닝 기반 이미지 보정 탐지 시스템.
The method of claim 4,
The size of all convolutional layers included in the plurality of layers is 5 × 5 or less, and the stride is 1 person.
Deep learning based image correction detection system.
제 1 항에 있어서,
상기 마르코브 특성 기반 네트워크는,
도메인 변환부, 픽셀차 산출부, 임계값 함수, 매트릭스 변환부 및 제 2 특징 정제부를 포함하는
딥러닝 기반 이미지 보정 탐지 시스템.
According to claim 1,
The Markov characteristic based network,
A domain conversion unit, a pixel difference calculation unit, a threshold function, a matrix conversion unit and a second feature refinement unit
Deep learning based image correction detection system.
제 6 항에 있어서,
상기 도메인 변환부는,
이미지 블록부에서 블록화된 이미지 블록을 이산 코사인 변환 (DCT) 하여 주파수 도메인에서의 데이터로 처리하는
딥러닝 기반 이미지 보정 탐지 시스템.
The method of claim 6,
The domain conversion unit,
Discrete cosine transform (DCT) of an image block blocked by an image block unit to process it as data in the frequency domain
Deep learning based image correction detection system.
제 1 항에 있어서,
상기 통합 특징 정제부는,
완전 연결층(fully connected layer)으로 구성되며,
상기 특화된 컨볼루션 뉴럴 네트워크의 보정 특징 정보를 나타내는 벡터와, 상기 마르코브 특성 기반 네트워크의 보정 특징 정보를 나타내는 벡터를 그대로 결합하여 분류기로 전달하는 구조를 갖는
딥러닝 기반 이미지 보정 탐지 시스템.
According to claim 1,
The integrated feature purification unit,
It consists of a fully connected layer,
The vector has the structure of combining the vector representing the correction characteristic information of the specialized convolutional neural network and the vector representing the correction characteristic information of the Markov characteristic-based network as it is and transmitting it to the classifier.
Deep learning based image correction detection system.
제 1 항에 있어서,
상기 보정 구별부는,
보정 가능성이 있는 픽셀들을 검출하고, 상기 픽셀들의 보정 가능성 확률값을 산출하고, 위변조 가능성이 높은 픽셀들을 확률값에 따라 서로 다른 색으로 표시한 위변조 확인 맵을 출력하는
딥러닝 기반 이미지 보정 탐지 시스템.
According to claim 1,
The correction discrimination unit,
Detecting pixels with possible correction, calculating the probability of correction of the pixels, and outputting a forgery confirmation map displaying pixels with high probability of forgery in different colors according to the probability value
Deep learning based image correction detection system.
제 1 항의 딥러닝 기반 이미지 보정 탐지 시스템을 사용하여 무보정 탐지 서비스를 제공하는 방법으로서,
사용자로부터 위변조를 판별할 입력 이미지를 수신하는 단계;
상기 입력된 이미지를 일정 규격으로 블록화하여 이미지 블록을 생성하는 단계;
상기 이미지 블록을 상기 딥러닝 기반 이미지 보정 탐지 시스템에 입력하고, 상기 딥러닝 기반 이미지 보정 탐지 시스템으로부터 위변조 확인 맵을 출력하는 단계; 및
상기 위변조 확인 맵과 상기 입력 이미지를 딥러닝하여 위변조 여부를 예 또는 아니요의 레이블로 출력하는 단계;를 포함하는
무보정 탐지 서비스를 제공하는 방법.
A method for providing a correction-free detection service using the deep learning-based image correction detection system of claim 1,
Receiving an input image for determining forgery and alteration from the user;
Generating an image block by blocking the input image to a certain standard;
Inputting the image block into the deep learning based image correction detection system, and outputting a forgery confirmation map from the deep learning based image correction detection system; And
Including the step of deep learning the forgery check map and the input image to output whether or not the forgery or false label;
How to provide uncompensated detection services.
제 10 항에 있어서,
위변조 여부가 예로 판별되면, 위변조 가능성이 높은 영역을 하이라이트 하는 입력 이미지를 생성하는 단계와, 상기 생성된 입력 이미지를 사용자에게 제공하는 단계를 더 포함하는
무보정 탐지 서비스를 제공하는 방법.
The method of claim 10,
If it is determined whether the forgery is falsified, the method further includes generating an input image highlighting an area having high possibility of forgery and providing the generated input image to the user.
How to provide uncompensated detection services.
제 10 항에 있어서,
위변조 여부가 아니요로 판별되면, 상기 입력 이미지에 보정이 없다는 확인 도장을 합성하여 상기 사용자에게 제공하는 단계를 더 포함하는
무보정 탐지 서비스를 제공하는 방법.


The method of claim 10,
If it is determined that the falsification is No, further comprising the step of synthesizing a confirmation stamp that there is no correction in the input image and providing it to the user.
How to provide uncompensated detection services.


KR1020180124383A 2018-10-18 2018-10-18 Deep-running-based image correction detection system and method for providing non-correction detection service using the same KR102157375B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180124383A KR102157375B1 (en) 2018-10-18 2018-10-18 Deep-running-based image correction detection system and method for providing non-correction detection service using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180124383A KR102157375B1 (en) 2018-10-18 2018-10-18 Deep-running-based image correction detection system and method for providing non-correction detection service using the same

Publications (2)

Publication Number Publication Date
KR20200046182A true KR20200046182A (en) 2020-05-07
KR102157375B1 KR102157375B1 (en) 2020-09-17

Family

ID=70733435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180124383A KR102157375B1 (en) 2018-10-18 2018-10-18 Deep-running-based image correction detection system and method for providing non-correction detection service using the same

Country Status (1)

Country Link
KR (1) KR102157375B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348775A (en) * 2020-10-13 2021-02-09 上海城建城市运营(集团)有限公司 Vehicle-mounted all-round-looking-based pavement pool detection system and method
KR102524124B1 (en) 2022-11-18 2023-04-20 주식회사 무하유 Metadata generation apparatus and method for verifying transformation and pragiarism of the image object in documents

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170032285A1 (en) * 2014-04-09 2017-02-02 Entrupy Inc. Authenticating physical objects using machine learning from microscopic variations
KR101881505B1 (en) * 2017-03-15 2018-07-25 한국과학기술원 Method for generating fingerprint counterfeiting distinction model and method for distinguishing fingerprint counterfeiting using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170032285A1 (en) * 2014-04-09 2017-02-02 Entrupy Inc. Authenticating physical objects using machine learning from microscopic variations
KR101881505B1 (en) * 2017-03-15 2018-07-25 한국과학기술원 Method for generating fingerprint counterfeiting distinction model and method for distinguishing fingerprint counterfeiting using the same

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
(선행기술 1) Belhassen Bayar and Matthew C Stamm. "A deep learning approach to universal image manipulation detection using a new convolutional layer. In Proceedings of the 4th ACM Workshop on Information Hiding and Multimedia Security"
H. Xu et al. ‘Combining Convolutional Neural Network and Morkov Random Field for Semantic Imge Retrieval’, 2018.08.31. *
김현기외 3인, ‘Two-stream neural networks to detect manipulation of JPEG compressed images’, Electronics Letters vol. 54 Issue 6, 2018.03.22.* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348775A (en) * 2020-10-13 2021-02-09 上海城建城市运营(集团)有限公司 Vehicle-mounted all-round-looking-based pavement pool detection system and method
CN112348775B (en) * 2020-10-13 2024-04-09 上海城建城市运营(集团)有限公司 Vehicle-mounted looking-around-based pavement pit detection system and method
KR102524124B1 (en) 2022-11-18 2023-04-20 주식회사 무하유 Metadata generation apparatus and method for verifying transformation and pragiarism of the image object in documents

Also Published As

Publication number Publication date
KR102157375B1 (en) 2020-09-17

Similar Documents

Publication Publication Date Title
KR102140340B1 (en) Deep-running-based image correction detection system and method for providing non-correction detection service using the same
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
WO2022161286A1 (en) Image detection method, model training method, device, medium, and program product
US20200364478A1 (en) Method and apparatus for liveness detection, device, and storage medium
US11354797B2 (en) Method, device, and system for testing an image
CN112102164B (en) Image processing method, device, terminal and storage medium
WO2023035531A1 (en) Super-resolution reconstruction method for text image and related device thereof
CN110852311A (en) Three-dimensional human hand key point positioning method and device
CN109977832B (en) Image processing method, device and storage medium
KR20230045098A (en) Video detection method, device, electronic device and storage medium
US11568631B2 (en) Method, system, and non-transitory computer readable record medium for extracting and providing text color and background color in image
KR102157375B1 (en) Deep-running-based image correction detection system and method for providing non-correction detection service using the same
CN115601820A (en) Face fake image detection method, device, terminal and storage medium
CN110895811A (en) Image tampering detection method and device
CN112633260B (en) Video motion classification method and device, readable storage medium and equipment
CN112651399B (en) Method for detecting same-line characters in inclined image and related equipment thereof
CN113628181A (en) Image processing method, image processing device, electronic equipment and storage medium
CN112581344A (en) Image processing method and device, computer equipment and storage medium
KR20110087620A (en) Layout based page recognition method for printed medium
WO2023071180A1 (en) Authenticity identification method and apparatus, electronic device, and storage medium
CN115546906A (en) System and method for detecting human face activity in image and electronic equipment
CN113763313A (en) Text image quality detection method, device, medium and electronic equipment
CN115147434A (en) Image processing method, device, terminal equipment and computer readable storage medium
CN111553364A (en) Picture processing method and device
CN112396059A (en) Certificate identification method and device, computer equipment and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right