KR102137659B1 - 영상 스테가노그래피 판별 방법 및 장치 - Google Patents
영상 스테가노그래피 판별 방법 및 장치 Download PDFInfo
- Publication number
- KR102137659B1 KR102137659B1 KR1020200004438A KR20200004438A KR102137659B1 KR 102137659 B1 KR102137659 B1 KR 102137659B1 KR 1020200004438 A KR1020200004438 A KR 1020200004438A KR 20200004438 A KR20200004438 A KR 20200004438A KR 102137659 B1 KR102137659 B1 KR 102137659B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- input
- data
- filter
- steganography
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 89
- 238000007781 pre-processing Methods 0.000 claims abstract description 42
- 230000009977 dual effect Effects 0.000 claims description 57
- 238000012850 discrimination method Methods 0.000 claims description 25
- 238000003780 insertion Methods 0.000 claims description 11
- 230000037431 insertion Effects 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000001914 filtration Methods 0.000 description 11
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 10
- 230000004913 activation Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000002569 neuron Anatomy 0.000 description 3
- 238000002203 pretreatment Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000002364 input neuron Anatomy 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
- H04N21/4385—Multiplex stream processing, e.g. multiplex stream decrypting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/426—Internal components of the client ; Characteristics thereof
- H04N21/42607—Internal components of the client ; Characteristics thereof for processing the incoming bitstream
- H04N21/42623—Internal components of the client ; Characteristics thereof for processing the incoming bitstream involving specific decryption arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4405—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving video stream decryption
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
실시예는, 스테고 영상 여부를 판별하는 영상 스테가노그래피 방법 및 장치에 관한 것으로서, 입력 영상에 추가 데이터를 삽입하여 발생하는 영상의 왜곡 양상을 이용하여 입력 영상의 스테고 영상 여부를 판단하는 방법 및 장치를 제공한다.
Description
실시예는 영상 스테가노그래피 판별 방법 및 장치에 관한 것으로서, 보다 자세히는 입력 영상이 스테고 영상인지 여부를 판별하는 방법 및 장치이다.
영상 스테가노그래피(Steganography) 기술은 숨기고자(은닉) 원 영상을 은닉 매체(음악, 동영상, 그림 파일)에 숨겨 전송하는 암호화 기법이다. 데이터 암호화의 경우에는 중요한 정보가 암호화된 상태로 숨겨져 있음을 쉽게 인지할 수 있으므로 암호를 해독하는 작업을 수행하면 해당 정보가 노출된다. 그러나 영상 스테가노그래피에서는 자연스러운 일반 영상인 스테고(Stego) 영상만으로는 숨겨진 정보가 있는지를 인지하기 매우 어렵기 때문에, 스테고 영상이 노출되더라도 정보를 찾기 위한 해킹을 시도하지 않으므로 정보가 보호될 수 있다. 또한 스테고 영상으로부터 숨겨진 정보가 존재한다는 것을 알더라도 숨겨진 방법이 암호화되어 있으므로 원 영상 신호를 복구하는 것도 어렵다는 것이 스테가노그래피 기술의 장점이다. 따라서, 영상 스테가노그래피 기술은 최근 디지털 미디어의 등장 및 발달로 인하여 은닉 매체의 다양성과 은닉 매체의 보안적인 유용성이 드러남에 따라 그 필요성이 대두되고 있다. 영상 스테가노그래피 기술에서 원영상을 포함하고 있는 커버 영상을 스테고 영상이라고 한다. 따라서, 영상신호를 전송하는 도중에 도청 등에 의하여 스테고 영상이 노출되더라도 그 안에 원 영상이 숨겨져 있는지 알아채지 못하게 하고, 숨겨진 원 영상의 존재 여부를 알더라도 원 영상을 복원하기 어렵도록 설계하는 것이 영상 스테가노그래피 기술의 보안성을 유지하는 관건이다.
종래의 영상 스테가노그래피 판별 방법에서는 필터와 CNN구조를 최적화하여 영상 스테가노그래피의 판별 성능을 향상시켰으나, CNN구조를 이용하더라도 스테고 영상과 일반 영상의 차이가 매우 작기 때문에 판별이 어렵다는 문제점이 존재한다.
실시예에 따른 영상 스테가노그래피 판별 방법 및 장치는 상술한 문제점을 극복하기 위한 것으로서, 입력 영상에 추가로 데이터를 삽입하여 발생하는 영상의 왜곡 양상을 이용하여 CNN과 필터의 구조뿐만 아니라 입력 영상의 추가로 데이터 삽입하는 것을 새로운 변수로 하여 영상 스테가노그래피 판별 방법 및 장치의 성능을 향상시키기 위함이다.
실시예가 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 발명의 기재로부터 당해 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
실시예는 영상 스테가노그래피 판별 방법으로서, 입력 영상 데이터에 추가 데이터를 삽입하여 제1 영상 데이터를 생성하는 단계, 상기 입력 영상 데이터에 전처리 필터를 사용하여 제1 입력 데이터를 획득하는 단계, 상기 제1 영상 데이터에 전처리 필터를 사용하여 제2 입력 데이터를 획득하는 단계, 그리고 상기 제1 입력 데이터와 상기 제2 입력 데이터를 이용하여 콘볼루션 신경망(Convolutional Neural Network, CNN)을 학습하는 단계를 포함한다.
또한, 실시예에 따른 영상 스테가노그래피 판별 방법의, 상기 제1 입력 데이터를 획득하는 단계는, 상기 입력 영상 데이터에 고대역 필터를 사용하여 상기 제1 입력 데이터를 획득하는 단계이고, 상기 제2 입력 데이터를 획득하는 단계는, 상기 제1 영상 데이터에 상기 고대역 필터를 사용하여 상기 제2 입력 데이터를 획득하는 단계일 수 있다.
또한, 실시예에 따른 영상 스테가노그래피 판별 방법의, 상기 콘볼루션 신경망은 듀얼 네트워크 콘볼루션 신경망(Dual Network CNN)일 수 있다.
또한, 실시예에 따른 영상 스테가노그래피 판별 방법은 입력 영상 데이터에 추가 데이터를 삽입하여 제1 영상 데이터를 생성하는 단계, 상기 입력 영상 데이터와 상기 제1 영상 데이터의 차이를 제2 영상 데이터로 생성하는 단계, 상기 입력 영상 데이터에 전처리 필터를 사용하여 제1 입력 데이터를 획득하는 단계, 상기 제2 영상 데이터에 상기 전처리 필터를 사용하여 제2 입력 데이터를 획득하는 단계, 그리고 상기 제1 입력과 상기 제2 입력을 이용하여 콘볼루션 신경망(Convolutional Neural Network)을 학습하는 단계를 포함한다.
또한, 실시예에 따른 영상 스테가노그래피 판별 방법의, 상기 제1 입력 데이터를 획득하는 단계는, 상기 입력 영상 데이터에 고주파 필터를 사용하여 제1 입력 데이터를 획득하는 단계이고, 상기 제2 입력 데이터를 획득하는 단계는, 상기 제2 영상 데이터에 박스 필터(BOX Filter)를 사용하여 제2 입력 데이터를 획득하는 단계일 수 있다.
또한, 실시예에 따른 영상 스테가노그래피 판별 방법의, 상기 제2 영상 데이터는 -1,0,1 중 적어도 어느 하나를 포함할 수 있다.
또한, 실시예에 따른 영상 스테가노그래피 판별 장치는, 입력 영상 데이터에 추가 정보를 삽입하여 제1 영상 데이터를 생성하는 삽입부, 상기 입력 영상 데이터에 전처리 필터를 이용하여 제1 입력 데이터를 획득하는 제1 필터부, 상기 제1 영상 데이터에 전처리 필터를 이용하여 제2 입력 데이터를 획득하는 제2 필터부, 그리고 상기 제1 입력과 상기 제2 입력을 이용하여 콘볼루션 신경망(Convolutional Neural Network)을 학습하는 학습부를 포함한다.
또한, 실시예에 따른 영상 스테가노그래피 판별 장치의, 상기 전처리 필터는 고대역 필터일 수 있다.
또한, 실시예에 따른 영상 스테가노그래피 판별 장치의, 상기 콘볼루션 신경망은 듀얼 네트워크 콘볼루션 신경망(Dual Network CNN)일 수 있다.
또한, 실시예에 따른 영상 스테가노그래피 판별 장치는, 입력 영상 데이터에 추가 데이터를 삽입하여 제1 영상 데이터를 생성하는 삽입부, 상기 입력 영상 데이터와 상기 제1 영상 데이터의 차이를 제2 영상 데이터로 생성하는 계산부, 상기 입력 영상 데이터에 전처리 필터를 이용하여 제1 입력 데이터를 획득하는 제1 필터부, 상기 제2 영상 데이터에 상기 전처리 필터를 이용하여 제2 입력 데이터를 획득하는 제2 필터부, 그리고 상기 제1 입력과 상기 제2 입력을 이용하여 콘볼루션 신경망(Convolutional Neural Network)을 학습하는 학습부를 포함한다.
또한, 실시예에 따른 영상 스테가노그래피 판별 장치의, 상기 제1 필터부는, 상기 입력 영상 데이터에 고대역 필터를 사용하여 상기 제1 입력 데이터를 획득하고, 상기 제2 필터부는, 상기 제2 입력 데이터에 박스 필터(BOX Filter)를 사용하여 상기 제2 입력 데이터를 획득할 수 있다.
또한, 실시예에 따른 영상 스테가노그래피 판별 장치의, 상기 제2 영상 데이터는 -1,0,1 중 적어도 어느 하나를 포함한다.
또한, 실시예에 따른 영상 스테가노그래피 판별 장치의, 상기 콘볼루션 신경망은 듀얼 채널 콘볼루션 신경망(Dual Channel CNN)을 이용할 수 있다.
실시예에 따른 영상 스테가노그래피 판별 방법 및 장치는 입력 영상에 추가로 데이터를 삽입하는 것을 통해서 영상 스테가노그래피 판별 성능을 향상시킬 수 있다.
도 1은 실시예에 따른 콘볼루션 신경망을 이용한 영상 스테가노그래피 판별 장치의 구성을 나타내는 블록도이다.
도 2A는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 2B는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 2C는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 3은 실시예에 따른 듀얼 네트워크 콘볼루션 신경망을 이용하는 영상 스테가노그래피 판별 방법의 흐름도이다.
도 4는 실시예에 따른 듀얼 채널 콘볼루션 신경망을 이용하는 영상 스테가노그래피 판별 방법의 흐름도이다.
도 2A는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 2B는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 2C는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 3은 실시예에 따른 듀얼 네트워크 콘볼루션 신경망을 이용하는 영상 스테가노그래피 판별 방법의 흐름도이다.
도 4는 실시예에 따른 듀얼 채널 콘볼루션 신경망을 이용하는 영상 스테가노그래피 판별 방법의 흐름도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 도 1을 참조하여 콘볼루션 신경망 (Convolutional neural network, CNN)을 이용한 영상 스테가노그래피(steganography) 판별 장치를 설명한다.
도 1은 실시예에 따른 콘볼루션 신경망을 이용한 영상 스테가노그래피 판별 장치의 구성을 나타내는 블록도이다.
도 1을 참조하면 콘볼루션 신경망을 이용한 영상 스테가노그래피 판별 장치는 삽입부(110), 계산부(120), 제1 필터부(130), 제2 필터부(140), 콘볼루션 신경망 학습부(150), 판별부(160)를 포함한다.
입력영상(P)은 스테고(stego) 영상 여부를 판별하고자 하는 영상이다.
삽입부(110)는 추가 데이터(Da)를 입력영상(P)에 삽입한 제1 영상(P1)을 생성한다.
삽입부(110)는 스테가노그래피 알고리즘을 사용하여 추가 데이터(Da)를 입력영상(P)에 삽입할 수 있다.
스테가노그래피 알고리즘은 영상 전체에 있는 모든 화소에 균등한 확률로 비밀 정보를 삽입한다.
하지만 HUGO, WOW, S-UNIWARD와 같은 스테가노그래피 알고리즘들은 영상 전체가 아닌 비밀 정보의 삽입이 용이한, 즉 검출이 어려운 영역에 대해서만 삽입을 한다.
삽입부(110)는 S-UNIWARD 스테가노그래피 알고리즘을 사용하여 추가 데이터(Da)를 입력영상(P)에 삽입할 수 있으나 실시예가 이에 한정되는 것은 아니다.
LSB의 알고리즘을 검출하기 위해서는 동일한 영역에 대해서 추가 데이터(Da)를 삽입할 수 있도록 동일한 스테가노그래피 알고리즘을 이용하여 추가 데이터(Da)를 삽입하는 것이 효과적일 수 있다.
마찬가지로, S-UNIWARD는 영상 전체에 균등하게 비밀 정보를 삽입하지 않기 때문에 동일한 영역을 사용하는 S-UNIWARD를 통해서 추가 데이터(Da)를 삽입하는 것이 효과적이다.
추가 데이터(Da)는 추가 정보 삽입률 즉, 페이로드(payload)를 조절하기 위한 것으로서 페이로드 값을 조절하여 영상 스테가노그래피 판별 방법의 성능을 향상시킬 수 있다.
이하, 표1과 표2를 참조하여 페이로드에 따른 영상 스테가노그래피 장치의 성능을 비교한다.
P payload |
P1 payload |
고정키 성능(%) | ||
평균 | 커버 | 스테고 | ||
0.05 | · | 50.156 | 12.119 | 88.194 |
0.05 | 0.10 | 50.192 | 78.300 | 22.084 |
0.05 | 0.30 | 52.416 | 50.281 | 54.550 |
0.05 | 0.60 | 50.211 | 10.878 | 89.544 |
0.05 | 1.00 | 52.502 | 44.691 | 60.313 |
0.20 | · | 67.258 | 64.947 | 69.569 |
0.20 | 0.10 | 67.122 | 66.381 | 67.863 |
0.20 | 0.30 | 68.339 | 72.897 | 63.781 |
0.20 | 0.60 | 67.439 | 70.781 | 64.097 |
0.20 | 1.00 | 67.923 | 66.769 | 69.078 |
0.40 | · | 75.602 | 82.772 | 68.432 |
0.40 | 0.10 | 78.541 | 70.459 | 86.622 |
0.40 | 0.30 | 79.873 | 83.388 | 76.359 |
0.40 | 0.60 | 81.119 | 77.491 | 84.747 |
0.40 | 1.00 | 80.430 | 83.113 | 77.747 |
표1은 입력 영상(P)의 페이로드를 0.05, 0.2, 0.4의 3가지 조건으로, 제1 영상(P1)의 페이로드를 0.1, 0.3, 0.6, 1.0으로 바꾸어 고정키에 대한 성능을 측정한 것이다.
P payload |
P1 payload |
랜덤키 성능(%) | ||
평균 | 커버 | 스테고 | ||
0.05 | · | 52.755 | 33.844 | 71.666 |
0.05 | 0.10 | 52.058 | 23.984 | 80.131 |
0.05 | 0.30 | 53.669 | 47.116 | 60.181 |
0.05 | 0.60 | 53.545 | 44.834 | 62.256 |
0.05 | 1.00 | 53.247 | 57.891 | 48.603 |
0.20 | · | 66.748 | 63.950 | 69.546 |
0.20 | 0.10 | 64.503 | 73.675 | 55.331 |
0.20 | 0.30 | 65.117 | 66.816 | 63.419 |
0.20 | 0.60 | 68.861 | 65.863 | 71.859 |
0.20 | 1.00 | 67.480 | 63.700 | 71.259 |
0.40 | · | 79.158 | 80.237 | 78.078 |
0.40 | 0.10 | 79.812 | 83.628 | 75.997 |
0.40 | 0.30 | 78.119 | 76.591 | 79.647 |
0.40 | 0.60 | 76.812 | 71.613 | 82.012 |
0.40 | 1.00 | 80.355 | 82.944 | 77.766 |
표2는 입력 영상(P)의 페이로드를 0.05, 0.2, 0.4의 3가지 조건과 제1 영상(P1)의 페이로드를 0.1, 0.3, 0.6, 1.0으로 바꾸어 랜덤키에 대한 성능을 측정한 것이다. 또한, 표1과 표2에서 입력 영상(P)만을 입력으로 하여 성능을 측정한 경우에는 후술할 도 2A의 (a)구조를 이용하여 학습하였다.
표1의 고정키에 대한 결과에서 입력 영상(P)에 0.05 페이로드를 삽입한 경우에는 분류 성능이 50.156%이다.
특히, 커버와 스테고 영상의 각 분류 결과를 보면 각 12.119%와 88.194% 이다.
반면, 제1 영상(P1)의 페이로드가 0.3인 경우에는 분류 결과는 52.416%, 각 커버와 스테고의 분류 결과는 50.281%와 54.550%로 2%정도의 성능 향상과 커버와 스테고의 분류 결과의 균형을 잡아준다.
입력 영상(P)의 페이로드가 0.2인 경우에는 제1 영상(P1)의 페이로드가 0.3 일 때, 68.339%로 1%정도 성능이 향상된다.
입력 영상(P)의 페이로드가 0.4이면서, 제1 영상(P1)의 페이로드가 0.6 인 경우 81.119&로 6%정도 성능이 향상된다.
그 외에도 제1 영상(P1)을 적용한 듀얼 채널 방법은 단일 채널 방법에 비하여 모두 3%이상 성능이 향상된다.
표2의 랜덤키에 대한 결과에서, 입력 영상(P)의 페이로드가 0.05인 경우에는 모든 제1 영상(P1)을 적용한 듀얼 채널 방법은 커버와 스테고의 분류가 50% 이상인 분류기의 학습에는 실패하였다.
입력 영상(P)의 페이로드가 0.2인 경우에는 고정키와는 달리 제1 영상(P1)의 페이로드가 0.6 일 때 68.861%로 가장 좋은 성능을 보여준다.
입력 영상(P)의 페이로드가 0.4이면서, 제1 영상(P1)의 페이로드가 1.0인 경우에는 80.355%로 1% 정도 성능이 향상된다. 고정키를 사용할 경우, 입력 영상(P)의 페이로드와 제1 영상(P1)의 페이로드가 0.1~0.2 이상의 차이를 가지는 경우 분류 성능이 향상된다.
반면, 랜덤키를 사용할 경우에는 입력 영상(P)의 페이로드가 0.2이고 제1 영상(P1)의 페이로드가 0.6인 경우와 입력 영상(P)의 페이로드가 0.4이고 제1 영상(P1)의 페이로드가1.0인 경우 가장 성능이 좋다.
따라서, 랜덤키의 경우 고정키의 경우보다 페이로드의 차이가 더 큰 경우 좋은 성능이 측정된다.
그러므로, 각 조건에 따라서 제1 영상(P1)의 페이로드를 적절하게 조절할 필요가 있다.
계산부(120)는 입력영상(P)과 제1 영상(P1)의 차이를 계산하여 제2 영상(P2)을 생성한다. 추가로, 제1 영상(P1)을 CNN에 효과적으로 적용하기 위해서 입력 영상(P)과 중복되는 정보를 모두 제거한 제2 영상(P2)을 입력으로 사용한다.
제2 영상(P2)은 이하의 수학식 1과 같이 정의될 수 있다.
[수학식 1]
P2=P-P1
여기에서 P는 입력 영상, P1은 제1 영상, P2는 제2 영상을 의미한다.
제2 영상(P2)의 경우 -1,0,1과 같은 작은 데이터 값을 가진다.
제1 필터부(130)는 입력영상(P)에 전처리 필터를 사용하여 제1 입력 데이터(I1)를 획득한다.
제1 필터부(130)의 전처리 필터로 고대역 필터를 사용하는 경우 미세한 고주파 성분을 추출함으로써 콘볼루션 신경망 학습을 도울 수 있다.
제2 필터부(140)는 제1 영상(P1)또는 제2 영상(P2)에 전처리 필터를 사용하여 제2 입력 데이터(I2)를 획득한다.
제1 영상(P1)을 필터링 하는 경우 제2 필터부(140)의 전처리 필터로 고대역 필터를 사용하여 미세한 고주파 성분을 추출할 수 있다. 따라서, 콘볼루션 신경망 학습을 도울 수 있다.
반면에, 제2 영상(P2)의 경우 -1,0,1과 같은 작은 데이터를 포함하므로 고대역 필터를 이용하는 것보다 박스 필터(Box Filter)를 사용하는 것이 성능을 향상 시킬 수 있다.
박스 필터는 영상의 인접한 화소들의 평균 값을 추출해주는 역할을 한다.
박스 필터는 특징맵의 값에 스무딩 필터를 적용하는 것과 동일한 효과를 준다.
즉, 화소 값이 중점적으로 변화한 영역의 값을 추출해주는 효과를 갖는다.
박스 필터는 이하의 수학식 2와 같이 정의될 수 있다.
[수학식 2]
박스 필터는 수학식 2 와 같이 박스 필터의 크기를 증가 시킬 때 내부 가중치 값의 합이 1이 될 수 있도록 한다.
이하, 표3을 참조하여 박스 필터의 크기에 따른 성능 차이를 설명한다.
BOX 필터 크기 | 성능(%) |
3 × 3 | 75.883 |
5 × 5 | 79.555 |
7 × 7 | 80.430 |
11 × 11 | 80.008 |
13 × 13 | 80.047 |
표3은 박스 필터의 크기만을 변경하여 분류기의 성능을 측정한 결과이다.
박스 필터의 크기가 7 × 7 까지는 필터의 크기가 증가할수록 성능 또한 향상된다.
하지만 박스 필터의 크기가 7 × 7이상 커지는 경우 성능이 80%대로 수렴한다.
이하, 표4를 참조하여 박스 필터의 가중치 학습에 따른 성능을 설명한다.
학습조건 | 성능(%) |
BOX 필터만 학습 | 50.078 |
HPF, BOX 필터 모두 학습 | 50.027 |
표4는 필터의 가중치 학습에 따른 성능을 측정한 결과이다. 박스 필터만 학습하거나 HPF 필터와 박스필터 모두 학습을 하더라도 성능이 향상되지 않는다.
콘볼루션 신경망 학습부(150)는 콘볼루션 신경망을 학습하는 과정을 수행한다.
콘볼루션 신경망은 교사 학습(supervised learning)으로 입력을 합성곱 계층과 어파인 계층으로 순전파 하고 입력의 예측과 입력의 정답의 차이를 손실 함수로 측정하고 그 오차를 경사 하강법을 사용하여 학습한다.
합성곱 계층은 합성곱에 사용되는 필터의 가중치를 학습하고, 필터는 입력 특징으로부터 성능에 기여하는 좋은 특징을 추출한다.
어파인 계층은 인공 신경망에서와 동일하게 가중치와 편향을 학습한다.
합성곱 계층은 영상 처리에서 필터를 적용하는 것과 동일한 효과를 나타내며, 자동으로 역전파에 의해서 필터 가중치의 학습이 이루어진다.
어파인 계층은 입력과 출력 뉴런의 수에 따라 학습이 필요한 파라미터의 수가 달라지며 i번째 계층의 뉴런의 수가 m, i+1번째 계층의 뉴런수가 n이라면 학습에 필요한 가중치의 수는 mn이 된다.
반면, 합성곱 계층의 경우, 필터의 채널 수, 필터의 크기가 파라미터의 수에 영향을 끼치며 어파인 계층의 경우 이전층과 다음층의 뉴런의 수가 관련이 있다.
합성곱 계층의 파라미터인 채널, 필터의 세로, 가로를(C, FH, FW)라고 한다면 학습에 사용되는 파라미터의 수는 CFHFW이다.
따라서, 합성곱 계층은 입력 특징의 차원에 무관하게 필터의 수와 크기에 따라서 학습 파라미터의 수가 종속되므로 컴퓨터의 자원 관리가 용이하다.
합성곱 계층은 영상처리에서의 필터를 합성곱 하는 것과 동일하기 때문에 입력 특징에 대해서 합성곱을 취할 경우 출력 특징의 차원이 감소한다.
따라서, 패딩(padding)을 적용하여 패팅의 크기만큼 입력 특징을 확장시킬 수 있다.
패딩의 종류에 따라서 확장되는 값을 적용하게 되는데 제로 패딩의 경우 확장되는 값을 0으로 채우고 미러 패딩의 경우 확장되는 값은 인접한 특징의 값을 복제한다.
제1 영상(P1)을 필터링 하여 제2 입력 데이터(I2)를 획득한 경우에는 콘볼루션 신경망으로 듀얼 네트워크 콘볼루션 신경망(Dual network Convolutional neural network)을 이용하여 영상 스테가노그래피 판별 장치의 성능을 향상 시킬 수 있다.
반면, 제2 영상(P2)을 필터링 하여 제2 입력 데이터(I2)를 획득한 경우에는 콘볼루션 신경망으로 듀얼 채널 콘볼루션 신경망(Dual channel Convolutional neural network)을 이용하여 영상 스테가노그래피 판별 장치의 성능을 향상 시킬 수 있다.
듀얼 채널 콘볼루션 신경망을 사용하는 경우 기존의 단일 채널 CNN 기반 방법들과는 다르게 2가지 입력을 받기 때문에 입력을 한 채널 늘린 듀얼 채널을 사용한다.듀얼 네트워크 콘볼루션 신경망을 사용하는 경우 특징 추출에 사용되는 합성곱 계층을 병렬로 사용하여 입력영상(P)과 제1 영상(P1)의 정보를 보존하여 양질의 특징을 추출한다.
듀얼 네트워크 콘볼루션 신경망은 단일 채널 네트워크에서 특징 추출에 기여하는 합성곱 계층만을 가져와서 2개의 서브 네트워트를 갖는 병렬 구조로 확장하고 어파인 계층에서 취합하는 형태를 가진다.
이하, 표5를 참조하여 입력의 종류 및 채널 수의 변화에 따른 분류 성능을 비교한다.
P payload |
P1 payload |
입력 2 | 필터 2 | 성능(%) | 채널 |
P | HPF | · | · | 75.602 | 단일 |
P1 | HPF | · | · | 65.641 | 단일 |
P2 | BOX | · | · | 66.031 | 단일 |
P | HPF | P1 | HPF | 74.680 | 듀얼 |
P | HPF | P2 | BOX | 79.555 | 듀얼 |
입력영상(P)과 HPF를 사용한 단일 채널 입력을 사용할 경우에 비하여 제1 영상(P1) 또는 제2 영상(P2)과 BOX 필터를 사용한 단일 채널 입력을 사용할 경우 65.641%와 66.031% 정도로 성능이 10%정도 감소한다. 제1 영상(P1)만을 사용한 경우, 입력영상(P)의 커버 영상과 스테고 영상의 차이보다 추가 데이터(Da)를 삽입한 영상의 커버 영상과 스테고 영상의 차이가 더 작기 때문에 성능이 감소한다.
제2 영상(P2)만을 사용한 경우, 대부분의 저주파수 정보가 제거되었기 때문에 성능이 감소한다.
입력영상(P)과 제1 영상(P1)의 듀얼 채널 입력을 사용하는 경우 74.680%이나, 입력영상(P)과 제2 영상(P2)의 듀얼 채널 입력을 사용하는 경우에는 79.555%로 5%정도 성능이 향상된다.
입력영상(P)과 HPF를 사용한 단일 채널 입력을 사용할 경우 75.602%이나 입력영상(P)과 제2 영상(P2)의 듀얼 채널 입력을 사용하는 경우에는 79.555%로 4%정도 성능이 향상된다.
즉, 듀얼 채널을 가지는 구조에서는 부가적인 데이터 삽입에 의한 영상 변화량을 네트워크 입력으로 직접적으로 사용하는 것이 효과적이다.
또한, 채널 수를 늘리더라도 학습에 직접적으로 도움이 되는 입력을 주었을 때만 성능 향상이 된다.
판별부(160)는 제1 입력 데이터(I1)와 제2 입력 데이터(I2)를 입력으로 하여 콘볼루션 신경망을 학습한 결과를 이용하여 스테고 영상과 일반 영상을 판별한다.
이하, 이하, 도 2A, 도 2B, 도 2C를 참조하여 종래 CNN 기반 스테그아날리시스 방법들의 구조와 듀얼 네트워크 구조를 설명한다.
도 2A는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 2A를 참조하면 (a)는 5개의 합성곱 계층과 1개의 어파인 계층으로 구성된다. 1, 2 번째 합성곱 계층에는 tanh를 활성화 함수로 사용한다.
(a)의 나머지 합성곱 계층에는 ReLU(retified linear unit)을 사용한다.
(a)의 추가적인 특징으로는 HPF를 사용하며 HPF는 아래의 수학식 3 과 같이 정의 될 수 있다.
[수학식 3]
HPF는 영상으로부터 미세한 고주파수 성분을 추출함으로써 CNN구조의 학습을 돕는다.
이어서, (a)는 필터링된 특징맵을 첫 번째 합성곱 계층에서 절대값을 적용하는 ABS계층과 BN을 적용함으로써 특징맵의 값의 밀도를 높여서 학습을 용이하게 한다.
(b)구조는 (a)와 동일한 구조를 가지나, 전처리에서 3채널의 HPF를 사용한다.
(b)에 사용된 전처리 필터는 모두 정규화되며 필터는 상술한 수학식 3과 이하의 수학식 4 및 수학식 5와 같다.
[수학식 4]
[수학식 5]
도 2B는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 2B를 참조하면 (c)는 30채널의 선형 SRM 필터를 사용하고 TLU(truncated linear unit) 활성화 함수와 ReLU를 사용한다.
(c)는 전처리 과정에서 선형 SRM 필터와 TLU 활성화 함수를 함께 사용하는 것이 다른 구조와의 차이점이다.
(c)의 선형 SRM 필터는 30채널 선형 SRM 필터이다.
TLU는 입력 특징맵의 값을 임의의 경계 값으로 억제한다.
또한, (c)는 BN을 적용하지 않고 가장 깊은 7개의 합성곱 계층과 1개의 어파인 계층으로 구성된다.
또한, (c)는 다른 CNN 구조들과는 달리 전처리에 사용하는 필터를 학습하여 스테그아날리시스에 용이하도록 한다.
(d)는 도 2A의 (a)에서 사용된 ABS와 BN, tanh 활성화 함수를 동일하게 사용하고, (c)에 사용된 선형 SRM 필터를 사용한다.
(d)는 (c)와는 달리 필터의 학습은 하지 않고 경계값이 다른 두가지 TLU를 사용하여 입력 특징맵의 값을 정제한다.
(d)는 전체 5개의 합성곱 계층과 2개의 어파인 계층을 사용한다.
도 2C는 실시예에 따른 종래 CNN 기반 스테그아날리시스 방법들의 구조 예시이다.
도 2C를 참조하면 (e)는 전처리 과정에서 Gabor, 선형 SRM, 비선형 SRM의 3가지 필터로 구성된다.
(e)에 사용되는 Gabor 필터는 6×6 크기의 16채널의 필터로 구성된다.
(e)의 선형 SRM 필터는 16채널 필터를 사용한다.
(e)의 비선형 SRM 필터는 같은 종류의 필터의 값을 모두 계산하고 가장 큰 값과 가장 작은 값을 선택한다.
(e)의 비선형 SRM 필터는 4가지 필터의 결과의 최소, 최대 값이 하나의 채널이 되는 전체 14채널의 비선형 SRM 필터로 구성된다.
(e)의 세 가지 종류의 필터로부터 추출된 세 가지 특징맵은 각 서브 네트워크로 순전파되고 마지막으로 어파인 계층에서 취합된다.
각 서브 모델의 내부에는 DAM(diverse activation module)구조가 사용된다.
DAM 구조는 tanh, ReLU, sigmoid의 세가지 활성화 함수를 병렬로 배치한 합성곱 계층으로 3가지 활성화 함수를 동시에 사용하여 입력된 특징맵의 값을 다양하게 학습할 수 있다.
듀얼 네트워크 콘볼루션 신경망의 경우 각 구조가 학습에 사용하는 옵티마이저를 달리할 수 있다.
이하, 표6을 참조하여 서브 네트워크와 옵티마이저에 따른 분류 성능을 비교한다.
서브 네트워크 1 | 입력 1 | 서브 네트워크 2 | 입력 2 | 옵티마이저 | 성능(%) |
(c) | P | (a) | P1 | Momentum | 75.987 |
(c) | P | (a) | P2 | Momentum | 61.213 |
(c) | P | (a) | P1 | AdaDelta | 65.486 |
(c) | P | (a) | P2 | AdaDelta | 58.188 |
표6은 옵티마이저가 다른 서브 네트워크 구성에 대한 성능을 나타낸다. (a)에서 사용한 Momentum 옵티마이저와 (c)에서 사용한 AdaDelta 옵티마이저에 대해서 동일한 구조상에서 옵티마이저를 바꾸어 학습한 경우, Momentum 옵티마이저를 사용하였을 경우에 단일 (a)의 성능과 비슷한 성능이 측정된다.
반면, AdaDelta를 사용하였을 경우에 오히려 성능이 65.486%로 감소한다.
또한, 듀얼 채널에서는 효과적이었던 제2 영상(P2)의 사용시 모든 경우에 성능이 감소한다.
옵티마이저가 다른 구조를 듀얼 네트워크로 사용하면 학습 성능이 감소한다.
따라서, 옵티마이저가 다른 구조의 경우에는 성능이 우수한 네트워크와의 조합 보다 옵티마이저가 같은 서브 네트워크를 선택하는 것이 중요하다.
또한, 듀얼 네트워크 구조에서는 부가적인 입력이 독립적인 네트워크에서 학습되기 때문에, 제2 영상(P2)을 입력으로 할 때 학습을 위한 충분한 정보 제공을 하지 못한다.
이하, 표7을 참조하여 옵티마이저가 같은 서브 네트워크 구성에 대한 성능을 비교한다.
서브 네트워크 1 | 입력 1 | 서브 네트워크 2 | 입력 2 | 옵티마이저 | 성능(%) |
(a) | P | · | · | Momentum | 75.602 |
(b) | P | · | · | Momentum | 75.992 |
(c) | P | · | · | AdaDelta | 86.453 |
(c) | P | (c) | P1 | AdaDelta | 학습 실패 |
(a) | P | (a) | P2 | Momentum | 80.430 |
(a) | P | (a) | P1 | Momentum | 81.625 |
(b) | P | (a) | P1 | Momentum | 79.258 |
(b) | P | (b) | P1 | Momentum | 81.875 |
표7은 옵티마이저가 같은 서브 네트워크 구성에 대한 성능을 나타낸다. (c)를 함께 사용하는 경우 학습에 실패한다.
성능의 감소가 아닌 학습 실패는 옵티마이저에 의해서 각 서브 네트워크로의 학습이 적적하게 이루어지지 않은 것을 의미한다.
(a)를 사용하고 2채널에 제2 영상(P2)과 박스 필터를 사용한 경우 80.430%의 성능이 측정된다.
(a)를 사용하고 2채널에 입력 영상(P)과 제1 영상(P1)을 적용한 구조는 81.625%의 성능이 측정된다.
즉, 서브 네트워크가 제2 영상(P2)을 사용하는 것 보다 제1 영상(P1)의 정보를 사용하는 것이 양질의 특징을 추출한다.
동일한 옵티마이저를 사용하는 (b)와 (a)를 사용한 경우 81.875%로 가장 좋은 성능이 측정된다.
또한, 동일한 구조에서 필터의 수가 1채널에서 3채널로 증가한 경우 성능이 향상되었다.
따라서 일정 채널 수 까지는 필터의 다양화가 듀얼 네트워크 구조에서도 성능을 향상시킨다.
이하, 표8과 표9를 참조하여 (b)구조 기반의 듀얼 네트워크의 고정키 검출률과 랜덤키 검출률을 비교한다.
P payload |
P1 payload |
랜덤키 성능(%) | 비고 | ||
0.20 | · | 67.258 | 64.947 | 69.569 | (a) |
0.20 | 1.00 | 68.616 | 69.350 | 67.881 | · |
0.40 | · | 75.602 | 82.772 | 68.432 | (a) |
0.40 | 1.00 | 81.875 | 83.928 | 79.822 | · |
표8은 (b)구조 기반의 듀얼 네크워크의 고정키 검출률을 나타낸다.
P payload |
P2 payload |
랜덤키 성능(%) | 비고 | ||
0.20 | · | 66.748 | 63.950 | 69.546 | (a) |
0.20 | 1.00 | 68.480 | 70.019 | 66.797 | · |
0.40 | · | 79.158 | 80.237 | 78.078 | (a) |
0.40 | 1.00 | 80.105 | 79.134 | 81.075 | · |
표9는 (b)구조 기반의 듀얼 네트워크의 랜덤키 검출률을 나타낸다. 표8은 (b)구조를 서브 네트워크 1과 2에서 적용한 듀얼 네크워크에 대한 S-UNIWARD 고정키 분류 결과를 나타낸다.
페이로드가 0.2인 경우 68.616%로 1% 정도 성능이 향상된다.
페이로드가 0.4인 경우 81.875%로 6% 정도의 성능이 향상된다.
표9는 랜덤키에 대한 분류 결과를 보여준다.
페이로드가 0.2인 경우와 0.4인 경우 각각 68.480%와 80.105%로 1%이상 향상된다.
따라서, 분류 결과를 볼 때 전반적으로 동일한 옵티마이저를 갖는 경우 성능이 개선된다.
특히 옵티마이저와 구조가 모두 일치할 경우에 성능이 가장 향상된다.
하지만 (c)구조의 경우 옵티마이저와 구조가 일치함에도 학습 자체가 되지 않는다.
이는 전처리에서 30채널이나 되는 다수의 필터를 사용 및 학습하며 거기에 가장 깊은 합성곱 계층을 갖고 있는 점이 단일 구조로 작용할 때는 장점이 될 수 있으나, 듀얼 네트워크 구조에서는 수렴성을 크게 떨어뜨리기 때문이다.
이하, 도 3를 참조하여 듀얼 네트워크 콘볼루션 신경망(Dual network Convolution neural network)을 이용하는 영상 스테가노그래피 판별 방법을 설명한다.
도 3는 실시예에 따른 듀얼 네트워크 콘볼루션 신경망을 이용하는 영상 스테가노그래피 판별 방법의 흐름도이다.
도 3를 참조하면, 실시예에 따른 듀얼 네트워크 콘볼루션 신경망을 이용하는 영상 스테가노그래피 판별 방법은 입력 영상에 데이터를 삽입하는 단계(S210), 전처리 필터링 단계(S220), 듀얼 네트워크 콘볼루션 신경망 학습 단계(S230)를 포함한다.
입력 영상에 추가 데이터를 삽입하는 단계(S210)에서, 입력 영상에 추가 데이터를 삽입하여 새로운 영상(이하, 제1 영상이라 함)을 생성한다.
입력 영상에 추가 데이터를 삽입하는 경우, 스테고 영상과 일반 영상의 왜곡 양상이 다르므로, 이를 이용하여 영상 스테가노그래피 판별 성능이 향상될 수 있다.
추가 데이터는 페이로드를 정하기 위한 것으로서 추가 데이터에 따라 페이로드 값이 달라지며, 페이로드 값에 따라 영상 스테가노그래피 판별 성능이 달라질 수 있다.
입력 영상에 추가 데이터를 삽입하는 방법은 종래의 스테가노그래피 알고리즘을 이용할 수 있다.
입력 영상에 추가 데이터를 삽입하기 위한 방법으로 S-UNIARD를 사용할 수 있으나, 실시예가 이에 한정되는 것은 아니다.
입력 영상의 스테가노그래피 알고리즘과 추가 데이터 삽입에 사용되는 스테가노그래피 알고리즘이 유사한 방식일수록 영상 스테가노그래피 판별 성능이 향상된다.
전처리 필터링 단계(S220)에서, 입력 영상과 제1 영상을 필터링하며, 필터의 종류에 따라 영상 스테가노그래피 판별 성능이 달라진다.
입력 영상과 제1 영상을 입력으로 하여 듀얼 네트워크 콘볼루션 신경망을 학습하는 경우에는 전처리 필터링 단계(S220)에서 사용되는 필터의 구조를 변경하여 영상 스테가노그래피 판별 성능을 향상시킬 수 있다.
다만, 필터의 구조는 동일하더라도 페이로드와 콘볼루션 신경망의 구조에 따라서 성능이 달라질 수 있다.
전처리 필터링 단계(S220)에서 입력 영상 데이터에 전처리 필터를 사용하여 제1 입력 데이터로 획득하고, 제1 영상에 전처리 필터를 사용하여 제2 입력 데이터를 획득 할 수 있다.
전처리 필터로서 고대역 필터를 이용하는 경우 미세한 고주파 성분을 추출함으로써 콘볼루션 신경망 학습을 도울 수 있다.
듀얼 네트워크 콘볼루션 신경망 학습 단계(S230)는 전처리 필터링 단계(S220)에서 생성된 제1 입력 데이터와 제2 입력 데이터를 입력 데이터로 하여 듀얼 콘볼루션 신경망을 학습하는 단계이다.
듀얼 네트워크 콘볼루션 신경망은 제1 입력 데이터와 제2 입력 데이터를 이용하여 듀얼 콘볼루션 신경망을 학습한다.
듀얼 네트워크 콘볼루션 신경망은 특징 추출에 사용되는 합성곱 계층을 병렬로 사용함으로써 입력 영상과 제1 영상의 정보를 보존하고 보존된 정보로부터 양질의 특징을 추출한다.
듀얼 네트워크 콘볼루션 신경망은 단일 채널 네트워크에서 특징 추출에 기여하는 합성곱 계층만을 가져와서 2개의 서브 네트워크를 갖는 병렬 구조로 확장하고 어파인 계층에서 취합하는 형태를 가진다.
콘볼루션 신경망의 구조는 변경가능 하며, 이로 인하여 성능의 최적화가 가능하다.
듀얼 네트워크 콘볼루션 신경망을 학습하여 결과로서 입력 영상의 스테고 영상 여부를 판단한다.
이하, 도 4을 참조하여 실시예에 따른 듀얼 채널 콘볼루션 신경망을 이용하는 영상 스테가노그래피 판별 방법을 설명한다.
도 4은 실시예에 따른 듀얼 채널 콘볼루션 신경망을 이용하는 영상 스테가노그래피 판별 방법의 흐름도이다.
도 4을 참조하면 듀얼 채널 콘볼루션 신경망 스테그아날리시스를 이용한 영상 스테가노그래피 판별 방법은 데이터 삽입 단계(S310), 영상간 차이 계산 단계(S320), 전처리 필터링 단계(S330), 듀얼 채널 콘볼루션 신경망 학습 단계(S340)를 포함한다.
데이터를 삽입하는 단계(S310)는 입력 영상에 추가 데이터를 삽입하는 단계로서 도 3의 입력 영상에 데이터를 삽입하는 단계(S210)와 같은 방식으로 수행된다.
영상간 차이를 계산하는 단계(S320)는 입력 영상과 제1 영상의 차이를 계산하여 차이 영상(이하 제2 영상)을 생성하는 단계이다.
입력 영상과 제1 영상의 차이는 -1,0,1중 적어도 어느 하나를 포함한다.
전처리 필터링 단계(S330)는 입력 영상에 전처리 필터를 적용하여 제1 입력 데이터를 획득하고, 제2 영상에 전처리 필터를 적용하여 제2 입력 데이터를 획득하는 단계이다.
입력 영상에 전처리 필터로 고대역 필터를 사용하여 제1 입력 데이터를 획득 가능하며, 제2 영상에 전처리 필터로 박스 필터(BOX Filter)를 사용하여 제2 입력 데이터를 획득할 수 있다.
박스 필터는 영상의 인접한 화소들의 평균 값을 추출해주는 역할을 한다.
제 2 영상의 경우 -1,0,1과 같은 작은 데이터를 가지므로 고대역 필터를 이용하는 것보다 박스 필터를 사용하는 것이 성능을 향상 시킬 수 있다.
콘볼루션 신경망 학습 단계(S340)는 전처리 필터링 단계(S330)로 생성된 제1 입력 데이터와 제2 입력 데이터를 입력 데이터로 하여 듀얼 채널 콘볼루션 신경망을 학습하는 단계이다.
콘볼루션 신경망의 구조는 모두 적용 가능하며, 구조를 변경하여 성능을 향상시킬 수 있다.
듀얼 채널 콘볼루션 신경망은 제1 입력 데이터 및 제2 입력 데이터를 이용하여 하나의 콘볼루션 신경망 구조를 학습한다.
콘볼루션 신경망을 학습한 결과를 이용하여 스테고 영상과 일반 영상을 판별한다.
1: 영상 스테가노그래피 판별 장치
110: 삽입부 120: 계산부
130: 제1 필터부 140: 제2 필터부
150: 콘볼루션 신경망 학습부 160: 판별부
110: 삽입부 120: 계산부
130: 제1 필터부 140: 제2 필터부
150: 콘볼루션 신경망 학습부 160: 판별부
Claims (14)
- 영상 스테가노그래피(Steganography) 판별 방법으로서,
입력 영상 데이터에 추가 데이터를 삽입하여 제1 영상 데이터를 생성하는 단계,
상기 입력 영상 데이터에 전처리 필터를 사용하여 제1 입력 데이터를 획득하는 단계,
상기 제1 영상 데이터에 전처리 필터를 사용하여 제2 입력 데이터를 획득하는 단계, 그리고
상기 제1 입력 데이터와 상기 제2 입력 데이터를 이용하여 콘볼루션 신경망(Convolutional Neural Network, CNN)을 학습하는 단계
를 포함하는 영상 스테가노그래피 판별 방법. - 제1항에 있어서,
상기 제1 입력 데이터를 획득하는 단계는,
상기 입력 영상 데이터에 고대역 필터를 사용하여 상기 제1 입력 데이터를 획득하는 단계이고,
상기 제2 입력 데이터를 획득하는 단계는,
상기 제1 영상 데이터에 상기 고대역 필터를 사용하여 상기 제2 입력 데이터를 획득하는 단계인,
영상 스테가노그래피 판별 방법. - 제2항에 있어서,
상기 콘볼루션 신경망은 듀얼 네트워크 콘볼루션 신경망(Dual Network CNN)인, 영상 스테가노그래피 판별 방법. - 입력 영상 데이터에 추가 데이터를 삽입하여 제1 영상 데이터를 생성하는 단계,
상기 입력 영상 데이터와 상기 제1 영상 데이터의 차이를 제2 영상 데이터로 생성하는 단계,
상기 입력 영상 데이터에 전처리 필터를 사용하여 제1 입력 데이터를 획득하는 단계,
상기 제2 영상 데이터에 상기 전처리 필터를 사용하여 제2 입력 데이터를 획득하는 단계, 그리고
상기 제1 입력과 상기 제2 입력을 이용하여 콘볼루션 신경망(Convolutional Neural Network)을 학습하는 단계
를 포함하는 영상 스테가노그래피(Steganography) 판별 방법. - 제4항에 있어서,
상기 제1 입력 데이터를 획득하는 단계는,
상기 입력 영상 데이터에 고주파 필터를 사용하여 제1 입력 데이터를 획득하는 단계이고,
상기 제2 입력 데이터를 획득하는 단계는,
상기 제2 영상 데이터에 박스 필터(BOX Filter)를 사용하여 제2 입력 데이터를 획득하는 단계인,
영상 스테가노그래피 판별 방법. - 제5항에 있어서,
상기 제2 영상 데이터는 -1,0,1 중 적어도 어느 하나를 포함하는 영상 스테가노그래피 판별 방법. - 제5항에 있어서,
상기 콘볼루션 신경망은 듀얼 채널 콘볼루션 신경망(Dual Channel CNN)인, 영상 스테가노그래피 판별 방법. - 입력 영상 데이터에 추가 정보를 삽입하여 제1 영상 데이터를 생성하는 삽입부,
상기 입력 영상 데이터에 전처리 필터를 이용하여 제1 입력 데이터를 획득하는 제1 필터부,
상기 제1 영상 데이터에 전처리 필터를 이용하여 제2 입력 데이터를 획득하는 제2 필터부, 그리고
상기 제1 입력과 상기 제2 입력을 이용하여 콘볼루션 신경망(Convolutional Neural Network)을 학습하는 학습부
를 포함하는 영상 스테가노그래피(Steganography) 판별 장치. - 제8항에 있어서,
상기 전처리 필터는 고대역 필터인, 영상 스테가노그래피 판별 장치. - 제9항에 있어서,
상기 콘볼루션 신경망은 듀얼 네트워크 콘볼루션 신경망(Dual Network CNN)인, 영상 스테가노그래피 판별 장치. - 입력 영상 데이터에 추가 데이터를 삽입하여 제1 영상 데이터를 생성하는 삽입부,
상기 입력 영상 데이터와 상기 제1 영상 데이터의 차이를 제2 영상 데이터로 생성하는 계산부,
상기 입력 영상 데이터에 전처리 필터를 이용하여 제1 입력 데이터를 획득하는 제1 필터부,
상기 제2 영상 데이터에 상기 전처리 필터를 이용하여 제2 입력 데이터를 획득하는 제2 필터부, 그리고
상기 제1 입력과 상기 제2 입력을 이용하여 콘볼루션 신경망(Convolutional Neural Network)을 학습하는 학습부
를 포함하는, 영상 스테가노그래피(Steganography) 판별 장치. - 제11항에 있어서,
상기 제1 필터부는, 상기 입력 영상 데이터에 고대역 필터를 사용하여 상기 제1 입력 데이터를 획득하고,
상기 제2 필터부는,
상기 제2 입력 데이터에 박스 필터(BOX Filter)를 사용하여 상기 제2 입력 데이터를 획득하는,
영상 스테가노그래피 판별 장치. - 제12항에 있어서,
상기 제2 영상 데이터는 -1,0,1 중 적어도 어느 하나를 포함하는 영상 스테가노그래피 판별 장치. - 제 12항에 있어서,
상기 콘볼루션 신경망은 듀얼 채널 콘볼루션 신경망(Dual Channel CNN)인, 영상 스테가노그래피 판별 장치.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200004438A KR102137659B1 (ko) | 2020-01-13 | 2020-01-13 | 영상 스테가노그래피 판별 방법 및 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200004438A KR102137659B1 (ko) | 2020-01-13 | 2020-01-13 | 영상 스테가노그래피 판별 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102137659B1 true KR102137659B1 (ko) | 2020-07-27 |
Family
ID=71893994
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200004438A KR102137659B1 (ko) | 2020-01-13 | 2020-01-13 | 영상 스테가노그래피 판별 방법 및 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102137659B1 (ko) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170090319A (ko) * | 2016-01-28 | 2017-08-07 | 경일대학교산학협력단 | 정보 보호를 위한 영상 처리 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체 |
KR101797030B1 (ko) * | 2017-01-25 | 2017-11-13 | 국방과학연구소 | 임의 순열과 영상차를 이용한 영상 스테가노그래피 처리 장치 및 방법 |
-
2020
- 2020-01-13 KR KR1020200004438A patent/KR102137659B1/ko active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170090319A (ko) * | 2016-01-28 | 2017-08-07 | 경일대학교산학협력단 | 정보 보호를 위한 영상 처리 장치, 이를 위한 방법 및 이 방법이 기록된 컴퓨터 판독 가능한 기록매체 |
KR101797030B1 (ko) * | 2017-01-25 | 2017-11-13 | 국방과학연구소 | 임의 순열과 영상차를 이용한 영상 스테가노그래피 처리 장치 및 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108764270B (zh) | 一种利用卷积神经网络集成的信息隐藏检测方法 | |
Nikisins et al. | Domain adaptation in multi-channel autoencoder based features for robust face anti-spoofing | |
CN109214973B (zh) | 针对隐写分析神经网络的对抗安全载体生成方法 | |
CN110349136A (zh) | 一种基于深度学习的篡改图像检测方法 | |
Wei et al. | Generative steganography network | |
WO2022033220A1 (zh) | 人脸活体检测方法、系统、装置、计算机设备和存储介质 | |
CN113435292B (zh) | 一种基于固有特征挖掘的ai伪造人脸检测方法 | |
CN108717680A (zh) | 基于全稠密连接网络的空域图像隐写分析方法 | |
Gupta et al. | A study on source device attribution using still images | |
Liu et al. | Making DeepFakes more spurious: evading deep face forgery detection via trace removal attack | |
CN111726472B (zh) | 一种基于加密算法的图像抗干扰方法 | |
CN114998080A (zh) | 人脸防篡改水印生成方法、篡改检测方法及属性检测方法 | |
Li et al. | Steganography of steganographic networks | |
Hebbar et al. | Transfer learning approach for splicing and copy-move image tampering detection. | |
Ouyang et al. | A semi-fragile watermarking tamper localization method based on QDFT and multi-view fusion | |
Lee et al. | Overlapping pixel value ordering predictor for high-capacity reversible data hiding | |
Nowroozi et al. | Detecting high-quality GAN-generated face images using neural networks | |
CN112861960B (zh) | 一种图像篡改检测方法、系统及存储介质 | |
KR102137659B1 (ko) | 영상 스테가노그래피 판별 방법 및 장치 | |
Li et al. | Multi-modality ensemble distortion for spatial steganography with dynamic cost correction | |
CN115936961B (zh) | 基于少样本对比学习网络的隐写分析方法、设备及介质 | |
CN114359009B (zh) | 基于视觉感知的鲁棒图像的水印嵌入方法、水印嵌入网络构建方法、系统及存储介质 | |
Liu et al. | Towards robust gan-generated image detection: a multi-view completion representation | |
Kato et al. | A preprocessing methodology by using additional steganography on cnn-based steganalysis | |
Alkhowaiter et al. | Image authentication using self-supervised learning to detect manipulation over social network platforms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |