KR101875401B1 - A method for reversible data hiding based on pixel value prediction according to spatial locality and surface characteristics, a method for reversible watermarking using it, and an appratus for reversible data hiding, reversible water marking - Google Patents

A method for reversible data hiding based on pixel value prediction according to spatial locality and surface characteristics, a method for reversible watermarking using it, and an appratus for reversible data hiding, reversible water marking Download PDF

Info

Publication number
KR101875401B1
KR101875401B1 KR1020160107896A KR20160107896A KR101875401B1 KR 101875401 B1 KR101875401 B1 KR 101875401B1 KR 1020160107896 A KR1020160107896 A KR 1020160107896A KR 20160107896 A KR20160107896 A KR 20160107896A KR 101875401 B1 KR101875401 B1 KR 101875401B1
Authority
KR
South Korea
Prior art keywords
image
sequence
pixel value
predicted
hidden
Prior art date
Application number
KR1020160107896A
Other languages
Korean (ko)
Other versions
KR20180022450A (en
Inventor
정수목
온병원
Original Assignee
삼육대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼육대학교산학협력단 filed Critical 삼육대학교산학협력단
Priority to KR1020160107896A priority Critical patent/KR101875401B1/en
Publication of KR20180022450A publication Critical patent/KR20180022450A/en
Application granted granted Critical
Publication of KR101875401B1 publication Critical patent/KR101875401B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0092Payload characteristic determination in a watermarking scheme, e.g. number of bits to be embedded
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0051Embedding of the watermark in the spatial domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0061Embedding of the watermark in each block of the image, e.g. segmented watermarking

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

본 발명의 실시 예에 따른 데이터 은닉 방법은, 커버이미지를 입력 받는 단계; 은닉할 기밀 데이터를 입력 받는 단계; 커버 이미지로부터 공간적 지역성(spatial locality) 및 표면 특성(surface characteristics)에 기초한 예측 이미지를 생성하는 단계; 상기 커버 이미지로부터 획득되는 커버 이미지 시퀀스와 상기 예측 이미지로부터 획득되는 예측 이미지 시퀀스를 수신하여, 차분 시퀀스를 생성하는 단계; 상기 차분 시퀀스에 대응하는 히스토그램을 생성하는 단계; 상기 히히스토그램으로부터 획득되는 쉬프트 정보에 따라, 상기 차분 시퀀스를 쉬프트하여 쉬프트된 차분 시퀀스를 생성하고, 쉬프트된 차분 시퀀스에 기밀 데이터를 임베딩하는 단계; 상기 임베딩에 따른 임베딩 시퀀스와 상기 커버 이미지 시퀀스를 합성하여 은닉이미지 시퀀스를 생성하는 단계; 및 상기 은닉 이미지 시퀀스를 사용하여 은닉 이미지를 구성하고 이를 출력하는 단계를 포함한다.A data concealment method according to an embodiment of the present invention includes: receiving a cover image; Receiving confidential data to be hidden; Generating a predicted image based on spatial locality and surface characteristics from the cover image; Receiving a cover image sequence obtained from the cover image and a predicted image sequence obtained from the predicted image to generate a difference sequence; Generating a histogram corresponding to the difference sequence; Generating a shifted difference sequence by shifting the differential sequence according to shift information obtained from the high histogram, and embedding confidential data in a shifted difference sequence; Generating a hidden image sequence by combining the embedded sequence and the cover image sequence according to the embedding; And constructing a hidden image using the hidden image sequence and outputting the hidden image.

Description

공간적 지역성과 표면 특성에 기반한 픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법, 가역 워터마킹 방법, 가역 데이터 은닉 장치 및 가역 워터마킹 장치{A METHOD FOR REVERSIBLE DATA HIDING BASED ON PIXEL VALUE PREDICTION ACCORDING TO SPATIAL LOCALITY AND SURFACE CHARACTERISTICS, A METHOD FOR REVERSIBLE WATERMARKING USING IT, AND AN APPRATUS FOR REVERSIBLE DATA HIDING, REVERSIBLE WATER MARKING}FIELD OF THE INVENTION This invention relates to a reversible data concealment method, a reversible watermarking method, a reversible data concealment device, and a reversible watermarking device employing a pixel value prediction method based on spatial localization and surface characteristics. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a reversible data concealment method, CHARACTERISTICS, A METHOD FOR REVERSIBLE WATERMARKING USING IT, AND AN APPRATUS FOR REVERSIBLE DATA HIDING, REVERSIBLE WATER MARKING}

본 발명은 데이터 은닉 방법에 관한 것이다. 보다 구체적으로, 본 발명은 공간적 지역성과 표면 특성에 기반한 픽셀 값 예측기법을 적용하는 가역 데이터 은닉 방법, 가역 워터마킹 방법, 가역 데이터 은닉 장치 및 가역 워터마킹 장치에 관한 것이다.The present invention relates to a data hiding method. More specifically, the present invention relates to a reversible data concealment method, a reversible watermarking method, a reversible data concealment apparatus, and a reversible watermarking apparatus applying a pixel value prediction method based on spatial localization and surface characteristics.

최근, 다양한 형태의 정보가 생성되고 유통됨에 따라, 해킹이나 잘못된 경로로의 정보 전달로 인해 중요한 정보가 제3자에게 노출되는 되는 등의 피해가 발생하고 있다.Recently, as various types of information are generated and circulated, important information is exposed to a third party due to hacking or transmission of information to the wrong path.

특히, 정보의 전달 과정에서 군사 정보나 개인 정보 등과 같은 중요 정보에 어떠한 방어 기제가 적용되어 있지 않은 상태에서 이러한 중요 정보가 제3자에게 전달된다면, 큰 피해가 발생될 우려가 있다.Especially, in case that important information such as military information or personal information is not applied to the information in the process of transmitting information, if such important information is transmitted to a third party, great damage may occur.

이에 최근에는 이와 같은 중요 정보의 노출을 방지하기 위해, 이미지 상에 중요 정보를 은닉하는 데이터 은닉기법이 도입되고 있다.Recently, in order to prevent exposure of such important information, a data hiding technique for hiding important information on an image has been introduced.

데이터 은닉기법(data hiding)은 이미지나 동영상과 같은 커버 미디어(cover media)에 은닉시키고자 하는 기밀 데이터를 삽입(embedding)하는 기법이며, 텍스트, 이미지, 비디오, 오디오 등의 중요 디지털 정보를 사람의 육안이나 귀로는 구별할 수 없게 삽입하는 기법으로서, 최근 의학, 군사 및 저작권 보호를 위한 디지털 라이브러리(digital library)등의 응용에서 매우 중요한 위치를 차지하고 있다.Data hiding is a technique for embedding confidential data intended to be hidden in a cover medium such as an image or a moving picture and is used to store important digital information such as text, It is an indispensable technique for inserting the naked eye or the ear canal, and has recently taken an important place in applications such as digital library for medical, military and copyright protection.

이와 같은 데이터 은닉기법은 가역적이어야 하며, 비인지성 요구조건(imperceptibility requirement)을 만족시킬 필요성이 있다. 즉, 커버 이미지에 기밀 데이터가 삽입되어 생성된 은닉 이미지로부터 원본 커버 이미지와 기밀 데이터가 손실 없이 완벽하게 추출(extraction)되어야 하며, 은닉 이미지에 삽입되어 은닉된 기밀 데이터를 제3자가 인지할 수 없어야 한다.Such a data concealment scheme should be reversible and there is a need to satisfy the imperceptibility requirement. That is, the original cover image and confidential data must be completely extracted from the hidden image generated by inserting confidential data into the cover image, and the confidential data embedded in the confidential image must not be recognized by the third party do.

이에 따라, 상기 요구조건을 만족시키기 위한 다양한 방식이 제안되고 있으며, 특히 비인지성 요구조건을 만족하기 위하여는 은닉 이미지의 화질(quality)이 뛰어나야 한다.Accordingly, various methods for satisfying the above requirements have been proposed, and in particular, the quality of the hidden image must be excellent in order to satisfy the non-recognition requirement.

그러나, 현재 은닉 이미지의 화질을 높이기 위하여 제안된 대부분의 데이터 은닉기법들은 커버 이미지에 대한 영상 처리로 인해 은닉 이미지로부터 기밀 데이터를 추출한 후에 얻게 되는 복원된 커버 이미지에 왜곡이 발생하며, 이는 원본 커버 이미지와 일치 하지 않게 되어 비가역적이 되는 문제점이 있다.However, in order to improve the quality of current hidden images, most of the proposed data hiding techniques cause distortion in the restored cover image obtained after extracting the confidential data from the hidden image due to the image processing on the cover image, Which is irreversible.

최근에는 이를 해결하기 위해, 커버 이미지 내 인접한 픽셀간의 픽셀 값 차로 구성되는 차분 시퀀스에 대한 히스토그램(histogram)을 생성하고, 히스토그램의 정보에 따라 차분 시퀀스를 쉬프트(shift) 시켜 쉬프트된 차분 시퀀스를 생성한 후, 쉬프트된 차분 시퀀스 내 요소 중, 히스토그램의 피크 포인트(peak point)에 해당 되는 요소에 기밀 데이터를 삽입하여 임베딩 시퀀스를 생성하고, 임베딩 시퀀스와 커버 이미지 시퀀스를 합성하여 은닉 이미지 시퀀스를 생성하고, 은닉 이미지 시퀀스로부터 은닉 이미지를 생성 함으로써 가역적인 데이터 은닉을 가능하게 하는 방식이 제안되고 있다.In order to solve this problem, a histogram of a difference sequence constituted by a difference between pixel values between adjacent pixels in a cover image is generated, and a differential sequence is shifted according to information of the histogram to generate a shifted difference sequence A secret sequence is generated by inserting confidential data into an element corresponding to a peak point of the histogram among the elements in the shifted difference sequence to generate an embedding sequence and composing the embedding sequence and the cover image sequence, A method of enabling reversible data concealment by generating a concealed image from a concealed image sequence has been proposed.

그러나, 상기 커버 이미지 내 인접한 픽셀간의 픽셀 값 차로 구성되는 차분 시퀀스를 쉬프트 시켜 생성된 쉬프트된 차분 시퀀스에 기밀 데이터를 삽입하는 기법에 있어서는 삽입 가능한 기밀 데이터의 비트수가 차분 시퀀스에 대한 히스토그램의 피크 포인트에서의 빈도수로 제한되는 한계가 있는 문제점이 있다. 이에 따라, 커버 이미지에 은닉 할 수 있는 기밀 데이터 량이 차분 시퀀스에 대한 히스토그램의 피크 포인트에서의 빈도수로 매우 제한되는 문제가 발생되고 있는 실정이다.However, in the technique of inserting confidential data into a shifted difference sequence generated by shifting a differential sequence constituted by a difference of pixel values between adjacent pixels in the cover image, the number of bits of embeddable confidential data is shifted from the peak point of the histogram for the differential sequence There is a problem that there is a limit that is limited to the frequency. Accordingly, there is a problem that the amount of confidential data that can be concealed in the cover image is very limited by the frequency at the peak point of the histogram for the difference sequence.

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로, 커버 이미지의 공간적 지역성(spatial locality)과 표면 특성(surface characteristics)을 이용하여, 픽셀 값을 정밀하게 예측 하여 예측 이미지를 생성하고, 커버 이미지로부터 획득되는 커버 이미지 시퀀스와 예측 이미지로부터 획득되는 예측 이미지 시퀀스에 대하여, 예측 픽셀 값 사용 여부에 따라 커버 이미지 시퀀스와 예측 이미지 시퀀스를 선택적으로 적용한 차분 시퀀스를 구성함으로써, 차분 시퀀스에 대한 히스토그램의 피크 포인트에서의 빈도수를 크게 증가시키고, 이에 따라 삽입 가능한 기밀 데이터의 비트수를 크게 증가시킬 수 있으며, 이에 따라 커버 이미지에 은닉할 수 있는 기밀 데이터 량을 크게 증가시킬 수 있는 픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법, 가역 워터마킹 방법, 가역 데이터 은닉 장치 및 가역 워터마킹 장치를 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide a method of generating a predictive image by precisely predicting pixel values using spatial locality and surface characteristics of a cover image, By constructing a difference sequence selectively applying the cover image sequence and the predictive image sequence according to whether the predictive pixel value is used or not for the predictive image sequence obtained from the predictive image and the cover image sequence obtained from the histogram of the difference sequence, The number of bits of inserting confidential data can be greatly increased, and thus, the amount of confidential data that can be hidden in the cover image can be greatly increased. Hiding method, reversible watermarking A reversible data concealment device, and a reversible watermarking device.

상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 데이터 은닉 방법에 있어서, 커버 이미지를 입력 받는 단계; 기밀 데이터를 입력 받는 단계; 상기 커버 이미지의 공간적 지역성(spatial locality) 및 표면 특성(surface characteristics)에 기초하여 상기 커버 이지로부터 예측 이미지를 생성하는 단계; 상기 커버 이미지로부터 획득되는 커버 이미지 시퀀스와 상기 예측 이미지로부터 획득되는 예측 이미지 시퀀스를 수신하여, 차분 시퀀스를 생성하는 단계; 상기 차분 시퀀스에 대응하는 히스토그램을 생성하는 단계; 상기 히스토그램의 정보에 따라, 상기 차분 시퀀스를 쉬프트하여 쉬프트된 차분 시퀀스를 생성하고, 쉬프트된 차분 시퀀스에 기밀 데이터를 임베딩하여 임베딩 시퀀스를 생성하는 기밀 데이터 삽입 단계; 상기 임베딩 시퀀스와 상기 커버 이미지 시퀀스를 합성하여 은닉 이미지 시퀀스를 생성하는 단계; 및 상기 은닉 이미지 시퀀스로부터 은닉 이미지를 출력하는 단계를 포함한다.According to another aspect of the present invention, there is provided a data concealment method comprising: receiving a cover image; Receiving confidential data; Generating a predictive image from the cover page based on spatial locality and surface characteristics of the cover image; Receiving a cover image sequence obtained from the cover image and a predicted image sequence obtained from the predicted image to generate a difference sequence; Generating a histogram corresponding to the difference sequence; A confidential data inserting step of generating a shifted difference sequence by shifting the differential sequence according to the information of the histogram and generating an embedded sequence by embedding confidential data in a shifted difference sequence; Synthesizing the embedded sequence and the cover image sequence to generate a hidden image sequence; And outputting a concealed image from the concealed image sequence.

또한, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 데이터 은닉 장치에 있어서, 커버 이미지를 입력 받는 커버 이미지 입력부; 기밀 데이터를 입력 받는 기밀 데이터 입력부; 상기 커버 이미지의 공간적 지역성(spatial locality) 및 표면 특성(surface characteristics)에 기초하여 상기 커버 이지로부터 예측 이미지를 생성하는 예측 이미지 생성부; 상기 커버 이미지로부터 획득되는 커버 이미지 시퀀스와 상기 예측 이미지로부터 획득되는 예측 이미지 시퀀스를 수신하여, 차분 시퀀스를 생성하는 차분 시퀀스 생성부; 상기 차분 시퀀스에 대응하는 히스토그램을 생성하는 히스토그램 생성부; 상기 히스토그램의 정보에 따라, 상기 차분 시퀀스를 쉬프트하여 쉬프트된 차분 시퀀스를 생성하고, 쉬프트된 차분 시퀀스에 기밀 데이터를 임베딩하여 임베딩 시퀀스를 생성하는 기밀 데이터 삽입부; 상기 임베딩 시퀀스와 상기 커버 이미지 시퀀스를 합성하여 은닉 이미지 시퀀스를 생성하는 은닉 이미지 시퀀스 생성부; 및 상기 은닉 이미지 시퀀스로부터 은닉 이미지를 출력하는 은닉 이미지 출력부를 포함한다.According to another aspect of the present invention, there is provided a data concealment apparatus comprising: a cover image input unit receiving a cover image; A confidential data input unit for inputting confidential data; A predicted image generating unit for generating a predicted image from the cover based on the spatial locality and surface characteristics of the cover image; A difference sequence generator for receiving a cover image sequence obtained from the cover image and a predicted image sequence obtained from the predicted image to generate a difference sequence; A histogram generator for generating a histogram corresponding to the difference sequence; A confidential data inserter for generating a shifted difference sequence by shifting the differential sequence according to the information of the histogram and generating an embedded sequence by embedding confidential data in a shifted difference sequence; A hidden image sequence generator for generating a hidden image sequence by combining the embedded sequence and the cover image sequence; And a hidden image output unit outputting a hidden image from the hidden image sequence.

그리고, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 기밀 데이터의 복원 방법에 있어서, 은닉 이미지를 수신하고, 은닉 이미지를 스캔(scan)하여 은닉 이미지 시퀀스를 생성하는 단계; 상기 은닉 이미지 시퀀스의 각 요소별 위치에서, 공간적 지역성 및 표면 특성기반 예측 값 사용 여부에 따라, 추출 모드를 결정하는 예측기반 추출 모드 결정 단계; 상기 은닉 이미지 시퀀스에 대응하는 임베딩 시퀀스를 복원하는 단계; 상기 결정된 추출 모드에 따라, 상기 은닉 이미지 시퀀스에 대응하는 커버 이미지 시퀀스를 복원하는 단계; 상기 임베딩 시퀀스로부터 기밀 데이터를 추출하는 단계; 및 상기 커버 이미지 시퀀스로부터 커버 이미지를 출력하는 단계를 포함한다. According to another aspect of the present invention, there is provided a method of restoring confidential data, the method including receiving a hidden image, scanning a hidden image to generate a hidden image sequence, A prediction-based extraction mode determination step of determining an extraction mode in accordance with spatial locality and whether a surface property-based prediction value is used at a position of each element of the hidden image sequence; Restoring an embedding sequence corresponding to the hidden image sequence; Reconstructing a cover image sequence corresponding to the hidden image sequence according to the determined extraction mode; Extracting confidential data from the embedding sequence; And outputting a cover image from the cover image sequence.

또한, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 데이터 복원 장치에 있어서, 은닉 이미지를 수신하고, 은닉 이미지를 스캔(scan)하여 은닉 이미지 시퀀스를 생성하는 은닉 이미지 수신부; 상기 은닉 이미지 시퀀스의 각 요소별 위치에서, 공간적 지역성 및 표면 특성기반 예측 값 사용 여부에 따라, 추출 모드를 결정하는 예측기반 추출 모드 결정부; 상기 은닉 이미지 시퀀스에 대응하는 임베딩 시퀀스를 복원하는 임베딩 시퀀스 복원부; 상기 결정된 추출 모드에 따라, 상기 은닉 이미지 시퀀스에 대응하는 커버 이미지 시퀀스를 복원하는 커버 이미지 시퀀스 복원부; 상기 임베딩 시퀀스로부터 기밀 데이터를 추출하는 기밀 데이터 추출부; 및 상기 커버 이미지 시퀀스로부터 커버 이미지를 출력하는 커버 이미지 출력부를 포함한다.According to another aspect of the present invention, there is provided an apparatus for restoring data, comprising: a hidden image receiver for receiving a hidden image and generating a hidden image sequence by scanning the hidden image; A prediction-based extraction mode determining unit for determining an extraction mode according to spatial locality and whether a surface property-based prediction value is used at a position of each element of the hidden image sequence; An embedding sequence restoring unit for restoring an embedding sequence corresponding to the hidden image sequence; A cover image sequence restoring unit for restoring a cover image sequence corresponding to the hidden image sequence according to the determined extraction mode; A confidential data extracting unit for extracting confidential data from the embedding sequence; And a cover image output unit for outputting a cover image from the cover image sequence.

한편, 상기와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은 상기 방법들을 컴퓨터에서 실행시키기 위해 기록 매체에 저장되는 프로그램 및 상기 프로그램이 기록된 기록 매체로 구현될 수 있다.In order to solve the above problems, a method according to an embodiment of the present invention may be embodied as a program stored in a recording medium and a recording medium in which the program is recorded, in order to execute the methods in a computer.

본 발명의 실시 예에 따르면, 커버 이미지의 공간적 지역성(spatial locality)과 표면 특성(surface characteristics)을 이용하여, 정밀하게 픽셀 값을 예측하여 예측 이미지를 생성한 후, 커버 이미지로부터 획득되는 커버 이미지 시퀀스와 예측 이미지로부터 획득되는 예측 이미지에 대하여, 예측 픽셀 값 사용 여부에 따라 커버 이미지 시퀀스와 예측 이미지 시퀀스를 선택적으로 적용한 차분 시퀀스를 생성함으로써, 차분 시퀀스에 대응하는 히스토그램의 피크 포인트에서의 빈도수를 크게 증가시키고, 이에 따라 삽입 가능한 기밀 데이터의 비트수를 크게 증가시킬 수 있으며, 이에 따라 시각적 화질은 커버 이미지와 구별이 거의 어려울 정도로 높게 유지되면서도 커버 이미지에 은닉 할 수 있는 기밀 데이터 량을 크게 증가시킬 수 있는 픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법, 가역 워터마킹 방법, 가역 데이터 은닉 장치 및 가역 워터마킹 장치를 제공할 수 있다. According to an embodiment of the present invention, after a predicted image is generated by predicting pixel values precisely using the spatial locality and surface characteristics of the cover image, a cover image sequence obtained from the cover image And a difference sequence in which a cover image sequence and a prediction image sequence are selectively applied depending on whether a prediction pixel value is used is generated for a prediction image obtained from a prediction image so that the frequency at a peak point of the histogram corresponding to the difference sequence is greatly increased So that the number of bits of insertable confidential data can be greatly increased so that the visual quality can be greatly increased to keep the amount of confidential data that can be hidden in the cover image, Apply pixel value prediction technique Reversible data hiding method, reversible watermarking method can provide a reversible data hiding apparatus and reversible watermarking unit.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
도 2는 본 발명의 실시 예에 따른 데이터 은닉 장치를 설명하기 위한 블록도이다.
도 3은 본 발명의 실시 예에 따른 데이터 복원 장치를 설명하기 위한 블록도이다.
도 4는 본 발명의 실시 예에 따른 데이터 은닉 방법을 설명하기 위한 흐름도이다.
도 5는 예측 이미지 생성 과정을 나타낸 예시도이며, 도 6은 본 발명의 실시 예에 따른 예측 이미지 생성 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
도 7 내지 도 8은 커버 이미지, 커버 이미지로부터 생성된 예측 이미지, 기밀 데이터가 임베딩 된 은닉 이미지를 나타내는 예시도이다.
도 9와 도 10은 본 발명의 실시 예에 따른 테이터 복원 방법을 설명하기 위한 흐름도와, 그 과정을 설명하기 위한 예시도이다.
1 is a conceptual diagram schematically showing an overall system according to an embodiment of the present invention.
2 is a block diagram illustrating a data hiding apparatus according to an embodiment of the present invention.
3 is a block diagram for explaining a data restoration apparatus according to an embodiment of the present invention.
4 is a flowchart for explaining a data hiding method according to an embodiment of the present invention.
FIG. 5 is a flowchart illustrating a method of generating a predictive image. FIG. 6 is a flowchart illustrating a method of generating a predictive image according to an exemplary embodiment of the present invention.
7 to 8 are illustrations showing a cover image, a predictive image generated from a cover image, and a hidden image embedded with confidential data.
FIG. 9 and FIG. 10 are flowcharts for explaining a data restoration method according to an embodiment of the present invention, and are illustrations for explaining a process thereof.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 통상의 기술자는 이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 통상의 기술자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.
또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.
따라서, 예를 들어, 본 명세서의 블록도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.
프로세서 또는 이와 유사한 개념으로 표시된 기능 블록을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.
또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 기술에 따른 하드웨어도 포함될 수 있다.
본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.
상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시 예를 상세히 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
도 1을 참조하면, 본 발명의 실시 예에 따른 시스템은 데이터 은닉 장치(100)와, 데이터 복원 장치(200)를 포함하여 구성될 수 있다.
이하에서 설명되는 데이터 은닉 장치(100)는 원본 이미지나 원본 동영상과 같은 커버 이미지(또는 커버 미디어)를 수신하며, 은닉할 기밀 데이터를 수신하며, 픽셀 값 예측기법을 적용하여 대량의 기밀 데이터를 가역적으로 상기 커버 이미지에 삽입하여, 은닉 이미지를 생성 및 출력하는 컴퓨터, 서버 장치, 단말기 장치, 스마트 폰, PDA, 태블릿, 프린터 등 다양한 장치를 포함할 수 있다.
또한, 데이터 복원 장치(200)는 대량의 기밀 데이터가 삽입된 은닉 이미지를 수신하며, 상기 은닉 이미지로부터 픽셀 값 예측기법을 적용하여 상기 대량의 기밀 데이터 및 상기 커버 이미지를 손실 없이 완벽하게 복원하고, 각각 출력 가능한 컴퓨터, 서버 장치, 단말기 장치, 스마트 폰, PDA, 태블릿, 프린터 등 다양한 장치를 포함할 수 있다.
그리고, 상기 기밀 데이터는 사용자가 은닉하고자 하는 다양한 형식의 데이터를 포함할 수 있다. 여기서, 기밀 데이터는 비트열 형식의 데이터로 구성될 수 있으며, 픽셀 값 예측기법을 사용하는 가역적 데이터 은닉기법을 사용하여 커버 이미지상에 사람이 인지하지 못하는 형태로 삽입될 수 있다. 이에 따라 군사 정보, 의료 정보, 디지털 라이브러리 정보 등의 기밀 정보가 커버 이미지상에 은닉될 수 있다. 이와 같이 커버 이미지상에 기밀 데이터가 은닉된 경우 은닉 이미지는 스테고 이미지(stego image)라고도 할 수 있으며, 커버 이미지와는 외관이 다소 상이할 수 있다.
또한, 본 발명의 실시 예에 따르면 상기 기밀 데이터는 상기 커버 이미지의 소유주 정보 또는 원본 확인 정보를 포함하는 워터마크(watermark) 데이터를 포함할 수 있다. 이 경우 상기 데이터 은닉 장치(100)와 복원 장치(200)는 각각 워터마킹 장치(100) 또는 워터마크 복원 장치(200)등으로 호칭될 수 있음은 자명하며, 본 발명의 실시 예가 상기 기기의 명칭에 따라 제한되는 것은 아니다. 또한, 워터마크 데이터를 포함하는 경우, 상기 은닉 이미지는 워터마크 이미지라고도 호칭될 수 있다.

*이와 같은 시스템 구성에 있어서, 데이터 은닉 장치(100)는 커버 이미지로부터 공간적 지역성(spatial locality) 및 표면 특성(surface characteristics)에 기초한 예측 이미지를 생성하고, 상기 예측 이미지로부터 획득되는 예측 이미지 시퀀스와, 상기 커버 이미지로부터 획득되는 커버 이미지 시퀀스를 이용하여, 차분 시퀀스를 생성하며, 상기 차분 시퀀스에 대응한 히스토그램의 정보에 따라, 상기 차분 시퀀스를 쉬프트하여 쉬프트된 차분시퀀스를 생성하고, 상기 쉬프트된 차분 시퀀스에 기밀 데이터를 임베딩하여 임베딩 시퀀스를 생성하고, 상기 커버 이미지 시퀀스와 상기 임베딩 시퀀스를 합성하여 은닉 이미지 시퀀스를 생성하고, 상기 은닉이미지 시퀀스를 이용하여 은닉 이미지를 출력한다.
그리고, 데이터 복원 장치(200)는 은닉 이미지를 수신하고, 은닉 이미지를 역 s-순서(inverse s-order)로 스캔(scan)하여 은닉 이미지 시퀀스를 생성하고, 상기 은닉 이미지 시퀀스의 각 요소별 위치에서, 공간적 지역성 및 표면 특성기반 예측 값 사용 여부에 따라 추출 모드를 결정하고, 은닉 이미지 시퀀스로부터 임베딩 시퀀스를 복원하고, 상기 결정된 추출 모드에 따라 은닉이미지 시퀀스로부터 커버 이미지 시퀀스를 복원하고, 상기 임베딩 시퀀스로부터 기밀 데이터를 추출하여 출력하고, 상기 복원된 커버 이미지 시퀀스로부터 복원된 커버 이미지를 구성하여 출력한다.
이와 같은 구성에 따라, 본 발명의 실시 예에 따른 은닉 장치(100)와 복원 장치(200)를 이용한 데이터 은닉 및 복원 시스템은, 커버 이미지와 시각적으로 구별이 어려운 은닉 이미지를 생성할 수 있으면서도, 원본 커버 이미지와 은닉된 기밀 데이터는 손실 없이 완벽하게 추출되며, 은닉 데이터 량은 기존 대비 크게 향상시킬 수 있는 은닉 및 복원 시스템을 제공할 수 있다.
이에 대하여, 하기 도면들을 참조하여 보다 구체적으로 설명하도록 한다.
도 2는 본 발명의 실시 예에 따른 데이터 은닉 장치를 설명하기 위한 블록도 이다.
도 2를 참조하면, 본 발명의 실시 예에 따른 데이터 은닉 장치(100)는, 커버 이미지 입력부(110), 기밀 데이터 입력부(120), 예측 이미지 생성부(130), 차분 시퀀스 생성부(140), 히스토그램 생성부(150), 기밀 데이터 삽입부(160), 은닉 이미지 시퀀스 생성부(170) 및 은닉 이미지 출력부(180)를 포함하여 구성될 수 있다.
먼저 커버 이미지 입력부(110)는 기밀 데이터를 삽입할 커버 이미지를 외부로부터 수신하고, 커버 이미지를 역 s-순서(inverse s-order)로 스캔(scan)하여 커버 이미지 시퀀스를 생성한다. 기밀 데이터 입력부(120)는 은닉할 기밀 데이터를 외부로부터 수신한다. 커버 이미지와 기밀 데이터는 다양한 입력 매체와 통신 장치로부터 수신될 수 있으며, 데이터 은닉 장치(100)에서 처리 가능한 형태로 변환될 수 있다.
그리고, 예측 이미지 생성부(130)는 상기 입력된 커버 이미지로부터 공간적 지역성(spatial locality) 및 표면 특성(surface characteristics)에 기초한 예측 이미지를 생성하고, 예측 이미지를 역 s-순서(inverse s-order)로 스캔(scan)하여 예측 이미지 시퀀스를 생성한다.
보다 구체적으로, 예측 이미지 생성부(130)는 예측 이미지 내 역 s-순서(inverse s-order)상의 각 위치에서 예측 픽셀 값을 구하기 위하여 다음의 과정을 수행한다. 공간적 지역성에 기초하여 커버 이미지 내 해당 위치 주변 픽셀 값들로부터 제1 임시 예측 픽셀 값을 생성하며, 상기 제1 임시 예측 픽셀 값과 그 주변 픽셀 값들간 편차로부터 공간적 지역성의 정도를 판별하고, 상기 편차가 임계 값 미만인 경우, 상기 소정 영역에 대한 표면 특성을 판별하며, 상기 표면 특성에 따라, 제2 임시 예측 픽셀 값을 산출하고, 상기 공간적 지역성과 상기 표면 특성에 따라 상기 제1 임시 예측 픽셀 값, 상기 제2 임시 예측 픽셀 값과 커버 이미지의 픽셀 값을 선택적으로 적용하여 상기 예측 이미지를 생성할 수 있다.
그리고, 차분 시퀀스 생성부(140)는 상기 커버 이미지 시퀀스와 상기 예측 이미지 시퀀스를 이용하여 차분 시퀀스를 생성한다.
차분 시퀀스 생성부(140)는 예측 값 사용 여부에 따라, 상기 커버 이미지 시퀀스와 상기 예측 이미지 시퀀스를 선택적으로 적용하여 계산되는 차이 값을 생성하여 차분 시퀀스를 구성할 수 있다. 예를 들어, 상기 커버 이미지 시퀀스와 상기 예측 이미지 시퀀스에 대하여 상기 각 요소별 위치에서의 예측 픽셀 값 사용 여부 정보에 따라, 예측 픽셀 값이 사용되지 아니한 경우에는 상기 커버 이미지의 인접 픽셀간의 픽셀 값 차분을 포함하는 차분 시퀀스를 생성하고, 예측 픽셀 값이 사용된 경우에는 상기 커버 이미지 시퀀스와 상기 예측 이미지 시퀀스의 차이 값을 포함하는 차분 시퀀스를 생성할 수 있다.
그리고, 히스토그램 생성부(150)는 상기 차분 시퀀스에 대응하는 히스토그램을 생성한다. 여기서, 히스토그램은 차분 시퀀스를 쉬프트(shift) 시키는데 필요한 정보인, 피크 포인트(peak point, PP)와 최 인접 제로 포인트(closet zero point, CZP)를 분석하기 위한 것이다.
이에 따라, 기밀 데이터 삽입부(160)는 상기 히스토그램으로부터 획득되는 쉬프트 정보에 기초하여, 상기 차분 시퀀스를 쉬프트하여 쉬프트된 차분 시퀀스를 생성하고, 쉬프트된 차분 시퀀스의 각 피크 포인트에 상기 기밀 데이터를 차례대로 임베딩(embedding)하여 임베딩 시퀀스를 생성한다.
그리고, 은닉 이미지 시퀀스 생성부(170)는 상기 임베딩 시퀀스와 상기 커버 이미지 시퀀스를 합성하여 은닉 이미지 시퀀스를 생성한다.
그리고, 은닉 이미지 출력부(180)는 상기 은닉 이미지 시퀀스를 스캔(scan)하여 역 s-순서(inverse s-order)로 은닉 이미지를 구성한 후, 출력 매체에 따른 적절한 형태로 변환 및 출력할 수 있다.
예를 들어, 은닉 이미지 출력부(180)는 영상 정보를 디스플레이하는 디스플레이 장치, 은닉 이미지를 전송하는 송신 장치, 은닉 이미지를 저장 및 관리하는 관리 장치 또는 은닉 이미지가 인쇄된 지면을 출력하는 인쇄 장치 등, 은닉 이미지를 출력하는 다양한 방식의 출력 장치로 구현될 수 있다.
또한, 상기의 예측 이미지 생성부(130), 차분 시퀀스 생성부(140), 히스토그램 생성부(150), 기밀 데이터 삽입부(160) 및 은닉 이미지 시퀀스 생성부(170)의 보다 구체적인 동작 및 구현 방식들은 도 4 내지 도 8에서 다시 후술하도록 한다.
도 3은 본 발명의 실시 예에 따른 데이터 복원 장치를 설명하기 위한 블록도 이다.
도 3을 참조하면, 본 발명의 실시 예에 따른 복원 장치(200)는, 은닉 이미지 수신부(210), 예측기반 추출 모드 결정부(220), 임베딩 시퀀스 복원부(230), 커버 이미지 시퀀스 복원부(240), 기밀 데이터 추출부(250) 및 커버 이미지 출력부(260)를 포함한다.
은닉 이미지 수신부(210)는 복원할 은닉 이미지를 외부로부터 수신하며, 은닉 이미지를 역 s-순서(inverse s-order)로 스캔(scan)하여 은닉 이미지 시퀀스를 생성한다. 은닉 이미지는 다양한 입력 매체나 통신 장치로부터 수신될 수 있으며, 데이터 복원 장치(200)에서 처리 가능한 형태로 변환될 수 있다.
그리고, 예측기반 추출 모드 결정부(220)는 상기 은닉 이미지 시퀀스의 각 요소별 위치에서, 공간적 지역성 및 표면 특성기반 예측 값 사용 여부에 따라, 추출 모드를 결정한다.
보다 구체적으로, 예측기반 추출 모드 결정부(220)는 은닉 이미지 시퀀스의 역 s-순서(inverse s-order)상의 각 요소별 위치에서, 픽셀 값 예측 가능 여부를 식별할 수 있으며, 상기 픽셀 값 예측 가능 여부와 공간적 지역성 및 표면 특성 판별에 따른 예측 값 사용여부를 식별하고, 이에 기초하여 상기 은닉 이미지 시퀀스의 각 요소별 위치에서 추출 모드를 결정할 수 있다. 각 요소별 위치에서 예측 값 사용 여부를 식별하는 절차는 도 9내지 도 10에서 후술한다.
예를 들어, 예측기반 추출 모드 결정부(220)는 은닉 이미지의 상위 2개 행에 해당하는 경우(i<imagewidth*2) 혹은 은닉 이미지 시퀀스의 이전 위치와 현재 위치에서 예측 픽셀 값이 사용되지 않은 경우, 추출 모드를 Mode 1으로 결정할 수 있다.
예측기반 추출 모드 결정부(220)는 은닉 이미지 시퀀스의 현재 위치에서 예측 픽셀 값이 사용된 경우, 추출 모드를 Mode 2로 결정할 수 있다.
또한, 예측기반 추출 모드 결정부(220)는 은닉 이미지 시퀀스의 이전 위치에서 예측 픽셀 값이 사용되었으나 현재 위치에서 예측 픽셀 값이 사용되지 않은 경우, 추출 모드를 Mode 3로 결정할 수 있다.
그리고, 임베딩 시퀀스 복원부(230)는 은닉 이미지에 합성되어 있는 임베딩 시퀀스를 복원한다.
예를 들어, 임베딩 시퀀스 복원부(230)는 Mode 1, Mode 2, Mode 3에서 APD(Adjacent Pixel Difference, 논문 Y. C. Li, C. M. Yeh, and C. C. Chang, Data hiding based on the similarity between neighboring pixels with reversibility, Digital Signal Processing, Vol. 20, No. 4, pp 1116-1128, July 2010 참조) 기법과 같은 방법으로 임베딩 시퀀스를 복원할 수 있다.
커버 이미지 시퀀스 복원부(240)는 은닉이미지로부터 원본 커버 이미지를 복원한다.
그리고, 커버 이미지 시퀀스 복원부(240)는 Mode 1에서 APD 방식과 동일하게 커버 이미지 시퀀스를 복원할 수 있으며, Mode 2와 Mode 3에서는 복원과정 중 모드 판단 시 계산되는 복원 예측 픽셀 값과 연관 값을 사용하여 커버 이미지 시퀀스를 복원할 수 있다.
또한, 기밀 데이터 추출부(250)는 상기 임베딩 시퀀스로부터 기밀 데이터를 용이하게 추출할 수 있다. 여기서 추출된 기밀 데이터는 손실 없이 완벽하게 복원되기 때문에, 은닉된 기밀 데이터와 동일하다.
상기의 예측기반 추출 모드 결정부(220), 임베딩 시퀀스 복원부(230), 커버 이미지 시퀀스 복원부(240), 기밀데이터 추출부(250)의 보다 구체적인 동작 및 구현 방식들은 도 9 내지 도 10에서 다시 후술하도록 한다.
커버 이미지 출력부(260)는 상기 커버 이미지 시퀀스의 픽셀 값을 순차적으로 스캔(scan)하고, 역 s-순서(inverse s-order)로 커버 이미지를 구성한 후, 이를 출력한다. 여기서 복원된 커버 이미지는 손실 없이 완벽하게 복원되기 때문에 원본 커버 이미지와 동일하다.
여기서, 커버 이미지 출력부(260)는 영상 정보를 디스플레이 하는 디스플레이, 커버 이미지를 전송하는 송신 장치, 커버 이미지를 저장 및 관리하는 관리 장치 또는 커버 이미지가 인쇄된 지면을 출력하는 인쇄 장치 등, 복원된 커버 이미지를 출력하는 다양한 방식의 출력 장치로 구현될 수 있다.
도 4 내지 도 8은 본 발명의 실시 예에 따른 데이터 은닉 방법을 설명하기 위한 흐름도와, 그 과정을 설명하기 위한 예시도 이다.
이하에서는 도 4 내지 도 8을 참조하여, 데이터 은닉 프로세스를 보다 구체적으로 설명하도록 한다.
도 4는 본 발명의 실시 예에 따른 데이터 은닉 방법을 설명하기 위한 흐름도로서, 도 4를 참조하면, 먼저 본 발명의 실시 예에 따른 데이터 은닉 장치(100)는, 커버 이미지 입력부(110)를 통해 커버 이미지를 입력 받으며, 커버 이미지를 역 s-순서(inverse s-order)로 스캔(scan)하여 커버 이미지 시퀀스를 생성한다(S101).
이후, 기밀 데이터 입력부(120)를 통해 커버 이미지에 은닉할 기밀 데이터를 입력 받는다(S103).
예측 이미지 생성부(130)는 예측 이미지 내 역 s-순서(inverse s-order)상의 현재 위치가 픽셀 값 예측 가능 영역인지를 판단한다(S105).
예측 이미지 생성부(130)는 현재 위치가 픽셀 값 예측 가능 영역이 아닌 경우에는 픽셀 값 예측을 수행하지 않고, 커버 이미지 내 해당 위치에서의 픽셀 값을 복사하여 예측 이미지를 생성한다. 현재 위치가 픽셀 값 예측 가능 영역인 경우에는 예측 이미지 생성부(130)는 커버 이미지 내의 픽셀 값들로부터 공간적 지역성과 표면 특성에 기초하여 예측 이미지를 역 s-순서(inverse s-order)로 생성할 수 있다.
보다 구체적으로, 예측 이미지 생성부(130)는 현재 위치가 픽셀 값 예측 가능 영역인 경우 공간적 지역성에 기초하여 커버 이미지 내 소정 영역의 픽셀 값들로부터 제1 임시 예측 픽셀 값을 연산한다(S107). 그리고, 예측 이미지 생성부(130)는 공간적 지역성의 정도를 판별하기 위하여 제1 임시 예측 픽셀 값과 그 주변 픽셀 값들간 편차를 연산하며(S109), 공간적 지역성의 정도를 판별하기 위하여 상기 편차와 임계 값을 비교한다(S111).
상기 편차가 임계 값 이상인 경우 예측 이미지 생성부(130)는 공간적 지역성이 낮은 것으로 판단하여 픽셀 값 예측과정을 더 이상 수행하지 않고, 커버 이미지 내 해당 위치에서의 픽셀 값을 복사하여 예측 이미지를 생성한다. 예측 이미지 생성부(130)는 상기 편차가 임계 값 미만인 경우에는 공간적 지역성이 높은 것으로 판단하여, 해당 위치에서의 표면 특성을 추정한다(S113).
예측 이미지 생성부(130)는 상기 표면 특성이 단순 경사면이거나 혹은 단순 평면일 경우에는, 해당 표면 특성을 잘 반영하는 제2 임시 예측 픽셀 값을 산출하고 이를 예측 픽셀 값으로 결정하여 예측 이미지를 생성한다. 또한, 예측 이미지 생성부(130)는 상기 표면 특성이 단순 경사면 혹은 평면이 아닐 경우에는 상기 제1 임시 예측 픽셀 값을 예측 픽셀 값으로 결정하여 예측 이미지를 생성한다(S115).
그리고, 예측 이미지 생성부(130)는 생성된 예측 이미지를 역 s-순서(inverse s-order)로 스캔(scan)하여 예측 이미지 시퀀스를 생성한다(S117).
이후, 차분 시퀀스 생성부(140)는 상기 각 요소별 위치에서의 예측 값 사용 여부 정보에 따라 커버 이미지 시퀀스와 예측 이미지 시퀀스를 선택적으로 적용하여 차분 시퀀스 생성한다(S119).
그리고, 히스토그램 생성부(150)는 차분 시퀀스에 대응되는 히스토그램을 생성한다(S121).
그리고, 기밀 데이터 삽입부(160)는 히스토그램으로부터 획득되는 쉬프트 정보에 따라 차분 시퀀스를 쉬프트시켜 쉬프트된 차분 시퀀스를 생성하고, 쉬프트된 차분 시퀀스에 기밀데이터를 임베딩하여 임베딩 시퀀스를 생성한다(S123).
은닉 이미지 시퀀스 생성부(170)는 상기 커버 이미지 시퀀스와 상기 임베딩 시퀀스를 합성하여 은닉이미지 시퀀스를 생성한다(S125).
그리고, 은닉 이미지 출력부(180)는 은닉 이미지 시퀀스를 스캔(scan)하여 역 s-순서로 은닉 이미지를 구성 하며, 상기 은닉 이미지를 출력한다(S127).
일반적으로 자연 영상에는 공간적 지역성(spatial locality)이 존재할 수 있다. 또한, 영상의 각 부분에는 표면 특성(surface characteristics)이 존재할 수 있다. 이에 따라, 인접한 픽셀 값들은 매우 비슷한 값들을 갖는 특성을 가질 수 있으며, 일정 영역의 픽셀들은 곡면, 평면 등의 다양한 표면 특성을 가질 수 있다.
이에 따라, 본 발명의 실시 예에 따른 데이터 은닉 장치(100)는 인접 픽셀 값들을 이용하여 지역성이 높을 것으로 예상되는 위치를 선정하고, 상기 지역성이 높은 위치에서의 표면 특성에 따라 픽셀 값을 정밀하게 예측하여, 예측 이미지를 생성하고, 상기 커버 이미지로부터 획득되는 커버 이미지 시퀀스와 상기 예측 이미지로부터 획득되는 예측 이미지 시퀀스를 상기 각 요소별 위치에서의 예측 픽셀 값 사용 여부 정보에 따라 선택적으로 적용하여 계산되는 차이 값을 생성하여 차분 시퀀스를 구성함으로, 히스토그램의 피크 포인트(peak point)에서의 빈도수를 크게 증가시켜, 커버 이미지에 삽입되는 기밀 데이터의 비트수를 크게 증가시킬 수 있다. 픽셀 값 예측이 정확할수록 픽셀 값의 차로 구성되는 차분 시퀀스에 대한 히스토그램의 피크 포인트(peak point)에서의 빈도수가 크게 증가하게 되어 커버 이미지에 삽입되는 기밀 데이터의 비트수가 크게 증가할 수 있다.
도 5는 예측 이미지 생성 과정을 나타낸 예시도이며, 도 6은 본 발명의 실시 예에 따른 예측 이미지 생성 방법을 보다 구체적으로 설명하기 위한 흐름도이다.
도 5는 커버 이미지, 픽셀 값 예측 순서, 예측에 사용되는 주위의 12개 픽셀 및 예측 이미지 생성부(130)의 예측에 따라 생성되는 예측 이미지를 나타낸다.
예측 이미지 생성부(130)는 도 5 (A)에 도시된 커버 이미지의 픽셀 값들을 사용하여 예측 가능 영역(예를 들어, 예측 이미지의 상위 2개 행과 좌우측 각 2개열의 픽셀들을 제외한 영역)에 대응하는 굵은 선 안쪽의 픽셀 값들을 도 6 (B)에 표시된 역 s-순서(inverse s-order)로 예측 할 수 있다.
그리고 예측 이미지 생성부(130)는 예측 가능 영역의 각 위치에서, 도 5(C)와 같이 주위의 픽셀 값을 사용하여 예측 픽셀 값을 연산하여, 도 5 (D)와 같은 예측 이미지를 생성할 수 있다. 도 5 (D)에서 밑줄 친 픽셀 값들은 해당 위치에서의 예측 픽셀 값을 나타내고, 위치 ⑦에서의 값 159는 예측 값이 아니라, 커버 이미지 내 해당 위치에서의 픽셀 값이다.
또한, 예측 이미지 생성부(130)는 픽셀 값 예측 가능영역인 경우, 픽셀 값 예측에 있어서, 역 s-순서(inverse s-order)로 기 스캔(scan)된 12개의 픽셀 값들을 사용하여, 제1 임시 예측 픽셀 값을 연산할 수 있다. 예를 들어, 도 5 (C)에서 ①의 위치(xi, yj)에서의 제1 임시 예측 픽셀 값(V1)은 하기 수학식 1에 의해 구해질 수 있다. 여기서, 역 s-순서(inverse s-order)로 기 스캔(scan)된 픽셀 값들을 사용하는 이유는, 복원과정에서 기밀 데이터와 원본 커버 이미지를 완벽하게 복원하기 위함이다.

Figure 112017118617073-pat00026

예를 들어, 위치 ①의 좌표는 (xi, yj)이고, 픽셀 값이 I, J, K, N인 픽셀의 좌표는 각각 (xi+1, yj-1), (xi, yj-1), (xi-1, yj-1), (xi-1, yj)이며, P(x, y)는 좌표 (x, y)에서의 픽셀 값을 나타낼 수 있다. I, J, K, N은 도 5 (A)에서 보는 바와 같이 155, 158, 158, 160의 값이 예시될 수 있다.
그리고 상기 수학식 1에서, 제1 임시 예측 픽셀 값을 구하는 위치와 인접해 있는 픽셀들이 제1 임시 예측 필셀 값에 미치는 영향을 나타내는 계수는 1로 하였고, 한 픽셀 떨어져 있는 위치의 픽셀들이 제1 임시 예측 픽셀 값에 미치는 영향을 나타내는 계수는 α로 나타낼 수 있다.
그리고, 예측 이미지 생성부(130)는 공간적 지역성의 정도를 판별하기 위하여 제1 임시 예측 픽셀 값과 주변 픽셀 값들과의 편차(dev)를 연산한다. 상기 편차 연산에 하기 수학식 2를 이용할 수 있다.
Figure 112017118617073-pat00027

예를 들어, 예측 이미지 생성부(130)는 공간적 지역성 판별을 위한 기준 값을 임계 값 β로 설정할 수 있으며, 상기 제1 임시 예측 픽셀 값(V1)과 그 주변 픽셀 값들간 편차(dev)를 이용하여 공간적 지역성의 정도를 판별할 수 있다.
이에 따라, 예측 이미지 생성부(130)는 상기 편차(dev)가 임계 값(β) 이상일 경우에는 해당 위치 주변의 영상은 픽셀 값 변화가 큰 경계 영역 혹은 공간적인 지역성이 낮은 영역으로 판단하여 픽셀 값 예측과정을 더 이상 수행하지 않고, 커버 이미지 내 해당 위치에서의 픽셀 값을 복사하여 예측 이미지를 생성할 수 있다.
반면, 예측 이미지 생성부(130)는 상기 편차(dev)가 임계 값(β) 미만이어서 공간적 지역성이 높은 경우, 해당 위치에서의 표면 특성을 추정하며, 상기 추정된 표면 특성에 따라, 제2 임시 예측 픽셀 값(V2)을 산출하고, 상기 표면 특성에 따라 상기 제1 임시 예측 픽셀 값 또는 상기 제2 임시 예측 픽셀 값을 선택적으로 적용하여 상기 예측 이미지를 생성할 수 있다.
그리고, 본 발명의 예측 이미지 생성부(130)는 역 s-순서(inverse s-order)로 상기 각 픽셀 별 예측 이미지 생성을 수행할 수 있다.
보다 구체적인 예측 이미지 생성 프로세스를 도 6을 참조하여 설명하면 다음과 같다.
먼저, 예측 이미지 생성부(130)는 예측 이미지 내 역 s-순서(inverse s-order)로 픽셀 위치를 선정하고(S301), 해당 위치가 픽셀 값 예측 가능 영역인지 여부를 판단한다(S303).
그리고, 예측 이미지 생성부(130)는 픽셀 값 예측 가능 영역이 아닌 경우, 픽셀 값 예측 과정을 수행하지 않고 커버 이미지 내 해당 위치에서의 픽셀 값을 복사하여 예측 이미지를 생성한다(S305).
한편, 픽셀 값 예측 가능 영역인 경우, 예측 이미지 생성부(130)는 상기 수학식 1을 이용하여 공간적 지역성에 기초한 제1 임시 예측 픽셀 값(V1)을 연산한다(S307).
그리고, 공간적 지역성의 정도를 판별하기 위하여 예측 이미지 생성부(130)는 수학식 2를 이용하여 제1 임시 예측 픽셀 값과 주변 픽셀 값들간의 편차(dev)를 연산한다(S309).
또한, 예측 이미지 생성부(130)는 공간적 지역성의 정도를 판별하기 위하여 상기 계산된 편차(dev)가 임계 값(β) 이상인지 여부를 판단한다(S311). 예측 이미지 생성부(130)는 상기 계산된 편차(dev)가 임계 값(β) 이상인 경우에는 공간적 지역성이 낮은 영역으로 판단하여, 픽셀 값 예측과정을 더 이상 수행하지 않고, 커버 이미지 내 해당 위치에서의 픽셀 값을 복사하여 예측 이미지를 생성한다(S305).
한편, 예측 이미지 생성부(130)는 상기 계산된 편차(dev)가 임계 값(β) 미만인 경우에는 해당 위치의 영상에서 픽셀 값 변화가 완만하여 공간적 지역성이 높은 것으로 판단하고, 커버 이미지 내 해당 위치에서의 표면 특성을 추정한다(S313). 추정된 표면 특성이 X축 방향으로의 단순 경사면(simple inclined surface)인지 또는 평면(flat surface)인지 여부를 판단하고(S315), 표면 특성이 X축 방향으로의 단순 경사면이거나 혹은 평면인 경우에는 해당 표면 특성을 잘 반영하는 제2 임시 예측 픽셀 값(V2)을 예측 픽셀 값으로 결정하여 예측 이미지를 생성하고(S317), 다른 표면 특성인 경우에는 상기 제1 임시 예측 픽셀 값을 예측 픽셀 값으로 결정하여 예측 이미지를 생성한다(S319).
상기 흐름도에 따라 표면 특성을 추정하는 과정을 도 5에 도시된 도면을 참조하여 보다 구체적으로 설명하면, 전체적인 변수 설정 및 산출과정은 하기 수학식 3과 같다.
Figure 112017118617073-pat00028

수학식 3과 같이, 임의의 두 지점 (x1, y1)과 (x2, y2)를 지나는 직선의 방정식은 y = {(y2-y1)/(x2-x1)}(x-x1) + y1 이 될 수 있다. 이에 따라 상호 인접한 픽셀 사이의 직선방정식을 산출할 수 있다. 즉, 예측 이미지 생성부(130)는 픽셀 값이 K인 픽셀과 X축으로 인접한 픽셀 값이 J인 픽셀 사이에서, 픽셀 값에 대하여 X축 방향만을 고려한 직선방정식을 산출할 수 있다.
예측 이미지 생성부(130)에서는 (xi-1, K)와 (xi, J)를 지나는 직선의 방정식 PL(x)를 수학식 3에서 개시된 식과 같이 산출할 수 있다. 동일한 방법으로 예측 이미지 생성부(130)는 픽셀 값이 J인 픽셀과 픽셀 값이 I인 픽셀 사이에서, 픽셀 값에 대하여 X축 방향만을 고려한 직선방정식 PR(x)를 산출할 수 있다.
마찬가지로, 예측 이미지 생성부(130)는 픽셀 값이 N인 픽셀과 픽셀 값이 J인 픽셀 사이에서, 픽셀 값에 대하여 X축 방향만을 고려한 직선방정식 PLD(x)를 수학식 3에 개시된 식과 같이 산출할 수 있다.
그리고, 예측 이미지 생성부(130)는 산출된 직선방정식들(PL(x), PR(x), PLD(x))에 기초하여, 표면 특성 추정을 수행할 수 있다.
먼저, 예측 이미지 생성부(130)는 PL(x), PR(x), PLD(x) 식들의 기울기가 모두 0보다 큰 경우에는 왼쪽보다 오른쪽의 픽셀 값이 큰 값을 갖는 단순 경사면(simple inclined surface)이라고 추정할 수 있다.
또한, 예측 이미지 생성부(130)는 PL(x), PR(x), PLD(x) 식들의 기울기가 모두 0보다 적은 경우에는 오른쪽보다 왼쪽의 픽셀 값이 더 큰 값을 갖는 단순 경사면(simple inclined surface)이라고 추정할 수 있다.
그리고, 예측 이미지 생성부(130)는 PL(x), PR(x), PLD(x) 식들의 기울기가 모두 0인 경우에는 왼쪽과 오른쪽이 평평한 평면(flat surface) 이라고 추정할 수 있다.
이에 따라, 예측 이미지 생성부(130)는 직선방정식의 기울기에 따라, 예측 위치에서 X축방향의 표면 특성이 단순 경사면(simple inclined surface) 혹은 평면(flat surface)으로 추정된 경우에는 해당 표면 특성을 잘 반영하는 제2 임시 예측 픽셀 값 V2를 하기 수학식 4와 같이 연산하고, 상기 제2 임시 예측 픽셀 값 V2를 위치 ①에서의 예측 픽셀 값으로 결정하여 예측 이미지를 생성 할 수 있다.
Figure 112017118617073-pat00029

또한, 그 외의 표면 특성을 갖는 경우에는 예측 이미지 생성부(130)는 앞서 산출된 제1 임시 예측 값 V1을 위치 ①에서의 예측 픽셀 값으로 결정하여 예측 이미지를 생성할 수 있다. 따라서 위치 ①에서의 예측 픽셀 값 V는 하기 수학식 5와 같이 결정될 수 있다.
Figure 112017118617073-pat00030

결과적으로, 예측 이미지 생성부(130)는 예측 이미지 P를 상기 수학식 5에 의해 생성할 수 있다. 수학식 5에서, C(xi, yj)는 좌표 (xi, yj)에서 커버 이미지의 픽셀 값을 나타내며, V1(xi, yj)과 V2(xi, yj)는 좌표 (xi, yj)에서 제1 임시 예측 픽셀 값과 제2 임시 예측 픽셀 값을 각각 나타내고, P(xi, yj)는 좌표 (xi, yj)에서 예측 이미지의 픽셀 값을 나타낸다. 이에 따라, 도 5(C)의 위치 ④에서도 동일한 방법으로 예측 픽셀 값이 연산될 수 있어 예측 이미지가 생성될 수 있다.
이와 같은 방식에 의해, 예측 이미지 생성부(130)는 수학식 1 내지 수학식 5를 이용하여 예측 이미지를 생성할 수 있으며, 이에 따라 도 5 (B)에서 보는 바와 같이 예측 이미지의 상위 2개 행과 좌우측 각 2개 열은 픽셀 값 예측 가능 영역이 아니기 때문에 커버 이미지의 픽셀 값을 복사하여 사용할 수 있고, 나머지 영역이 픽셀 값 예측 가능 영역이 될 수 있다. 예측 이미지 생성부(130)는 도 5(B)의 픽셀 값 예측 가능 영역 내 역 s-순서에 따른 각 위치에서, 제1 임시 예측 픽셀 값을 수학식 1에 따라 계산하고, 수학식 2를 사용하여 계산된 편차(dev)를 임계 값(β)과 비교하여 공간적 지역성의 정도를 판별한다. 공간적 지역성이 낮을 경우, 픽셀 값 예측 과정을 더 이상 수행하지 않고 커버이미지 내 해당 위치에서의 픽셀 값을 복사하여 예측 이미지를 생성한다. 공간적 지역성이 높을 경우, 수학식 3을 적용하여 표면 특성에 따른 단순 경사면 또는 평면 여부를 결정하고, 표면 특성에 따라 제1 임시 예측 픽셀 값 혹은 제2 임시 예측 픽셀 값을 선택적으로 적용하여 예측 이미지를 생성하면, 도 5(D)의 예측 이미지가 생성 될 수 있다.
보다 구체적으로, 도 7 내지 도 8을 참조하면, 커버 이미지 입력부(110)는 커버 이미지를 입력 받고, 커버 이미지에 대하여 픽셀 값을 좌측에서 우측으로, 위에서 아래쪽으로 순차적으로 이루어지는 역 s-순서(inverse s-order)로 스캔(scan)하여 픽셀 값들로 구성되는 커버 이미지 시퀀스 C를 생성할 수 있다.
예측 이미지 생성부(130)는 생성된 예측 이미지를 역 s-순서(inverse s-order)로 스캔(scan)하여 예측 이미지 시퀀스 P를 생성할 수 있다.
그리고, 차분 시퀀스 생성부(140)는 상기 각 요소별 위치에서의 예측 픽셀 값 사용 여부 정보에 따라 커버이미지 시퀀스와 예측 이미지 시퀀스를 선택적으로 적용하여 차분 시퀀스 D를 생성할 수 있다.
차분 시퀀스 생성부(140)에서는 차분 시퀀스를 생성함에 있어서, 기존의 APD기법에 비하여 상기 예측 이미지 시퀀스와 예측 여부 정보를 추가적으로 이용함에 따라, 피크 포인트에서의 빈도수를 더욱 향상시키고, 이에 따라 더 많은 기밀 데이터가 삽입 가능한 차분 시퀀스가 생성될 수 있다.
차분 시퀀스 D의 각 요소를 Di라고 하면, 차분 시퀀스 생성부(140)는 하기 수학식 6과 같이 커버 이미지 시퀀스의 요소와 예측 이미지 시퀀스의 요소를 이용하여 차분 시퀀스를 생성할 수 있다.
Figure 112017118617073-pat00031

그리고, 데이터 은닉 장치(100)의 히스토그램 생성부(150)는 상기 차분 시퀀스에 대응하는 히스토그램을 생성한다. 여기서, 히스토그램 생성은 차분 시퀀스를 쉬프트 하는데 필요한 쉬프트 정보를 얻기 위한 것으로, 차분 시퀀스 쉬프트를 이용한 데이터 은닉기법(APD)을 적용하기 위한 것이며, 그 기술구성은 논문 Y. C. Li, C. M. Yeh, and C. C. Chang, Data hiding based on the similarity between neighboring pixels with reversibility, Digital Signal Processing, Vol. 20, No. 4, pp 1116-1128, July 2010 을 참조하여 서술될 수 있다.
히스토그램 생성부(150)는 차분 시퀀스에 대한 히스토그램을 생성하여 차분 시퀀스를 쉬프트(shift) 하기 위한 정보들 즉, 최대 빈도수를 갖는 피크 포인트 (PP1, peak point 1), 두 번째로 큰 빈도수를 갖는 피크 포인트(PP2, peak point 2), PP1에 가장 가까이에 있는 빈도수가 0인 값을 갖는 CZP1(closest zero point 1), PP2에 가장 가까이에 위치한 빈도수가 0인 값을 갖는 CZP2(closest zero point 2)를 결정할 수 있다.
이에 따라, 기밀 데이터 삽입부(160)는 히스토그램의 정보를 이용하여 차분 시퀀스를 하기 수학식 7과 같은 처리에 따라 쉬프트시켜 쉬프트된 차분시퀀스 DS를 생성할 수 있다.
Figure 112017118617073-pat00032

Figure 112017118617073-pat00033

그리고, 기밀 데이터 삽입부(160)는 하기 수학식 8과 같은 연산 처리에 따라 DS에 기밀 데이터를 삽입하여 임베딩 시퀀스 DE를 생성할 수 있다.
Figure 112017118617073-pat00034

은닉 이미지 시퀀스 생성부(170)는, 상기 커버 이미지 시퀀스 C와 상기 임베딩 시퀀스 DE에 대하여 수학식 9와 같은 연산처리를 하여 최종적으로 은닉 이미지 시퀀스 S를 생성함으로써, 차분 시퀀스에 대한 히스토그램의 각 피크 포인트에 대응하는 픽셀들에 기밀 데이터를 비트별로 각각 삽입할 수 있게 된다.
Figure 112017118617073-pat00035

이에 따라, 은닉 이미지 출력부(180)는 은닉 이미지 시퀀스를 스캔(scan)하여 역 s-순서(inverse s-order)로 은닉 이미지를 구성한 후, 이를 출력할 수 있다.
도 5, 도 7 내지 도 8은 커버 이미지, 커버 이미지로부터 생성된 예측 이미지, 기밀 데이터가 임베딩 된 은닉 이미지를 나타내는 예시도이다.
도 5, 도 7 내지 도 8에서는 이와 같은 전체 이미지 처리 과정에 의한 기밀 데이터 임베딩을 예시적으로 나타내고 있다.
먼저, 도 5, 도 7 내지 도 8에서는 상기 예측 이미지 생성시의 수학식 1과 수학식 2에서 사용된 계수 α를 0.298로 하고, 수학식 4에서 사용된 임계 값(β)을 15로 하여 생성된 예측 이미지의 예를 나타내고 있다. 이에 따라 도 5 (B)의 ①~⑧까지의 각 위치에서 제1 임시 예측 픽셀 값 V1을 수학식 1에 따라 계산하면, 각각 157.0, 156.7, 157.3, 157.5, 158.0, 157.6, 158.7, 158.2 가 된다. 그리고 계산된 제1 임시 예측 픽셀 값 V1을 수학식 2에 적용하여 편차(dev)를 구하면, 각각 10.9, 10.3, 8.1, 7.3, 13.2, 8.4, 15.3, 12.2 가 된다.
이에 따라, 상기 임계 값(β)을 15로 설정하면, 도 5, 도 7 내지 도 8과 같이, 위치 ⑦에서의 편차(15.3)가 임계 값(β) 이상이기 때문에 예측 이미지 생성부(130)는 위치 ⑦을 공간적 지역성이 낮은 곳으로 판별하여 픽셀 값 예측과정을 더 이상 수행하지 않고, 커버 이미지 내 해당 위치에서의 픽셀 값(159)을 복사하여 예측 이미지를 생성할 수 있다.
또한, 예측 이미지 생성부(130)는 편차가 임계 값(β) 미만인 나머지 위치 ①~⑥, ⑧에서 영상의 표면 특성을 추정하여, 단순 경사면(simple inclined surface) 혹은 평면(flat surface)인 영역으로 추정되는 위치 ①, ④, ⑥을 판별할 수 있다.
그리고, 예측 이미지 생성부(130)는 위치 ①, ④, ⑥에서의 제2 임시 예측 픽셀 값 V2를 수학식 4에 따라 계산하여, 각각 157.8, 158.0, 157.0을 산출하며, 이 값(제2 임시 예측 픽셀 값)을 반올림하여 각각의 위치에서의 예측 픽셀 값으로 결정하여 예측 이미지를 생성 할 수 있다.
한편, 예측 이미지 생성부(130)는 그 외의 위치 ②, ③, ⑤, ⑧에서의 표면 특성은 단순 경사면 혹은 평면이 아닌 것으로 추정되므로, 앞서 산출된 제1 임시 예측 픽셀 값 V1을 반올림 한 후, 해당 위치에서의 예측 픽셀 값으로 결정하여 예측 이미지를 생성할 수 있다.
이러한 과정을 거쳐 구성된 예측 이미지가 도 5, 도 7 내지 도 8에서 설명될 수 있다. 도 8에서 나타나는 바와 같이, 본 발명의 실시 예에 따른 차분 시퀀스 D를 생성하고, 그 히스토그램을 생성하게 되면, PP1=0, PP2=1이며 h(PP1)=12, h(PP2)=3 인 히스토그램 정보가 생성될 수 있다. 이에 따라, 차분 시퀀스에 삽입되어 커버 이미지에 은닉 가능한 최대 데이터 비트수는 h(PP1)과 h(PP2)의 합인 15비트가 되며, 전술한 APD 방식에 비하여 4비트 이상 증가함을 확인할 수 있다. 또한, 임계 값(β)을 20로 설정하면, 위치 ⑦에서도 예측 픽셀 값이 사용되어 h(PP1)=13, h(PP2)=3이 되고, 삽입되는 기밀 데이터의 비트수가 1비트 더 증가 할 수 있다. 한편, 본 발명의 실시 예에서, 임계 값(β)을 0으로 설정하면 예측 이미지의 모든 픽셀은 커버 이미지의 픽셀 값을 그대로 복사한 값이 되므로, 임계 값(β)이 0인 경우에는 기존의 APD기법과 동일하게 동작할 수 있다.
도 9 내지 도 10은 본 발명의 실시 예에 따른 데이터 복원 방법을 설명하기 위한 흐름도와, 그 과정을 설명하기 위한 예시도 이다.

*도 9를 참조하면, 본 발명의 실시 예에 따른 데이터 복원 장치(200)는, 먼저 은닉 이미지 수신부(210)를 통해 은닉 이미지를 수신하고, 수신된 은닉 이미지를 좌측에서 우측으로, 위에서 아래쪽으로 역 s-순서(inverse s-order)로 스캔(scan)하여 픽셀 값들로 구성되는 은닉 이미지 시퀀스 S를 생성한다(S201).
그리고, 데이터 복원 장치(200)의 예측기반 추출 모드 결정부(220)는 상기 은닉 이미지 시퀀스의 각 위치 별로 공간적 지역성과 표면 특성을 추정하여 예측 픽셀 값 사용 여부를 판단하고, 예측 값 사용 여부에 따라 추출 모드를 결정한다(S203).
예측기반 추출 모드 결정부(220)는 은닉 이미지 시퀀스의 각 요소별 위치에서, 3가지 추출 모드 중에서 해당 추출 모드를 결정한다. 즉, 예측기반 추출 모드 결정부(220)는 영상의 상위 2개 행의 경우(i<imagewidth*2) 혹은 이전 위치와 현재 위치 모두에서 예측 픽셀 값이 사용되지 아니한 경우에는 추출 모드를 Mode 1으로 결정하고, 현재 위치에서 예측 픽셀 값이 사용된 경우에는 추출 모드를 Mode 2로 결정하며, 이전 위치에서 예측 픽셀 값이 사용되었으나 현재 위치에서는 예측 픽셀 값이 사용되지 아니한 경우에는 추출 모드를 Mode 3로 결정한다.
예측기반 추출 모드 결정부(220)의 동작을 자세히 기술하면 다음과 같다. 예측기반 추출 모드 결정부(220)는 도 10의 은닉 이미지 시퀀스 S의 각 요소별 위치에서 추출 모드를 결정할 수 있다.
현재 위치가 i인 경우, 임베딩 시퀀스는 DEi까지 복원이 완료되었고, 커버 이미지 시퀀스는 Si-1까지 복원이 완료되었다. 임베딩 시퀀스와 커버 이미지 시퀀스 복원에 대한 상세한 절차는 후술 하기로 한다.
먼저, 예측기반 추출 모드 결정부(220)는 위치 i가 픽셀 값 예측 가능 영역인지 여부를 판단한다. 픽셀 값 예측 가능 영역이 아닌 경우, 예측기반 추출 모드 결정부(220)는 해당 위치 i 에서 예측 픽셀 값이 사용되지 않은 것으로 판단할 수 있다.
현재 위치가 픽셀 값 예측 가능 영역인 경우, 예측기반 추출 모드 결정부(220)는 기 복원된 커버 이미지의 인접 픽셀 값들을 이용하여 수학식 1과 같이 공간적 지역성에 기초한 복원 제1 임시 예측 픽셀 값을 계산하고, 공간적 지역성의 정도를 판별하기 위하여, 복원 제1 임시 예측 픽셀 값과 인접 픽셀 값들과의 편차(dev)를 수학식 2와 동일한 방법으로 계산하여, 계산된 편차(dev)가 임계 값(β) 이상인지 여부를 판단한다.
예측기반 추출 모드 결정부(220)는 상기 계산된 편차(dev)가 임계 값(β) 이상이면 공간적 지역성이 낮은 경우이기 때문에 해당 위치 i 에서 예측 픽셀 값이 사용되지 아니한 것으로 판단 할 수 있다. 그리고 예측기반 추출 모드 결정부(220)는 상기 계산된 편차(dev)가 임계 값(β) 미만이면 공간적 지역성이 높은 경우이기 때문에 예측 픽셀 값이 사용된 것으로 판단할 수 있다. 예측기반 추출 모드 결정부(220)는 위치 i값을 증가 시키면서 이러한 과정을 반복적으로 수행하여, 이전 위치와 현재 위치에서 픽셀 값 사용 여부에 따라 추출 모드를 결정할 수 있다.
현재 위치에서 예측 픽셀 값이 사용되어 추출 모드가 Mode 2인 경우, 예측기반 추출 모드 결정부(220)는 해당 위치에서의 복원 예측 픽셀 값(RPi)을 연산하기 위하여 은닉 방식에서와 동일한 방법으로 표면 특성을 추정한다. 예측기반 추출 모드 결정부(220)는 추정된 표면 특성이 단순 경사면(simple inclined surface)이거나 평면(flat surface)인 경우 기 복원된 커버 이미지 내 인접한 픽셀 값들을 사용하여 복원 제2 임시 예측 픽셀 값을 수학식 4와 동일한 방법으로 연산하여, 해당 위치에서의 복원 예측 픽셀 값(RPi)으로 결정한다. 예측기반 추출 모드 결정부(220)는 추정된 표면 특성이 단순 경사면 혹은 평면이 아닐 경우에는 상기 복원 제1 임시 예측 픽셀 값을 해당 위치에서의 복원 예측 픽셀 값(RPi)으로 결정할 수 있다.
또한, 예측기반 추출 모드 결정부(220)는 추출 모드가 Mode 2 혹은 Mode 3인 경우에는 커버 이미지 복원에 사용되는, i번째 위치에서 연관 값 AVi (Associated Value at ith position)를 하기 수학식 12를 사용하여 계산할 수 있다.
또한, 데이터 복원 장치(200)의 임베딩 시퀀스 복원부(230)와 커버 이미지 시퀀스 복원부(240)는 은닉 이미지 시퀀스로부터 임베딩 시퀀스를 복원하고, 각 위치에서 결정된 추출 모드에 따라 은닉 이미지 시퀀스로부터 커버 이미지 시퀀스를 복원한다(S205).
기밀 데이터 추출부(250)는 임베딩 시퀀스로부터 기밀 데이터를 추출하고 이를 출력한다(S207). 추출된 기밀 데이터는 손실 없이 완벽하게 복원되어, 은닉된 기밀 데이터와 동일하게 된다.
커버 이미지 출력부(260)는 커버 이미지 시퀀스를 스캔(scan)하여 역 s-순서(inverse s-order)로 커버 이미지를 구성한 후, 복원된 커버 이미지를 출력한다(S209).
예측기반 추출 모드 결정부(220), 임베딩 시퀀스 복원부(230), 커버 이미지 시퀀스 복원부(240), 기밀 데이터 추출부(250)의 보다 구체적인 동작 및 구현 방식은 다음과 같다.
은닉이미지 시퀀스 에서 위치 i값을 0에서부터 imagewidth*imageheight-1까지 증가시키며 예측기반 추출 모드 결정부(220), 임베딩 시퀀스 복원부(230) 및 커버 이미지 시퀀스 복원부(240)에서의 처리를 반복적으로 수행하면, 그림 10의 임베딩 시퀀스 DE와 커버 이미지 시퀀스 C를 복원할 수 있다.
위치 i에서 예측기반 추출 모드 결정부(220)가 결정한 추출 모드(Mode 1 ~ Mode 3)에 따라, 임베딩 시퀀스 복원부(230)와 커버 이미지 시퀀스 복원부(240)가 해당 위치 i에서, 다음과 같이 각 모드별 처리 과정을 수행하면, 임베딩 시퀀스 DEi와 커버 이미지 시퀀스 Ci를 복원 할 수 있다.
Mode 1: 영상의 상위 2개 행의 경우(i≤imagewidth*2) 혹은 이전 위치와 현재 위치 모두에서 예측 픽셀 값이 사용되지 아니한 경우의 추출 모드. Mode 1에서는 전술한 차분 시퀀스를 쉬프트(shift)하여 기밀 데이터를 은닉하는 기법인 APD(Adjacent Pixel Difference) 방식과 동일하게 하기 수학식 10과 수학식 11을 사용하여 임베딩 시퀀스 DEi와 커버 이미지 시퀀스 Ci를 복원할 수 있다.
Figure 112017118617073-pat00036

Figure 112017118617073-pat00037

Mode 2: 현재 위치에서 예측 픽셀 값이 사용된 경우의 추출 모드. 상기 수학식 10을 사용하여 임베딩 시퀀스 DEi를 복원하고, 하기 수학식 12를 사용하여 커버 이미지 시퀀스 Ci를 복원한다. RPi는 복원과정 중, 위치 i에서의 추출 모드 판단 결과가 Mode 2인 경우, 위치 i에서 계산되는 복원 예측 픽셀 값으로, 은닉과정과 동일한 방법으로 계산될 수 있다. 또한, 연관 값 AVi (Associated Value at ith position)는 복원과정 중, 위치 i에서 추출 모드 판단 결과가 Mode 2 혹은 Mode 3인 경우, 수학식 12와 같이 계산되는 값으로 커버 이미지 복원에 사용되는 값이며, 후술할 Mode 3에서도 이용될 수 있다.
Figure 112017118617073-pat00038

Mode 3: 이전 위치에서 예측 픽셀 값이 사용되었으나, 현재 위치에서는 예측 픽셀 값이 사용되지 아니한 경우의 추출 모드. 수학식 10을 사용하여 임베딩 시퀀스 DEi를 복원하고, 하기 수학식 13을 사용하여 커버 이미지 시퀀스 Ci를 복원한다. RPi-1은 복원과정 중, 위치 i-1에서의 추출 모드 판단 결과가 Mode 2인 경우, 위치 i-1에서 계산된 복원 예측 픽셀 값이다. AVi는 상기 수학식 12에서 산출된 값이다.
Figure 112017118617073-pat00039

보다 구체적으로, 기밀 데이터 추출부(250)는 임베딩 시퀀스 DE에 수학식 14를 적용하여 임베딩 시퀀스에 은닉되어 있는 기밀 데이터를 추출하여 출력 할 수 있다(S207). 추출된 기밀 데이터는 손실 없이 완벽하게 복원되기 때문에 은닉된 기밀 데이터와 동일하다.
Figure 112017118617073-pat00040

그리고, 복원 장치(200)는 커버 이미지 출력부(260)를 통해 복원된 커버 이미지 시퀀스를 스캔하여 역 s-순서(inverse s-order)로 커버 이미지를 복원하고, 복원된 커버 이미지를 출력한다(S209).
상기와 같은 복원처리 과정이 도 10에 구체적으로 예시되어 있다. 도 10에 도시된 바와 같이, 은닉 이미지 시퀀스 S로부터, 임베딩 시퀀스 DE와 커버 이미지 시퀀스 C를 복원할 수 있으며, 임베딩 시퀀스로부터 은닉된 기밀 데이터를 추출하면, 원본 기밀 데이터인 "101011110110101"을 손실 없이 추출할 수 있게 된다. 추출된 기밀 데이터는 은닉된 기밀 데이터와 일치한다.
이와 같이, 차분 시퀀스 쉬프트를 이용하는 데이터 은닉 방식에 있어서, 본 발명의 실시 예에 따라 공간적인 지역성이 높은 영역의 표면 특성에 따라 정밀하게 픽셀 값 예측을 수행하고, 이에 따른 차분 시퀀스를 생성하면, 차분 시퀀스의 히스토그램에서 피크 포인트에서의 빈도수가 크게 증가하게 되어, 삽입 가능한 기밀 데이터의 비트수를 크게 증가시킬 수 있다. 또한, 임계 값(β) 조절에 따라서 은닉 이미지의 화질이 커버 이미지와 구별이 어려울 정도로 매우 우수하게 유지되면서도 다양한 레벨로 기밀 데이터를 은닉할 수 있는 연산방법을 제공할 수 있다. 또한, 은닉 이미지로부터 기밀 데이터와 원본 커버 이미지를 손실 없이 완벽하게 복원할 수 있어, 의료, 국방, 디지털 라이브러리 등의 응용분야에 매우 효과적으로 응용될 수 있다.
한편, 상술한 본 발명에 따른 방법들은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.
컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능 적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.The following merely illustrates the principles of the invention. Therefore, the following description merely illustrates the principles of the present invention. Therefore, it is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. Furthermore, all of the conditional terms and embodiments listed herein are, in principle, only intended for the purpose of enabling understanding of the concepts of the present invention, and are not to be construed as limited to such specifically recited embodiments and conditions do.
It is also to be understood that the detailed description, as well as the principles, aspects and embodiments of the invention, as well as specific embodiments thereof, are intended to cover structural and functional equivalents thereof. It is also to be understood that such equivalents include all elements contemplated to perform the same function irrespective of the currently known equivalents as well as the equivalents to be developed in the future, i.e., the structure.
Thus, for example, it should be understood that the block diagrams herein illustrate conceptual aspects of exemplary circuits embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, and the like are representative of various processes that may be substantially represented on a computer-readable medium and executed by a computer or processor, whether or not the computer or processor is explicitly shown .
The functions of the various elements shown in the drawings, including the functional blocks shown in a processor or similar concept, may be provided by use of dedicated hardware as well as hardware capable of executing software in connection with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, a single shared processor, or a plurality of individual processors, some of which may be shared.
Also, the explicit use of terms such as processor, control or similar concepts should not be construed exclusively to cite hardware capable of executing software, but rather may be embodied in the form of digital signal processor (DSP) hardware, ROM ), RAM (RAM), and non-volatile memory. Hardware according to known techniques may also be included.
In the claims hereof, the elements represented as means for performing the functions described in the detailed description are intended to include, for example, a combination of circuit elements or firmware / microcode etc. performing the function, Lt; RTI ID = 0.0 &gt; circuitry < / RTI &gt; It is to be understood that the invention defined by the appended claims is not to be construed as encompassing any means capable of providing such functionality, as the functions provided by the various listed means are combined and combined with the manner in which the claims require .
BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will become more apparent from the following detailed description of the present invention when taken in conjunction with the accompanying drawings, in which: There will be. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.
Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.
1 is a conceptual diagram schematically showing an overall system according to an embodiment of the present invention.
Referring to FIG. 1, a system according to an embodiment of the present invention may include a data hiding apparatus 100 and a data restoring apparatus 200.
The data concealment apparatus 100 described below receives a cover image (or cover medium) such as an original image or an original moving image, receives confidential data to be concealed, and applies a pixel value prediction technique to convert a large amount of confidential data into reversible A server device, a terminal device, a smart phone, a PDA, a tablet, a printer, and the like, which are inserted into the cover image to generate and output a hidden image.
In addition, the data restoration apparatus 200 receives the hidden image in which a large amount of confidential data is inserted, and completely restores the large amount of confidential data and the cover image by applying a pixel value prediction method from the hidden image, A computer, a server device, a terminal device, a smart phone, a PDA, a tablet, a printer, and the like.
The confidential data may include various types of data that the user desires to conceal. Herein, the confidential data may be composed of data in a bit stream format, and may be inserted into a cover image by a reversible data concealment method using a pixel value prediction method in a form that is not recognized by a human. Accordingly, confidential information such as military information, medical information, and digital library information can be concealed on the cover image. When confidential data is concealed on the cover image, the concealed image may be referred to as a stego image, and the appearance may be slightly different from that of the cover image.
Also, according to the embodiment of the present invention, the confidential data may include watermark data including owner information or original confirmation information of the cover image. In this case, it is obvious that the data hiding apparatus 100 and the restoring apparatus 200 may be referred to as a watermarking apparatus 100 or a watermark restoring apparatus 200, respectively, And the like. Further, when including watermark data, the blind image may be referred to as a watermark image.

In such a system configuration, the data concealment apparatus 100 generates a predicted image based on the spatial locality and surface characteristics from the cover image, and generates a predicted image sequence obtained from the predicted image, Generating a difference sequence by using a cover image sequence obtained from the cover image, shifting the difference sequence according to information of a histogram corresponding to the difference sequence to generate a shifted difference sequence, Generates a hidden image sequence by compositing the embedded image sequence with the embedded image sequence, and outputs the hidden image using the hidden image sequence.
The data restoration apparatus 200 receives the hidden image, scans the hidden image in an inverse s-order to generate a hidden image sequence, and stores the position of each element of the hidden image sequence Determines an extraction mode according to whether the spatial locality and the surface property based prediction value are used, restores the embedding sequence from the hidden image sequence, restores the cover image sequence from the hidden image sequence according to the determined extraction mode, Extracts confidential data from the restored cover image sequence, and outputs the restored cover image from the restored cover image sequence.
According to such a configuration, the data concealment and restoration system using the concealment apparatus 100 and the restoration apparatus 200 according to the embodiment of the present invention can generate a concealed image difficult to visually distinguish from the cover image, The cover image and the confidential data hidden can be perfectly extracted without loss, and the concealed data amount can be greatly improved compared with the conventional method.
This will be described in more detail with reference to the following drawings.
2 is a block diagram illustrating a data hiding apparatus according to an embodiment of the present invention.
2, the data concealment apparatus 100 according to the embodiment of the present invention includes a cover image input unit 110, a confidential data input unit 120, a predicted image generation unit 130, a difference sequence generation unit 140, A histogram generator 150, a secret data inserter 160, a hidden image sequence generator 170, and a hidden image output unit 180.
First, the cover image input unit 110 receives a cover image for inserting confidential data from the outside, and scans the cover image in an inverse s-order to generate a cover image sequence. The confidential data input unit 120 receives confidential data to be hidden from the outside. The cover image and the confidential data can be received from various input media and communication devices and can be converted into a form that can be processed by the data concealment apparatus 100.
The predictive image generating unit 130 generates a predictive image based on spatial locality and surface characteristics from the input cover image and outputs the predictive image in inverse s-order, To generate a predicted image sequence.
More specifically, the predictive image generator 130 performs the following process to obtain a predictive pixel value at each position on the inverse s-order in the predictive image. A first temporary predictive pixel value is generated from pixel values around the position in the cover image based on the spatial locality and a degree of spatial locality is determined from the deviation between the first temporary predictive pixel value and the neighboring pixel values, Determining a second temporary predicted pixel value according to the surface characteristic, and calculating the second temporary predicted pixel value based on the spatial locality and the surface characteristic, The predictive image can be generated by selectively applying the second temporary predictive pixel value and the pixel value of the cover image.
The difference sequence generator 140 generates a difference sequence using the cover image sequence and the prediction image sequence.
The difference sequence generator 140 may generate a difference sequence by selectively applying the cover image sequence and the predictive image sequence according to whether prediction values are used or not. For example, when the predicted pixel value is not used according to the cover image sequence and the predictive pixel value use / non-use information of the predictive image sequence at each element position, the pixel value difference between adjacent pixels of the cover image And generates a difference sequence including a difference value between the cover image sequence and the predicted image sequence when the predicted pixel value is used.
Then, the histogram generator 150 generates a histogram corresponding to the difference sequence. Here, the histogram is for analyzing the peak point (PP) and the closest zero point (CZP), which is information necessary to shift the difference sequence.
Accordingly, the confidential data inserting unit 160 generates the differential sequence shifted by shifting the differential sequence based on the shift information obtained from the histogram, and sequentially outputs the confidential data to each peak point of the shifted difference sequence To generate an embedding sequence.
The hidden image sequence generator 170 combines the embedded sequence and the cover image sequence to generate a hidden image sequence.
Then, the hidden image output unit 180 scans the hidden image sequence to construct a hidden image in an inverse s-order, and then converts and outputs the hidden image into an appropriate form according to the output medium .
For example, the hidden image output unit 180 may include a display device for displaying image information, a transmission device for transmitting a hidden image, a management device for storing and managing a hidden image, or a printing device for outputting a sheet on which a hidden image is printed , And a variety of output devices for outputting a hidden image.
The more specific operations and implementations of the prediction image generator 130, the difference sequence generator 140, the histogram generator 150, the confidential data inserter 160, and the hidden image sequence generator 170, 4 to 8 will be described later.
3 is a block diagram for explaining a data restoration apparatus according to an embodiment of the present invention.
3, the restoration apparatus 200 according to the embodiment of the present invention includes a hidden image receiving unit 210, a prediction based extraction mode determining unit 220, an embedded sequence restoring unit 230, a cover image sequence restoring unit 230, A confidential data extracting unit 250, and a cover image outputting unit 260.
The hidden image receiving unit 210 receives the hidden image to be restored from the outside, and scans the hidden image in an inverse s-order to generate a hidden image sequence. The concealed image can be received from various input media or communication devices and can be converted into a form that can be processed by the data decompression apparatus 200.
Then, the prediction-based extraction mode determination unit 220 determines an extraction mode according to the spatial locality and the use of the surface property-based prediction value at the position of each element of the hidden image sequence.
More specifically, the prediction-based extraction mode determination unit 220 can identify whether pixel values can be predicted at each element position on the inverse s-order of the hidden image sequence, And whether or not the predicted value is used according to the spatial locality and the surface property discrimination, and determine an extraction mode at each element position of the hidden image sequence based on the discrimination. The procedure for identifying whether to use the predictive value at the position of each element will be described later with reference to FIG. 9 to FIG.
For example, when the prediction-based extraction mode determination unit 220 determines that the image is in the upper two rows of the hidden image (i If the prediction pixel value is not used at the previous position and the current position of the hidden image sequence, the extraction mode can be determined as Mode 1.
The prediction-based extraction mode determination unit 220 may determine the extraction mode to be Mode 2 when the prediction pixel value is used at the current position of the hidden image sequence.
In addition, the prediction-based extraction mode determination unit 220 may determine the extraction mode to be Mode 3 when the prediction pixel value is used at the previous position of the hidden image sequence but the prediction pixel value is not used at the current position.
The embedding sequence restoring unit 230 restores the embedding sequence synthesized in the hidden image.
For example, the embedding sequence reconstructing unit 230 may perform adaptive equalization (ADD) on the APD (Adjacent Pixel Difference, YC Li, CM Yeh, and CC Chang, Data Hiding Based on Similarity between Neighboring Pixels with Reversibility, Digital Signal Processing, Vol. 20, No. 4, pp. 1116-1128, July 2010) technique can be used to restore the embedding sequence.
The cover image sequence restoring unit 240 restores the original cover image from the hidden image.
The cover image sequence restoring unit 240 can restore the cover image sequence in the same manner as the APD method in Mode 1. In Mode 2 and Mode 3, the restored predicted pixel value and the associated value Can be used to restore the cover image sequence.
Also, the confidential data extracting unit 250 can easily extract confidential data from the embedding sequence. The confidential data extracted here is the same as the confidential confidential data because it is completely restored without loss.
More specific operations and implementations of the prediction-based extraction mode determining unit 220, the embedded sequence restoring unit 230, the cover image sequence restoring unit 240, and the classified data extracting unit 250 are shown in FIGS. 9 to 10 Again, this will be described later.
The cover image output unit 260 sequentially scans the pixel values of the cover image sequence, composes the cover image in inverse s-order, and outputs the cover image. Here, the restored cover image is the same as the original cover image because it is completely restored without loss.
Here, the cover image output unit 260 may include a display for displaying image information, a transmitting apparatus for transmitting a cover image, a management apparatus for storing and managing a cover image, or a printing apparatus for outputting a sheet on which a cover image is printed, And may be implemented as an output device of various types for outputting a cover image.
FIGS. 4 to 8 are flowcharts for explaining a data hiding method according to an embodiment of the present invention, and an example for explaining the process.
Hereinafter, the data concealment process will be described in more detail with reference to FIG. 4 to FIG.
4, a data hiding apparatus 100 according to an exemplary embodiment of the present invention includes a cover image input unit 110, The cover image is received, and the cover image is scanned in an inverse s-order to generate a cover image sequence (S101).
Thereafter, confidential data to be concealed is input to the cover image through the confidential data input unit 120 (S103).
The predictive image generator 130 determines whether the current position on the inverse s-order in the predictive image is a pixel value predictable area (S105).
If the current position is not a pixel value predictable area, the prediction image generation unit 130 generates a prediction image by copying the pixel value at the corresponding position in the cover image without performing the pixel value prediction. If the current position is a pixel value predictable area, the predictive image generator 130 may generate the predictive image in inverse s-order based on the spatial locality and the surface characteristic from the pixel values in the cover image have.
More specifically, when the current position is a pixel value predictable area, the predictive image generator 130 calculates a first temporary predictive pixel value from pixel values of a predetermined area in the cover image based on the spatial locality (S107). In order to determine the degree of spatial locality, the predicted image generation unit 130 calculates a deviation between the first temporary predicted pixel value and its surrounding pixel values (S109) (S111).
If the deviation is greater than or equal to the threshold value, the predictive image generation unit 130 determines that the spatial locality is low, and does not perform the pixel value prediction process any more, and generates a predicted image by copying the pixel value at the corresponding position in the cover image . If the deviation is less than the threshold value, the prediction image generating unit 130 determines that the spatial locality is high and estimates the surface characteristic at the corresponding position (S113).
When the surface characteristic is a simple slope or a simple flat surface, the predictive image generation unit 130 generates a second temporary predictive pixel value that reflects the surface characteristic and determines the predicted pixel value as a predictive pixel value to generate a predictive image . If the surface characteristic is not a simple slope or a plane, the predictive image generator 130 determines the first temporary predictive pixel value as a predictive pixel value to generate a predictive image (S115).
Then, the predictive image generator 130 scans the generated predictive image in an inverse s-order to generate a predictive image sequence (S117).
Thereafter, the difference sequence generator 140 selectively generates a difference sequence by selectively applying the cover image sequence and the predicted image sequence according to the predictive value use / non-use information at each element position (S119).
Then, the histogram generator 150 generates a histogram corresponding to the difference sequence (S121).
The confidential data inserting unit 160 generates a shifted difference sequence by shifting the differential sequence according to the shift information obtained from the histogram, and embeds the confidential data in the shifted difference sequence to generate an embedded sequence (S123).
The hidden image sequence generator 170 generates a hidden image sequence by combining the cover image sequence and the embedded sequence (S125).
Then, the hidden image output unit 180 scans the hidden image sequence to construct a hidden image in the reverse s-order, and outputs the hidden image (S127).
In general, spatial images can have spatial locality. Also, surface characteristics may exist in each part of the image. Accordingly, adjacent pixel values may have characteristics having very similar values, and pixels in a certain region may have various surface characteristics such as a curved surface and a flat surface.
Accordingly, the data concealment apparatus 100 according to the embodiment of the present invention selects a position that is expected to have a high localization property by using adjacent pixel values, and precisely sets the pixel value according to the surface property at the highly localized position And a predictive image sequence obtained from the predictive image is selectively applied according to the prediction pixel value use information at the position of each element By constructing the difference sequence by generating the difference value, the frequency at the peak point of the histogram can be greatly increased, and the number of bits of the confidential data inserted into the cover image can be greatly increased. As the pixel value prediction is more accurate, the frequency at the peak point of the histogram for the difference sequence constituted by the difference of the pixel values is greatly increased, so that the number of bits of confidential data inserted into the cover image can be greatly increased.
FIG. 5 is a flowchart illustrating a method of generating a predictive image. FIG. 6 is a flowchart illustrating a method of generating a predictive image according to an exemplary embodiment of the present invention.
5 shows a cover image, a pixel value prediction order, twelve surrounding pixels used for prediction, and a prediction image generated according to a prediction of the prediction image generating unit 130.
The predicted image generating unit 130 generates a predicted image using the pixel values of the cover image shown in FIG. 5 (A), using the predicted area (for example, the upper two rows of the predicted image and the pixels excluding two pixels of each of the left and right sides) The inverse s-order shown in Fig. 6 (B) can be used to predict the pixel values inside the bold line corresponding to the inverse s-order.
5 (C), the predicted image generating unit 130 calculates the predicted pixel value at each position of the predictable area using surrounding pixel values to generate a predicted image as shown in FIG. 5 (D) . In FIG. 5D, the underlined pixel values indicate the predicted pixel values at the corresponding positions, and the value 159 at the position 7 is not a predicted value but a pixel value at the corresponding position in the cover image.
Also, in the case of the pixel value predictable area, the prediction image generator 130 may use the 12 pixel values scanned in inverse s-order in pixel value prediction, 1 temporary prediction pixel value. For example, in Fig. 5 (C), the position (x i , y j ) Can be obtained by the following equation (1). &Lt; EMI ID = 1.0 &gt; Here, pixel values scanned in inverse s-order are used to completely restore the confidential data and the original cover image in the restoration process.
Figure 112017118617073-pat00026

For example, the coordinates of position 1 are (x i , y j ), And the coordinates of the pixel whose pixel value is I, J, K, N are (x i + 1 , y j-1 ), (x i , y j-1 ), (x i-1 , y j-1 ), (x i-1 , y j ), And P (x, y) can represent a pixel value at coordinates (x, y). I, J, K, and N may be values of 155, 158, 158, and 160 as shown in FIG. 5 (A).
In Equation (1), a coefficient indicating the influence of the pixels adjacent to the position for obtaining the first temporary predictive pixel value on the first temporary predictive pixel value is 1, The coefficient indicating the influence on the predicted pixel value can be represented by?.
The predictive image generator 130 calculates a deviation (dev) between the first temporary predictive pixel value and neighboring pixel values to determine the degree of spatial locality. The following equation (2) can be used for the deviation calculation.
Figure 112017118617073-pat00027

For example, the prediction image generator 130 may set a reference value for determining the spatial locality to a threshold value beta, and the first temporary predicted pixel value V One ) And the deviation (dev) between neighboring pixel values can be used to determine the degree of spatial locality.
Accordingly, when the deviation dev is equal to or greater than the threshold value beta, the prediction image generation unit 130 determines that the image around the position is a boundary region having a large pixel value change or a region having low spatial locality, The predicted image can be generated by copying the pixel value at the corresponding position in the cover image without further performing the prediction process.
On the other hand, if the deviation dev is less than the threshold value beta, the predicted image generation unit 130 estimates the surface characteristic at the corresponding position when the spatial locality is high, and, based on the estimated surface characteristic, The predictive pixel value V2 may be calculated and the predictive image may be generated by selectively applying the first temporary predictive pixel value or the second temporary predictive pixel value according to the surface characteristic.
The predictive image generator 130 of the present invention can perform predictive image generation for each pixel in an inverse s-order.
A more detailed prediction image generation process will be described with reference to FIG.
First, the predictive image generator 130 selects a pixel position in an inverse s-order (S301) and determines whether the corresponding position is a pixel value predictable area (S303).
If the predicted image is not a pixel value predictable area, the predicted image generating unit 130 generates a predicted image by copying the pixel value at the corresponding position in the cover image without performing the pixel value predicting process (S305).
Meanwhile, in the case of the pixel value predictable area, the predictive image generator 130 calculates the first temporary predictive pixel value V1 based on the spatial locality using Equation 1 (S307).
In order to determine the degree of spatial locality, the predictive image generator 130 calculates a deviation (dev) between the first temporary predictive pixel value and neighboring pixel values using Equation (2) (S309).
In addition, the predictive image generator 130 determines whether the calculated deviation dev is equal to or greater than a threshold value (beta) in order to determine the degree of spatial locality (S311). When the calculated deviation dev is equal to or greater than the threshold value beta, the prediction image generation unit 130 determines that the spatial locality is low, and does not perform the pixel value prediction process any more, And generates a prediction image (S305).
On the other hand, when the calculated deviation dev is less than the threshold value?, The predicted image generation unit 130 determines that the pixel value change is gradual and the spatial locality is high in the image of the corresponding position, (S313). &Lt; / RTI &gt; It is determined whether the estimated surface characteristic is a simple inclined surface or a flat surface in the X-axis direction (S315). If the surface characteristic is a simple inclined surface in the X-axis direction or a flat surface, The second provisional predicted pixel value (V 2 ) Is determined as a predicted pixel value to generate a predicted image (S317). In case of another surface characteristic, the first temporary predicted pixel value is determined as a predicted pixel value to generate a predicted image (S319).
The process of estimating the surface characteristics according to the flowchart will be described in more detail with reference to the drawing of FIG.
Figure 112017118617073-pat00028

As shown in Equation (3), at any two points (x One , y One ) And (x 2 , y 2 ) Can be expressed as y = {(y 2 -y One ) / (x 2 -x One )} (xx One ) + y One . Accordingly, a linear equation between adjacent pixels can be calculated. That is, the predictive image generation unit 130 can calculate a linear equation that considers only the X-axis direction with respect to pixel values between a pixel having a pixel value of K and a pixel having a pixel value of J adjacent to the X-axis.
The prediction image generating unit 130 generates (x i-1 , K) and (x i , J), the straight line equation P L (x) can be calculated as shown in Equation (3). In the same way, the predictive image generation unit 130 generates a predicted image P (i, j) between a pixel having a pixel value J and a pixel having a pixel value I, R (x) can be calculated.
Likewise, the predictive image generation unit 130 generates a predictive image P between a pixel having a pixel value N and a pixel having a pixel value J by using a linear equation P LD (x) can be calculated as shown in Equation (3).
The predictive image generator 130 then outputs the calculated linear equations P L (x), P R (x), P LD (x)). &lt; / RTI &gt;
First, the predicted image generation unit 130 generates P L (x), P R (x), P LD (x) are all greater than 0, it can be assumed that the pixel value on the right side of the left side is a simple inclined surface having a large value.
In addition, the prediction image generating unit 130 generates prediction image P L (x), P R (x), P LD (x) are all less than 0, it can be assumed that the pixel value on the left side of the right side is a simple inclined surface having a larger value.
Then, the predicted image generating unit 130 generates P L (x), P R (x), P LD (x) are all 0, it can be assumed that the left and right sides are flat surfaces.
Accordingly, when the surface characteristic in the X-axis direction at the predicted position is estimated as a simple inclined surface or a flat surface according to the slope of the linear equation, The second provisional predicted pixel value V 2 Is calculated according to the following equation (4), and the second temporary predicted pixel value V 2 Can be determined as a predicted pixel value at position 1, and a predicted image can be generated.
Figure 112017118617073-pat00029

In addition, in the case of having other surface characteristics, the predictive image generation unit 130 generates the predicted first temporary predicted value V One Can be determined as the predicted pixel value at position 1, and a predicted image can be generated. Therefore, the predicted pixel value V at position 1 can be determined as shown in Equation (5).
Figure 112017118617073-pat00030

As a result, the predicted image generating unit 130 may generate the predicted image P according to Equation (5). In Equation 5, C (x i , y j ) Is the coordinate (x i , y j ) Represents the pixel value of the cover image, and V One (x i , y j ) And V 2 (x i , y j ) Is the coordinate (x i , y j ) Represents a first provisional predicted pixel value and a second provisional predicted pixel value, respectively, and P (x i , y j ) Is the coordinate (x i , y j ) Represents the pixel value of the predicted image. Accordingly, the predicted pixel value can be calculated in the same way at the position 4 in Fig. 5 (C), and a predicted image can be generated.
In this way, the predictive image generator 130 can generate a predictive image using Equations 1 to 5, and accordingly, as shown in FIG. 5B, And the left and right two columns are not pixel value predictable areas, the pixel value of the cover image can be copied and used, and the remaining area can be a pixel value predictable area. The predictive image generation unit 130 calculates the first temporary predicted pixel value at each position in the s-order in the pixel value predictable area of FIG. 5B according to Equation (1), and uses Equation 2 And compares the calculated deviation (dev) with the threshold value (beta) to determine the degree of spatial locality. If the spatial locality is low, the predicted image is generated by copying the pixel value at the corresponding position in the cover image without further performing the pixel value predicting process. If the spatial locality is high, a simple slope or a flat surface depending on the surface characteristics is determined by applying Equation (3), and a first temporary predictive pixel value or a second temporary predictive pixel value is selectively applied according to the surface characteristics, Once created, the predicted image of Figure 5 (D) can be generated.
7 to 8, the cover image input unit 110 receives a cover image, and outputs a pixel value to the cover image in inverse-s-order (left-to-right) s-order to generate a cover image sequence C consisting of pixel values.
The predictive image generator 130 may generate a predictive image sequence P by scanning the generated predictive image in an inverse s-order.
The difference sequence generator 140 may generate the difference sequence D by selectively applying the cover image sequence and the predicted image sequence according to the predictive pixel value use information at each element position.
The difference sequence generation unit 140 further uses the prediction image sequence and the prediction / non-prediction information in addition to the existing APD scheme in generating the difference sequence, thereby further improving the frequency at the peak point, A differential sequence into which data can be inserted can be generated.
Each element of the difference sequence D is denoted by D i , The difference sequence generation unit 140 can generate a difference sequence using the elements of the cover image sequence and the elements of the predicted image sequence as shown in Equation (6) below.
Figure 112017118617073-pat00031

Then, the histogram generator 150 of the data concealment apparatus 100 generates a histogram corresponding to the difference sequence. Here, the histogram generation is for applying the data concealment technique (APD) using differential sequence shift to obtain shift information necessary for shifting the differential sequence, and its technical structure is described in YC Li, CM Yeh, and CC Chang, Data hiding based on the similarity between neighboring pixels with reversibility, Digital Signal Processing, Vol. 20, No. 4, pp 1116-1128, July 2010.
The histogram generator 150 generates a histogram of the difference sequence and outputs information for shifting the difference sequence, that is, a peak point PP having the maximum frequency One , peak point 1), the peak point having the second highest frequency (PP 2 , peak point 2), PP One CZP &lt; / RTI &gt; having a frequency value closest to &lt; RTI ID = 0.0 & One (closest zero point 1), PP 2 Lt; RTI ID = 0.0 &gt; CZP &lt; / RTI &gt; 2 (closest zero point 2).
Accordingly, the confidential data inserting unit 160 can generate the differential sequence DS shifted by shifting the differential sequence using the information of the histogram according to the following Equation (7).
Figure 112017118617073-pat00032

Figure 112017118617073-pat00033

The confidential data inserting unit 160 may insert the confidential data into the DS according to an arithmetic process as shown in Equation (8) below to generate the embedding sequence DE.
Figure 112017118617073-pat00034

The hidden image sequence generating unit 170 generates an image sequence S for the cover image sequence C and the embedding sequence DE to finally generate the hidden image sequence S, thereby obtaining each peak point of the histogram for the difference sequence It is possible to insert the confidential data into the pixels corresponding to each bit by bit.
Figure 112017118617073-pat00035

Accordingly, the hidden image output unit 180 may scan the hidden image sequence to construct a hidden image in an inverse s-order, and then output the hidden image.
FIGS. 5 and 7 to 8 are illustrations showing a cover image, a predictive image generated from a cover image, and a hidden image embedded with confidential data.
In FIGS. 5 and 7 to 8, confidential data embedding is exemplarily shown by the entire image processing.
First, in Figs. 5 and 7 to 8, the coefficient alpha used in Equation 1 and Equation 2 at the time of generating the predictive image is set to 0.298, and the threshold value used in Equation 4 is set to 15 Of the predicted image. Accordingly, the first temporary predictive pixel value V (i) at each position from (1) to (8) in Fig. 5 One 157.6, 157.7, 157.5, 158.0, 157.6, 158.7, and 158.2, respectively. Then, the calculated first provisional predicted pixel value V1 is applied to Equation (2) to obtain a deviation (dev), which is 10.9, 10.3, 8.1, 7.3, 13.2, 8.4, 15.3, 12.2.
Accordingly, if the threshold value beta is set to 15, the deviation (15.3) at the position 7 is equal to or larger than the threshold value beta as shown in FIGS. 5 and 7 to 8, It is possible to generate the predicted image by copying the pixel value 159 at the corresponding position in the cover image without further performing the pixel value predicting process by discriminating the position ⑦ as a place with low spatial locality.
The predicted image generating unit 130 estimates the surface characteristics of the image in the remaining positions 1 to 6 and 8 in which the deviation is less than the threshold value beta to obtain a simple inclined surface or a flat surface The estimated positions ①, ④, ⑥ can be distinguished.
Then, the predictive image generation unit 130 generates the predicted image data of the second temporary predicted pixel value V (i, j, 2 (157), 158.0, and 157.0 are calculated according to Equation (4), and the predicted image values are calculated by rounding this value (the second temporary predicted pixel value) to a predicted pixel value at each position .
On the other hand, since the predicted image generating unit 130 estimates that the surface characteristics at the other positions?,?,?,? Are not a simple slope or a plane, the first temporary predictive pixel value V One The predicted pixel value at the corresponding position may be determined and a predicted image may be generated.
A prediction image constructed through such a process can be described with reference to FIGS. 5, 7 to 8. FIG. As shown in FIG. 8, when the difference sequence D according to the embodiment of the present invention is generated and the histogram is generated, One = 0, PP 2 = 1 and h (PP One ) = 12, h (PP 2 ) = 3 can be generated. Accordingly, the maximum number of data bits that can be embedded in the difference sequence and concealable in the cover image is h (PP One ) And h (PP 2 ), And it can be confirmed that it is increased by 4 bits or more as compared with the above-described APD method. If the threshold value? Is set to 20, the predicted pixel value is also used at the position? One ) = 13, h (PP 2 ) = 3, and the number of bits of confidential data to be inserted can be increased by one bit. In the embodiment of the present invention, if the threshold value beta is set to 0, all the pixels of the predicted image are values obtained by copying the pixel values of the cover image as they are. Therefore, It can operate in the same manner as the APD technique.
FIGS. 9 to 10 are flowcharts for explaining a data restoration method according to an embodiment of the present invention, and are illustrations for explaining a process thereof.

9, the data decompression apparatus 200 according to the embodiment of the present invention receives a concealed image through the concealed image receiving unit 210 and converts the received concealed image from left to right, from top to bottom And scans in an inverse s-order to generate a concealed image sequence S composed of pixel values (S201).
The prediction-based extraction mode determination unit 220 of the data decompression apparatus 200 estimates spatial regions and surface characteristics for each position of the hidden image sequence to determine whether to use the predicted pixel values, And determines the extraction mode (S203).
The prediction-based extraction mode determination unit 220 determines a corresponding extraction mode among the three extraction modes at the position of each element of the hidden image sequence. That is, the prediction-based extraction mode determination unit 220 determines the prediction mode based on i (i If the prediction pixel value is not used in both the previous position and the current position, the extraction mode is determined as Mode 1. If the prediction pixel value is used in the current position, the extraction mode is determined as Mode 2 , And if the prediction pixel value is used in the previous position but the prediction pixel value is not used in the current position, the extraction mode is determined as Mode 3.
The operation of the prediction-based extraction mode determination unit 220 will be described in detail as follows. The prediction-based extraction mode determination unit 220 can determine the extraction mode at each element position of the concealed image sequence S in FIG.
If the current position is i, the embedding sequence is DE i And the cover image sequence is S i-1 The restoration was completed. Detailed procedures for restoring the embedding sequence and the cover image sequence will be described later.
First, the prediction-based extraction mode determination unit 220 determines whether the location i is a pixel value predictable area. If it is not a pixel value predictable area, the prediction-based extraction mode determination unit 220 can determine that the predicted pixel value is not used at the corresponding position i.
If the current position is a pixel value predictable area, the prediction-based extraction mode determination unit 220 uses the adjacent pixel values of the restored cover image to calculate a restored first temporary predictive pixel value based on the spatial locality (Dev) between the reconstructed first temporary predictive pixel value and the adjacent pixel values is calculated in the same manner as in Equation (2) so as to determine the degree of spatial locality, and the calculated deviation dev is compared with the threshold value beta) or more.
The prediction-based extraction mode determination unit 220 can determine that the predicted pixel value is not used at the corresponding position i because the spatial locality is low if the calculated deviation dev is equal to or greater than the threshold value beta. If the calculated deviation dev is less than the threshold value?, The prediction-based extraction mode determination unit 220 may determine that the predicted pixel value is used because the spatial locality is high. The prediction-based extraction mode determination unit 220 may repeat this process while increasing the position i value to determine the extraction mode according to whether pixel values are used at the previous position and the current position.
If the prediction pixel value is used at the current position and the extraction mode is Mode 2, the prediction-based extraction mode determination unit 220 determines the prediction prediction pixel value RP i ), The surface characteristics are estimated in the same manner as in the hidden method. The prediction-based extraction mode determination unit 220 determines the restored second temporary predicted pixel value using the adjacent pixel values in the previously restored cover image when the estimated surface characteristic is a simple inclined surface or a flat surface (4), and the restored predicted pixel value RP i ). If the estimated surface characteristic is not a simple slope or plane, the prediction-based extraction mode determination unit 220 determines the restored first temporary predicted pixel value as the restored prediction pixel value RP i ).
If the extraction mode is Mode 2 or Mode 3, the prediction-based extraction mode determination unit 220 determines that the associated value AV i (Associated Value at i th position can be calculated using the following equation (12).
In addition, the embedding sequence restoring unit 230 and the cover image sequence restoring unit 240 of the data restoring apparatus 200 restore the embedding sequence from the hidden image sequence, extract the cover image from the hidden image sequence according to the extraction mode determined at each position, The sequence is restored (S205).
The secret data extracting unit 250 extracts confidential data from the embedding sequence and outputs it (S207). The extracted confidential data is completely restored without loss and becomes the same as confidential confidential data.
The cover image output unit 260 scans the cover image sequence to construct a cover image in inverse s-order, and then outputs the restored cover image (S209).
More specific operations and implementation methods of the prediction-based extraction mode determining unit 220, the embedded sequence restoring unit 230, the cover image sequence restoring unit 240, and the classified data extracting unit 250 will be described below.
The embedding sequence restoring unit 230 and the cover image sequence restoring unit 240 repeatedly increase the position i value in the hidden image sequence from 0 to imagewidth * imageheight-1, If you do, you can restore the embedding sequence DE and the cover image sequence C in Figure 10.
The embedding sequence restoring unit 230 and the cover image sequence restoring unit 240 at the position i can perform the following processing from the corresponding position i according to the extraction modes (Mode 1 to Mode 3) determined by the prediction-based extraction mode determining unit 220, When the process of each mode is performed, the embedding sequence DE i And cover image sequence C i Can be restored.
Mode 1: Extraction mode when the top two rows of the image (i≤imagewidth * 2) or the prediction pixel value is not used in both the previous position and the current position. In Mode 1, the embedding sequence DEi and the cover image sequence C (i) are calculated by using the following Equations (10) and (11) in the same manner as in the APD (Adjacent Pixel Difference) i Can be restored.
Figure 112017118617073-pat00036

Figure 112017118617073-pat00037

Mode 2: Extraction mode when the predicted pixel value is used at the current position. Using the above equation (10), the embedding sequence DE i And uses the following equation (12) to calculate the cover image sequence C i . RP i Is the restored predicted pixel value calculated at the position i when the extraction mode determination result at the position i is Mode 2 in the restoration process, and can be calculated in the same manner as the hidden process. In addition, i (Associated Value at i th position is a value calculated as Equation (12) when the extraction mode determination result is Mode 2 or Mode 3 at the position i during the restoration process, and is used for restoring the cover image. .
Figure 112017118617073-pat00038

Mode 3: Extraction mode when the predicted pixel value is used in the previous position but the predicted pixel value is not used in the current position. Using the equation 10, the embedding sequence DE i And uses the following equation (13) to calculate the cover image sequence C i . RP i-1 Is the restored predicted pixel value calculated at the position i-1 when the extraction mode determination result at the position i-1 is Mode 2 in the restoration process. AV i Is the value calculated in the above equation (12).
Figure 112017118617073-pat00039

More specifically, the confidential data extracting unit 250 extracts confidential data hidden in the embedding sequence by applying Equation (14) to the embedding sequence DE (S207). The extracted confidential data is the same as the confidential confidential data because it is completely restored without loss.
Figure 112017118617073-pat00040

Then, the restoration apparatus 200 scans the restored cover image sequence through the cover image output unit 260, restores the cover image in inverse s-order, and outputs the restored cover image ( S209).
The restoration process as described above is specifically illustrated in FIG. As shown in Fig. 10, the embedding sequence DE and the cover image sequence C can be restored from the hidden image sequence S. When the confidential data hidden from the embedding sequence is extracted, the original confidential data "101011110110101" . The extracted confidential data coincides with the confidential confidential data.
As described above, according to the data concealment method using the differential sequence shift, pixel value prediction is precisely performed according to the surface characteristics of a region having high spatial localities according to the embodiment of the present invention, The frequency at the peak point in the histogram of the sequence greatly increases, so that the number of bits of insertable confidential data can be greatly increased. In addition, it is possible to provide an operation method capable of concealing confidential data at various levels while keeping the image quality of the concealed image so excellent as to be difficult to distinguish from the cover image according to the adjustment of the threshold value?. In addition, the confidential data and the original cover image can be completely restored from the hidden image without loss, and can be applied effectively to medical, defense, and digital library applications.
Meanwhile, the above-described methods according to the present invention may be stored in a computer-readable recording medium. The computer-readable recording medium may be a ROM, a RAM, a CD-ROM, Magnetic tapes, floppy disks, optical data storage devices, and the like.
The computer readable recording medium may be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And, functional programs, codes, and code segments for implementing the above method can be easily deduced by programmers of the technical field to which the present invention belongs.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and detail may be made therein without departing from the spirit and scope of the present invention.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

100: 데이터 은닉 장치
200: 데이터 복원 장치
100: Data hiding device
200: data restoration device

Claims (14)

데이터 은닉 방법에 있어서,
커버 이미지로부터 공간적 지역성(spatial locality) 및 표면 특성(surface characteristics)에 기초한 예측 이미지를 생성하는 단계;
상기 예측 이미지로부터 획득되는 예측 이미지 시퀀스와, 상기 커버 이미지로부터 획득되는 커버 이미지 시퀀스를 이용하여, 차분 시퀀스를 생성하는 단계;
상기 차분 시퀀스에 대응한 히스토그램을 생성하는 단계;
상기 히스토그램으로부터 획득되는 쉬프트 정보에 따라, 상기 차분 시퀀스를 쉬프트하여 쉬프트된 차분 시퀀스를 생성하고, 상기 쉬프트된 차분 시퀀스에 기밀 데이터를 임베딩하는 단계;
상기 임베딩에 따른 임베딩 시퀀스와 상기 커버 이미지 시퀀스를 합성하여 은닉 이미지 시퀀스를 생성하는 단계; 및
상기 은닉 이미지 시퀀스에 따른 은닉 이미지를 출력하는 단계를 포함하고,
복원 장치에서 상기 은닉 이미지를 스캔하여 은닉 이미지 시퀀스가 생성되면, 상기 복원 장치에서 생성된 은닉 이미지 시퀀스의 각 요소 별로 공간적 지역성 기반 예측 값 사용 여부에 따라, 추출 모드가 결정되어 복원 처리되며,
상기 복원 장치는 현재 은닉 이미지 시퀀스에 대한 예측 픽셀 값 계산 가능여부를 식별하고, 상기 가능여부에 따른 예측 값 사용여부를 식별하며, 상기 사용여부에 따라 상기 현재 은닉 이미지 시퀀스에 대응하는 추출 모드를 결정하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법.
In the data concealment method,
Generating a predicted image based on spatial locality and surface characteristics from the cover image;
Generating a difference sequence using a predicted image sequence obtained from the predicted image and a cover image sequence obtained from the cover image;
Generating a histogram corresponding to the difference sequence;
Generating a shifted difference sequence by shifting the differential sequence according to shift information obtained from the histogram, and embedding confidential data in the shifted difference sequence;
Generating a hidden image sequence by combining the embedded sequence and the cover image sequence according to the embedding; And
And outputting a concealed image according to the concealed image sequence,
When the hidden image is scanned by the restoration device to generate a hidden image sequence, the extraction mode is determined and restored according to whether the spatial locality based prediction value is used for each element of the hidden image sequence generated by the restoration device,
The restoration device identifies whether a predicted pixel value can be calculated for a current hidden image sequence, identifies whether a predicted value is used according to the possibility, determines an extraction mode corresponding to the current hidden image sequence doing
A reversible data concealment method applying pixel value prediction technique.
제1항에 있어서,
상기 예측 이미지를 생성하는 단계는,
상기 커버 이미지 내 소정 영역의 픽셀 정보로부터, 공간적 지역성에 기초한 제1 임시 예측 픽셀 값을 생성하는 단계를 포함하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법.
The method according to claim 1,
Wherein the generating the prediction image comprises:
And generating a first temporary predictive pixel value based on spatial locality from pixel information of a predetermined region in the cover image
A reversible data concealment method applying pixel value prediction technique.
제2항에 있어서,
상기 예측 이미지를 생성하는 단계는,
상기 제1 임시 예측 픽셀 값과 그 주변 픽셀 값들간 편차로부터 공간적 지역성을 판별하는 단계;
상기 편차가 임계 값 미만인 경우, 상기 소정 영역에 대한 표면 특성을 판별하는 단계;
상기 표면 특성에 따라, 제2 임시 예측 픽셀 값을 산출하는 단계; 및
상기 공간적 지역성과 상기 표면 특성에 따라 상기 제1 임시 예측 픽셀 값, 상기 제2 임시 예측 픽셀 값과 커버 이미지의 픽셀 값을 선택적으로 적용하여 상기 예측 이미지를 생성하는 단계를 포함하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법.
3. The method of claim 2,
Wherein the generating the prediction image comprises:
Determining a spatial locality from a deviation between the first temporary predicted pixel value and surrounding pixel values;
Determining a surface characteristic for the predetermined region when the deviation is less than a threshold value;
Calculating a second provisional predicted pixel value according to the surface property; And
And generating the predictive image by selectively applying the first temporary predictive pixel value, the second temporary predictive pixel value, and the pixel value of the cover image according to the spatial locality and the surface characteristic,
A reversible data concealment method applying pixel value prediction technique.
제1항에 있어서,
상기 차분 시퀀스를 생성하는 단계는,
상기 커버 이미지 시퀀스와 상기 예측 이미지 시퀀스에 대하여, 예측 픽셀 값 사용 여부에 따라 커버 이미지 시퀀스와 예측 이미지 시퀀스를 선택적으로 적용한 차분 시퀀스를 생성하는 단계를 포함하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법.
The method according to claim 1,
Wherein the step of generating the difference sequence comprises:
Generating a difference sequence selectively applying a cover image sequence and a predictive image sequence according to whether the predictive pixel value is used for the cover image sequence and the predictive image sequence,
A reversible data concealment method applying pixel value prediction technique.
제1항에 있어서,
상기 임베딩하는 단계는,
상기 히스토그램으로부터 획득되는 쉬프트 정보에 따라, 상기 차분 시퀀스를 쉬프트하고, 상기 쉬프트된 차분 시퀀스의 피크 포인트에 상기 기밀 데이터를 삽입하는 단계를 포함하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법.
The method according to claim 1,
Wherein the embedding comprises:
Shifting the difference sequence according to shift information obtained from the histogram and inserting the confidential data at a peak point of the shifted difference sequence
A reversible data concealment method applying pixel value prediction technique.
제1항에 있어서,
상기 기밀 데이터는 상기 커버 이미지의 소유주 정보 또는 원본 확인 정보를 포함하는 워터마크(watermark) 데이터를 포함하는 것을 특징으로 하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 방법.
The method according to claim 1,
Wherein the confidential data includes watermark data including owner information or original confirmation information of the cover image
A reversible data concealment method applying pixel value prediction technique.
데이터 은닉 장치에 있어서,
커버 이미지로부터 공간적 지역성(spatial locality) 및 표면 특성(surface characteristics)에 기초한 예측 이미지를 생성하는 예측 이미지 생성부;
상기 예측 이미지로부터 획득되는 예측 이미지 시퀀스와, 상기 커버 이미지로부터 획득되는 커버 이미지 시퀀스를 이용하여 차분 시퀀스를 생성하는 차분 시퀀스 생성부;
상기 차분 시퀀스에 대응한 히스토그램을 생성하는 히스토그램 생성부;
상기 히스토그램의 정보에 따라, 상기 차분 시퀀스를 쉬프트하여 쉬프트된 차분 시퀀스를 생성하고, 상기 쉬프트된 차분 시퀀스에 기밀 데이터를 임베딩하는 기밀 데이터 삽입부;
상기 임베딩에 따른 임베딩 시퀀스와 상기 커버 이미지 시퀀스를 합성하여 은닉 이미지 시퀀스를 생성하는 은닉 이미지 시퀀스 생성부; 및
상기 은닉 이미지 시퀀스에 따른 은닉 이미지 출력부를 포함하고,
복원 장치에서 상기 은닉 이미지를 스캔하여 은닉 이미지 시퀀스가 생성되면, 상기 복원 장치에서 생성된 은닉 이미지 시퀀스의 각 요소 별로 공간적 지역성 기반 예측 값 사용 여부에 따라, 추출 모드가 결정되어 복원 처리되며,
상기 복원 장치는 현재 은닉 이미지 시퀀스에 대한 예측 픽셀 값 계산 가능여부를 식별하고, 상기 가능여부에 따른 예측 값 사용여부를 식별하며, 상기 사용여부에 따라 상기 현재 은닉 이미지 시퀀스에 대응하는 추출 모드를 결정하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 장치.
In a data concealment apparatus,
A predicted image generating unit that generates a predicted image based on spatial locality and surface characteristics from a cover image;
A difference sequence generation unit for generating a difference sequence by using a predicted image sequence obtained from the predicted image and a cover image sequence obtained from the cover image;
A histogram generator for generating a histogram corresponding to the difference sequence;
A confidential data inserter for shifting the difference sequence according to information of the histogram to generate a shifted difference sequence and embedding confidential data in the shifted difference sequence;
A hidden image sequence generator for generating a hidden image sequence by combining the embedded sequence and the cover image sequence according to the embedding; And
And a hidden image output unit according to the hidden image sequence,
When the hidden image is scanned by the restoration device to generate a hidden image sequence, the extraction mode is determined and restored according to whether the spatial locality based prediction value is used for each element of the hidden image sequence generated by the restoration device,
The restoration device identifies whether a predicted pixel value can be calculated for a current hidden image sequence, identifies whether a predicted value is used according to the possibility, determines an extraction mode corresponding to the current hidden image sequence doing
A reversible data concealment device applying pixel value prediction technique.
제7항에 있어서,
상기 예측 이미지 생성부는,
상기 커버 이미지의 소정 영역 픽셀 값들로부터, 공간적 지역성에 기초한 제1 임시 예측 픽셀 값을 생성하며, 상기 제1 임시 예측 픽셀 값과 그 주변 픽셀 값들간 편차로부터 공간적 지역성을 판별하고, 상기 편차가 임계 값(β) 미만인 경우, 상기 소정 영역에 대한 표면 특성을 판별하며, 상기 표면 특성에 따라, 제2 임시 예측 픽셀 값을 산출하고, 상기 공간적 지역성과 상기 표면 특성에 따라 상기 제1 임시 예측 픽셀 값, 상기 제2 임시 예측 픽셀 값과 커버 이미지의 픽셀 값을 선택적으로 적용하여 상기 예측 이미지를 생성하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 장치.
8. The method of claim 7,
The predictive image generator may include:
Generating a first temporary predicted pixel value based on spatial locality from pixel values of the predetermined region of the cover image; determining spatial localities from the deviation between the first temporary predicted pixel value and its surrounding pixel values; the second temporary predictive pixel value is calculated according to the surface characteristic, and the first temporary predictive pixel value, the second temporary predictive pixel value, and the second temporary predictive pixel value are calculated according to the spatial locality and the surface characteristic, And selectively applying the second temporary predictive pixel value and the pixel value of the cover image to generate the predictive image
A reversible data concealment device applying pixel value prediction technique.
제7항에 있어서,
상기 차분 시퀀스 생성부는, 상기 커버 이미지 시퀀스와 상기 예측 이미지 시퀀스를 예측 픽셀 값 사용 여부에 따라 선택적으로 적용하여 픽셀 값 차로 구성되는 차분 시퀀스를 생성하며,
상기 기밀 데이터 삽입부는 상기 히스토그램으로부터 획득되는 쉬프트 정보에 따라, 상기 차분 시퀀스를 쉬프트하고, 상기 쉬프트된 차분 시퀀스의 피크 포인트에 상기 기밀 데이터를 삽입하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 장치.
8. The method of claim 7,
Wherein the difference sequence generation unit selectively applies the cover image sequence and the predicted image sequence according to whether a predicted pixel value is used or not to generate a difference sequence composed of pixel value differences,
Wherein the confidential data inserting unit shifts the difference sequence according to shift information obtained from the histogram and inserts the confidential data at a peak point of the shifted difference sequence
A reversible data concealment device applying pixel value prediction technique.
제7항에 있어서,
상기 기밀 데이터는 상기 커버 이미지의 소유주 정보 또는 원본 확인 정보를 포함하는 워터마크(watermark) 데이터를 포함하는 것을 특징으로 하는
픽셀 값 예측기법을 적용한 가역 데이터 은닉 장치.
8. The method of claim 7,
Wherein the confidential data includes watermark data including owner information or original confirmation information of the cover image
A reversible data concealment device applying pixel value prediction technique.
은닉 데이터의 복원 방법에 있어서,
은닉 이미지를 스캔하여 은닉 이미지 시퀀스를 생성하는 단계;
상기 은닉 이미지 시퀀스의 각 요소별 위치에서, 공간적 지역성 및 표면 특성기반 예측 값 사용 여부에 따라, 추출 모드를 결정하는 단계;
은닉 이미지 시퀀스로부터 임베딩 시퀀스를 복원하고, 상기 결정된 추출 모드에 따라 은닉이미지 시퀀스로부터 커버 이미지 시퀀스를 복원하는 단계; 및
상기 임베딩 시퀀스로부터 추출 또는 복원된 기밀 데이터를 획득하여 출력하는 단계를 포함하고,
상기 추출 모드를 결정하는 단계는,
은닉 이미지 시퀀스의 각 위치에서 픽셀 값 예측 가능 여부를 식별하는 단계; 및
상기 가능 여부에 따른 예측 값 사용여부를 식별하고, 상기 은닉 이미지 시퀀스의 각 위치에 대응하는 추출 모드를 결정하는 단계를 포함하는
은닉 데이터의 복원 방법.
A method for restoring concealed data,
Generating a hidden image sequence by scanning a hidden image;
Determining an extraction mode according to spatial locality and whether a surface property-based prediction value is used at a position of each element of the hidden image sequence;
Restoring the embedding sequence from the hidden image sequence, and recovering the cover image sequence from the hidden image sequence according to the determined extraction mode; And
Acquiring and outputting confidential data extracted or restored from the embedding sequence,
Wherein the step of determining the extraction mode comprises:
Identifying whether a pixel value is predictable at each position of the hidden image sequence; And
Identifying whether to use the prediction value according to the possibility, and determining an extraction mode corresponding to each position of the hidden image sequence
A method for restoring hidden data.
삭제delete 제11항에 있어서,
상기 복원하는 단계는,
현재 위치가 영상의 상위 2개 행인 경우 혹은 이전 위치와 현재 위치 모두에서 예측 픽셀 값이 사용되지 아니한 경우 제1 모드(Mode 1)로 결정하고, APD(Adjacent Pixel Difference)방식에 따라 복원하는 단계:
현재 위치에서 예측 픽셀 값이 사용된 경우 제2 모드(Mode 2)로 결정하고, 상기 모드 결정 과정에서 기 계산된, 현재 위치에서의 복원 예측 픽셀 값(RPi)과 현재 위치에서의 연관 값(AVi)을 이용하여 복원하는 단계; 및
이전 위치에서 예측 픽셀 값이 사용되었으나, 현재 위치에서는 예측 픽셀 값이 사용되지 않은 경우, 제3 모드(Mode 3)로 결정하고, 상기 모드 결정 과정에서 기 계산된, 이전 위치에서의 복원 예측 픽셀 값(RPi-1)과 현재 위치에서의 연관 값(AVi)을 이용하여 복원하는 단계를 포함하는
은닉 데이터의 복원 방법.
12. The method of claim 11,
Wherein,
Determining a first mode (Mode 1) if the current position is the upper two rows of the image, or if the predicted pixel value is not used in both the previous position and the current position, and restoring according to the APD (Adjacent Pixel Difference)
(Mode 2) when the predicted pixel value is used at the current position, and determines the restored predicted pixel value (RP i ) at the current position calculated in the mode determination process and the associated value AV i ), &lt; / RTI &gt; And
If the predicted pixel value is used in the previous position but the predicted pixel value is not used in the current position, it is determined as the third mode (Mode 3), and the restored predicted pixel value (RP i-1 ) and the associated value (AV i ) at the current position
A method for restoring hidden data.
제1항 내지 제6항, 제11항 및 제13항 중 어느 한 항에 기재된 방법을 컴퓨터에서 실행시키기 위해 매체에 저장되는 컴퓨터 프로그램.A computer program stored on a medium for execution in a computer, the method according to any one of claims 1 to 6, 11 and 13.
KR1020160107896A 2016-08-24 2016-08-24 A method for reversible data hiding based on pixel value prediction according to spatial locality and surface characteristics, a method for reversible watermarking using it, and an appratus for reversible data hiding, reversible water marking KR101875401B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160107896A KR101875401B1 (en) 2016-08-24 2016-08-24 A method for reversible data hiding based on pixel value prediction according to spatial locality and surface characteristics, a method for reversible watermarking using it, and an appratus for reversible data hiding, reversible water marking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160107896A KR101875401B1 (en) 2016-08-24 2016-08-24 A method for reversible data hiding based on pixel value prediction according to spatial locality and surface characteristics, a method for reversible watermarking using it, and an appratus for reversible data hiding, reversible water marking

Publications (2)

Publication Number Publication Date
KR20180022450A KR20180022450A (en) 2018-03-06
KR101875401B1 true KR101875401B1 (en) 2018-07-06

Family

ID=61727284

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160107896A KR101875401B1 (en) 2016-08-24 2016-08-24 A method for reversible data hiding based on pixel value prediction according to spatial locality and surface characteristics, a method for reversible watermarking using it, and an appratus for reversible data hiding, reversible water marking

Country Status (1)

Country Link
KR (1) KR101875401B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110445949B (en) * 2019-08-06 2021-05-07 绍兴聚量数据技术有限公司 Histogram shift-based AMBTC domain reversible information hiding method
CN112132734B (en) * 2020-09-25 2024-04-26 中国人民武装警察部队工程大学 Image reversible information hiding method based on multi-channel difference sorting
CN113095990B (en) * 2021-04-08 2023-05-26 杭州电子科技大学上虞科学与工程研究院有限公司 Image reversible information hiding method based on PVO and 3D mapping modification

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080022255A (en) * 2006-09-06 2008-03-11 주식회사 마크애니 Reversible watermarking based on advanced histogram modification
KR101026081B1 (en) * 2010-01-22 2011-03-31 금오공과대학교 산학협력단 Reversible watermark inserting and original image restoring methods
KR20110090247A (en) * 2010-02-03 2011-08-10 금오공과대학교 산학협력단 Reversible watermark inserting, extracting and original contents restoring methods using difference histogram

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080022255A (en) * 2006-09-06 2008-03-11 주식회사 마크애니 Reversible watermarking based on advanced histogram modification
KR101026081B1 (en) * 2010-01-22 2011-03-31 금오공과대학교 산학협력단 Reversible watermark inserting and original image restoring methods
KR20110090247A (en) * 2010-02-03 2011-08-10 금오공과대학교 산학협력단 Reversible watermark inserting, extracting and original contents restoring methods using difference histogram

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
Fallahpour, Mehdi. Reversible image data hiding based on gradient adjusted prediction. IEICE Electronics Express, 2008년, Vol. 5, No. 20, pp. 870-876 *
Fallahpour, Mehdi. Reversible image data hiding based on gradient adjusted prediction. IEICE Electronics Express, 2008년, Vol. 5, No. 20, pp. 870-876*
Fallahpour, Mehdi. Reversible image data hiding based on gradient adjusted prediction. IEICE Electronics Express, 2008년, Vol. 5, No. 20, pp. 870-876. 1부. *
Li et al. Data hiding based on the similarity between neighboring pixels with reversibility. Digital Signal Processing, 2010년, Vol. 20, No. 4, pp. 1116-1128. *
Li et al. Data hiding based on the similarity between neighboring pixels with reversibility. Digital Signal Processing, 2010년, Vol. 20, No. 4, pp. 1116-1128. 1부. *
Li et al. Data hiding based on the similarity between neighboring pixels with reversibility. Digital Signal Processing, 2010년, Vol. 20, No. 4, pp. 1116-1128.*
동일발명자논문1 *
동일발명자논문2 *

Also Published As

Publication number Publication date
KR20180022450A (en) 2018-03-06

Similar Documents

Publication Publication Date Title
KR101764530B1 (en) A METHOD FOR DATA HIDING BASED ON PIXEL VALUE PREDICTIONS, A METHOD FOR DATA WATERMARKING USING IT, AND AN Apparatus FOR DATA HIDING
Qu et al. Pixel-based pixel value ordering predictor for high-fidelity reversible data hiding
KR101502362B1 (en) Apparatus and Method for Image Processing
Qin et al. An inpainting-assisted reversible steganographic scheme using a histogram shifting mechanism
KR101367284B1 (en) Method and apparatus of inpainting image according to change of viewpoint
JP3431593B2 (en) Content generation device, digital watermark detection device, content generation method, digital watermark detection method, and recording medium
KR101875401B1 (en) A method for reversible data hiding based on pixel value prediction according to spatial locality and surface characteristics, a method for reversible watermarking using it, and an appratus for reversible data hiding, reversible water marking
KR100453683B1 (en) Method for inserting and detecting a spatial domain blind watermarks with sample expansion
KR20060121972A (en) Electronic watermarking method, electronic watermark detecting method, apparatus and program
KR101323502B1 (en) Recording medium having marker generation program recorded thereon, marker generation device, and marker generation method
Eswaraiah et al. A fragile ROI-based medical image watermarking technique with tamper detection and recovery
Khan et al. Threshold-based steganography: a novel technique for improved payload and SNR.
CN102609894B (en) Synthetic method for mosaic image and device thereof
Khan et al. A secure true edge based 4 least significant bits steganography
KR20170101428A (en) Template Based Watermarking Method for Depth-Image-Based Rendering Based 3D Images and Apparatus Therefor
Ni et al. Pinpoint authentication watermarking based on a chaotic system
KR101026081B1 (en) Reversible watermark inserting and original image restoring methods
CN108876691B (en) Self-adaptive reversible watermarking method and system
Uyyala et al. Gradient dependent reversible watermarking with low embedding impact
KR100935110B1 (en) High-speed forensic video watermarking algorithm using randomly dispersed watermark unit patterns and fast hvs computation
KR101472495B1 (en) Data hiding device and method for information security
Nedelcu et al. Three stages prediction-error expansion reversible watermarking
Kuo et al. On the security of reversible data hiding based-on histogram shift
ZULQARNAIN et al. AN EFFICIENT METHOD OF DATA HIDING FOR DIGITAL COLOUR IMAGES BASED ON VARIANT EXPANSION AND MODULUS FUNCTION
KR100965603B1 (en) Method and Apparatus for Receiving Secrete Message Using Image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant