KR20010031526A - Watermarking of digital image data - Google Patents

Watermarking of digital image data Download PDF

Info

Publication number
KR20010031526A
KR20010031526A KR1020007004567A KR20007004567A KR20010031526A KR 20010031526 A KR20010031526 A KR 20010031526A KR 1020007004567 A KR1020007004567 A KR 1020007004567A KR 20007004567 A KR20007004567 A KR 20007004567A KR 20010031526 A KR20010031526 A KR 20010031526A
Authority
KR
South Korea
Prior art keywords
watermark
image
dct
frame
video
Prior art date
Application number
KR1020007004567A
Other languages
Korean (ko)
Inventor
쓰-후 창
지옌하오 멍
Original Assignee
추후제출
더 트러스티스 오브 컬럼비아 유니버시티 인 더 시티 오브 뉴욕
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 추후제출, 더 트러스티스 오브 컬럼비아 유니버시티 인 더 시티 오브 뉴욕 filed Critical 추후제출
Publication of KR20010031526A publication Critical patent/KR20010031526A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/577Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0021Image watermarking
    • G06T1/0028Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32154Transform domain methods
    • H04N1/32165Transform domain methods using cosine transforms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32154Transform domain methods
    • H04N1/32187Transform domain methods with selective or adaptive application of the additional information, e.g. in selected frequency coefficients
    • H04N1/32192Transform domain methods with selective or adaptive application of the additional information, e.g. in selected frequency coefficients according to calculated or estimated visibility of the additional information in the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/467Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0052Embedding of the watermark in the frequency domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2201/00General purpose image data processing
    • G06T2201/005Image watermarking
    • G06T2201/0053Embedding of the watermark in the coding stream, possibly without decoding; Embedding of the watermark in the compressed domain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20052Discrete cosine transform [DCT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3233Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of authentication information, e.g. digital signature, watermark
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3269Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs
    • H04N2201/327Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs which are undetectable to the naked eye, e.g. embedded codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

디지털 워터마크는 디지털화된 비디오의 저작권을 표시하는 데 이용될 수 있다. 비디오 이미지가 모션 보상과 함께 또는 모션 보상 없이 압축을 위해 이산 코사인 변환(DCT)에 의해 변환되어 전송되는 경우, 변환 후에 워터마크를 포함시키는 것이 유리하다. 이를 위하여, 최초 이미지 데이터에 기초하여 최적 가시도를 위한 DCT 워터마크가 발생되며, 발생된 워터마크는 변환된 데이터 상에 중첩된다.The digital watermark can be used to indicate the copyright of the digitized video. If a video image is transformed and transmitted by a discrete cosine transform (DCT) for compression with or without motion compensation, it is advantageous to include a watermark after the conversion. To this end, a DCT watermark for optimal visibility is generated based on the original image data, and the generated watermark is superimposed on the converted data.

Description

디지털 이미지 데이터의 워터마킹{WATERMARKING OF DIGITAL IMAGE DATA}Watermarking digital image data {WATERMARKING OF DIGITAL IMAGE DATA}

종래의 종이 증서 상의 워터마크는 이 증서에 빛을 비추었을 때 눈으로 확인할 수 있는 투명 디자인(translucent desige)으로 이루어진다. 또한, 보다 통상적으로, 워터 마크는 소정 광 조사 조건하에서 또는 소정 시야각에서 관측될 수 있다. 예를 들어, 은행 어음, 수표 및 주식 증권과 같은 증서들의 인증을 위해 위조가 어려운 이러한 워터마크들이 포함되어 있다.The watermark on a conventional paper deed consists of a translucent desige that can be visually identified when lighted onto the deed. Also, more typically, watermarks can be observed under certain light irradiation conditions or at certain viewing angles. For example, these watermarks are difficult to counterfeit for certification of instruments such as bank drafts, checks and stock securities.

디지털 비디오 기술에서, 워터마크는 예를 들면 저작권과 같은 어떠한 소유권을 나타내기 위해 사용되고 있다. 본원 명세서에서, 워터마크는 이미지 상에 중첩되어 있으며 손을 댄 흔적을 남기지 않고는 쉽게 제거할 수 없는, 눈에 보이는 패턴 또는 눈에 보이지 않는 패턴이다. 손을 댄 흔적이 없게 하는 것을 ″완강성(robustness)″라 한다.In digital video technology, watermarks are used to indicate some ownership, for example copyright. In the present specification, a watermark is a visible pattern or invisible pattern that is superimposed on an image and cannot be easily removed without leaving a tapped trace. It is called "robustness" to leave no trace of the hand.

디지털 이미지에서 가시적 워터마크를 포함하는 하나의 로버스트 방법은 Braudaway 등에 의해 IBM 연구소, T. J. Watson Research Center의 기술 보고서 96A000248의 ″가시적 이미지 워터마크를 이용한 공증 이미지의 보호(Protecting Publically Available Images with a Visible Image Watermark)″에서 제시되었다. 휘도 레벨 ΔL은 워터마크의 강도(strength)를 위해 선택되고, 이미지의 개개의 픽셀에 대한 휘도는 ΔL과 비선형 함수에 의해 변화된다. 보안성의 높이기 위해, 이미지 내의 모든 픽셀들에 대하여 레벨 ΔL은 랜덤(random)하게 된다.One robust method for including visible watermarks in digital images is by Braudaway et al., ″ Protecting Publically Available Images with a Visible Image, Technical Research 96A000248, by IBM Research Institute, TJ Watson Research Center. Watermark ″. The luminance level ΔL is selected for the strength of the watermark, and the luminance for each pixel of the image is changed by ΔL and a nonlinear function. For the sake of security, the level ΔL is random for all the pixels in the image.

〈발명의 요약〉<Summary of invention>

이미지들이 모션 보상을 갖고 또는 모션 보상 없이 압축을 위해 이산 코사인 변환(DCT)에 의해서 변환되어 전송될 때, 변환 이후 워터마크를 포함시키는 것이 유리하다. 이를 위하여, (ⅰ) 최초 이미지 데이터를 기초로 하여 최적의 가시도를 위해 DCT 워터마크가 발생되고 (ⅱ) 발생된 워터마크는 변환된 데이터 상에 중첩된다.When images are transformed and sent by discrete cosine transform (DCT) for compression with or without motion compensation, it is advantageous to include a watermark after the conversion. To this end, (i) a DCT watermark is generated for optimal visibility based on the original image data and (ii) the generated watermark is superimposed on the converted data.

본 발명은 워터마크를 갖는 디지털 이미지 데이터, 특히 비디오 데이터인 디지털 이미지 데이터를 제공하는 것에 관한 것이다.The present invention relates to providing digital image data having a watermark, in particular digital image data which is video data.

도 1은 모션 보상된 이산 코사인 변환(MC-DCT)을 도시한 도면.1 illustrates a motion compensated discrete cosine transform (MC-DCT).

도 2a는 워터마크 마스크의 도면.2A is a diagram of a watermark mask.

도 2b는 최초 이미지의 도면.2B is a view of the original image.

도 2c는 최초 이미지와 워터마크 마스크의 중첩을 도시한 도면.FIG. 2C illustrates the superposition of the original image and the watermark mask. FIG.

도 3은 최초 프로세싱의 흐름도.3 is a flow chart of initial processing.

도 4는 워터마크 중첩 프로세싱의 흐름도.4 is a flow chart of watermark superposition processing.

도 5는 영역에 대한 스케일링(scaling) 흐름도.5 is a scaling flowchart for an area.

마스크 발생 모듈은 최초 비디오 내용에 기초하여 DCT 워터마크 마스크를 발생한다. 모션 보상 모듈은 DCT 도메인 안에 워터마크를 효과적으로 삽입하여 유효 비디오 비트스트림을 지정된 비트율로 출력한다. 다음은 특히 MPEG 포맷의 이미지 데이터를 설명할 것이다.The mask generation module generates a DCT watermark mask based on the original video content. The motion compensation module effectively inserts a watermark into the DCT domain and outputs a valid video bitstream at the specified bit rate. The following will specifically describe image data in MPEG format.

MPEG 비디오는 문서 ISO/IEC 13818-2 Committee Draft (MPEG-2)에서 개시되어 있는 바와 같은 화상 그룹들(GOP; group of pictures)로 이루어진다. 각각의 GOP는 인트라 코딩된 ″I-프레임″에서 시작하여 다수의 포워드 조회 ″P-프레임″ 및 양방향 조회 ″B-프레임″이 이어진다.MPEG video consists of groups of pictures (GOP) as disclosed in document ISO / IEC 13818-2 Committee Draft (MPEG-2). Each GOP starts with an intra coded ″ I-frame ″ followed by a number of forward lookup ″ P-frames ″ and bidirectional lookup ″ B-frames ″.

모션 보상을 이용하여, 워터마크가 I-프레임 내에 삽입될 때, 또한 GOP 내의 P- 및 B-프레임이 변경될 것이다. 이러한 정정(correction)에 대하여, 워터마크가 현재의 프레임에 부가될 때, 앵커(anchor) 또는 베이스 프레임에서 워터마크에 대한 모션 보상이 감산되어야 한다. 이와 같은 감산에 대해서는, S. F. Chang 등에 의해 IEEE Journal of Selected Areas in Communications, 지능형 신호 처리에 대한 논제, pp.1-11, 1995년 1월, ″MC-DCT 압축 비디오의 조작 및 구성(Manipulation and Compositing of MC-DCT Compressed Video)″에서 제시된 바와 같은, DCT 도메인에서의 모션 보상 기술이 사용될 수 있다.With motion compensation, when a watermark is inserted into an I-frame, the P- and B-frames in the GOP will also change. For this correction, when the watermark is added to the current frame, the motion compensation for the watermark in the anchor or base frame must be subtracted. For such subtraction, SF Chang et al., IEEE Journal of Selected Areas in Communications, a topic on intelligent signal processing, pp.1-11, January 1995, ″ Manipulation and Compositing of MC-DCT Compressed Video. of motion compensation techniques in the DCT domain, as shown in &quot; of MC-DCT Compressed Video &quot;

비디오 시퀀스에서, 이미지 내용은 프레임 단위로 변화한다. 따라서, 비디오 전반에 걸쳐 워터마크를 충분히 시각적으로 확인할 수 있도록 하기 위해서는, 비디오 내용에 워터마크를 적용시켜야 한다. 예를 들면, 이미지가 복잡하거나 ″이용중(busy)″일 때, 즉 이미지가 많은 고주파 성분들을 갖고 있을 때는, 워터마크가 보다 강해진다. 동일한 비디오 프레임 내의 서로 다른 영역들에 대하여, 워터마크는 부분적으로 스케일될 수 있고, 이에 의해서 접촉에 대한 보안성을 향상시킬 수 있다.In a video sequence, the image content changes frame by frame. Therefore, in order to be able to sufficiently check the watermark throughout the video, the watermark should be applied to the video content. For example, when an image is complex or ″ busy ″, that is, when the image has many high frequency components, the watermark is stronger. For different regions within the same video frame, the watermark can be partially scaled, thereby improving security for contact.

(i) 마스크 생성 모듈 (Mask Generation Module)(i) Mask Generation Module

도 4의 섹션 (i)에 도시된 것과 같은 모듈에 있어서, 먼저 워터마크 마스크 이미지를 각각의 GOP 또는 씬 컷 (scene cut)이후 제1 P- 프레임에 대하여 발생한다. 이것은 일반적으로 약 15 프레임이거나 또는 0.5초 긴 GOP내에서 비디오 내용이 일관되는 경향이 있다는 사실에 근거한다. 그러나, GOP내에 씬 컷이 있을 때에는, 시각적 내용은 상당히 변화할 것이고, 상기 새로운 시각적 내용을 수용하기 위하여 새로운 마스크가 사용된다. 따라서, 상기 워터마크 마스크는 I-프레임 또는 씬 컷 이후의 제1 P-프레임 상에 중첩된다.In a module such as that shown in section (i) of FIG. 4, a watermark mask image is first generated for each first OPP frame after each GOP or scene cut. This is generally based on the fact that video content tends to be consistent within a GOP that is about 15 frames or 0.5 seconds long. However, when there are scene cuts in the GOP, the visual content will change significantly, and a new mask is used to accommodate the new visual content. Thus, the watermark mask is superimposed on the first P-frame after the I-frame or the scene cut.

도 3에 도시된 것과 같이 상기 마스크를 발생하기 위하여, 상기 입력 워터마크 이미지는 먼저 그레이 스케일 (gray scale) 이미지로 변환된다. 각 이미지의 상기 휘도 채널 (luminance channel)만이 수정된다. 투명한 색상 (배경 색상)이 선택된다. 투명한 색상값을 갖는 모든 워터마크 픽셀들의 휘도는 0으로 지정된다. 선택적으로, 상기 마스크 이미지는 x- 및 y- 방향으로 무질서하게 이동한다. 상기 워터마크의 DCT 마스크를 얻기 위하여 DCT가 적용된다. 상기 마스크의 휘도는 상기 입력 이미지에 추가되기전에 상기 입력 이미지 내용에 따라 순응적으로 스케일된다.In order to generate the mask as shown in FIG. 3, the input watermark image is first converted to a gray scale image. Only the luminance channel of each image is modified. Transparent color (background color) is selected. The luminance of all watermark pixels with a transparent color value is designated as zero. Optionally, the mask image moves randomly in the x- and y- directions. DCT is applied to obtain a DCT mask of the watermark. The luminance of the mask is scaled adaptively according to the input image content before being added to the input image.

상기 픽셀 도메인에서, 지. 더블유. 브로우드웨이 등 (G. W. Braudaway et al)에 의한 상술한 보고서에서 다음의 수학식들이 제안된다.In the pixel domain; W. In the above report by G. W. Braudaway et al, the following equations are proposed.

여기서, wnm'은 최초 이미지에 부가될 상기 스케일된 워터마크이며, wnm은 픽셀 (n, m)에서 상기 불투명한 워터마크 픽셀 값이고, yw는 상기 씬 화이트 (scene white)이며, ynm은 이미지 축 (n, m)에서 상기 입력 이미지의 휘도 값이고, ΔL은 상기 워터마크 강도를 제어하는 상기 스케일링 인자이다.Where w nm 'is the scaled watermark to be added to the original image, w nm is the opaque watermark pixel value in pixels (n, m), y w is the scene white, y nm is the luminance value of the input image in the image axis (n, m), and ΔL is the scaling factor that controls the watermark intensity.

본 발명의 한 측면에 따르면, 상기 DCT 도메인내의 스케일링에 있어서, 확률론적 근사법 (stochastic approximation)이 사용될 수 있다. ynm및 wnm들이 독립 랜덤 변수들로 간주된다면, y가 MPEG에서 사용된 상기 휘도 범위 - 즉, [0, 255]로부터 [16, 235]까지 - 에 대해 노말라이즈 (normalize)된다면 그리고 yw= 235이라면, 수학식 1에 기초로 하여, w'의 예상 값은 수학식 2이다.According to one aspect of the invention, stochastic approximation can be used for scaling in the DCT domain. If y nm and w nm are considered independent random variables, then y is normalized over the luminance range used in MPEG-ie from [0, 255] to [16, 235] and y w = 235, based on Equation 1, the expected value of w 'is Equation 2.

y가 평균 α 및 편차 (variance) β2을 갖는 정규 분포 (normal distribution)를 가진다면, 상기 수학식 2에서 E[y2/3] 항은 다음과 같이 나타낼 수 있다.If y is with a normal distribution (normal distribution) with a mean α and the deviation (variance) β 2, in Equation (2), wherein E [y 2/3] can be expressed as:

따라서, E[y2/3]은 상기 픽셀 값들의 평균 및 편차의 함수이다.Thus, E [y 2/3 ] is a function of the mean and the deviation of the pixel values.

수학식 2는 랜덤 변수 w, w', 및 y의 모멘트들 간의 상관관계를 규정한다. 이러한 상관관계는 수학식 2를 간단히 하기 위하여 상기 결정 경우 (deterministic case)로 확장될 수 있으며, 선형 근사 (linear approximation)로 된다.Equation 2 defines the correlation between the moments of the random variables w, w ', and y. This correlation can be extended to the deterministic case in order to simplify Equation 2, resulting in a linear approximation.

각 8 대 8 (8 by 8) 이미지 블록에 있어서, 상기 블록의 평균 및 편차는 수학식 3에서 α 및 β2을 근사하는데 사용되고, 상기 평균 α는 수학식 2에 사용된 상기 공식들의 평균을 결정할 때 y를 근사하기 위해 사용된다.For each 8 by 8 image block, the mean and the deviation of the block are used to approximate α and β 2 in equation (3), where the average α determines the mean of the formulas used in equation (2). Is used to approximate y.

여기서, k = 0, ..., 63,에 대하여, wijk는 상기 워터마크 이미지내의 i, j번째 8 대 8 (8 by 8) 블록의 k번째 픽셀이다. w'ijk는 상기 스케일된 워터마크에 관한 것이다.Here, for k = 0, ..., 63, w ijk is the k th pixel of the i, j th 8 to 8 (8 by 8) block in the watermark image. w ' ijk relates to the scaled watermark.

수학식 4는 블록에 의한 선형 함수 블록을 이용하여 수학식 2에 따라상기 선형 함수를 근사한다. 상기 스케일된 워터마크 강도는 상기 이미지 블록의 평균 및 편차에 의존한다. 각 이미지 블록에 대하여, 평균이 높을수록 (즉, 밝을수록) 그리고 편차가 높을수록 (즉, 좀 더 혼란스러울수록), 워터마크의 일관된 가시성 (visibility)을 유지하기 위하여 상기 워터마크에 요구되는 강도는 점차 커진다.Equation 4 approximates the linear function according to Equation 2 using a linear function block by block. The scaled watermark intensity depends on the mean and the deviation of the image block. For each image block, the higher the average (i.e. the brighter) and the higher the deviation (i.e. the more confused), the intensity required for the watermark to maintain a consistent visibility of the watermark. Gradually increases.

수학식 4의 DCT는 상기 워터마크 마스크의 DCT를 얻는데 사용될 수 있으며, 이것은 DCT 도메인내의 상기 이미지에 삽입될 수 있다. 입력 이미지의 평균 및 편차는 DCT 계수로부터 유도될 수 있다.The DCT of Equation 4 can be used to obtain the DCT of the watermark mask, which can be inserted into the image in the DCT domain. The mean and deviation of the input image can be derived from the DCT coefficients.

여기서, YDC및 YAC는 각각 이미지 블록 Y의 DC- 및 AC-DCT 계수이다.Where Y DC and Y AC are the DC- and AC-DCT coefficients of image block Y, respectively.

새로운 워터마크 마스크는 각 I-프레임 및 P-프레임에 대해, 씬 컷의 경우에 후자에 대해, 계산된다. I-프레임에 있어서, MPEG 시퀀스의 최소한의 디코딩 (decoding) - 즉, 역 변수 길이 코딩 (inverse variable length coding), 역 구동 길이 코딩 (inverse run length coding) 및 역 양자화 - 이후에 모든 DCT 상수들은 쉽게 근접될 수 있다. P-프레임에 있어서, 대부분의 블록들이 씬 컷내에 있기 때문에, 이러한 DCT 계수들은 즉시 사용될 수 있다. 논-인트라 코딩된 블록 (non-intra coded block)에 있어서, 인트라 코딩된 블록으로부터 얻어진 평균적인 DC 및 AC 에너지가 치환된다.A new watermark mask is calculated for each I-frame and P-frame, for the latter in the case of a scene cut. For I-frames, all DCT constants are easy after minimal decoding of the MPEG sequence, i.e., inverse variable length coding, inverse run length coding and inverse quantization. Can be approached. For P-frames, since most blocks are in the scene cut, these DCT coefficients can be used immediately. In a non-intra coded block, the average DC and AC energy obtained from the intra coded block is substituted.

추가적인 속도 향상을 위해서, 상기 블록에 근거한 (block-based) (αij, βij) 쌍은 전체 이미지 또는 일정한 영역에 대해 평균값로 교체된다. 다음에는 다중 영역 접근이 설명된다.To further speed up, the block-based (α ij , β ij ) pairs are averaged over the entire image or a constant area. Is replaced by. Next, the multi-domain approach is described.

상기 입력 이미지는 많은 직교 영역들로 분리가 가능하다. 도 5에 도시된 바와 같이, 각 영역에서쌍이 계산되고 이에 따라서 상기 마스크가 발생된다. 일반적으로, 상기 워터마크는 상부 및 하부 영역들으로 분리된다. 이것은 예를 들면, 도 2a에 도시된 것과 같이, 상기 프레임의 상부 절반에서는 하늘(sky)을 갖고 하부 절반에서는 보다 어두운 배경을 갖는 대부분의 외부 장면들에 적당하다. 각 영역은 서로 다른쌍들을 사용하는 비교적 가시적인 워터마크를 가질 것이다.The input image can be separated into many orthogonal regions. As shown in Figure 5, in each region The pair is calculated and thus the mask is generated. In general, the watermark is divided into upper and lower regions. This is suitable for most exterior scenes, for example, with a sky in the upper half and a darker background in the lower half, as shown in FIG. 2A. Each area is different It will have a relatively visible watermark using pairs.

상기 워터마크의 보안성을 좀 더 높이기 위하여, 랜덤화된 위치 변화 (randomized location shift)가 DCT적용 전에 상기 워터마크 이미지에 적용될 수 있다. 이것은 초기의 워터마크 이미지를 간직하는 - 예를 들면, 알려진 로고 (logo)가 워터마크의 목적으로 사용될 때 - 어택커 (attackers)가 상기 워터마크를 제거하는 것을 보다 어렵게 만든다. 서브 픽셀 랜덤화된 위치 변화 (sub-pixel randomized location shift)는 어택커가 소정의 에러 잔류물을 남기지 않고 워터마크를 제거하는 것을 매우 어렵게 만들 것이다.In order to further enhance the security of the watermark, a randomized location shift may be applied to the watermark image before applying the DCT. This makes it more difficult for attackers to remove the watermark, which retains the original watermark image-for example, when a known logo is used for the purpose of the watermark. The sub-pixel randomized location shift will make it very difficult for the attacker to remove the watermark without leaving any error residues.

시프팅 (shifting)에 대해 다음과 같은 것이 사용될 수 있다. 각각 x- 및 y- 방향에 대해, 두개 랜덤 번호들이 발생하고 -1.00과 1.00사이에 놓이도록 노말라이즈된다. 상기 공간 도메인 (spatial domain)에서, 서브 픽셀 시프팅 (sub-pixel shifting)은 단지 선형 스케일링 및 부가를 수반하는 쌍일차 (bi-linear) 내삽법 (interpolation)에 영향을 받는다. 상기 DCT 도메인에서, 비슷한 쌍일차 조작이 사용될 수 있다.The following may be used for shifting. For the x- and y-directions respectively, two random numbers occur and normalize to lie between -1.00 and 1.00. In the spatial domain, sub-pixel shifting is only affected by bi-linear interpolation involving linear scaling and addition. In the DCT domain, similar bilinear manipulations can be used.

(ii) 모션 보상 모듈(ii) motion compensation module

일단 워터마크의 DCT 블록들이 얻어지면, 그것들은 도 4의 섹션 (ii)에 도시된 바와 같이 3가지 방법 중 하나로 입력 비디오의 DCT 프레임 안으로 삽입된다. B- 또는 P-프레임 내의 I-프레임 또는 인트라 코딩된 블록들에 대해서는, 스케일된 워터마크의 DCT가 직접 부가된다.Once the DCT blocks of the watermark are obtained, they are inserted into the DCT frame of the input video in one of three ways as shown in section (ii) of FIG. For I-frame or intra coded blocks within a B- or P-frame, the DCT of the scaled watermark is added directly.

상기 식에서 E'ij는 i번째, j번째 결과 DCT 블록이고, Eij는 최초 DCT 블록이고, W'ij는 수학식 6에 따른 스케일된 워터마크 DCT이다.E ' ij is the i-th, j-th result DCT block, E ij is the first DCT block, W' ij is the scaled watermark DCT according to equation (6).

P-프레임 내의 포워드 모션 벡터와 관련된 블록, 또는 B-프레임 내의 백워드 모션 벡터와만 관련된 블록에 대해서는, 앵커 프레임 내에 부가된 워터마크는 현재 워터마크를 부가할 때 제거되어야 한다. 결과 DCT 에러 나머지는 다음과 같다.For a block associated with a forward motion vector in a P-frame, or a block only associated with a backward motion vector in a B-frame, the watermark added in the anchor frame should be removed when adding the current watermark. The remainder of the resulting DCT error is:

상기 식에서 MCDCT는 S.-F. Chang 등이 저술한 상기 논문에 기술된 바와 같이 DCT 도메인 내의 모션 보상 함수이다. W'F는 포워드 앵커 프레임에서 사용되는 워터마크 DCT이고, VFij는 도 1에 도시된 바와 같이 포워드 모션 벡터이다.Wherein MCDCT is S.-F. It is a motion compensation function in the DCT domain as described in the paper by Chang et al. W ' F is a watermark DCT used in the forward anchor frame, and V Fij is a forward motion vector as shown in FIG.

B-프레임 내의 양방향 추정 블록들에 대해서는, 현재 워터마크를 부가할 때 포워드 및 백워드 모션 보상 양자 모두가 평균화 및 감산되어야 한다.For bidirectional estimation blocks within a B-frame, both forward and backward motion compensation should be averaged and subtracted when adding the current watermark.

상기 식에서 VF 및 VB는 도 1에 도시된 바와 같이 각각 포워드 및 백워드 모션 벡터이다.Where VF and VB are forward and backward motion vectors, respectively, as shown in FIG.

B- 및 P-프레임 내의 0-모션, 0-나머지 에러 블록들인, 스킵된 블록에 대해서는, 앵커 프레임 내에 삽입된 워터마크가 자리올림(carry over)될 것이기 때문에 아무런 연산도 필요치 않다.For skipped blocks, which are 0-motion, 0- remaining error blocks in B- and P-frames, no operation is necessary since the watermark inserted in the anchor frame will be carried over.

최종 비트 레이트의 제어에 대해서는 다음 특징들 중 하나 이상이 포함될 수 있다.Control of the final bit rate may include one or more of the following features.

1. 최고주파 계수들이 0이 되도록 워터마크의 DCT 계수를 양자화/역양자화한다.1. Quantize / dequantize the DCT coefficients of the watermark so that the highest frequency coefficients are zero.

2. 고주파 계수들을 컷오프한다. 효과는 픽셀 도메인에서의 로우 패스 필터링과 유사하다. 그 결과 에지가 보다 둥근 보다 매끄러운 워드마크가 생긴다.2. Cut off the high frequency coefficients. The effect is similar to low pass filtering in the pixel domain. The result is a smoother wordmark with rounded edges.

3. 모션 벡터 선택, 이 모션 벡터의 모션 보상을 사용한 것으로부터의 에러 나머지가 그것을 사용하지 하지 않은 경우보다 클 때 P-프레임 내의 마이크로블록의 모션 벡터를 0으로 설정.3. Motion vector selection, setting the motion vector of the microblock in the P-frame to zero when the error residual from using the motion compensation of this motion vector is greater than without using it.

모션 벡터가 사용되면, 나머지 에러는 다음과 같다.If a motion vector is used, the remaining errors are as follows.

그렇지 않으면 VFij=0으로 설정한다.Otherwise set V Fij = 0.

상기 식에서 IF는 앵커 프레임의 DCT이다.Where I F is the DCT of the anchor frame.

만일이면, VFij=0으로 설정한다.if , V Fij = 0.

도 2a, 2b 및 2c는 적응성 워터마크 기술의 이용을 도시하고 있다. 도 2a는 최초 워터마킹 기술을 도시한다. 여기서는 2진 버전이 도시되어 있지만, 알고리즘은 어떠한 특정 투명 컬러을 가진 그레이 스케일도 다룰 수 있다. 도 2b는 최초 이미지를 도시한다. 도 2c는 새로운 워터마크된 이미지를 도시한다.2A, 2B and 2C illustrate the use of an adaptive watermark technique. 2A illustrates the original watermarking technique. Although a binary version is shown here, the algorithm can handle gray scales with any particular transparent color. 2B shows the original image. 2C shows the new watermarked image.

워터마킹 알고리즘은 6 프레임/초의 속도를 달성하는, HP J210 워크스테이션 상에서 테스트되었다. 대부분의 계산 노력은 MC-DCT 연산에 가해졌다. 만일 모든 가능한 MC-DCT 블록들이 미리 계산되었다면, 실시간 실행이 가능할 것이다. 이 경우 352×240 이미지 사이즈에 대해서 12 메가바이트의 메모리가 필요할 것이다.The watermarking algorithm was tested on an HP J210 workstation, achieving a speed of 6 frames / second. Most of the computational effort was spent on MC-DCT computations. If all possible MC-DCT blocks were precomputed, real time execution would be possible. This would require 12 megabytes of memory for a 352 × 240 image size.

본 발명의 일 국면에 따르면, 바람직한 워터마크는 손을 댐으로 인해서 쉽게 파기되거나 제거되지 않는다는 점에서 완강성을 제공한다. 예를 들어, 만일 워터 마크가 상술한 방법에 의해 MPEG 비디오에 삽입된다면, 워터마크 마스크를 복구하고, 광범위한 서브픽셀 블록 매칭에 의해 내장 위치를 추정한 다음, 각 워터마크 영역에 대한인수를 추정할 필요가 있을 것이다. 실험에서는, 항상 손을 댄 비디오에 눈에 띄는 흔적이 남았으며, 이는 잘못된 소유권 주장을 거절하고 저작권 침해를 그만두게 하는 데 이용될 수 있다.According to one aspect of the present invention, preferred watermarks provide rigidity in that the hand is not easily destroyed or removed by the dam. For example, if a watermark is inserted into MPEG video by the method described above, the watermark mask is recovered, the embedded position is estimated by extensive subpixel block matching, and then for each watermark region. You will need to estimate the arguments. In the experiments, there was always a visible trace of the touched video, which could be used to reject false claims and stop copyright infringement.

완강성을 위하여, 워터마크는 2진이어서는 안되고, 그것이 놓이는 씬의 구조와 유사한 구조를 가져야 한다. 이것은 씬으로부터 I-프레임을 임의로 선택하고 역 DCT 변환에 의해 그것을 디코드하여 픽셀 값을 얻고, 디코드된 비디오 프레임으로부터 워터마크를 마스크 아웃함으로써 달성될 수 있다.For robustness, the watermark should not be binary, but should have a structure similar to the structure of the scene in which it is placed. This can be accomplished by randomly selecting an I-frame from the scene and decoding it by inverse DCT transform to obtain a pixel value and masking out the watermark from the decoded video frame.

비디오 시퀀스에서 패닝(panning) 및 주밍(zooming)과 같은 카메라 모션이 있을 경우, 비디오 모자이킹을 적용함으로써, 즉 다수의 이미지 프레임의 작은 부분들로부터 큰 이미지를 조립함으로써 삽입된 워터마크가 파기될 수 있다. 그후 워터마크는 아웃라이너(outliner)로서 제거(filter out)될 수 있다. 그러나, 이 기술은, 전경(foreground)에서 실제로 물체가 움직하고 있을 때는, 워터마크가 움직이는 전경 물체에도 내장될 것이기 때문에 실효가 없을 것이다. 본 발명의 다른 실시예에 따른 대응책으로서, 전체 또는 배경 모션에 대하여 정적으로 보이는 워터마크가 이용될 수 있다. 2-D 어파인(affine) 모델을 이용한 그러한 카메라 모션, 및 추정된 카메라 모션을 이용하여 워터마크를 변환하고 스케일링하는 것이다. 어파인 모델은 다음과 같이 기술될 수 있다.If there is camera motion in the video sequence, such as panning and zooming, the inserted watermark can be destroyed by applying video mosaicing, ie, assembling a large image from small portions of multiple image frames. have. The watermark can then be filtered out as an outliner. However, this technique will be ineffective because the watermark will be embedded in the moving foreground object when the object is actually moving in the foreground. As a countermeasure according to another embodiment of the present invention, a watermark that looks static for the whole or the background motion may be used. Such camera motion using a 2-D affine model and the estimated camera motion are used to transform and scale the watermark. The affine model can be described as follows.

MPEG에서의 모션 벡터는 일반적으로 블록 매칭, 즉 평균 제곱 에러가 최소화되도록 기준 프레임에서 블록을 찾는 것에 의해 발생된다. 모션 벡터는 진정한 광학적 플로를 나타내지는 않지만, 대부분의 경우에 큰 어두운 영역 및 균일 영역을 포함하지 않는 시퀀스에서 카메라 파라미터를 추정하는 데는 양호하다.Motion vectors in MPEG are generally generated by finding blocks in reference frames such that block matching, i.e., mean squared error, is minimized. Motion vectors do not represent true optical flow, but in most cases are good at estimating camera parameters in sequences that do not include large dark and uniform areas.

물체/배경과 카메라 사이의 거리가 클 때는, 현재 프레임의 글로벌 모션(global motion)을 기술하기 위하여 6 파라미터 어파인 변환을 이용하면 대체로 충분하다.When the distance between the object / background and the camera is large, it is usually sufficient to use a 6 parameter affine transformation to describe the global motion of the current frame.

상기 식에서 (x,y)는 현재 프레임 내의 매크로블록의 좌표이고,은 그 매크로 블록과 관련된 모션 벡터이고,은 어파인 변환 벡터이다.은 U로 표기하고,은 X로 표기하고,로 표기한다.Where (x, y) is the coordinate of the macroblock in the current frame, Is the motion vector associated with that macro block, Is an affine transformation vector. Is written as U, Is written as X, silver It is written as.

각 매크로블록에 대한 모션 벡터가 주어지면, 최소 제곱(LS) 추정을 이용하여 글로벌(global) 파라미터를 구한다. 즉, 수학식 1에서 추정된 모션 벡터와 MPEG 스트림으로부터 얻어진 실제 모션 벡터간의 에러를 최소화하기 위한 파라미터의 세트를 구한다.Given a motion vector for each macroblock, obtain a global parameter using least squares (LS) estimation. That is, a parameter for minimizing an error between the motion vector estimated in Equation 1 and the actual motion vector obtained from the MPEG stream. Obtain the set of.

상기 식에서은 추정 모션 벡터이다.에 대해서 풀기 위하여, S()의 1차 도함수를 0으로 하면, 다음이 얻어진다.In the above formula Is the estimated motion vector. To solve for, S ( When the first derivative of) is zero, the following is obtained.

상기 식에서,Where

모든 합산은 비선형 노이즈 감소 처리 후에 그 모션 벡터들이 살아남는 모든 유효 블록들에 대하여 이루어진다. 제1 LS 추정 후에, 추정된 것들로부터 큰 거리를 갖는 모션 벡터들은 제2 LS 추정 전에 제거(filter out)된다. 추정 처리는 정확성을 더하기 위하여 수회 반복된다.All summation is done for all valid blocks whose motion vectors survive after the nonlinear noise reduction process. After the first LS estimation, motion vectors with a large distance from the estimated ones are filtered out before the second LS estimation. The estimation process is repeated several times to add accuracy.

두드러진 모션(dominant motion)은 다음과 같이 클러스터링을 이용하여 추정될 수 있다.The dominant motion can be estimated using clustering as follows.

각각의 B- 또는 P-프레임에 대하여, 포워드 모션 벡터를 얻는다.For each B- or P-frame, a forward motion vector is obtained.

각 모션 벡터를 다수의(예를 들면, 4) 사전 정의된 분류 중 하나에 할당한다.Each motion vector is assigned to one of a number of (eg 4) predefined classifications.

1회의 글로벌 어파인 파라미터 추정을 수행한다.One global affine parameter estimation is performed.

상기 글로벌 어파인 파라미터를 제1 분류에 할당하고 모든 다른 분류에는 0을 할당한다.Assign the global affine parameter to the first category and zero to all other classes.

각 모션 벡터를 기하학적 거리(Euclidean distance)를 최소화하는 분류에 할당하는 단계와, 각 분류에 대한 2-D 어파인 파라미터들을 그 멤버 모션 벡터들을 이용하여 다시 계산하는 단계를 여러 회, 예를 들면 20회, 또는 나머지 에러가 안정화될 때까지 반복하여 수행한다.Assigning each motion vector to a classification that minimizes the geometric distance and recalculating the 2-D affine parameters for each classification using its member motion vectors, for example 20 Repeat this time, or until the rest of the error has stabilized.

Claims (5)

디지털 이미지에 워터마크(watermark)를 포함시키는 방법에 있어서,A method of including a watermark in a digital image, 상기 이미지의 변환된 표현의 디지털 데이터를 얻는 단계;Obtaining digital data of the transformed representation of the image; 상기 이미지에서 상기 워터마크의 가시도 최적화를 위한 상기 워터마크의 변환된 표현을 결정하는 단계; 및Determining a converted representation of the watermark for optimizing visibility of the watermark in the image; And 상기 이미지의 변환된 표현 상에 상기 워터마크의 변환된 표현을 중첩시키는 단계Superimposing the converted representation of the watermark on the converted representation of the image 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제1항에 있어서, 상기 이미지의 변환된 표현은 압축된 표현인 것을 특징으로 하는 방법.The method of claim 1, wherein the transformed representation of the image is a compressed representation. 제1항에 있어서, 상기 이미지의 변환된 표현은 이산 코사인 변환된 표현인 것을 특징으로 하는 방법.The method of claim 1, wherein the transformed representation of the image is a discrete cosine transformed representation. 제1항에 있어서, 상기 이미지는 일련의 비디오 이미지 중 하나인 것을 특징으로 하는 방법.The method of claim 1, wherein the image is one of a series of video images. 제3항에 있어서, 상기 변환된 표현은 모션 보상을 포함하는 것을 특징으로 하는 방법.4. The method of claim 3, wherein the transformed representation includes motion compensation.
KR1020007004567A 1997-10-27 1998-10-27 Watermarking of digital image data KR20010031526A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US6350997P 1997-10-27 1997-10-27
US60/063,509 1997-10-27
PCT/US1998/022790 WO1999022480A1 (en) 1997-10-27 1998-10-27 Watermarking of digital image data

Publications (1)

Publication Number Publication Date
KR20010031526A true KR20010031526A (en) 2001-04-16

Family

ID=22049688

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007004567A KR20010031526A (en) 1997-10-27 1998-10-27 Watermarking of digital image data

Country Status (5)

Country Link
EP (1) EP1034635A1 (en)
JP (1) JP2001522165A (en)
KR (1) KR20010031526A (en)
CA (1) CA2308402A1 (en)
WO (1) WO1999022480A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100472072B1 (en) * 2001-11-05 2005-03-08 한국전자통신연구원 Apparatus and method of injecting and detecting time-domain local mean value removed watermark signal for watermarking system
KR20170020955A (en) 2015-08-17 2017-02-27 (주)스토리허브 Method and device of generating image file comprising additional information and computer executable program for the same

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061052A (en) 1999-08-20 2001-03-06 Nec Corp Method for inserting electronic watermark data, its device and electronic watermark data detector
US7352374B2 (en) * 2003-04-07 2008-04-01 Clairvoyante, Inc Image data set with embedded pre-subpixel rendered image
GB2421136A (en) * 2004-12-09 2006-06-14 Sony Uk Ltd Detection of code word coefficients in a watermarked image
JP2008225904A (en) * 2007-03-13 2008-09-25 Sony Corp Data processing system and data processing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5488664A (en) * 1994-04-22 1996-01-30 Yeda Research And Development Co., Ltd. Method and apparatus for protecting visual information with printed cryptographic watermarks
US5530759A (en) * 1995-02-01 1996-06-25 International Business Machines Corporation Color correct digital watermarking of images
US5664018A (en) * 1996-03-12 1997-09-02 Leighton; Frank Thomson Watermarking process resilient to collusion attacks

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100472072B1 (en) * 2001-11-05 2005-03-08 한국전자통신연구원 Apparatus and method of injecting and detecting time-domain local mean value removed watermark signal for watermarking system
KR20170020955A (en) 2015-08-17 2017-02-27 (주)스토리허브 Method and device of generating image file comprising additional information and computer executable program for the same

Also Published As

Publication number Publication date
JP2001522165A (en) 2001-11-13
WO1999022480A1 (en) 1999-05-06
CA2308402A1 (en) 1999-05-06
EP1034635A1 (en) 2000-09-13

Similar Documents

Publication Publication Date Title
US7154560B1 (en) Watermarking of digital image data
Meng et al. Embedding visible video watermarks in the compressed domain
Biswas et al. An adaptive compressed MPEG-2 video watermarking scheme
Hartung et al. Digital watermarking of MPEG-4 facial animation parameters
EP1639829B1 (en) Optical flow estimation method
Pereira et al. Optimal transform domain watermark embedding via linear programming
CA2407143C (en) Texture replacement in video sequences and images
Swanson et al. Object-based transparent video watermarking
Sherly et al. A compressed video steganography using TPVD
PL183090B1 (en) Method of concealing data and method of dispensing concealed data
US7440613B2 (en) Binary mask interpolation
Su et al. A content dependent spatially localized video watermark for resistance to collusion and interpolation attacks
KR100948381B1 (en) Image Watermarking Method Using Human Visual System
US20020087864A1 (en) Method and arrangement for embedding a watermark in an information signal
EP2011075B1 (en) Digital watermarking method
CN111968024A (en) Self-adaptive image watermarking method
Santoyo-Garcia et al. Visible watermarking technique based on human visual system for single sensor digital cameras
KR20010031526A (en) Watermarking of digital image data
Lin et al. An embedded watermark technique in video for copyright protection
Golikeri et al. Robust digital video watermarking scheme for H. 264 advanced video coding standard
Lee et al. Adaptive video watermarking using motion information
JP2001346208A (en) Image signal decoder and method
Koubaa et al. Adaptive video watermarking using mosaic images
Nematollahi et al. Video watermarking
Qureshi et al. Technical Challenges for Digital Watermarking

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid