JP2001522165A - Watermarking of digital image data - Google Patents
Watermarking of digital image dataInfo
- Publication number
- JP2001522165A JP2001522165A JP2000518471A JP2000518471A JP2001522165A JP 2001522165 A JP2001522165 A JP 2001522165A JP 2000518471 A JP2000518471 A JP 2000518471A JP 2000518471 A JP2000518471 A JP 2000518471A JP 2001522165 A JP2001522165 A JP 2001522165A
- Authority
- JP
- Japan
- Prior art keywords
- watermark
- image
- dct
- frame
- equation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000033001 locomotion Effects 0.000 claims abstract description 38
- 238000000034 method Methods 0.000 claims description 21
- 230000009466 transformation Effects 0.000 abstract description 3
- 239000013598 vector Substances 0.000 description 25
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 8
- 238000012937 correction Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000012886 linear function Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004870 electrical engineering Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0021—Image watermarking
- G06T1/0028—Adaptive watermarking, e.g. Human Visual System [HVS]-based watermarking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/577—Motion compensation with bidirectional frame interpolation, i.e. using B-pictures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32154—Transform domain methods
- H04N1/32165—Transform domain methods using cosine transforms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32154—Transform domain methods
- H04N1/32187—Transform domain methods with selective or adaptive application of the additional information, e.g. in selected frequency coefficients
- H04N1/32192—Transform domain methods with selective or adaptive application of the additional information, e.g. in selected frequency coefficients according to calculated or estimated visibility of the additional information in the image
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
- H04N19/467—Embedding additional information in the video signal during the compression process characterised by the embedded information being invisible, e.g. watermarking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2201/00—General purpose image data processing
- G06T2201/005—Image watermarking
- G06T2201/0052—Embedding of the watermark in the frequency domain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2201/00—General purpose image data processing
- G06T2201/005—Image watermarking
- G06T2201/0053—Embedding of the watermark in the coding stream, possibly without decoding; Embedding of the watermark in the compressed domain
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20052—Discrete cosine transform [DCT]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3225—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
- H04N2201/3233—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document of authentication information, e.g. digital signature, watermark
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N2201/3201—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N2201/3269—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs
- H04N2201/327—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of machine readable codes or marks, e.g. bar codes or glyphs which are undetectable to the naked eye, e.g. embedded codes
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
(57)【要約】 デジタル透かしは、デジタル化されたビデオの著作権の所有者を表す役割を果たす。動き補償を伴い又は伴わずに圧縮のための離散余弦変換(DCT)によって変換されるようにビデオイメージを転送するとき、変換後に透かしを有するのが好適である。このために、DCT透かしを、元のイメージデータに基づいて最適な可視性に対して発生させ、発生した透かしを変換データに重ね合わせる。 (57) [Summary] The digital watermark serves to represent the copyright owner of the digitized video. When transferring a video image to be transformed by a discrete cosine transform (DCT) with or without motion compensation, it is preferred to have a watermark after the transformation. To this end, a DCT watermark is generated for optimal visibility based on the original image data, and the generated watermark is superimposed on the transformed data.
Description
【0001】技術分野 本発明は、ディジタル画像に透かしを与えることに関係し、さらに特に、前記
画像データがビデオデータの場合に関係する。[0001] Technical Field The present invention is related to providing a watermark on a digital image, more particularly, the image data is related to the case of the video data.
【0002】発明の背景 紙の書類における慣例的な透かしは、この書類を光にかざしたときに見える半
透明のデザインから成る。すなわち、より一般的には、透かしを、特定の照明条
件下で、または、特定の見る角度において見ることができる。偽造するのが困難
なこのような透かしを、例えば、紙幣、小切手および記名株券のような書類の認
証のために含めることができる。[0002] customary watermark in the documents of the background paper of the invention, consists of a semi-transparent design visible when held up this document to light. That is, more generally, the watermark can be viewed under certain lighting conditions or at a certain viewing angle. Such watermarks that are difficult to counterfeit can be included for authentication of documents such as, for example, banknotes, checks, and registered stock certificates.
【0003】 ディジタルビデオ技術において、透かしは、例えば著作権のような特定の所有
権を示すために使用されている。ここで、前記透かしは、画像に重ねられ、改ざ
んの証拠を残すこと無しに容易に分離することができない可視または不可視のパ
ターンである。改ざんに対する抵抗力を「ロバストネス」と呼ぶ。In digital video technology, watermarks have been used to indicate certain proprietary rights, such as copyright. Here, the watermark is a visible or invisible pattern that is superimposed on the image and cannot be easily separated without leaving evidence of tampering. The resistance to tampering is called "robustness."
【0004】 可視透かしをディジタル化画像に含ませる1つのロバストな方法は、ブラウダ
ウェイ(Braudaway)他による、「公的に利用可能な画像の可視画像透かしによ る保護」、IBM研究部門、T.J.ワトソン研究センタ、技術レポート96A
000248において記載されている。輝度レベルΔLを前記透かしの強度に関
して選択し、前記画像の各画素の輝度を、前記ΔLおよび非線形関数によって変
更する。セキュリティを強化するために、レベルΔLを、前記画像におけるすべ
ての画素についてランダムにする。[0004] One robust method of including visible watermarks in digitized images is described in Braudaway et al., "Protecting Publicly Available Images with Visible Image Watermarking," IBM Research, T.M. J. Watson Research Center, Technical Report 96A
0002248. A luminance level ΔL is selected for the strength of the watermark, and the luminance of each pixel of the image is changed by the ΔL and a non-linear function. To enhance security, the level ΔL is random for all pixels in the image.
【0005】発明の要約 画像を、動き補償ありまたはなしで圧縮のために離散コサイン変換(DCT)
によって変換して伝送する場合、伝送後に透かしを含ませることが有利である。
この目的のため、(i)DCT透かしを、オリジナル画像データに基づき最高の 可視性で発生し、(ii)この発生された透かしを前記変換されたデータに重ねる
。SUMMARY OF THE INVENTION A discrete cosine transform (DCT) is used to compress a summary image with or without motion compensation.
It is advantageous to include a watermark after transmission when transmitting after conversion.
For this purpose, (i) a DCT watermark is generated with the highest visibility based on the original image data, and (ii) the generated watermark is superimposed on the transformed data.
【0006】詳細な説明 マスク発生モジュールは、オリジナルビデオコンテンツに基づいてDCT透か
しマスクを発生する。動き補償モジュールは、前記透かしをDCT領域に能率的
に挿入し、有効なビデオビットストリームを指定されたビットレートにおいて出
力する。以下の説明は、MPEGフォーマットにおける画像データに特に適合す
る。DETAILED DESCRIPTION A mask generation module generates a DCT watermark mask based on original video content. The motion compensation module efficiently inserts the watermark into the DCT domain and outputs a valid video bitstream at a specified bit rate. The following description is particularly applicable to image data in the MPEG format.
【0007】 MPEGビデオは、文書ISO/IEC 13818−2委員会草案(MPE
G−2)において記載のようなピクチャのグループ(GOP)から成る。各GO
Pは、イントラ符号化「Iフレーム」で開始し、多数の前方向予測「Pフレーム
」と、両方向予測「Bフレーム」とが続く。[0007] MPEG video is described in the draft document ISO / IEC 13818-2 Committee (MPE
It consists of a group of pictures (GOP) as described in G-2). Each GO
P starts with an intra-coded "I frame" followed by a number of forward prediction "P frames" and bidirectional prediction "B frames".
【0008】 動き補償に関して、透かしを前記Iフレームに挿入する場合、前記PおよびB
フレームも変更する。このような訂正に関して、アンカまたはベースフレームに
おける前記透かしにおける動き補償を、前記透かしを現在フレームに追加すると
きに除去しなければならない。このような除去に関して、S.F.チャン(Chan
g)他による、「MC−DCT圧縮ビデオの操作および合成」、通信における選 択された領域のIEEEジャーナル、インテリジェント信号処理における特別号
、1〜11ページ、1995年1月、において記載のような、前記DCT領域に
おける動き補償の技術を使用することができる。For motion compensation, when inserting a watermark into the I-frame, the P and B
Also change the frame. For such corrections, motion compensation in the watermark in anchor or base frames must be removed when adding the watermark to the current frame. Regarding such removal, F. Chan
g) Others, such as those described in "Manipulation and Compositing of MC-DCT Compressed Video," IEEE Journal of Selected Areas in Communications, Special Issue on Intelligent Signal Processing, pages 1-11, January 1995. , The technique of motion compensation in the DCT domain can be used.
【0009】 ビデオシーケンスにおいて、前記画像は、フレームからフレームへの変化を含
む。したがって、透かしを、前記ビデオを通じてわずかに可視に保つために、前
記透かしを、前記ビデオコンテンツに適合させなければならない。例えば、画像
が複雑である、すなわち「ごちゃごちゃ」している場合、すなわち、画像が多く
の高周波成分を有する場合、前記透かしをより強くすべきである。同じビデオフ
レームの異なった領域に関して、前記透かしを領域に応じて増減し、これによっ
て改ざんに対するセキュリティを強めるべきである。In a video sequence, the image includes a change from frame to frame. Therefore, in order to keep the watermark slightly visible throughout the video, the watermark must be adapted to the video content. For example, if the image is complex, ie "jumbled", i.e. if the image has many high frequency components, the watermark should be stronger. For different regions of the same video frame, the watermark should be scaled up or down depending on the region, thereby increasing security against tampering.
【0010】 (i)マスク発生モジュール このモジュールにおいて、図4のセクション(i)によって示されるように、 透かしマスク画像を、最初に各GOPに関して、または、シーンカット後の最初
のPフレームに関して発生する。これは、ビデオコンテンツが、通常、15フレ
ームまたは0.5秒間程度のGOP内において変わらない傾向にあることに基づ
いている。しかし、GOP内にシーンカットがある場合、ビジュアルコンテンツ
は重大に変化し、新たなマスクを使用し、この新たなビジュアルコンテンツに適
合させる。このように、前記透かしを、前記Iフレームか、シーンカット後の最
初の前記Pフレームに重ねる。(I) Mask Generation Module In this module, a watermark mask image is generated first for each GOP or for the first P frame after a scene cut, as shown by section (i) in FIG. . This is based on the fact that video content tends to remain unchanged in a GOP, typically on the order of 15 frames or 0.5 seconds. However, if there is a scene cut in the GOP, the visual content changes significantly, using a new mask and adapting to this new visual content. In this way, the watermark is superimposed on the I frame or the first P frame after the scene cut.
【0011】 前記マスクを発生するために、図3によって示すように、前記入力透かし画像
を、最初にグレイスケール画像に変換する。各画像の輝度チャネルのみを変更す
る。透明色(背景色)を選択する。この透明色値を有するすべての透かし画素の
輝度を0に設定する。任意に、前記マスク画像を、xおよびyの双方向にランダ
ムにシフトする。DCTを用い、前記透かしのDCTマスクを得る。前記マスク
の輝度を、前記入力画像に加える前の前記入力画像コンテンツに従って適合的に
選択する。To generate the mask, the input watermark image is first converted to a grayscale image, as shown by FIG. Only the luminance channel of each image is changed. Select a transparent color (background color). The brightness of all watermark pixels having this transparent color value is set to zero. Optionally, the mask image is randomly shifted in both x and y directions. Using DCT, a DCT mask for the watermark is obtained. The brightness of the mask is adaptively selected according to the input image content before being added to the input image.
【0012】 前記画素領域において、以下の式が、G.W.ブラウダウェイ他による上記で
参照したレポートにおいて提案されている。In the pixel area, the following equation is expressed by G. W. Proposed in the report referenced above by Browaway et al.
【数1】 ここで、wnm’を、前記オリジナル画像に加える前記選択された透かしマスク
とし、wnmを、画素(n,m)における不透明透かし画素値とし、ywを、シ
ーンホワイトとし、ynmを、前記入力画像の画像座標(n,m)における輝度
値とし、ΔLを、前記透かし強度を制御する強弱係数とする。(Equation 1) Where w nm ′ is the selected watermark mask to be added to the original image, w nm is the opaque watermark pixel value at pixel (n, m), y w is the scene white, and y nm is Let the luminance value at the image coordinates (n, m) of the input image be, and ΔL be the strength coefficient for controlling the watermark strength.
【0013】 本発明の一態様によれば、前記DCT領域における強弱に関して、確率論的近
似を使用することができる。ynmおよびwnmを独立ランダム変数と考え、y
をMPEGにおいて使用される輝度範囲、すなわち、[0,255]から[16
,235]に対して正規化し、yw=235とすると、式1に基づいて、w’の
予測される値は、According to one embodiment of the present invention, a probabilistic approximation can be used for the strength in the DCT domain. Consider y nm and w nm as independent random variables,
To the luminance range used in MPEG, ie, [0,255] to [16
, 235] and y w = 235, the predicted value of w ′ based on equation 1 is
【数2】 となる。(Equation 2) Becomes
【0014】 yが平均α、分散β2の正規分布を有するとすると、式(2)におけるE[y 2/3 ]項を、Y is mean α, variance β2Is assumed to have a normal distribution of E [y 2/3 ] Term,
【数3】 と表すことができる。このように、E[y2/3]は、前記画素値の平均および
分散の関数である。(Equation 3) It can be expressed as. Thus, E [y 2/3 ] is a function of the mean and variance of the pixel values.
【0015】 式(2)は、ランダム変数w、w’およびyの瞬時間の関係を指定する。この
関係を、決定論的な場合に拡張し、式(2)を単純にすることができ、結果として
線形近似が生じる。Equation (2) specifies the relationship between the instants of random variables w, w ′ and y. This relationship can be extended to the deterministic case to simplify equation (2), resulting in a linear approximation.
【0016】 8×8画像ブロックごとに、前記ブロックの平均および分散を使用して式3に
おけるαおよびβ2を近似し、平均αを使用して、これらの式のいずれかの決定
におけるyを近似し、式2において使用する。For each 8 × 8 image block, approximate the α and β 2 in Equation 3 using the mean and variance of the block, and use the average α to determine y in the determination of any of these equations. Approximate and used in equation 2.
【数4】 ここで、k=0,...,63に関して、wnm’を、前記透かし画像における
i,j番目の8×8ブロックのk番目の画素とする。(Equation 4) Here, k = 0,. . . , 63, let w nm ′ be the k-th pixel of the i × j-th 8 × 8 block in the watermark image.
【0017】 式4は、式2による非線形関数を、ブロックごとの線形関数によって近似する
。前記選択された透かし強度は、前記画像ブロックの平均および分散に依存する
。画像ブロックごとに、前記平均がより大きく(すなわちより明るく)、前記分
散がより大きい(すなわちよりごちゃごちゃしている)と、前記透かしの一貫し
た可視性を保持するために、前記透かしに必要な強度はより高くなる。Equation 4 approximates the nonlinear function according to Equation 2 with a linear function for each block. The selected watermark strength depends on the mean and variance of the image block. For each image block, the larger the average (i.e., lighter) and the greater the variance (i.e., more cluttered), the strength required for the watermark to maintain consistent visibility of the watermark. Will be higher.
【0018】 式4のDCTを使用して前記透かしマスクのDCTを得ることができ、これを
前記DCT領域における画像において挿入することができる。前記入力画像の平
均および分散をDCT係数から得ることができる。The DCT of Equation 4 can be used to obtain the watermark mask DCT, which can be inserted in the image in the DCT domain. The mean and variance of the input image can be obtained from DCT coefficients.
【数5】 (Equation 5)
【数6】 ここで、YDCおよびYACを、各々、画像ブロックYのDC−およびAC−D
CT係数とする。(Equation 6) Here, Y DC and Y AC are respectively referred to as DC− and AC−D of image block Y.
Let it be a CT coefficient.
【0019】 新たな透かしマスクを、Iフレームと、シーンカットの場合においてはPフレ
ームの各々に関して計算する。Iフレームに関して、すべてのDCT係数は、M
PEGシーケンスの最小限の復号化、すなわち、逆可変長符号化、逆ランレング
ス符号化および逆量子化後に、容易にアクセス可能である。Pフレームに関して
、大部分のブロックは前記シーンカット中であることから、これらのDCT係数
をすぐに使用することができる。非イントラ符号化ブロックに関して、イントラ
符号化ブロックから得られた平均DCおよびACエネルギーを除去する。A new watermark mask is calculated for each of the I-frame and, in the case of a scene cut, the P-frame. For I frames, all DCT coefficients are M
It is easily accessible after minimal decoding of the PEG sequence, i.e. inverse variable length encoding, inverse run length encoding and inverse quantization. For P frames, most of the blocks are in the scene cut, so these DCT coefficients can be used immediately. For non-intra coded blocks, remove the average DC and AC energy obtained from the intra coded blocks.
【0020】 さらなる高速化に関して、ブロックを基礎とした(αij,βij)対を、画
像全体について、または、特定の領域について、平均(α,β)と交換すること
ができる。以下において、多領域アプローチを説明する。For further speedup, the block-based (α ij , β ij ) pair can be exchanged with the average (α, β) for the whole image or for a specific region. In the following, a multi-domain approach will be described.
【0021】 前記入力画像を、多くの長方形領域に分離することができる。図5によって示
すように、領域ごとに、(α,β)を計算し、前記マスクを適宜に発生する。代
表的に、前記透かしを、上部および下部領域に分割する。これは、例えば、図2
aに示すような、前記フレームの上半分が空で、下半分がより暗い風景の大部分
の屋外風景に関して好適である。各領域は、異なった(α,β)対を使用する比
較的可視の透かしを有する。The input image can be separated into many rectangular areas. As shown in FIG. 5, (α, β) is calculated for each region, and the mask is generated appropriately. Typically, the watermark is divided into upper and lower regions. This is, for example, FIG.
This is preferred for the majority of outdoor landscapes, where the upper half of the frame is empty and the lower half is darker, as shown in FIG. Each region has a relatively visible watermark using a different (α, β) pair.
【0022】 前記透かしのセキュリティをさらに強化するために、ランダムな位置シフトを
前記透かし画像に、前記DCTを適用する前に適用することができる。これは、
例えば、既知のロゴを透かし目的に使用する場合、前記オリジナル透かし画像を
所有している攻撃者が前記透かしを除去することをより困難にする。サブ画素の
ランダムな位置シフトは、攻撃者が何らかのエラーを残すことなく前記透かしを
除去することをきわめて困難にする。To further enhance the security of the watermark, a random position shift can be applied to the watermark image before applying the DCT. this is,
For example, if a known logo is used for watermarking purposes, it makes it more difficult for an attacker possessing the original watermark image to remove the watermark. The random shift of sub-pixels makes it very difficult for an attacker to remove the watermark without leaving any errors.
【0023】 以下を、シフトに関して使用することができる。各々xおよびy方向に関する
2つの乱数を発生し、正規化して−1.00ないし1.00間にする。空間領域
において、サブピクセルシフトを、線形スケーリングおよび加算のみを含む双一
次補間によって行う。前記DCT領域において、同様の双一次演算を使用するこ
とができる。The following can be used for shifting: Generate two random numbers for the x and y directions, respectively, and normalize to between -1.00 and 1.00. In the spatial domain, the sub-pixel shift is performed by bilinear interpolation including only linear scaling and addition. A similar bilinear operation can be used in the DCT domain.
【0024】 一度、透かしのDCTブロックが取得されると、図4のセクション(ii)ニ
示したように、そのDCTブロックが3方法のうちの一つで入力ビデオのDCT
フレームに挿入される。Iフレーム又はB若しくはPフレームのイントラ符号化
ブロックに対して、スケール化された透かしのDCTが直接付加される。Once the DCT block of the watermark is obtained, as shown in section (ii) d of FIG.
Inserted into the frame. The DCT of the scaled watermark is directly added to the intra-coded block of the I frame or the B or P frame.
【数7】 この場合、E’i,jを、結果的に取得されるi,j番目のDCTブロックとし
、Ei,jを、元のDCTブロックとし、W’i,jを、式6によるスケール化
されたDCTとする。(Equation 7) In this case, E ′ i, j is the i, j-th DCT block obtained as a result, E i, j is the original DCT block, and W ′ i, j is scaled according to Equation 6. DCT.
【0025】 Pフレームのフォワード動きベクトルすなわちBフレームのバックワード動き
ベクトルを有するブロックに対して、アンカーフレームに付加された透かしを、
現透かしに付加する際に取り除く必要がある。結果的に得られるDCT誤差は、For a block having a forward motion vector of a P frame, that is, a backward motion vector of a B frame, a watermark added to an anchor frame is
It must be removed when adding to the current watermark. The resulting DCT error is
【数8】 となる。この場合、MCDCTを、S.−F.Chang等による上記論文に記
載されたような動き補償係数とする。W’Fを、図1に示すようなフォワードア ンカーアンカーフレームデ用いられる透かしDCTとし、VFijを、図1に示 すようなフォワード動きベクトルとする。 B−フレームの双方向の予測されるブロックに対して、フォワード及びバック
ワード動き補償を、現透かしを付加する際に平均化し及び減算する必要がある。(Equation 8) Becomes In this case, the MDCCT is the S.D. -F. The motion compensation coefficient is as described in the above-mentioned article by Chang et al. Let W ′ F be the watermark DCT used in the forward anchor anchor frame as shown in FIG. 1, and let V Fij be the forward motion vector as shown in FIG. For the bidirectional predicted block of the B-frame, the forward and backward motion compensation needs to be averaged and subtracted when adding the current watermark.
【数9】 この場合、VF及びVBをそれぞれ、図1に示すようなフォワード及びバックワ ード動きベクトルとする。 B及びPフレームの0−動き、0−誤差ブロックである飛び越されたブロック
に対しては、アンカーフレームに挿入された透かしが持ち越されるので、動作を
必要としない。(Equation 9) In this case, each of the V F and V B, the forward and backward-motion vector as shown in Figure 1. For the skipped blocks that are 0-motion, 0-error blocks of B and P frames, no action is required because the watermark inserted in the anchor frame is carried over.
【0026】 最終ビットレートの制御に対して、以下の形態のうちの1個以上を有する。 1.大抵の高周波係数が零になるような透かしのDCT係数の量子化/逆量子化
。その結果、少数のビットを用いた粗い透かしとなる。 2.高周波係数のカットオフ。その効果は、画素領域のローパスフィルタ処理と
同様である。その結果、更に丸まったエッジを有する更に滑らかな透かしとなる
。 3.動きベクトル選択。この動きベクトルの動き補償を用いた誤差がそれを用い
ないときよりも大きい場合、Pフレームのマクロブロックの動きベクトルを零に
設定する。 動きベクトルを用いる場合、誤差はThe control of the final bit rate has one or more of the following modes. 1. Quantization / dequantization of watermark DCT coefficients such that most high frequency coefficients are zero. The result is a coarse watermark using a small number of bits. 2. High frequency coefficient cutoff. The effect is similar to that of the low-pass filter processing of the pixel area. The result is a smoother watermark with more rounded edges. 3. Motion vector selection. If the error of the motion vector using the motion compensation is larger than when the motion vector is not used, the motion vector of the macroblock of the P frame is set to zero. When using motion vectors, the error is
【数10】 となる。そうでない場合にはVFij=0に設定する。(Equation 10) Becomes Otherwise, set V Fij = 0.
【数11】 ここで、IFをアンカーフレームのDCTとする。 |E’’ij|<|E’ij|の場合、VFij=0に設定する。[Equation 11] Here, the DCT anchor frame I F. If | E ″ ij | <| E ′ ij |, set V Fij = 0.
【0027】 図2a,2b及び2cは、適合性透かし技術の使用を示す。図2aは、元の透 かしマークを示す。ここで2値形態を示す間、アルゴリズムは、任意の特定の透 明色を有するグレースケールを処理することができる。図2bは元のイメージを 示す。図2cは、新たな透かしを付したイメージを示す。 透かしを付したアルゴリズムは、6フレーム/秒のレートで達成されるHP J
210ワークステーションにおいてテストされる。演算労力の大部分はMC−D
CT動作となる。あり得る全てのMC−DCTブロックが予め演算される場合、
実時間パフォーマンスが可能となる。これは、352×240イメージサイズに
対して12メガバイトを必要とする。FIGS. 2 a, 2 b, and 2 c illustrate the use of adaptive watermarking techniques. FIG. 2a shows the original watermark mark. Here, while exhibiting the binary form, the algorithm can process grayscale with any particular transparent color. FIG. 2b shows the original image. FIG. 2c shows the image with the new watermark. The watermarked algorithm is based on the HPJ achieved at a rate of 6 frames per second.
Tested at 210 workstation. Most of the computational effort is MC-D
The CT operation is performed. If all possible MC-DCT blocks are pre-computed,
Real-time performance is possible. This requires 12 megabytes for a 352 × 240 image size.
【0028】 本発明の態様によれば、好適な透かしは、タンパーによって容易に無効にされ
又は除去されないような頑強性を提供する。例えば、透かしが上記方法によって
MPEGビデオに挿入される場合、それは、透かしマスクを復元し、広範囲のサ
ブ画像ブロック整合によって嵌め込み位置を評価し、かつ、各透かし領域に対す
るAccording to aspects of the present invention, the preferred watermark provides robustness such that it is not easily invalidated or removed by a tamper. For example, if a watermark is inserted into the MPEG video by the above method, it will restore the watermark mask, evaluate the embedding position by extensive sub-image block alignment, and
【外1】 因子を評価する。実験において、タンパービデオに顕著な跡が常に残されており
、それは、所有者の誤ったクレームを拒絶し、かつ、著作権侵害を防止する。[Outside 1] Evaluate the factors. In experiments, there are always marked marks on tamper videos, which reject the owner's false claims and prevent piracy.
【0029】 頑強性のために、透かしを2値とすべきではなく、それは、配置されるシーン と同様なテクスチャを有するべきである。これは、シーンからIフレームを任意
に選択し、それを逆DCT変換によって復号化して画素値を取得し、かつ、復号
化ビデオフレームから透かしをマスクアウトすることによって行われる。 ビデオシーケンスにおけるパンやズームのようなカメラ動作がある場合、挿入
された透かしは、ビデオモザイクを適用することによって、すなわち、複数のイ
メージフレームの小部分から大きなイメージを組み合わせることによって無効に
される。この場合、透かしを範囲外のものとしてフィルタアウトすることができ
る。しかしながら、この技術は、透かしが動く前景にも嵌め込まれるので、実際
に動くオブジェクトが前景に存在する場合にはうまくいかない。本発明による他
の実施の形態による対策としてFor robustness, the watermark should not be binary, it should have a texture similar to the scene in which it is placed. This is done by arbitrarily selecting an I-frame from the scene, decoding it by an inverse DCT transform to obtain pixel values, and masking out the watermark from the decoded video frame. If there is a camera action such as panning or zooming in the video sequence, the inserted watermark is nullified by applying a video mosaic, ie, combining large images from small parts of multiple image frames. In this case, the watermark can be filtered out as out of range. However, this technique does not work if the moving object is present in the foreground, since the watermark is also embedded in the moving foreground. As a measure according to another embodiment of the present invention
【0030】 全体に亘るすなわち背景の動きに対して静止して出現する透かしを用いる。そ
のようなカメラ動作は、2Dアフィンモデルを使用し、評価したカメラ動作を用
いて透かしを変換し及びスケール化する。アフィンモデルは、以下のように規定
されている。 MPEGの動きベクトルは通常、ブロック整合すなわち平均二乗誤差が最小と
なるようなブロックを見つけることによって発生させる。動きベクトルが正確な
光学フロー(optical flow)を表さない場合、それは、大きな暗い又は一様な領域
を有しないシーケンスでカメラパラメータを評価するように大抵の場合良好であ
る。Use a watermark that appears globally, that is to say stationary with respect to background motion. Such camera operations use a 2D affine model and transform and scale the watermark using the evaluated camera operations. The affine model is defined as follows. MPEG motion vectors are typically generated by finding the block that minimizes block matching, or mean square error. If the motion vector does not represent the exact optical flow, it is usually good to evaluate camera parameters in a sequence that does not have large dark or uniform areas.
【0031】 オブジェクト/背景とカメラとの間の距離が長い場合、6パラメータアフィン 変換を用いて現フレームの広域の動きを表現するだけで通常十分である。If the distance between the object / background and the camera is long, it is usually sufficient to represent the global motion of the current frame using a 6-parameter affine transformation.
【数12】 この場合、(x,y)を、現フレームのマクロブロックの座標とし、[u,v]T を、マクロブロックに関連する動きベクトルとし、[a1a2a3a4a5a6] T をアフィン変換パラメータとする。[u,v]TをUで表し、(Equation 12)In this case, let (x, y) be the coordinates of the macroblock in the current frame and [u, v]T Is the motion vector associated with the macroblock, and [a1a2a3a4a5a6] T Is an affine transformation parameter. [u, v]TIs represented by U,
【外2】 をXで表し、[a1a2a3a4a5a6]Tをaで表す。[Outside 2] Is represented by X, and [a 1 a 2 a 3 a 4 a 5 a 6 ] T is represented by a.
【0032】 各マクロブロックに対して動きベクトルを与えると、最小二乗(LS)評価を
用いた広域パラメータを見つけ、すなわち、(1)で評価した動きベクトルとM
PEGストリームから取得した実際の動きベクトルとの間の誤差を最小にするパ
ラメータδのセットを見つける。Given a motion vector for each macroblock, find a global parameter using least squares (LS) evaluation, ie, the motion vector evaluated in (1) and M
Find the set of parameters δ that minimize the error between the actual motion vector obtained from the PEG stream.
【数13】 この場合、(Equation 13) in this case,
【外3】 を、評価した動きベクトルとする。δを解くために、S(δ)の一次導関数を零
にセットし、[Outside 3] Is the evaluated motion vector. To solve δ, set the first derivative of S (δ) to zero,
【数14】 を得る。この場合、[Equation 14] Get. in this case,
【数15】 とする。(Equation 15) And
【0033】 全ての和は、非線形雑音減少プロセス後に動きベクトルが存在し続ける全ての
有効なマクロブロックを超える。第1のLS評価後、評価された動きベクトルか らの距離が長い動きベクトルは、第2のLS評価前にフィルタアウトされる。評 価プロセスは複数回繰り返されて、精度を向上させる。 優勢な動きを、以下のようなクラスタ化を用いて評価する。 B又はPフレームの各々に対して、フォワード動きベクトルを取得する。 各動きベクトルを、予め規定された複数(例えば4)の分類のうちの一つに割り
当てる。 広域アフィンパラメータを最初の分類に割り当てるとともに、零を他の全ての
分類に割り当てる。 複数回、例えば20回、又は差が最適化するまでの以下の事項の繰り返し。ユー
クリッド距離が最小になる分類への各動きベクトルの割当て及びそのメンバーの
動きベクトルを用いた各分類に対する2次元アフィンパラメータの再計算。All sums exceed all valid macroblocks for which motion vectors remain present after the nonlinear noise reduction process. After the first LS evaluation, motion vectors that are longer in distance from the evaluated motion vector are filtered out before the second LS evaluation. The evaluation process is repeated multiple times to improve accuracy. The dominant movement is evaluated using the following clustering. For each B or P frame, obtain a forward motion vector. Each motion vector is assigned to one of a plurality (for example, 4) of predefined classifications. The global affine parameters are assigned to the first class and zero is assigned to all other classes. Repeat the following items multiple times, for example 20 times, or until the difference is optimized. Assignment of each motion vector to the class that minimizes the Euclidean distance and recalculation of the two-dimensional affine parameters for each class using the motion vectors of its members.
【図1】 動き補償された離散余弦変換(MC−DCT)を説明するための図で
ある。FIG. 1 is a diagram illustrating a motion-compensated discrete cosine transform (MC-DCT).
【図2】 aは透かしマークを表す図であり、bは元のイメージを表す図であり
、cは元のイメージ及び透かしマークの重ね合わせを表す図である。2A is a diagram illustrating a watermark mark, FIG. 2B is a diagram illustrating an original image, and FIG. 2C is a diagram illustrating superimposition of an original image and a watermark mark.
【図3】 初期処理のフローチャートである。FIG. 3 is a flowchart of an initial process.
【図4】 透かし重ね合わせ処理のフローチャートである。FIG. 4 is a flowchart of a watermark superimposition process.
【図5】 領域に対するスケール化のフローチャートである。FIG. 5 is a flowchart for scaling an area.
【手続補正書】[Procedure amendment]
【提出日】平成12年5月22日(2000.5.22)[Submission date] May 22, 2000 (2000.5.22)
【手続補正1】[Procedure amendment 1]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0029[Correction target item name] 0029
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【0029】 頑強性のために、透かしを2値とすべきではなく、それは、配置されるシーン と同様なテクスチャを有するべきである。これは、シーンからIフレームを任意
に選択し、それを逆DCT変換によって復号化して画素値を取得し、かつ、復号
化ビデオフレームから透かしをマスクアウトすることによって行われる。 ビデオシーケンスにおけるパンやズームのようなカメラ動作がある場合、挿入
された透かしは、ビデオモザイクを適用することによって、すなわち、複数のイ
メージフレームの小部分から大きなイメージを組み合わせることによって無効に
される。この場合、透かしを範囲外のものとしてフィルタアウトすることができ
る。しかしながら、この技術は、透かしが動く前景にも嵌め込まれるので、実際
に動くオブジェクトが前景に存在する場合にはうまくいかない。本発明による他
の実施の形態による対策として、全体に亘るすなわち背景の動きに対して静止し
て出現する透かしを用いる。そのようなカメラ動作は、2Dアフィンモデルを使
用し、評価したカメラ動作を用いて透かしを変換し及びスケール化する。アフィ
ンモデルは、以下のように規定されている。For robustness, the watermark should not be binary, it should have a texture similar to the scene in which it is placed. This is done by arbitrarily selecting an I-frame from the scene, decoding it by an inverse DCT transform to obtain pixel values, and masking out the watermark from the decoded video frame. If there is a camera action such as panning or zooming in the video sequence, the inserted watermark is nullified by applying a video mosaic, ie, combining large images from small parts of multiple image frames. In this case, the watermark can be filtered out as out of range. However, this technique does not work if the moving object is present in the foreground, since the watermark is also embedded in the moving foreground. As a countermeasure according to another embodiment of the present invention, a watermark which appears stationary throughout the whole, that is, against background movement is used. Such a camera operation uses a 2D affine model and transforms and scales the watermark using the evaluated camera operation. The affine model is defined as follows.
【手続補正2】[Procedure amendment 2]
【補正対象書類名】明細書[Document name to be amended] Statement
【補正対象項目名】0030[Correction target item name] 0030
【補正方法】変更[Correction method] Change
【補正内容】[Correction contents]
【0030】 MPEGの動きベクトルは通常、ブロック整合すなわち平均二乗誤差が最小と
なるようなブロックを見つけることによって発生させる。動きベクトルが正確な
光学フロー(optical flow)を表さない場合、それは、大きな暗い又は一様な領域
を有しないシーケンスでカメラパラメータを評価するように大抵の場合良好であ
る。An MPEG motion vector is usually generated by finding a block that minimizes block matching, ie, the mean square error. If the motion vector does not represent the exact optical flow, it is usually good to evaluate camera parameters in a sequence that does not have large dark or uniform areas.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 シー−フ チャン アメリカ合衆国 サウスウェスト マッド ビルディング ルーム 1312 コロンビ ア ユニヴァーシティ デパートメント オブ エレクトリカル エンジニアリング (72)発明者 ジアンハオ メン アメリカ合衆国 ニューヨーク州 10027 ニューヨーク ウェスト ワンハンドレ ッドナインティーンス ストリート 435 ナンバー9エル Fターム(参考) 5B057 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE20 CG07 5C059 KK43 MA00 MA14 MA15 MA23 NN01 PP05 PP06 PP07 RB02 RC35 UA02 5C076 AA14 BA06 5J104 AA14 NA15 ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Shi-Fu Chan United States Southwest Mad Building Room 1312 Colombia University Department of Electrical Engineering (72) Inventor Jianhao Men United States of America 10027 New York West Onehand Red Nineteenth Street 435 Number 9 L F-term (Reference) 5B057 BA02 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CE20 CG07 5C059 KK43 MA00 MA14 MA15 MA23 NN01 PP05 PP06 PP07 RB02 RC35 UA02 5C076 AA14 BA06 5J104 AA15 NA
Claims (5)
表現を決定するステップと、 前記透かしの変換された表現を、前記画像の変換された表現に重ねるステップ
とを具えることを特徴とする方法。1. A method for including a watermark in a digital image, comprising: obtaining digital data of a transformed representation of the image; and determining a transformed representation of the watermark for optimal visibility of the watermark in the image. And overlaying the transformed representation of the watermark on the transformed representation of the image.
圧縮された表現としたことを特徴とする方法。2. The method according to claim 1, wherein the transformed representation of the image is:
A method characterized by a compressed representation.
離散コサイン変換された表現としたことを特徴とする方法。3. The method of claim 1, wherein the transformed representation of the image is:
A method characterized by being represented by a discrete cosine transform.
ちの一つとしたことを特徴とする方法。4. The method of claim 1, wherein the image is one of a sequence of video images.
償を含むことを特徴とする方法。5. The method according to claim 3, wherein said transformed representation comprises motion compensation.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US6350997P | 1997-10-27 | 1997-10-27 | |
US60/063,509 | 1997-10-27 | ||
PCT/US1998/022790 WO1999022480A1 (en) | 1997-10-27 | 1998-10-27 | Watermarking of digital image data |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001522165A true JP2001522165A (en) | 2001-11-13 |
Family
ID=22049688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000518471A Pending JP2001522165A (en) | 1997-10-27 | 1998-10-27 | Watermarking of digital image data |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP1034635A1 (en) |
JP (1) | JP2001522165A (en) |
KR (1) | KR20010031526A (en) |
CA (1) | CA2308402A1 (en) |
WO (1) | WO1999022480A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006191553A (en) * | 2004-12-09 | 2006-07-20 | Sony United Kingdom Ltd | Data processing system and data processing method |
JP2008225904A (en) * | 2007-03-13 | 2008-09-25 | Sony Corp | Data processing system and data processing method |
JP2012123396A (en) * | 2003-04-07 | 2012-06-28 | Samsung Electronics Co Ltd | Image data set with embedded pre-subpixel rendered image |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001061052A (en) * | 1999-08-20 | 2001-03-06 | Nec Corp | Method for inserting electronic watermark data, its device and electronic watermark data detector |
KR100472072B1 (en) * | 2001-11-05 | 2005-03-08 | 한국전자통신연구원 | Apparatus and method of injecting and detecting time-domain local mean value removed watermark signal for watermarking system |
KR101729032B1 (en) | 2015-08-17 | 2017-04-21 | (주)스토리허브 | Method and device of generating synthesis image file comprising additional information and computer readable program for the same |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5488664A (en) * | 1994-04-22 | 1996-01-30 | Yeda Research And Development Co., Ltd. | Method and apparatus for protecting visual information with printed cryptographic watermarks |
US5530759A (en) * | 1995-02-01 | 1996-06-25 | International Business Machines Corporation | Color correct digital watermarking of images |
US5664018A (en) * | 1996-03-12 | 1997-09-02 | Leighton; Frank Thomson | Watermarking process resilient to collusion attacks |
-
1998
- 1998-10-27 JP JP2000518471A patent/JP2001522165A/en active Pending
- 1998-10-27 CA CA002308402A patent/CA2308402A1/en not_active Abandoned
- 1998-10-27 KR KR1020007004567A patent/KR20010031526A/en not_active Application Discontinuation
- 1998-10-27 WO PCT/US1998/022790 patent/WO1999022480A1/en not_active Application Discontinuation
- 1998-10-27 EP EP98956257A patent/EP1034635A1/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012123396A (en) * | 2003-04-07 | 2012-06-28 | Samsung Electronics Co Ltd | Image data set with embedded pre-subpixel rendered image |
JP2006191553A (en) * | 2004-12-09 | 2006-07-20 | Sony United Kingdom Ltd | Data processing system and data processing method |
JP4582482B2 (en) * | 2004-12-09 | 2010-11-17 | ソニー ヨーロッパ リミテッド | Data processing apparatus and data processing method |
JP2008225904A (en) * | 2007-03-13 | 2008-09-25 | Sony Corp | Data processing system and data processing method |
Also Published As
Publication number | Publication date |
---|---|
EP1034635A1 (en) | 2000-09-13 |
KR20010031526A (en) | 2001-04-16 |
WO1999022480A1 (en) | 1999-05-06 |
CA2308402A1 (en) | 1999-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7154560B1 (en) | Watermarking of digital image data | |
Meng et al. | Embedding visible video watermarks in the compressed domain | |
US7822231B2 (en) | Optical flow estimation method | |
Qiu et al. | A hybrid watermarking scheme for H. 264/AVC video | |
Biswas et al. | An adaptive compressed MPEG-2 video watermarking scheme | |
PL183642B1 (en) | Data decoding system | |
KR20040034644A (en) | Electronic watermark data insertion apparatus | |
US8270485B2 (en) | Digital watermarking method | |
Favorskaya et al. | Authentication and copyright protection of videos under transmitting specifications | |
JP2004336529A (en) | Motion picture data processing apparatus, method and program | |
Liu et al. | Secure steganography in compressed video bitstreams | |
KR20010050847A (en) | System and apparatus for inserting electronic watermark data | |
Wang et al. | High-capacity data hiding in MPEG-2 compressed video | |
JP2001522165A (en) | Watermarking of digital image data | |
Lin et al. | An embedded watermark technique in video for copyright protection | |
Golikeri et al. | Robust digital video watermarking scheme for H. 264 advanced video coding standard | |
Pei et al. | A video watermarking scheme based on motion vectors and mode selection | |
Favorskaya | Watermarking models of video sequences | |
Jacquin et al. | Content-adaptive postfiltering for very low bit rate video | |
US6754270B1 (en) | Encoding high-definition video using overlapping panels | |
US7319754B2 (en) | Insertion of binary messages in video pictures | |
Noorkami et al. | Improving Perceptual Quality in Video watermarking using motion estimation | |
Kim et al. | A robust video watermarking method | |
Ueno | A digital video watermarking method by associating with the motion estimation | |
El'Arbi et al. | A dynamic video watermarking scheme in the dwt domain |