JP4610653B2 - Method for identifying marked images using statistical moments based at least in part on JPEG sequences - Google Patents

Method for identifying marked images using statistical moments based at least in part on JPEG sequences Download PDF

Info

Publication number
JP4610653B2
JP4610653B2 JP2008550285A JP2008550285A JP4610653B2 JP 4610653 B2 JP4610653 B2 JP 4610653B2 JP 2008550285 A JP2008550285 A JP 2008550285A JP 2008550285 A JP2008550285 A JP 2008550285A JP 4610653 B2 JP4610653 B2 JP 4610653B2
Authority
JP
Japan
Prior art keywords
image
frequency domain
representation
features
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008550285A
Other languages
Japanese (ja)
Other versions
JP2009524280A (en
Inventor
イン−チン シ,
チュンファ チェン,
Original Assignee
ニュー ジャージー インスティチュート オブ テクノロジー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニュー ジャージー インスティチュート オブ テクノロジー filed Critical ニュー ジャージー インスティチュート オブ テクノロジー
Publication of JP2009524280A publication Critical patent/JP2009524280A/en
Application granted granted Critical
Publication of JP4610653B2 publication Critical patent/JP4610653B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32154Transform domain methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32149Methods relating to embedding, encoding, decoding, detection or retrieval operations
    • H04N1/32154Transform domain methods
    • H04N1/32165Transform domain methods using cosine transforms

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

本出願は、例えばマーク付き画像(marked images)等のコンテンツを分類又は識別することに関する。 The present application relates to classifying or identifying content such as, for example, marked images.

デジタルデータ隠蔽技術は、近年盛んに研究されている分野であり、様々なデータ隠蔽方法が提案されている。コンテンツ保護及び/又は認証を目的とする方法もあれば、秘密通信を目的とする方法もある。後者に分類されるデータ隠蔽を、本明細書ではステガノグラフィと称する。 Digital data hiding technology is a field that has been actively studied in recent years, and various data hiding methods have been proposed. Some methods aim at content protection and / or authentication, while others aim at secret communication. Data hiding classified as the latter is referred to herein as steganography.

本発明の主題は、本願の特許請求の範囲にて詳細に示され、明確に請求される。但し、特許請求の範囲に記載の主題は、操作の機構及び方法の両者に関して、その目的、特徴及び/又は利点と共に、以下の詳細な記述及び添付図面を参照することで、最も理解されよう。 The subject matter of the present invention is set forth with particularity in the appended claims and is claimed explicitly. However, the claimed subject matter will be best understood by reference to the following detailed description and the accompanying drawings, as well as its purpose, features and / or advantages, both in terms of the mechanism and method of operation.

詳細な説明
以下の詳細な説明において、特許請求の範囲に記載の主題が十分に理解されるように、具体的な詳細を多数示している。しかしながら、それらの具体的な詳細通りでなくとも特許請求の範囲に記載の主題を実行できることは、当業者に理解されよう。また、特許請求の範囲に記載の主題が不明確にならないように、公知の方法、手順、構成要素、及び/又は回路を詳細には説明していない場合もある。
DETAILED DESCRIPTION In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of claimed subject matter. However, one of ordinary skill in the art appreciates that the subject matter recited in the claims can be practiced without the specific details. In other instances, well-known methods, procedures, components, and / or circuits have not been described in detail so as not to obscure the claimed subject matter.

以下の詳細な説明の中には、コンピューティングシステム(コンピュータ及び/又はコンピューティングシステムメモリ等)に記憶されたデータビット及び/又は2値デジタル信号の操作のアルゴリズム及び/又は記号表現によって記載している部分がある。これらのアルゴリズム的記述及び/又は表現は、データ処理分野の当業者が自分の仕事内容を他の当業者に伝達するために用いる技術である。アルゴリズムは、本明細書で、また一般的にも、所望の結果をもたらす操作及び/又は同様な処理の自己矛盾がないシーケンスと考えられる。上記操作及び/又は処理は、物理量の物理的操作を伴うことがある。これらの物理量は、必ずしもそうとは限らないが、通常、記憶、転送、結合、比較、及び/又は他の操作が可能な電気信号及び/又は磁気信号の形態を採ることとなる。主として一般的使用法の点から、これらの信号をビット、データ、値、要素、記号、文字、用語、数、及び/又は数詞等と呼ぶ方が便利な場合がある。しかしながら、これらの用語及び類似の用語は全て適当な物理量と関連付けられるものであり、単なる便宜的なラベルに過ぎないことを理解されたい。特に明記しない限り、以下の記載から明白であるように、本明細書中、「処理」、「演算」、「計算」、及び/又は「決定」等の用語を用いた記載は、コンピューティングプラットフォームのプロセッサ、メモリ、レジスタ、及び/又は他の情報記憶デバイス、情報送信デバイス、及び/又は情報表示デバイスにおいて物理電子量及び/又は磁気量、及び/又は他の物理量として表されるデータを処理及び/又は変換するコンピューティングプラットフォーム(コンピュータ又は類似の電子演算デバイス等)により実行される動作及び/又は処理を指すということが理解される。 In the detailed description that follows, an algorithm and / or symbolic representation of the manipulation of data bits and / or binary digital signals stored in a computing system (such as a computer and / or computing system memory) is described. There is a part. These algorithmic descriptions and / or representations are techniques used by those skilled in the data processing arts to convey their work to others skilled in the art. An algorithm is herein and generally considered a self-consistent sequence of operations and / or similar processes that yields the desired result. The above operations and / or processes may involve physical manipulation of physical quantities. These physical quantities are typically, but not necessarily, in the form of electrical and / or magnetic signals that can be stored, transferred, combined, compared, and / or otherwise manipulated. It may be convenient to refer to these signals as bits, data, values, elements, symbols, characters, terms, numbers, and / or numbers, primarily in terms of general usage. It should be understood, however, that these and similar terms are all associated with the appropriate physical quantities and are merely convenient labels. Unless stated otherwise, the description using terms such as “processing”, “arithmetic”, “calculation”, and / or “determining” is used herein to be a computing platform, as will be apparent from the following description. Process data represented as physical electronic quantities and / or magnetic quantities and / or other physical quantities in a processor, memory, register, and / or other information storage device, information transmission device, and / or information display device It is understood that it refers to operations and / or processes performed by a computing platform (such as a computer or similar electronic computing device) that transforms.

JPEG画像の使用の普及により、近年、JPEG画像用のステガノグラフィックツールが増えているが、なかでも、モデルベースステガノグラフィ(MB)、F5及びOutGuessが最新のものである。しかしながら、隠しデータを含む画像を識別する新たなツールの開発が依然として望まれている。特許請求の範囲に記載の主題によれば、本明細書に記載される一実施形態は、画像2次元配列(image 2−D array)及びJPEG2次元配列から少なくとも部分的に導かれる統計モーメントに少なくとも部分的に基づく方法を含む。この特定の実施形態において、1次ヒストグラム(first order histogram)及び/又は2次ヒストグラム(second order histogram)を用いてもよいが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。例えば、他の実施形態において、例えば、高次ヒストグラム(higher order histograms)を利用してもよい。しかしながら、さらにこの特定の実施形態において、これらのヒストグラムから、2次元特性関数のモーメントもまた用いられるが、やはり、他の実施形態はこの点において限定されない。例えば、高次モーメントを用いてもよい。 Due to the widespread use of JPEG images, steganographic tools for JPEG images have increased in recent years, among which model-based steganography (MB), F5 and OutGuess are the latest. However, the development of new tools for identifying images containing hidden data remains desirable. According to the claimed subject matter, one embodiment described herein is at least a statistical moment derived at least partially from an image 2-D array and a JPEG two-dimensional array. Including partially based methods. In this particular embodiment, a first order histogram and / or a second order histogram may be used, but the claimed subject matter is not limited in scope in this respect. For example, in other embodiments, for example, higher order histograms may be utilized. However, in this particular embodiment, the moments of the two-dimensional characteristic function are also used from these histograms, but again, other embodiments are not limited in this respect. For example, a higher order moment may be used.

コンピュータ利用の普及により、インターネットの広範な使用が加速している。その結果、何百万もの映像が毎日インターネット上に流れている。近年、JPEG(Joint Photographic Experts Group)画像のやりとりはますます頻繁に行われている。JPEG画像を操作するステガノグラフィ技術が数多く公開され、公的に利用されている。この種の技術の大半は、JPEGドメイン内の8×8ブロック離散コサイン変換(BDCT)係数を変更することで隠しデータを埋め込んでいると思われる。ステガノグラフィ技術のなかで、最近公開されたスキームであるOutGuess、F5及びモデルベースステガノグラフィ(MB)が最新のものと思われる。以下の文献を参照されたい:N.Provos,“Defending against statistical steganalysis,”10th USENIX Security Symposium,Washington DC,USA,2001;A.Westfeld,“F5 a steganographic algorithm:High capacity despite better steganalysis,”4th International Workshop on Infor−mation Hiding,Pittsburgh,PA,USA,2001;P.Sallee,“Model−based steganography,”International Work−shop on Digital Watermarking,Seoul,Korea,2003。OutGuessは、カバー画像の冗長性を用いて隠蔽対象のデータを埋め込む。ここで、カバー画像とは、隠しデータが埋め込まれていないコンテンツを指す。JPEG画像に対し、OutGuessは、BDCTヒストグラムに少なくとも部分的に基づいて統計量を保存しようとする。さらに、OutGuessは、冗長なBDCT係数を識別し、これらの係数にデータを埋め込んで、データ埋め込みの影響を低減する。その上、データが埋め込まれていない係数を調整することで、オリジナルBDCTヒストグラムを保存しようとする。Jsteg、F3及びF4の発展形であるF5は以下の技術:ストラドリング(straddling)及び行列符号化(matrix coding)を用いる。ストラドリングは、メッセージをカバー画像に出来るだけ均一に分散させる。行列符号化は、埋め込み効率(本明細書中ではBDCT係数の変化毎の埋め込みビット数と定義する)を向上させる傾向がある。MB埋め込みは、埋め込みデータをカバー媒体と相関させようとするものである。これは、カバー媒体を2つの部分に分け、第1の部分が与えられた場合に第2の部分の分布のパラメーターをモデル化し、そのモデルと被埋め込みメッセージを用いて第2の部分を符号化し、2つの部分を組み合わせてステゴ媒体を形成することによって実装される。具体的には、コーシー分布を用いてJPEG BDCTモードヒストグラムがモデル化されており、埋め込みはBDCTモードの低精度ヒストグラムを変化させないままにしようとするものである。 The widespread use of the Internet is accelerating due to the widespread use of computers. As a result, millions of videos are flowing on the Internet every day. In recent years, exchange of JPEG (Joint Photographic Experts Group) images has been performed more and more frequently. Many steganographic techniques for manipulating JPEG images have been released and are publicly used. Most of this type of technology appears to embed hidden data by changing 8x8 block discrete cosine transform (BDCT) coefficients in the JPEG domain. Among steganographic techniques, the recently published schemes OutGuess, F5 and model-based steganography (MB) appear to be the latest. See the following references: Provos, “Defending Against Statistical Steganization,” 10th USENIX Security Symposium, Washington DC, USA, 2001; Westfeld, "F5 a steganologic algorithm: High capacity de- fect better stegansis," 4th International Workshop on Information Hidden, Pittsburgh, USA Salee, “Model-based steganography,” International Work-shop on Digital Watermarking, Seoul, Korea, 2003. OutGuess embeds the data to be concealed using the redundancy of the cover image. Here, the cover image refers to content in which hidden data is not embedded. For JPEG images, OutGuess attempts to store statistics based at least in part on the BDCT histogram. In addition, OutGuess identifies redundant BDCT coefficients and embeds data in these coefficients to reduce the effects of data embedding. In addition, it tries to preserve the original BDCT histogram by adjusting the coefficients that are not embedded with data. F5, an extension of Jseg, F3 and F4, uses the following techniques: straddling and matrix coding. Stradling distributes the message as evenly as possible on the cover image. Matrix coding tends to improve embedding efficiency (defined herein as the number of embedding bits per change in BDCT coefficients). MB embedding attempts to correlate embedded data with a cover medium. This divides the cover medium into two parts, models the distribution parameters of the second part given the first part, and encodes the second part using the model and the embedded message Implemented by combining the two parts to form a stego medium. Specifically, a JPEG BDCT mode histogram is modeled using a Cauchy distribution, and embedding attempts to keep the low accuracy histogram of the BDCT mode unchanged.

ステゴ画像内の隠し情報を検出するため、多くのステガナリシス方法が提唱されている。高次の統計量を用いる汎用ステガナリシス方法がFaridによって提唱されている。以下の文献を参照されたい:H.Farid,“Detecting hidden messages using higher−order statis−tical models,”International Conference on Image Processing,Rochester,NY,USA,2002(以下、「Farid」)。直交ミラーフィルターを用いてテスト画像をウェーブレットサブバンドに分解する。高次統計量を、高周波サブバンドのウェーブレット係数から計算して、一群の特徴を形成する。高周波サブバンドのウェーブレット係数の予測誤差から、別の一群の特徴も同様に示される。文献:Y.Q.Shi,G.Xuan,D.Zou,J.Gao,C.Yang,Z.Zhang,P.Chai,W.Chen,C.Chen,“Steganalysis based on moments of characteristic functions using wavelet decomposition,prediction−error image,and neural network,”International Conference on Multimedia and Expo,Amsterdam,Netherlands,2005(以下、「Shi et al.」)に記載されている方法では、テスト画像の特性関数の統計モーメント、その予測誤差画像、及びそれらの離散ウェーブレット変換(DWT)サブバンドを特徴として用いる。 Many steganalysis methods have been proposed for detecting hidden information in stego images. A generalized steganalysis method using higher order statistics has been proposed by Farid. See the following references: Farid, “Detecting hidden messages using high-order statistic-tick models,” International Conference on Image Processing, Rochester, NY, USA, 2002 (hereinafter “Farid”). Decompose the test image into wavelet subbands using orthogonal mirror filters. Higher order statistics are calculated from the wavelet coefficients of the high frequency subbands to form a group of features. Another group of features is similarly shown from the prediction error of the wavelet coefficients of the high frequency subbands. Literature: Y.M. Q. Shi, G .; Xuan, D.C. Zou, J. et al. Gao, C.I. Yang, Z .; Zhang, P.A. Chai, W .; Chen, C.I. Chen, "Steganalysis based on moments of characteristic functions using wavelet decomposition, prediction-error image, and neural network," International Conference on Multimedia and Expo, Amsterdam, Netherlands, 2005 (hereinafter referred to as "Shi et al.") Are described in The method uses the statistical moment of the characteristic function of the test image, its prediction error image, and their discrete wavelet transform (DWT) subbands as features.

しかしながら、特にJPEGステガノグラフィックスキームに対処できるように設計されたステガナリシス方法がFridrichによって提唱されている。以下の文献を参照されたい:J.Fidrich,“Feature−based steganalysis for JPEG images and its implications for future design of steganographic schemes,”6th Information Hiding Workshop,Toronto,ON,Canada,2004。当該方法は、Outguess、F5及びMBによって生成された隠しデータを有する画像を検出する場合、比較的小さなサイズの厳選された特徴を1セット用いるという点で、上述のような他のステガナリシス方法よりも性能が優れている。以下の文献を参照されたい:M.Kharrazi,H.T.Sencar,N.D.Memon,“Benchmarking steganographic and steganalysis techniques,”Security,Steganography,and Watermarking of Multimedia Contents 2005,San Jose,CA,USA,2005。 However, Fridrich has proposed a steganalysis method designed specifically to deal with the JPEG steganographic scheme. See the following references: Fidrich, “Feature-based steganization for JPEG images and it's implications for future design, steganographic schemes,” 6th Information Hidden Corp. The method uses a set of selected features of relatively small size when detecting images with hidden data generated by Outguess, F5 and MB over other steganalysis methods as described above. Excellent performance. See the following literature: Kharrazi, H .; T.A. Sencar, N .; D. Memon, “Benchmarking steganographic and steganary techniques,” Security, Steganography, and Watermarking of Multimedia Content, 2005, San Jose, CA.

上記で示唆したように、これらとは対照的に、本明細書に記載される一実施形態は、画像2次元配列及びJPEG2次元配列から少なくとも部分的に導かれる統計モーメントに少なくとも部分的に基づく方法を提供する。この特定の実施形態において、1次ヒストグラム及び/又は2次ヒストグラムを用いてもよいが、他の実施形態において、例えば用途及び多くの他の考えられる要因に応じて、高次ヒストグラムをさらに、又は代わりに用いてもよい。しかしながらこの実施形態については、2次元特性関数のモーメントもステガナリシスに利用されることとなる。 As suggested above, in contrast, one embodiment described herein is a method based at least in part on statistical moments derived at least in part from an image 2D array and a JPEG 2D array. I will provide a. In this particular embodiment, a first order histogram and / or a second order histogram may be used, but in other embodiments a higher order histogram may be used in addition, or depending on, for example, the application and many other possible factors, or It may be used instead. However, for this embodiment, the moment of the two-dimensional characteristic function is also used for steganalysis.

ここでは、ステガナリシスは、2クラスパターン認識のタスクと考えられる。従って、例えばテスト画像は、ステゴ画像(隠しデータを保有するもの)又は非ステゴ画像(隠しデータを保有しないもの)のいずれかとして分類される。
上記の参考文献、Shi et al.に記載されているように、78次元の特徴ベクトルがステガナリシスにおいて用いられるが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。しかしながらやはり、Shi et al.に記載されている通り、所与のテスト画像と、その3レベルのハールウェーブレット分解(3−level Haar wavelet decomposition)とに少なくとも部分的に基づいて、特徴のまず半分が生成される。特徴の残り半分は、予測誤差画像と、その3レベルのハールウェーブレット分解とに少なくとも部分的に基づいている。テスト画像及び予測誤差画像をLLサブバンドとして表す場合、26のサブバンドが得られる。画像のヒストグラムの離散フーリエ変換を、ここでは、特性関数(CF)と称する。従って、Shi et al.においては、これらのサブバンドのCFが計算される。これらのCFの最初の3つの絶対モーメント(absolute moments)を用いて、78次元の特徴ベクトルを形成する。絶対モーメントは、以下のように定義される:
Here, steganalysis is considered as a task of two-class pattern recognition. Thus, for example, a test image is classified as either a stego image (one holding hidden data) or a non-stego image (one holding no hidden data).
The above references, Shi et al. Although a 78-dimensional feature vector is used in steganalysis as described in, the claimed subject matter is not limited in scope in this respect. However, again, Shi et al. The first half of the feature is generated based at least in part on a given test image and its 3-level Haar wavelet decomposition. The other half of the feature is based at least in part on the prediction error image and its three-level Haar wavelet decomposition. If the test image and the prediction error image are represented as LL 0 subbands, 26 subbands are obtained. The discrete Fourier transform of the image histogram is referred to herein as a characteristic function (CF). Thus, Shi et al. In, the CFs of these subbands are calculated. The first three absolute moments of these CFs are used to form a 78-dimensional feature vector. The absolute moment is defined as follows:

Figure 0004610653
Figure 0004610653

(式中、H(x)は周波数xにおけるCF成分であり、Nは対象サブバンド中の係数の異なる値レベルの総数である)。予測誤差画像は、本明細書では、オリジナル画像と予測画像との差である。予測は、以下の(2)と図1に示す2×2配列とによって説明される。 (Where H (x i ) is the CF component at frequency x i and N is the total number of different value levels of the coefficients in the target subband). In this specification, the prediction error image is a difference between the original image and the prediction image. Prediction is described by (2) below and the 2 × 2 array shown in FIG.

Figure 0004610653
Figure 0004610653

この特定の実施形態は、この従来の手法とはかなり異なるものである。例えば、上記に示唆したように、この実施形態は、画像に関連したJPEG2次元配列から少なくとも部分的に導かれた統計モーメントを含んでいる。例えば、8×8ブロックDCTを画像に適用し、JPEG量子化テーブルを用いて量子化することによって生成された2次元配列を検討されたい。これらの量子化されたJPEG BDCT係数は正、又は負、又はゼロのいずれかであるということに留意されたい。従って、この実施形態では、図2の205に示すように、絶対値を係数に適用されたい。本明細書のこの実施形態においては、この得られた2次元配列をJPEG2次元配列と称す。 This particular embodiment is quite different from this conventional approach. For example, as suggested above, this embodiment includes a statistical moment derived at least in part from a JPEG two-dimensional array associated with the image. For example, consider a two-dimensional array generated by applying an 8 × 8 block DCT to an image and quantizing using a JPEG quantization table. Note that these quantized JPEG BDCT coefficients are either positive, negative, or zero. Therefore, in this embodiment, absolute values should be applied to the coefficients, as shown at 205 in FIG. In this embodiment of the specification, the resulting two-dimensional array is referred to as a JPEG two-dimensional array.

Shi et al.から参照した上記の手順を、このJPEG2次元配列に適用すると、別の78個の特徴のセットが得られる。このことは、図2のブロック図200によっていくぶんか説明され、図示される通り、画像の周波数領域表現(ここではDCTブロック表現)に適用されるよう処理することである。この実施形態において、CFのモーメントは式(1)におけるものとして定義され、式中、Nは対象サブバンド中のJPEG量子化BDCT係数の異なる絶対値の総数であるが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。しかしながら、この特定の実施形態においては、JPEG2次元配列から予測誤差2次元配列を演算することは、画像に対して予測誤差2次元配列を演算することと正確には同じではない。JPEG2次元配列中のゼロ要素については、式(3)に示すように、JPEG2次元配列中のゼロ要素に対する予測値はゼロとして設定される。従って、この実施形態では、ゼロDCT係数は、予測誤差2次元配列においてゼロのままである。さらに、図2の215によって示されるように、絶対値操作を適用して、予測誤差2次元配列を生成する。 Shi et al. Applying the above procedure referenced from to this JPEG 2D array yields another set of 78 features. This is explained in part by the block diagram 200 of FIG. 2 and is processed as applied to the frequency domain representation of the image (here DCT block representation) as illustrated. In this embodiment, the moment of CF is defined as in equation (1), where N is the total number of different absolute values of the JPEG quantized BDCT coefficients in the subject subband, but as claimed. The subject matter is not limited in scope in this respect. However, in this particular embodiment, computing a prediction error 2D array from a JPEG 2D array is not exactly the same as computing a prediction error 2D array for an image. For the zero element in the JPEG two-dimensional array, the prediction value for the zero element in the JPEG two-dimensional array is set as zero, as shown in Equation (3). Thus, in this embodiment, the zero DCT coefficient remains zero in the prediction error two-dimensional array. Further, as indicated by 215 in FIG. 2, an absolute value operation is applied to generate a two-dimensional prediction error array.

Figure 0004610653
Figure 0004610653

OutGuess及びMB等の、最進のステガノグラフィスキームは、識別又は検出されにくいように、ヒストグラムの変化をできるだけ小さいままにしようとするものである。例えば、MB埋め込みはBDCTモードの低精度ヒストグラムを比較的変化させないままにしようとするものである。従って、この状況で、高次ヒストグラム及びモーメントが有用な場合がある。 Most advanced steganographic schemes, such as OutGuess and MB, attempt to keep the changes in the histogram as small as possible so that they are difficult to identify or detect. For example, MB embedding attempts to keep the BDCT mode low accuracy histogram relatively unchanged. Thus, higher order histograms and moments may be useful in this situation.

2次ヒストグラムは、特定の距離及び向きによって隔てられた画素の対の同時発生(joint occurrence)の尺度を与える場合がある。距離をρによって、そして水平軸に対する角度をθによって表す。2次ヒストグラムは、以下のように定義される: A second order histogram may provide a measure of joint occurrence of a pair of pixels separated by a specific distance and orientation. Express the distance by ρ and the angle to the horizontal axis by θ. A secondary histogram is defined as follows:

Figure 0004610653
Figure 0004610653

(式中、N(j,j;ρ,θ)は第1の画素値がj、第2の画素値がjである画素対の数であり、N(ρ,θ)は、分離(ρ,θ)を有する、画像中の画素対の総数である)。2次ヒストグラムをJPEG2次元配列において用いてもよいが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。2次ヒストグラムは、依存行列(dependency matrix)又は同時生起行列(co−occurrence matrix)としばしば呼ばれる、2次元配列に対応する。 (Where N (j 1 , j 1 ; ρ, θ) is the number of pixel pairs in which the first pixel value is j 1 and the second pixel value is j 2 , and N T (ρ, θ) Is the total number of pixel pairs in the image with separation (ρ, θ)). A secondary histogram may be used in a JPEG two-dimensional array, but the claimed subject matter is not limited in scope in this respect. A quadratic histogram corresponds to a two-dimensional array often referred to as a dependency matrix or a co-occurrence matrix.

JPEG2次元配列から少なくとも部分的に導かれるウェーブレットサブバンドについて、以下の3つの分離を有する3つの2次ヒストグラムが生成される: For wavelet subbands derived at least partially from a JPEG two-dimensional array, three secondary histograms with the following three separations are generated:

Figure 0004610653
Figure 0004610653

(これらを、本明細書では、それぞれ水平方向2次元ヒストグラム、垂直方向2次元ヒストグラム及び対角線方向2次元ヒストグラムと称す)。例えば、図1を参照すると、対(x,a)、(x,b)、(x,c)は、それぞれ(1,0)、(1,−π/2)、(1,−π/4)で隔てられている。2次ヒストグラムに2次元DFTを適用して、2次元CFを得た後、2次元CFの2つの限界モーメント(marginal moments)が以下のように計算されてもよい: (These are referred to herein as a horizontal two-dimensional histogram, a vertical two-dimensional histogram, and a diagonal two-dimensional histogram, respectively). For example, referring to FIG. 1, the pairs (x, a), (x, b), (x, c) are (1, 0), (1, -π / 2), (1, -π / 4). After applying a two-dimensional DFT to the second order histogram to obtain a two-dimensional CF, two marginal moments of the two-dimensional CF may be calculated as follows:

Figure 0004610653
Figure 0004610653

Figure 0004610653
Figure 0004610653

(式中、H(u,v)は周波数(u,v)における2次元CF成分であり、Nは対象サブバンド中の係数の異なる絶対値の総数である)。ある方向に対し、式(6)及び(7)に従って、2つの限界モーメントを生成することができ、故に、この実施形態においては、78×3=234の特徴成分がさらに得られる。故に、この実施形態については、図2に示すように、390次元の特徴ベクトルが得られるが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。 (Where H (u i , v j ) is a two-dimensional CF component at frequency (u i , v j ) and N is the total number of absolute values with different coefficients in the target subband). For a certain direction, two limiting moments can be generated according to equations (6) and (7), so in this embodiment, 78 × 3 = 234 additional feature components are obtained. Thus, for this embodiment, as shown in FIG. 2, a 390 dimensional feature vector is obtained, but the claimed subject matter is not limited in scope in this respect.

様々な状況でデータ(本明細書においては特徴と称す)を解析するために、種々の技術を用いることが出来る。ここでは、「分散分析処理」という用語を、以下のような処理又は技術を指す際に用いる: 上記処理又は技術を適用した結果、統計的変動に起因する差分が非統計的変動に起因する差分と十分に区別されて、このような処理又は技術の適用に少なくとも部分的に基づいてデータの相関付け、セグメント化、分類、解析、又は別な特徴付けがなされる処理又は技術。例として、人工知能技術及び処理(パターン認識等)、ニュートラルネットワーク、遺伝的処理、経験則、及びサポートベクターマシン(SVM)等が挙げられるが、これらは特許請求の範囲に記載の主題の範囲を限定するものではない。 Various techniques can be used to analyze data (referred to herein as features) in various situations. Here, the term “ANOVA” is used to refer to the following processes or techniques: As a result of applying the above processes or techniques, differences resulting from statistical fluctuations are differences resulting from non-statistical fluctuations. Processes or techniques that are sufficiently distinguished from each other to correlate, segment, classify, analyze, or otherwise characterize data based at least in part on the application of such processes or techniques. Examples include artificial intelligence technology and processing (such as pattern recognition), neutral networks, genetic processing, heuristics, support vector machines (SVM), etc., which are within the scope of the claimed subject matter. It is not limited.

特許請求の範囲に記載の主題は範囲をSVM又はSVM処理に限定されないものの、2クラス分類に対し便利な手法であってもよい。例えば、以下の文献を参照されたい:C.Cortes and V.Vapnik,“Support−vector networks,”in Machine Learning,20,273−297,Kluwer Academic Publishers,1995。例えば、SVMを用いて、線形及び非線形の場合又は状況を処理することができる。線形分離可能な場合においては、例えば、SVM分類子を適用して、ポジティブパターンをネガティブパターンから分離する超平面が求められる。非線形分離可能な場合において、「学習機械(learning machine)」は、入力特徴ベクトルを、線形超平面が潜在的に配置される高次元空間に写像する。当該実施形態において、非線形特徴空間から線形高次元空間への変換を、カーネル関数を用いて実施してもよい。カーネルの例として、線形、多項式、動径基底関数、及びシグモイドが挙げられる。当該実施形態においては、例えば、線形SVM処理については線形カーネルを用いてもよい。同様に、非線形SVM処理については他のカーネルを用いてもよい。 The claimed subject matter is not limited to SVM or SVM processing, but may be a convenient technique for two-class classification. For example, see the following literature: C.I. Cortes and V.M. Vapnik, “Support-vector networks,” in Machine Learning, 20, 273-297, Kluwer Academic Publishers, 1995. For example, SVM can be used to handle linear and non-linear cases or situations. When linear separation is possible, for example, an SVM classifier is applied to obtain a hyperplane that separates positive patterns from negative patterns. When non-linearly separable, the “learning machine” maps the input feature vector to a higher dimensional space where the linear hyperplane is potentially located. In this embodiment, the conversion from the nonlinear feature space to the linear high-dimensional space may be performed using a kernel function. Examples of kernels include linear, polynomial, radial basis functions, and sigmoids. In this embodiment, for example, a linear kernel may be used for linear SVM processing. Similarly, other kernels may be used for nonlinear SVM processing.

従って、Shi et al.は、ニューラルネットワークを用いたが、当該実施形態ではサポートベクターマシン(SVM)を分類子として用いる。この特定の実施形態では、後述するように、多項式カーネルを用いるが、やはり、特許請求の範囲に記載の主題はこの点において範囲を限定されない。 Thus, Shi et al. Used a neural network, but in this embodiment, a support vector machine (SVM) is used as a classifier. In this particular embodiment, a polynomial kernel is used, as described below, but again the claimed subject matter is not limited in scope in this respect.

例えば画像等のマーク付きコンテンツを識別又は分類するための具体的なシステムを明示したので、性能の構築及び評価が望まれるところだが、やはり、これは説明のための具体的な一実施形態に過ぎず、特許請求の範囲に記載の主題はその範囲をこの特定の実施形態又は手法に限定されないことを注記する。 Although a specific system for identifying or classifying marked content, such as images, has been specified, it is desirable to build and evaluate performance, but this is still only one specific embodiment for illustration. Rather, it is noted that the claimed subject matter is not limited in scope to this particular embodiment or approach.

品質係数が70〜90のJPEG画像7,560個を含む画像データベースを用いた。そのうち3分の1の画像は、異なるデジタルカメラで異なる時間及び場所で撮影した実質的にランダムな写真のセットであった。残りの3分の2は、インターネットからダウンロードした。各画像を768×512又は512×768のいずれかのサイズにトリミングした(中央部分を残した)。 An image database containing 7,560 JPEG images with quality factors of 70-90 was used. One third of the images were a set of substantially random photographs taken at different times and places with different digital cameras. The remaining two thirds were downloaded from the Internet. Each image was trimmed to either 768 x 512 or 512 x 768 size (leaving the central portion).

上記性能評価はOutGuess、F5及びMB1のステガノグラフィの検出に主眼を置いたものである。これら3つの手法に対するコードは公的に入手可能である。以下の文献を参照されたい:http://www.outguess.org/http://wwwrn.inf.tu−dresden.de/〜westfeld/f5.htmlhttp://redwood.ucdavis.edu/phil/papers/iwdw03.htm。JPEG画像中にはかなり多くのゼロBDCT係数があり、ゼロ係数の数量はさまざまであるので、データ埋め込み容量は画像ごとに異なる。一般的には、隠しデータの長さと非ゼロBDCT AC係数の数との比を、JPEG画像に対するデータ埋め込み容量の尺度として用いる。OutGuessに対しては、0.05、0.1及び0.2bpc(非ゼロBDCT AC係数当たりのビット数)が埋め込まれた。結果、それぞれ7498、7452及び7215個のステゴ画像が得られた。F5及びMB1に対しては、0.05、0.1、0.2、及び0.4bpcが埋め込まれ、7560個のステゴ画像が得られる。この評価ではMB1埋め込みのステップサイズは2と等しいことに留意されたい。 The above performance evaluation focuses on detection of OutGuess, F5 and MB1 steganography. Codes for these three approaches are publicly available. See the following document: http: // www. outgoings. org / ; http: // wwwrn. inf. tu-dressen. de / ~ westfeld / f5. html; http: // redwood. ucdavis. edu / phil / papers / iwdw03. htm . Since there are quite a number of zero BDCT coefficients in a JPEG image and the number of zero coefficients varies, the data embedding capacity varies from image to image. In general, the ratio of the length of hidden data to the number of non-zero BDCT AC coefficients is used as a measure of the data embedding capacity for JPEG images. For OutGuess, 0.05, 0.1 and 0.2 bpc (bits per non-zero BDCT AC coefficient) were embedded. As a result, 7498, 7452 and 7215 stego images were obtained, respectively. For F5 and MB1, 0.05, 0.1, 0.2, and 0.4 bpc are embedded, and 7560 stego images are obtained. Note that the MB1 embedded step size is equal to 2 in this evaluation.

半数の画像(及び関連するステゴ画像)をランダムに選択してSVM分類子をトレーニングし、残りの対を用いて上記トレーニングした分類子を評価した。Farid、Shi et al.、Fridrichの手法といった上述の手法、さらに上述の実施形態を、OutGess、F5及びMBスキームの検出評価に適用した。表2に示す結果は20回のランダム試験の算術平均である。 Half of the images (and associated stego images) were randomly selected to train the SVM classifier and the remaining pairs were used to evaluate the trained classifier. Farid, Shi et al. The above-described method, such as the Fridrich method, and the above-described embodiment were applied to the detection evaluation of the OutGess, F5, and MB schemes. The results shown in Table 2 are arithmetic averages of 20 random tests.

Figure 0004610653
Figure 0004610653

表1において、単位は%であり;OGはOutGuessを表し、TNは真陰性率(true negative rate)を表し、TPは真陽性率(true positive rate)を表し、ARは精度(accuracy)を表すことに留意されたい。 In Table 1, the unit is%; OG represents OutGuess, TN represents the true negative rate, TP represents the true positive rate, and AR represents the accuracy. Please note that.

以上、特定の実施形態を記載したが、言うまでもなく、特許請求の範囲に記載の主題は特定の実施形態又は実装に範囲を限定されないことを理解されたい。例えば、一実施形態においてはハードウェアにおけるものであって、例えばデバイス又はデバイスを組み合わせたものにおいて作動するように実装されていてもよく、別の実施形態においてはソフトウェアにおけるものであってもよい。同様に、ある実施形態では、ファームウェアにおいて、又は、例えばハードウェア、ソフトウェア、及び/又はファームウェアを任意に組み合わせたものとして実装されていてもよい。同様に、一実施形態において、記憶媒体(複数可)等の1つ以上の物品が含まれてもよいが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。例えば1つ以上のCD−ROM及び/又はディスクといったこれらの記憶媒体は、そこに命令を記憶していてもよく、例えばコンピュータシステム、コンピューティングプラットフォーム又はその他のシステム等のシステムによって上記命令が実行された場合に、結果として、特許請求の範囲に記載の主題に係る方法の一実施形態、例えば上述の実施形態の1つ等が実行されてもよい。考えられる一実施例として、コンピューティングプラットフォームは、1つ以上の処理装置又はプロセッサ、1つ以上の入力/出力デバイス(ディスプレイ、キーボード及び/又はマウス等)、及び/又は、1つ以上のメモリ(スタティックランダムアクセスメモリ、ダイナミックランダムアクセスメモリ、フラッシュメモリ、及び/又はハードドライブ等)を含んでもよい。例えば、ディスプレイを用いて、1つ以上のクエリー(相関を持ったもの等)、及び/又は1つ以上の木表現を表示してもよいが、ここにおいても、特許請求の範囲に記載の主題は範囲を当実施例に限定されない。 While specific embodiments have been described above, it will be appreciated that the claimed subject matter is not limited in scope to the specific embodiments or implementations. For example, in one embodiment, it may be implemented in hardware and may be implemented to operate, for example, in a device or combination of devices, and in another embodiment may be in software. Similarly, in some embodiments, it may be implemented in firmware or as any combination of hardware, software, and / or firmware, for example. Similarly, in one embodiment, one or more articles such as storage medium (s) may be included, but claimed subject matter is not limited in scope in this respect. For example, these storage media, such as one or more CD-ROMs and / or disks, may have instructions stored thereon, such as executed by a system such as a computer system, computing platform or other system. As a result, an embodiment of the method according to the claimed subject matter may be performed, such as one of the above-described embodiments. As one possible example, a computing platform may include one or more processing units or processors, one or more input / output devices (such as a display, keyboard and / or mouse), and / or one or more memories ( Static random access memory, dynamic random access memory, flash memory, and / or hard drive, etc.). For example, a display may be used to display one or more queries (such as those with correlations) and / or one or more tree representations, again here the claimed subject matter The scope is not limited to this example.

以上の記載において、特許請求の範囲に記載の主題の種々の態様を説明した。特許請求の範囲に記載の主題が十分に理解されるように、説明上、特定の数値、システム及び/又は構成を示した。しかしながら、上記の具体的な詳細通りでなくとも特許請求の範囲に記載の主題を実行できることは、本開示の恩恵を受ける当業者に明らかであろう。また、特許請求の範囲に記載の主題が不明確にならないように、公知の特徴を省略及び/又は簡略化している場合もある。本明細書では、特定の特徴が図示及び/又は記載されているが、当業者には多くの変形例、置換例、変更例、及び/又は均等物が想到されるであろう。従って、添付の特許請求の範囲は、そのような変形及び/又は変更の全てを、特許請求の範囲に記載の主題の趣旨に入るものとして包含するものであると理解されたい。 In the foregoing description, various aspects of the claimed subject matter have been described. For purposes of explanation, specific numbers, systems and / or configurations are set forth in order to provide a thorough understanding of claimed subject matter. However, it will be apparent to one skilled in the art having the benefit of this disclosure that the claimed subject matter may be practiced without the specific details set forth above. In other instances, well-known features may be omitted and / or simplified so as not to obscure the claimed subject matter. Although specific features are illustrated and / or described herein, many variations, substitutions, modifications, and / or equivalents will occur to those skilled in the art. Therefore, it is to be understood that the appended claims are intended to cover all such modifications and / or modifications as fall within the spirit of the claimed subject matter.

画素の2×2配列の一実施形態を示す概略図である。FIG. 3 is a schematic diagram illustrating one embodiment of a 2 × 2 array of pixels. 特徴生成の一実施形態を示すブロック図である。It is a block diagram showing one embodiment of feature generation.

Claims (37)

画像処理を行うデバイスにおいて、画像のブロック周波数領域表現に少なくとも部分的に基づいて特徴を生成し、且つ
前記生成された特徴に少なくとも部分的に基づいて前記画像を分類する、前記画像の分類方法であって、
少なくとも1つの前記特徴は、前記画像の前記ブロック周波数領域表現の少なくとも1つの2次ヒストグラムに少なくとも部分的に基づいて生成される統計モーメントに少なくとも部分的に基づくことを特徴とする、方法。
A method for classifying an image in a device that performs image processing, wherein features are generated based at least in part on a block frequency domain representation of the image , and the images are classified based at least in part on the generated features. There,
The method, wherein at least one of the features is based at least in part on a statistical moment that is generated based at least in part on at least one second order histogram of the block frequency domain representation of the image .
前記ブロック周波数領域表現はDCTブロック表現を含む、
請求項1に記載の方法。
The block frequency domain representation includes a DCT block representation;
The method of claim 1.
前記DCTブロック表現は前記画像の2次元JPEG配列を含む、
請求項2に記載の方法。
The DCT block representation includes a two-dimensional JPEG array of the images;
The method of claim 2.
前記画像はステゴ画像又は非ステゴ画像のいずれかとして分類される、
請求項1に記載の方法。
The image is classified as either a stego image or a non-stego image,
The method of claim 1.
前記特徴の生成は、前記画像に少なくとも部分的に基づいて予測画像及び予測誤差画像を生成することを含む、
請求項1に記載の方法。
Generating the feature includes generating a prediction image and a prediction error image based at least in part on the image;
The method of claim 1.
前記特徴の生成は、前記画像の前記ブロック周波数領域表現に少なくとも部分的に基づいて2次元予測誤差配列を生成することを含む、
請求項1に記載の方法。
Generating the feature includes generating a two-dimensional prediction error array based at least in part on the block frequency domain representation of the image;
The method of claim 1.
前記画像の分類は、The image classification is:
前記生成された特徴にトレーニングされた分類手段を適用することを含み、Applying trained classification means to the generated features;
前記トレーニングされた分類手段は、テスト画像のセットから生成された特徴に基づいてトレーニングされていることを特徴とする、請求項1に記載の方法。The method of claim 1, wherein the trained classifier is trained based on features generated from a set of test images.
前記トレーニングされた分類手段は、少なくとも部分的に前記テスト画像のセットの周波数領域表現の統計モーメントに基づいてトレーニングされている、請求項7に記載の方法。8. The method of claim 7, wherein the trained classifier is trained based at least in part on a statistical moment of a frequency domain representation of the set of test images. 前記画像の周波数領域表現はDCTブロック表現を含む、
請求項に記載の方法。
The frequency domain representation of the image includes a DCT block representation;
The method of claim 8 .
前記DCTブロック表現はJPEG表現を含む、
請求項に記載の方法。
The DCT block representation includes a JPEG representation,
The method of claim 9 .
コンピュータを、Computer
画像のブロック周波数領域表現に少なくとも部分的に基づいて特徴を生成するための手段と、Means for generating features based at least in part on a block frequency domain representation of the image;
前記生成された特徴に少なくとも部分的に基づいて前記画像を分類するための手段と、して機能させるプログラムを記録したコンピュータ読み取り可能な記録媒体であって、A computer readable recording medium having recorded thereon a program for functioning as means for classifying the image based at least in part on the generated feature,
少なくとも1つの前記特徴は、前記画像の前記ブロック周波数領域表現の少なくとも1つの2次ヒストグラムに少なくとも部分的に基づいて生成される統計モーメントに少なくとも部分的に基づくことを特徴とする、記録媒体。A recording medium, wherein at least one of the features is based at least in part on a statistical moment generated based at least in part on at least one second order histogram of the block frequency domain representation of the image.
前記ブロック周波数領域表現はDCTブロック表現を含む、
請求項11に記載の記録媒体
The block frequency domain representation includes a DCT block representation;
The recording medium according to claim 11.
前記DCTブロック表現は前記画像の2次元JPEG配列を含む、
請求項12に記載の記録媒体
The DCT block representation includes a two-dimensional JPEG array of the images;
The recording medium according to claim 12.
前記画像を分類するための手段は、
前記画像ステゴ画像又は非ステゴ画像のいずれかとして分類する
請求項11に記載の記録媒体
The means for classifying the images is
Classified as either said image stego image or a non-stego image,
The recording medium according to claim 11.
前記特徴を生成するための手段は、
前記画像に少なくとも部分的に基づいて予測画像及び予測誤差画像を生成する、
請求項11に記載の記録媒体
The means for generating the feature is:
Generating a prediction image and a prediction error image based at least in part on the image ;
The recording medium according to claim 11.
前記特徴を生成するための手段は、
前記画像の前記ブロック周波数領域表現に少なくとも部分的に基づいて2次元予測誤差配列を生成する、
請求項11に記載の記録媒体
The means for generating the feature is:
Generating a two-dimensional prediction error array based at least in part on the block frequency domain representation of the image ;
The recording medium according to claim 11.
前記画像を分類するための手段は、The means for classifying the images is
前記生成された特徴にトレーニングされた分類手段を適用し、Applying trained classification means to the generated features;
前記トレーニングされた分類手段は、テスト画像のセットから生成された特徴に基づいてトレーニングされていることを特徴とする、請求項11に記載の記録媒体。The recording medium according to claim 11, wherein the trained classification means is trained on the basis of features generated from a set of test images.
前記トレーニングされた分類手段は、少なくとも部分的に前記テスト画像のセットの周波数領域表現の統計モーメントに基づいてトレーニングされている、請求項17に記載の記録媒体。18. The recording medium of claim 17, wherein the trained classification means is trained based at least in part on a statistical moment of a frequency domain representation of the set of test images. 前記画像の前記周波数領域表現はDCTブロック表現を含む、
請求項18に記載の記録媒体
The frequency domain representation of the image includes a DCT block representation;
The recording medium according to claim 18.
記DCTブロック表現がJPEG表現を含む、
請求項19に記載の記録媒体
Before Symbol DCT block representation, including the JPEG representation,
The recording medium according to claim 19.
画像のブロック周波数領域表現に少なくとも部分的に基づいて分類のための特徴を生成するための手段と、
前記生成された分類のための特徴に少なくとも部分的に基づいて前記画像を分類するための手段と
を含む装置であって、
少なくとも1つの前記特徴は、前記画像の前記ブロック周波数領域表現の少なくとも1つの2次ヒストグラムに少なくとも部分的に基づいて生成される統計モーメントに少なくとも部分的に基づくことを特徴とする、装置。
Means for generating features for classification based at least in part on a block frequency domain representation of the image ;
Means for classifying the image based at least in part on the generated classification features , comprising:
The apparatus characterized in that at least one of the features is based at least in part on a statistical moment generated based at least in part on at least one second order histogram of the block frequency domain representation of the image .
前記ブロック周波数領域表現はDCTブロック表現を含む、
請求項21に記載の装置。
The block frequency domain representation includes a DCT block representation;
The apparatus of claim 21.
前記DCTブロック表現は前記画像の2次元JPEG配列を含む、
請求項22に記載の装置。
The DCT block representation includes a two-dimensional JPEG array of the images;
The apparatus of claim 22.
前記分類するための手段は、画像をステゴ画像又は非ステゴ画像のいずれかとして分類するための手段を含む、
請求項21に記載の装置。
The means for classifying includes means for classifying an image as either a stego image or a non-stego image.
The apparatus of claim 21.
前記特徴を生成するための手段は、前記画像に少なくとも部分的に基づいて予測画像及び予測誤差画像を生成するための手段を含む、
請求項21に記載の装置。
The means for generating the feature includes means for generating a prediction image and a prediction error image based at least in part on the image.
The apparatus of claim 21.
前記特徴を生成するための手段は、前記画像の前記ブロック周波数領域表現に少なくとも部分的に基づいて2次元予測誤差配列を生成するための手段を含む、
請求項21に記載の装置。
The means for generating the features includes means for generating a two-dimensional prediction error array based at least in part on the block frequency domain representation of the image.
The apparatus of claim 21.
前記分類するための手段にトレーニングされたセットを適用する手段をさらに備え、Means for applying a trained set to the means for classifying;
前記トレーニングされたセットは、トレーニングされた画像のセットに基づいて生成された分類のための特徴のセットを含むことを特徴とする、請求項21に記載の装置。The apparatus of claim 21, wherein the trained set includes a set of features for classification generated based on a set of trained images.
前記トレーニングされたセットは、前記トレーニングされた画像のセットの周波数領域表現の統計モーメントを少なくとも1つ含む、請求項27に記載の装置。28. The apparatus of claim 27, wherein the trained set includes at least one statistical moment of a frequency domain representation of the trained image set. 前記画像の周波数領域表現はDCTブロック表現を含む、
請求項28に記載の装置。
The frequency domain representation of the image includes a DCT block representation;
30. The apparatus of claim 28.
前記DCTブロック表現はJPEG表現を含む、
請求項29に記載の装置。
The DCT block representation includes a JPEG representation,
30. Apparatus according to claim 29.
画像を分析する装置であって、An apparatus for analyzing images,
前記画像を処理して、前記画像のブロック周波数領域表現を提供する周波数領域変換部と、A frequency domain transform that processes the image and provides a block frequency domain representation of the image;
前記ブロック周波数領域表現に少なくとも部分的に基づいて、画像の特徴の第1のセットを生成する、少なくとも1つの統計モーメント生成部と、At least one statistical moment generator that generates a first set of image features based at least in part on the block frequency domain representation;
前記画像の特徴の第1のセットに少なくとも部分的に基づいて前記画像を分類する分類部と、を備え、A classifier for classifying the image based at least in part on the first set of image features;
前記画像の特徴の第1のセットは、前記画像の前記ブロック周波数領域表現の少なくとも1つの2次ヒストグラムに少なくとも部分的に基づいて生成される統計モーメントを含むことを特徴とする、装置。The apparatus, wherein the first set of image features includes a statistical moment generated based at least in part on at least one second order histogram of the block frequency domain representation of the image.
請求項31に記載の装置であって、32. The apparatus of claim 31, comprising:
前記ブロック周波数領域表現に基づいて、少なくとも1つの周波数ドメインヒストグラムを取得する少なくとも1つのヒストグラム形成部を備え、Comprising at least one histogram forming unit for obtaining at least one frequency domain histogram based on the block frequency domain representation;
少なくとも1つの前記統計モーメント生成部は、少なくとも1つの周波数ドメインヒストグラムに基づいて、前記第1のセットを形成する、装置。The apparatus, wherein at least one of the statistical moment generators forms the first set based on at least one frequency domain histogram.
請求項32に記載の装置であって、An apparatus according to claim 32, comprising:
少なくとも1つの前記ヒストグラム形成部は、水平方向2次元ヒストグラム、垂直方向2次元ヒストグラム、及び対角線方向2次元ヒストグラムからなるグループから選択された少なくとも1つの周波数ドメインヒストグラムを提供する、装置。The apparatus, wherein the at least one histogram forming unit provides at least one frequency domain histogram selected from the group consisting of a horizontal two-dimensional histogram, a vertical two-dimensional histogram, and a diagonal two-dimensional histogram.
請求項31に記載の装置であって、32. The apparatus of claim 31, comprising:
ブロック周波数領域表現に基づいて、予測誤差2次元配列を取得する誤差予測部を備え、An error prediction unit that acquires a two-dimensional prediction error array based on the block frequency domain representation,
少なくとも1つの前記統計モーメント生成部は、前記ブロック周波数領域表現に基づく前記予測誤差2次元配列に基づいて、前記画像の特徴の第1のセットを形成する、装置。The apparatus wherein the at least one statistical moment generator forms a first set of image features based on the prediction error two-dimensional array based on the block frequency domain representation.
請求項31に記載の装置であって、32. The apparatus of claim 31, comprising:
画像の空間表現に基づいて画像ヒストグラムを取得するヒストグラム形成部を備え、A histogram forming unit that acquires an image histogram based on a spatial representation of the image;
少なくとも1つの統計モーメント生成部は、前記画像ヒストグラムに基づいて画像の特徴の第2のセットを生成し、At least one statistical moment generator generates a second set of image features based on the image histogram;
前記分類部は、前記画像の特徴の第2のセットに基づいて、前記画像をさらに分類する、装置。The apparatus, wherein the classifier further classifies the image based on a second set of image features.
請求項35に記載の装置であって、36. The apparatus of claim 35, comprising:
画像の空間表現に基づいて、予測誤差2次元配列を取得する誤差予測部を備え、An error prediction unit that obtains a two-dimensional prediction error array based on a spatial representation of an image;
少なくとも1つの統計モーメント生成部は、前記画像の空間表現に基づく前記予測誤差2次元配列に基づいて、少なくとも一部の画像の特徴の第2のセットを生成する、装置。The apparatus, wherein at least one statistical moment generator generates a second set of at least some image features based on the two-dimensional prediction error array based on a spatial representation of the image.
請求項31に記載の装置であって、
前記装置は、
前記周波数領域変換部及び少なくとも1つの統計モーメント生成部を操作して、トレーニングされた画像について、少なくとも1つのトレーニングされた特徴のセットを生成させると共に、
少なくとも1つのトレーニングされた特徴のセットに基づいて、前記分類部をトレーニングする、装置。
32. The apparatus of claim 31, comprising:
The device is
Operating the frequency domain transform and at least one statistical moment generator to generate at least one trained feature set for the trained image;
An apparatus for training the classifier based on at least one set of trained features.
JP2008550285A 2006-01-13 2006-01-13 Method for identifying marked images using statistical moments based at least in part on JPEG sequences Expired - Fee Related JP4610653B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2006/001438 WO2007086834A2 (en) 2006-01-13 2006-01-13 Method for identifying marked images using statistical moments based at least in part on a jpeg array

Publications (2)

Publication Number Publication Date
JP2009524280A JP2009524280A (en) 2009-06-25
JP4610653B2 true JP4610653B2 (en) 2011-01-12

Family

ID=38309630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008550285A Expired - Fee Related JP4610653B2 (en) 2006-01-13 2006-01-13 Method for identifying marked images using statistical moments based at least in part on JPEG sequences

Country Status (3)

Country Link
EP (1) EP1971963A4 (en)
JP (1) JP4610653B2 (en)
WO (1) WO2007086834A2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107796643B (en) * 2017-10-18 2020-01-10 重庆大学 Model-free rapid damage identification method based on statistical moment theory

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7194134B2 (en) * 2001-01-02 2007-03-20 Microsoft Corporation Hierarchical, probabilistic, localized, semantic image classifier
JP4333364B2 (en) * 2001-08-23 2009-09-16 ソニー株式会社 Robot device, face recognition method, and face recognition device
US7035467B2 (en) * 2002-01-09 2006-04-25 Eastman Kodak Company Method and system for processing images for themed imaging services
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
JP2005044330A (en) * 2003-07-24 2005-02-17 Univ Of California San Diego Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device
US7415136B2 (en) * 2003-12-10 2008-08-19 Woods Hole Oceanographic Institution Optical method and system for rapid identification of multiple refractive index materials using multiscale texture and color invariants
TW200529794A (en) * 2004-03-03 2005-09-16 Chi-Wen Hsieh Method of automatically evaluating age of bone and skeleton via hand X-ray photograph

Also Published As

Publication number Publication date
EP1971963A4 (en) 2013-05-08
JP2009524280A (en) 2009-06-25
EP1971963A2 (en) 2008-09-24
WO2007086834A3 (en) 2009-04-09
WO2007086834A2 (en) 2007-08-02

Similar Documents

Publication Publication Date Title
US8103054B2 (en) Method for identifying marked images using statistical moments based at least in part on a JPEG array
JP4417419B2 (en) Input image stego analysis method, apparatus, and computer-readable medium
Lin et al. Fast, automatic and fine-grained tampered JPEG image detection via DCT coefficient analysis
US8270708B2 (en) Method for identifying marked images based at least in part on frequency domain coefficient differences
Chen et al. Statistical moments based universal steganalysis using JPEG 2-D array and 2-D characteristic function
Lutovac et al. An algorithm for robust image watermarking based on the DCT and Zernike moments
Bhatnagar et al. Secure randomized image watermarking based on singular value decomposition
Keyvanpour et al. A secure method in digital video watermarking with transform domain algorithms
Neekhara et al. FaceSigns: semi-fragile neural watermarks for media authentication and countering deepfakes
Hu et al. A progressive QIM to cope with SVD-based blind image watermarking in DWT domain
JP4610653B2 (en) Method for identifying marked images using statistical moments based at least in part on JPEG sequences
Meerwald et al. Attacks, applications, and evaluation of known watermarking algorithms with Checkmark
Fadoua et al. Medical video watermarking scheme for telemedicine applications
Li et al. A novel framework of robust video watermarking based on statistical model
JP4920045B2 (en) Method for identifying marked images based at least in part on frequency domain coefficient differences
Mohamed et al. A Survey on Image Data Hiding Techniques
Agarwal et al. Protecting Ownership Rights of Videos Against Digital Piracy: An Efficient Digital Watermarking Scheme
CN111815501B (en) Digital watermarking method and device for resisting geometric scaling attack
Nesakumari et al. Integrated Normalized Content System for Efficient Watermarking
Guo Methodologies in digital watermarking: Robust and reversible watermarking techniques for authentication, security and privacy protection
Junwen et al. Detecting JPEG image forgery based on double compression
Neekhara et al. FaceSigns: Semi-Fragile Watermarks for Media Authentication
Sharma et al. Steganalysis of Reversible Digital Watermarking Algorithm Based on LWT and SVD
Abolghasemi et al. Detection of Perturbed Quantization (PQ) Steganography Based on Empirical Matrix.
Schlauweg et al. Self-synchronizing robust texel watermarking in Gaussian scale-space

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20090325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100520

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100528

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100528

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101004

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131022

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees