JP4630765B2 - Image processing method and image processing apparatus - Google Patents
Image processing method and image processing apparatus Download PDFInfo
- Publication number
- JP4630765B2 JP4630765B2 JP2005246141A JP2005246141A JP4630765B2 JP 4630765 B2 JP4630765 B2 JP 4630765B2 JP 2005246141 A JP2005246141 A JP 2005246141A JP 2005246141 A JP2005246141 A JP 2005246141A JP 4630765 B2 JP4630765 B2 JP 4630765B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- frequency
- main image
- sub
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Credit Cards Or The Like (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Description
本発明は、たとえば、可視状態の主画像情報(人物の顔画像など)に対して別の付加的な副情報(セキュリティ情報など)を不可視状態で埋め込み合成して合成画像情報を作成する画像処理方法および画像処理装置に関する。 The present invention, for example, performs image processing for creating composite image information by embedding and synthesizing additional additional sub information (security information or the like) in the invisible state with respect to main image information (such as a human face image) in the visible state. The present invention relates to a method and an image processing apparatus.
最近、情報の電子化やインターネットの普及に伴って、画像の偽造や変造防止のために電子透かし、電子署名などの技術が重要視されるようになってきている。特に、主画像情報に付加的な副情報を不可視状態で埋め込む電子透かし技術は、IDカードや著作権情報を埋め込んだ写真に対する不正コピー、偽造、改ざん対策として提案されている。
たとえば、主画像情報に色差情報を利用して副情報を重畳処理することにより当該副情報の埋め込みを行なう電子透かし方法が開示されている(たとえば、特許文献1参照)。
For example, a digital watermark method for embedding the sub-information by superimposing the sub-information on the main image information using color difference information is disclosed (for example, see Patent Document 1).
画像の偽造や変造防止のために用いられる電子透かし技術は、主画像情報に副情報(電子透かし情報)等の埋め込み情報を不可視状態で埋め込む技術であるが、後で副情報を取出すために復元処理を行なう必要がある。
副情報を取出す際の復元処理に関しては、従来から色々な手法があるが、その中でも周波数領域を利用した周波数フィルタリング等の手法はよく利用されることが多い。
ところが、周波数フィルタリングの手法では、主画像情報の周波数成分と埋め込んだ副情報の周波数成分とが干渉していると、周波数フィルタリング手法を用いて取出すことが困難になるといった問題が生じる。
The digital watermark technology used to prevent forgery and alteration of images is a technology that embeds embedded information such as sub information (digital watermark information) in the invisible state in the main image information, but it is restored to retrieve the sub information later. It is necessary to perform processing.
Various methods have been conventionally used for restoration processing when sub-information is extracted, and among them, methods such as frequency filtering using a frequency domain are often used.
However, in the frequency filtering method, if the frequency component of the main image information and the frequency component of the embedded sub information interfere with each other, there arises a problem that it is difficult to extract using the frequency filtering method.
そこで、本発明は、主画像情報の周波数分布に影響を受けることなく、安定して副情報を復元処理により取出すことが可能になる画像処理方法および画像処理装置を提供することを目的とする。 Therefore, an object of the present invention is to provide an image processing method and an image processing apparatus that can stably extract sub information by a restoration process without being affected by the frequency distribution of main image information.
本発明の画像処理方法は、可視状態の主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込んで合成画像情報を作成する画像処理方法において、鍵情報ピーク成分抽出手段により、後で副情報を復元する際に用いる鍵情報を2次元画像に変換した後、フーリエ変換を行なうことで2次元空間領域から周波数領域への変換を行ない、第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出ステップと、主画像周波数処理手段により、副情報を埋め込む前に主画像情報に対してフーリエ変換を行なうことで、空間領域から周波数領域への変換を行なった後に、前記鍵情報ピーク成分抽出ステップにより得られた第1ピーク成分の周波数領域を除去または低減する処理、あるいは、副情報を埋め込む前に主画像情報に対して前記鍵情報ピーク成分抽出ステップにより得られた第1ピーク成分の周波数領域を除去または低減するフィルタ処理を行なう主画像周波数処理ステップと、埋め込み処理手段により、前記主画像周波数処理ステップで処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理ステップとを具備している。 The image processing method of the present invention is a key information peak component extraction in an image processing method for creating composite image information by embedding the sub information in an invisible state by superimposing the sub information on the main image information in the visible state. The key information used when restoring the sub-information later is converted into a two-dimensional image by the means, and then converted from the two-dimensional space region to the frequency region by performing Fourier transform, and the frequency region of the first peak component After performing the transformation from the spatial domain to the frequency domain by performing a Fourier transform on the main image information before embedding the sub information by the key information peak component extraction step for extracting the sub information and the main image frequency processing means, Processing for removing or reducing the frequency region of the first peak component obtained by the key information peak component extraction step, or before embedding the sub information A main image frequency processing step for performing filtering processing to remove or reduce a frequency region of the first peak component obtained by the key information peak component extraction step for information, and an embedding processing means, in the main image frequency processing step. An embedding process step for embedding the sub-information in the invisible state by superimposing the sub-information on the processed main image information to create composite image information.
また、本発明の画像処理装置は、可視状態の主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込んで合成画像情報を作成する画像処理装置において、後で副情報を復元する際に用いる鍵情報を2次元画像に変換した後、フーリエ変換を行なうことで2次元空間領域から周波数領域への変換を行ない、第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出手段と、副情報を埋め込む前に主画像情報に対してフーリエ変換を行なうことで、空間領域から周波数領域への変換を行なった後に、前記鍵情報ピーク成分抽出手段により得られた第1ピーク成分の周波数領域を除去または低減する処理、あるいは、副情報を埋め込む前に主画像情報に対して前記鍵情報ピーク成分抽出手段により得られた第1ピーク成分の周波数領域を除去または低減するフィルタ処理を行なう主画像周波数処理手段と、この主画像周波数処理手段で処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理手段とを具備している。 The image processing apparatus according to the present invention is an image processing apparatus that creates composite image information by embedding the sub information in an invisible state by superimposing the sub information on the main image information in the visible state. Key information peak for extracting the frequency region of the first peak component by converting the key information used for restoring information into a two-dimensional image and then performing a Fourier transform to convert the two-dimensional space region to the frequency region. A first component obtained by the key information peak component extraction unit after the transformation from the spatial domain to the frequency domain is performed by performing Fourier transform on the main image information before embedding the sub information and the component extraction unit. Processing for removing or reducing the frequency region of the peak component, or the first peak obtained by the key information peak component extracting means for the main image information before embedding the sub information. Main image frequency processing means for performing a filtering process to remove or reduce the frequency region of the noise component, and the sub-information is invisible by superimposing the sub-information on the main image information processed by the main image frequency processing means. Embedding processing means for embedding in a state and creating composite image information.
本発明によれば、電子透かし埋め込み前の原画像から電子透かしに影響する周波数成分を除去することにより、主画像情報の周波数分布に影響を受けることなく、安定して副情報を復元処理により取出すことが可能になる画像処理方法および画像処理装置を提供できる。 According to the present invention, by removing frequency components affecting the digital watermark from the original image before embedding the digital watermark, the sub-information is stably extracted by the restoration process without being affected by the frequency distribution of the main image information. It is possible to provide an image processing method and an image processing apparatus that can be used.
以下、本発明の実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。
図1(a)は、第1の実施の形態に係る画像処理装置の埋め込み処理系の構成を概略的に示すものである。この画像処理装置の埋め込み処理系は、たとえば、IDカードの個人認証用顔画像の処理に適用され、肉眼で可視状態の主画像情報(顔画像)に副情報(セキュリティ情報など)を不可視状態で埋め込んで合成画像情報を作成する、いわゆる電子透かし埋め込み処理を行なうもので、後で副情報を復元する際に用いる鍵情報を周波数領域に変換して第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出手段としての鍵情報ピーク成分抽出部104、副情報を埋め込む前に主画像情報に対して鍵情報ピーク成分抽出部104により得られた第1ピーク成分の周波数領域を除去または低減する主画像周波数処理手段としての主画像周波数処理部105、主画像周波数処理部105で処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理手段としての電子透かし埋め込み処理部106、および、電子透かし埋め込み処理部106により作成された合成画像情報107を記録媒体の記録面上に可視状態で記録(印刷)する記録処理手段としての記録処理部108によって構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the first embodiment will be described.
FIG. 1A schematically shows a configuration of an embedding processing system of the image processing apparatus according to the first embodiment. The embedding processing system of this image processing apparatus is applied to, for example, processing of a face image for personal authentication of an ID card, and sub-information (security information, etc.) is invisible to main image information (face image) visible to the naked eye Key information for performing so-called digital watermark embedding processing for embedding composite image information, converting key information used when restoring sub-information later into the frequency domain and extracting the frequency domain of the first peak component Key information peak
次に、このような構成において処理の流れについて説明する。
入力情報として、主画像情報101、副情報(電子透かし情報)102、鍵情報103がある。主画像情報101は例えば個人認証用の顔画像、副情報102は主画像情報101のセキュリティ性を高める情報または真偽判定に用いる情報、さらには著作権管理に用いる情報など、鍵情報103は電子透かしとして埋め込んだ副情報102を後で取出して復元するときに用いる鍵となる情報である。
Next, the flow of processing in such a configuration will be described.
As input information, there are
まず、鍵情報ピーク成分抽出部104は、鍵情報103を入力としてピーク成分抽出処理を行なう。ここでは、復元に用いる鍵情報103を2次元画像に変換した後、たとえば、フーリエ変換等を行なうことで、2次元空間領域から周波数領域への変換を行ない、周波数領域での第1ピーク成分を抽出する。ここでの第1ピーク成分とは、周波数領域での振幅の信号レベルが一番高い領域を示す。
First, the key information peak
次に、主画像周波数処理部105は、鍵情報ピーク成分抽出部104で抽出された第1ピーク成分および主画像情報101を入力として主画像周波数処理を行なう。ここでは、たとえば、主画像情報101をフーリエ変換等を行なうことで、空間領域から周波数領域への変換を行なった後に、鍵情報103の第1ピーク成分に相当する周波数成分を主画像情報101から低減または除去する。
Next, the main image
次に、電子透かし埋め込み処理部106は、主画像周波数処理部105で鍵情報103の第1ピーク成分相当を処理された主画像情報101、副情報102、および、鍵情報103を入力として電子透かし埋め込み処理を行なう。ここでは、処理済みの主画像情報101に対し副情報102を不可視状態で埋め込むことにより合成画像情報107を作成する。
Next, the digital watermark
次に、記録処理部108は、電子透かし埋め込み処理部106で作成された合成画像情報107を可視画像として記録媒体に記録処理することにより、記録された合成画像情報(記録物)109が作成される。この場合の記録物とは例えば社員証等のIDカードを示す。
Next, the
以降、上述した図1(a)の副情報の埋め込み処理を電子透かし埋め込み処理と呼ぶ。 Hereinafter, the sub information embedding process in FIG. 1A described above is referred to as a digital watermark embedding process.
図1(b)は、第1の実施の形態に係る画像処理装置の復元処理系の構成を概略的に示すものである。この画像処理装置の復元処理系は、図1(a)の電子透かし埋め込み処理で作成された記録物109から副情報102を復元する、いわゆる電子透かし復元処理を行なうもので、記録物109に記録されている合成画像情報を取込み、デジタルの画像情報に変換する記録画像入力部110、取込まれた画像情報から副情報(電子透かし情報)102を復元する復元処理部111、および、復元された副情報102の結果を表示する結果表示処理部114によって構成されている。
復元処理部111は、取込まれた画像情報から鍵情報103の空間周波数成分を検出する周波数検出処理部112、および、検出された空間周波数成分から副情報102を再構成する再構成処理部113によって構成されている。
FIG. 1B schematically shows the configuration of the restoration processing system of the image processing apparatus according to the first embodiment. The restoration processing system of this image processing apparatus performs so-called digital watermark restoration processing for restoring the
The
次に、このような構成において処理の流れについて説明する。
まず、記録画像入力部110は、記録物109に記録されている合成画像情報を光学的に読取り、デジタルの画像情報として入力する。次に、周波数検出処理部112は、記録画像入力部110で取込まれた画像情報から鍵情報103の空間周波数成分を検出する。次に、再構成処理部113は、周波数検出処理部112で検出された空間周波数成分から副情報102を再構成する。次に、結果表示処理部114は、再構成処理部113で再構成された副情報を表示する。
Next, the flow of processing in such a configuration will be described.
First, the recorded
以降、上述した図1(b)の副情報の復元処理を電子透かし復元処理と呼ぶ。 Hereinafter, the sub information restoration processing of FIG. 1B described above is referred to as digital watermark restoration processing.
図2は、作成されたIDカード201(記録物109に相当)の具体例を示している。IDカード201には、持ち主の個人認証用顔画像202が記録されているが、この顔画像202は図1(a)で説明した処理によって作成され記録されたものである。また、識別番号(いわゆるID番号)、氏名、生年月日、有効期限などの個人管理情報203が記録されている。これらの個人管理情報203を、図1(a)の電子透かし埋め込み処理における副情報102として用いることにより、IDカード201の認証用顔画像202と個人管理情報203とが関連付けられるため、IDカード201の一部を改ざんしたり、偽造したりすることが困難になり、セキュリティ性を高めることが可能になる。
FIG. 2 shows a specific example of the created ID card 201 (corresponding to the recorded material 109). A
図3は、重畳処理を利用した電子透かし埋め込み処理の例を示している。本実施の形態では、たとえば、特願2003−424329等に記述されている色差および重畳処理を用いた電子透かし処理方法が適用できる。詳細については上記文献の記述内容を参照していただき、ここでは簡単な原理のみについて説明する。 FIG. 3 shows an example of digital watermark embedding processing using superimposition processing. In the present embodiment, for example, a digital watermark processing method using color difference and superimposition processing described in Japanese Patent Application No. 2003-424329 can be applied. For details, please refer to the description in the above document, and only a simple principle will be described here.
最初に色差変調処理について説明する。
図1(a)における鍵情報103を下記式(A−1)〜(A−6)にしたがい色差変調処理することにより埋め込み情報を作成する。
KEY(x,y)=白画素の場合 → EMD(x,y)−R=
+△CD−R……(A−1)
EMD(x,y)−G=
−△CD−G……(A−2)
EMD(x,y)−B=
−△CD−B……(A−3)
KEY(x,y)=黒画素の場合 → EMD(x,y)−R=
−△CD−R……(A−4)
EMD(x,y)−G=
+△CD−G……(A−5)
EMD(x,y)−B=
+△CD−B……(A−6)
KEY(x,y):鍵情報
EMD(x,y):埋め込み情報(色差変調処理結果)
ΔCD :色差量
色差変調処理の結果、鍵情報が白画素に対応している部分はレッド成分リッチ(R−rich)になり、黒画素に対応している部分はシアン成分リッチ(C−rich)になる。レッドとシアンは物理補色の関係にあるために、両者を足し合わせると無彩色になる。したがって、この画素ピッチを人間の肉眼の感知範囲を超えた高解像度(約300dpi以上)に設定することにより、色差変調処理結果である埋め込み情報は肉眼ではレッドとシアンが識別できず無彩色(灰色)となる。この性質を利用することにより、鍵情報のパターンを見かけ上無彩色情報に置き換えることができる。
First, the color difference modulation process will be described.
Embedded information is created by subjecting the
When KEY (x, y) = white pixel → EMD (x, y) −R =
+ ΔCD- R (A-1)
EMD (x, y) −G =
-△ CD -G (A-2)
EMD (x, y) −B =
-ΔCD -B (A-3)
When KEY (x, y) = black pixel → EMD (x, y) −R =
-△ CD -R (A-4)
EMD (x, y) −G =
+ ΔCD -G (A-5)
EMD (x, y) −B =
+ ΔCD -B (A-6)
KEY (x, y): Key information
EMD (x, y): embedded information (color difference modulation processing result)
ΔCD: Color difference amount As a result of the color difference modulation processing, the portion corresponding to the white pixel in the key information is red component rich (R-rich), and the portion corresponding to the black pixel is cyan component rich (C-rich). become. Since red and cyan are in a relationship of physical complementary colors, adding them together results in an achromatic color. Therefore, by setting this pixel pitch to a high resolution (about 300 dpi or more) that exceeds the perceived range of the human naked eye, the embedded information that is the result of the color difference modulation processing cannot be distinguished from red and cyan by the naked eye. ) By utilizing this property, the key information pattern can be apparently replaced with achromatic information.
なお、上記式では鍵情報が白画素の場合にシアン成分リッチに、黒画素の場合にレッド成分リッチになるように色差変調を行なっているが、この関係は相対的なので、シアン成分リッチとレッド成分リッチが逆になっても原理上差し支えない。 In the above equation, color difference modulation is performed so that the key information is rich in the cyan component when the pixel is white, and the red component is rich when the key information is black, but since this relationship is relative, the cyan component rich and red Even if the component rich is reversed, there is no problem in principle.
次に、重畳処理について説明する。
重畳処理は、画像の座標(x,y)における主画像情報、重畳用の埋め込み情報、合成画像情報を下記のように定義すると、
主画像情報 :SRC−C(x,y)……図3(a)に相当……(B−1)
埋め込み情報:EMD−C(x,y)……図3(b)に相当……(B−2)
合成画像情報:DES−C(x,y)……図3(c)に相当……(B−3)
x,yは画像の座標値(座標サイズは全て同じものとする)
C={R(赤)、G(緑)、B(青)}プレーンを示す
それぞれの値は24ビットカラー演算の場合は、0〜255の整数値
次式で表される。
Next, the superimposition process will be described.
The superimposition process defines the main image information, the embedding information for superimposition, and the composite image information at the coordinates (x, y) of the image as follows:
Main image information: SRC- C (x, y): equivalent to FIG. 3A ... (B-1)
Embedded information: EMD- C (x, y) ... corresponds to FIG. 3 (b) ... (B-2)
Composite image information: DES- C (x, y) ... corresponding to FIG. 3 (c) (B-3)
x and y are coordinate values of the image (the coordinate sizes are all the same)
C = {R (red), G (green), B (blue)} plane
Each value is an integer value between 0 and 255 for 24-bit color operations.
It is expressed by the following formula.
DES−R(x,y)=SRC−R(x,y)+EMD−R(x,y)……(C−1)
DES−G(x,y)=SRC−G(x,y)+EMD−G(x,y)……(C−2)
DES−B(x,y)=SRC−B(x,y)+EMD−B(x,y)……(C−3)
この方式では、
(1)人間の視覚特性を利用
・画像の周波数が高くなるほど階調識別能力が低下
・輝度情報よりも色差情報の方が判別困難
(2)補色の関係例……赤色+シアン色=無彩色(白) (加法混色の場合)
(3)高周波キャリアパターン画像に補色の関係および色差情報を適用(色差変調処
理)
を用いることにより、画質劣化を招くことなく、主画像情報に副情報を不可視状態で埋め込むことが可能になっている。
DES- R (x, y) = SRC- R (x, y) + EMD- R (x, y) (C-1)
DES- G (x, y) = SRC- G (x, y) + EMD- G (x, y) (C-2)
DES- B (x, y) = SRC- B (x, y) + EMD- B (x, y) (C-3)
In this method,
(1) Utilizing human visual characteristics
・ The gradation discrimination ability decreases as the frequency of the image increases.
-Color difference information is more difficult to distinguish than luminance information
(2) Example of complementary colors: Red + cyan = achromatic (white) (in case of additive color mixture)
(3) Applying complementary color relationship and color difference information to the high frequency carrier pattern image (color difference modulation processing)
Reason)
By using the sub information, it is possible to embed the sub information in the main image information in an invisible state without causing image quality deterioration.
上記(2)の例でいえば、赤色とシアン色(=緑色+青色)は、加法混色の場合、補色の関係にあり、赤色とシアン色が隣り合っていても人間の目には判別しにくく無彩色に見える。
上記(3)のように、高周波キャリアパターン画像を用いることで、赤色リッチな画素とシアン色リッチな画素が繰り返し配置されているため、人間の目ではこれらの細かな色差の違いを識別できず、色差量はプラスマイナス「0」と判断してしまう人間の視覚特性を利用している。
In the example of (2) above, red and cyan (= green + blue) are complementary colors in the case of additive color mixing, and even if red and cyan are adjacent to each other, they are not recognized by human eyes. It looks difficult and achromatic.
As described in (3) above, by using the high-frequency carrier pattern image, red-rich pixels and cyan-rich pixels are repeatedly arranged, so that the human eye cannot identify these small color difference differences. The human visual characteristic that the color difference amount is determined to be plus or minus “0” is used.
図4は、本実施の形態で用いる主画像情報(人の顔画像)を空間領域から周波数領域に変換した例を示している。図4(a)は認証用写真等の人物の顔画像401であり、図4(b)は周波数領域での振幅の信号レベルを模式的に示したものである。図4(b)の符号402はx−y平面での周波数分布、403はx−z平面での周波数分布を示す。一般的に、人物の顔画像のような自然画像は周波数が低い領域である中央の信号レベルが高く、周波数が高い領域である周辺にいくにしたがって信号レベルは低くなる。
FIG. 4 shows an example in which the main image information (human face image) used in the present embodiment is converted from the spatial domain to the frequency domain. FIG. 4A shows a
図5は、本実施の形態で用いる鍵情報を空間領域から周波数領域に変換した例を示している。図5の鍵情報は矩形格子パターンを用いているが、”1”または”0”のビット列を使用する場合は、たとえば、”1”を黒画素、”0”を白画素に対応させて白黒2値画像に変換して用いることで対応可能である。 FIG. 5 shows an example in which key information used in the present embodiment is converted from the spatial domain to the frequency domain. The key information in FIG. 5 uses a rectangular lattice pattern. However, when a bit string of “1” or “0” is used, for example, “1” corresponds to a black pixel and “0” corresponds to a white pixel. This can be handled by converting to a binary image.
図5(a)は鍵情報501であり、図5(b)は図5(a)の一部分を拡大したものであり、図5(c)は周波数領域での振幅の信号レベルを模式的に示したものである。図5(c)の符号503はx−y平面での周波数分布、504はx−z平面での周波数分布を示す。図5(b)の拡大図にあるように、本例の鍵情報502は、横KEY(P)x、縦KEY(P)yの半周期を持つ矩形格子パターンである。このような場合、周波数分布は、
KEY(P)x:KEY(P)y=f(P)y:f(P)x……(D−1)
の関係となる第1ピークP1が図5(c)に示すように4点存在し、x方向およびy方向に基本周期の奇数分の1の周期の高周波成分が第2ピークP2、第3ピークP3(図示省略)として現れる。
5A shows the
KEY (P) x: KEY (P) y = f (P) y: f (P) x (D-1)
As shown in FIG. 5 (c), there are four first peaks P1 having the relationship of FIG. 5B, and high-frequency components having an odd-numbered period of the fundamental period in the x and y directions are the second peak P2 and the third peak. Appears as P3 (not shown).
図6は、上記式(C−1)〜(C−3)で示した重畳処理を周波数領域での表現に変換したものを模式的に示したものである。
図6(a)は主画像情報の周波数領域表現、図6(b)は鍵情報の周波数領域表現、図6(c)は合成画像情報の周波数領域表現である。正確には重畳処理において、図6(b)は鍵情報の周波数領域ではなく、埋め込み情報の周波数領域表現であるが、色差変調ではR,G,Bの1つの色プレーンに特定して着目した場合、鍵情報の周波数は全く変更されておらず、そのまま埋め込み情報へと変換されているため、[鍵情報の周波数領域表現=埋め込み情報の周波数表現]と見なして構わない。
FIG. 6 schematically shows a result obtained by converting the superimposition processing represented by the above formulas (C-1) to (C-3) into a representation in the frequency domain.
6A is a frequency domain representation of main image information, FIG. 6B is a frequency domain representation of key information, and FIG. 6C is a frequency domain representation of composite image information. To be precise, in the superimposition processing, FIG. 6B shows not the frequency domain of the key information but the frequency domain expression of the embedded information, but in the color difference modulation, attention is paid to specifying one color plane of R, G, and B. In this case, since the frequency of the key information is not changed at all and is converted into embedded information as it is, it may be regarded as [frequency domain expression of key information = frequency expression of embedded information].
重畳処理の結果、図6(c)で示すように、x−y平面で見た場合、主画像情報の周波数分布と鍵情報の周波数成分とが重なっているため、周波数の干渉を起こしている(E部参照)。
そのため、図1(b)で説明したように、復元処理において周波数検出処理で鍵情報の周波数成分だけを抽出するのは難しく、主画像情報の成分も一緒に検出してしまうこととなる。
As a result of the superimposition process, as shown in FIG. 6C, when viewed on the xy plane, the frequency distribution of the main image information and the frequency component of the key information overlap, causing frequency interference. (See part E).
Therefore, as described with reference to FIG. 1B, it is difficult to extract only the frequency component of the key information in the frequency detection process in the restoration process, and the main image information component is also detected together.
そこで、図7で示すような周波数低減関数を作成し、主画像情報に対し周波数フィルタリング処理を行なうことにより、上記問題点を解決する。
図7の周波数低減関数の±fx1は図5(c)のf(p)xから求められ、
fx1≦f(p)x……(E−1)
となる。
Therefore, the above problem is solved by creating a frequency reduction function as shown in FIG. 7 and performing frequency filtering on the main image information.
The frequency reduction function ± fx1 of FIG. 7 is obtained from f (p) x of FIG.
fx1 ≦ f (p) x (E-1)
It becomes.
また(図示していないが)、±fy1は図5(c)のf(p)yから求められ、
fy1≦f(p)y……(E−2)
となる。
Further, although not shown, ± fy1 is obtained from f (p) y in FIG.
fy1 ≦ f (p) y (E-2)
It becomes.
±fx2、±fy2は画像の画素数から決定され、主画像情報のx方向画素数Ix、y方向画素数Iyとすると、
fx2=1/(Ix/2)……(E−3)
fy2=1/(Iy/2)……(E−4)
となる。
± fx2 and ± fy2 are determined from the number of pixels of the image, and the number of pixels in the x direction Ix and the number of pixels in the y direction Iy of the main image information are
fx2 = 1 / (Ix / 2) (E-3)
fy2 = 1 / (Iy / 2) (E-4)
It becomes.
図7の周波数低減関数の係数A1およびA2は実験的に求められ、本実施の形態の場合、
A1=1.0……(E−5)
A2=0.5……(E−6)
とした。
The coefficients A1 and A2 of the frequency reduction function in FIG. 7 are obtained experimentally. In this embodiment,
A1 = 1.0 (E-5)
A2 = 0.5 (E-6)
It was.
上記のような周波数低減関数Fr(x,y)を主画像情報の周波数領域に変換した状態で掛け合わせると、変更後の主画像情報SRC2(x,y)は下記のように示される。
SRC2(x,y)=SRC(X,y)・Fr(x,y)……(F−1)
図8(a)に変更前の主画像情報の周波数分布を、図8(b)に変更後の主画像情報の周波数分布を模式的に示している。周波数低減関数の係数A1,A2にしたがい、全体のピークはあまり変更しないで維持されたまま、周波数の広がりがx方向、y方向ともに狭くなっている。
When the frequency reduction function Fr (x, y) as described above is multiplied in the state converted into the frequency region of the main image information, the changed main image information SRC2 (x, y) is expressed as follows.
SRC2 (x, y) = SRC (X, y) · Fr (x, y) (F-1)
FIG. 8A schematically shows the frequency distribution of the main image information before the change, and FIG. 8B schematically shows the frequency distribution of the main image information after the change. According to the coefficients A1 and A2 of the frequency reduction function, the spread of the frequency is narrowed in both the x and y directions while maintaining the entire peak with little change.
変更後の主画像情報を用いて重畳処理した結果の周波数分布を図9に模式的に示す。図示のように、x−y平面において主画像情報と鍵情報(埋め込み情報)との周波数の重なりがほとんど無いため、周波数干渉が生じない(F部参照)。したがって、復元処理を行なった場合、鍵情報の周波数のみを精度良く検知することが可能になる。 FIG. 9 schematically shows the frequency distribution as a result of the superimposition processing using the main image information after the change. As shown in the figure, there is almost no frequency overlap between the main image information and the key information (embedded information) in the xy plane, and therefore no frequency interference occurs (see section F). Therefore, when the restoration process is performed, only the frequency of the key information can be detected with high accuracy.
以上説明したように第1の実施の形態によれば、電子透かし埋め込み前の原画像から電子透かしに影響する周波数成分を除去することにより、副情報の復元処理時に周波数干渉が起こりにくくなるため、精度良く鍵情報の周波数のみを検知でき、電子透かし情報(副情報)を取出しやすくなる。 As described above, according to the first embodiment, by removing the frequency component that affects the digital watermark from the original image before embedding the digital watermark, frequency interference is less likely to occur during the sub information restoration process. Only the frequency of the key information can be detected with high accuracy, and the electronic watermark information (sub information) can be easily extracted.
次に、第2の実施の形態について説明する。
図10は、第2の実施の形態に係る画像処理装置の埋め込み処理系の構成を概略的に示すものである。第2の実施の形態に係る画像処理装置の埋め込み処理系は、鍵情報103が複数個(N個)の鍵情報1031〜103Nとなり、それに伴い鍵情報ピーク成分抽出部104も複数個(N個)の鍵情報ピーク成分抽出部1041〜104Nとなり、これら鍵情報ピーク成分抽出部1041〜104Nにより得られた第1ピーク成分の周波数領域を合成して1つの鍵情報ピーク成分の周波数領域を作成する鍵情報ピーク成分群合成手段としての鍵情報ピーク成分群合成部115が追加された点が第1の実施の形態と異なり、その他は第1の実施の形態と同様であるので説明は省略する。
Next, a second embodiment will be described.
FIG. 10 schematically shows a configuration of an embedding processing system of the image processing apparatus according to the second embodiment. In the embedding processing system of the image processing apparatus according to the second embodiment, the
以下、処理の流れについて説明する。
まず、鍵情報ピーク成分抽出部1041〜104Nは、複数の鍵情報1031〜103Nを入力として鍵情報ピーク成分抽出処理を行なう。これらは、たとえば、復元に用いる鍵情報1031〜103Nを2次元画像に変換した後、フーリエ変換等を行なうことで、2次元空間領域から周波数領域への変換を行ない、周波数領域での第1ピーク成分を抽出する。ここでの第1ピーク成分とは周波数領域での振幅の信号レベルが一番高い領域を示す。
Hereinafter, the flow of processing will be described.
First, the key information peak
次に、鍵情報ピーク成分群合成部115は、複数の鍵情報ピーク成分抽出部1041〜104Nで求めた各鍵情報1031〜103Nの第1ピーク成分を1つの周波数分布に合成する。
Next, the key information peak component
次に、主画像周波数処理部105は、鍵情報ピーク成分群合成部110でまとめた周波数分布および主画像情報101を入力として主画像周波数処理を行なう。ここでは、たとえば、主画像情報101をフーリエ変換等を行なうことで、空間領域から周波数領域への変換を行った後に、複数の鍵情報1031〜103Nの第1ピーク成分を合成した周波数分布に相当する周波数成分を主画像情報101から低減または除去する。
Next, the main image
次に、電子透かし埋め込み処理部106は、主画像周波数処理部105で複数の鍵情報1031〜103Nの第1ピーク成分相当を処理された主画像情報101、副情報102、および、複数の鍵情報1031〜103Nを入力として電子透かし埋め込み処理を行なう。ここでは、処理済みの主画像情報101に対し副情報102を不可視状態で埋め込むことにより合成画像情報107を作成する。
Next, the digital watermark embedding
次に、記録処理部108は、電子透かし埋め込み処理部106で作成された合成画像情報107を可視画像として記録媒体に記録処理することにより、記録された合成画像情報(記録物)109が作成される。この場合の記録物とは例えば社員証等のIDカードを示す。
Next, the
鍵情報ピーク成分群合成部115は、下記数式にしたがって鍵画像ピーク成分の合成を行なう。
fc(x,y)=Σ(fp1(x,y)+fp2(x,y)+…
+fpi(x,y)+…+fpN(x,y))……(G−1)
fc(x,y) :鍵情報ピーク成分群合成部の結果
fpi(x,y):i番目の鍵情報ピーク成分抽出部の結果
電子透かし埋め込み処理部106は、たとえば、特願2003−424329等に記述されている電子透かし埋め込み処理方法が適用できる。詳細については上記文献の記述内容を参照していただき、ここでは簡単な原理のみについて以下に説明する。
The key information peak component
fc (x, y) = Σ (fp1 (x, y) + fp2 (x, y) +.
+ Fpi (x, y) +... + FpN (x, y)) (G-1)
fc (x, y): result of the key information peak component group synthesis unit
fpi (x, y): Result of the i-th key information peak component extraction unit The digital watermark embedding
図11は、主画像情報に副情報を埋め込んで合成画像情報を作成する処理の流れを示しており、以下、この流れ図を参照して説明する。
入力情報として、主画像周波数処理部105で処理後の主画像情報101′、副情報102、N個の鍵情報1031〜103Nがある。鍵情報1031〜103Nは、それぞれ種類の異なるN個(N:整数)の鍵情報を2値画像で表現したものである。
FIG. 11 shows a flow of processing for creating the composite image information by embedding the sub-information in the main image information, and will be described below with reference to this flowchart.
As input information, there are
まず、N個の色差量補正処理ステップ1161〜116Nでは、主画像情報101′およびあらかじめ設定された色差量ΔCdをそれぞれ入力として色差量補正処理が行なわれる。
次に、N個の色差変調処理ステップ1171〜117Nでは、色差量補正処理ステップ1111〜111Nの各結果および鍵情報1031〜103Nをそれぞれ入力として、色差変調処理が行なわれ、N個の色差変調処理結果がそれぞれ得られる。
First, in N color difference amount
Next, in the N color difference modulation processing steps 117 1 to 117 N , the color difference modulation processing is performed with each result of the color difference amount
次に、選択・合成処理ステップ118では、色差変調処理ステップ1171〜117Nの各結果および副情報102をそれぞれ入力として、選択・合成処理が行なわれ、1つの選択・合成結果が得られる。
次に、重畳処理ステップ119では、主画像情報101′および選択・合成処理ステップ118の結果をそれぞれ入力として、主画像情報101′に対する選択・合成処理結果の重畳処理が行なわれ、合成画像情報107が作成される。
Next, the selection and combining
Next, in the
以上説明したように第2の実施実施の形態によれば、鍵情報が複数個になった場合でも、電子透かし埋め込み前の原画像から電子透かしに影響する周波数成分を除去することにより、副情報の復元処理時に周波数干渉が起こりにくくなるため、精度良く鍵情報の周波数のみを検知でき、電子透かし情報(副情報)を取出しやすくなる。 As described above, according to the second embodiment, even when there are a plurality of pieces of key information, sub-information is removed by removing frequency components affecting the digital watermark from the original image before embedding the digital watermark. Since the frequency interference is less likely to occur during the restoration process, only the frequency of the key information can be detected with high accuracy, and the electronic watermark information (sub-information) can be easily extracted.
101…主画像情報、102…副情報(電子透かし情報)、103…鍵情報、104…鍵情報ピーク成分抽出部(鍵情報ピーク成分抽出手段)、105…主画像周波数処理部(主画像周波数処理手段)、106…電子透かし埋め込み処理部(埋め込み処理手段)、107…合成画像情報、108…記録処理部(記録処理手段)、109…記録物、201…IDカード、202…認証用顔画像、203…個人管理情報。
DESCRIPTION OF
Claims (2)
鍵情報ピーク成分抽出手段により、後で副情報を復元する際に用いる鍵情報を2次元画像に変換した後、フーリエ変換を行なうことで2次元空間領域から周波数領域への変換を行ない、第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出ステップと、
主画像周波数処理手段により、副情報を埋め込む前に主画像情報に対してフーリエ変換を行なうことで、空間領域から周波数領域への変換を行なった後に、前記鍵情報ピーク成分抽出ステップにより得られた第1ピーク成分の周波数領域を除去または低減する処理、あるいは、副情報を埋め込む前に主画像情報に対して前記鍵情報ピーク成分抽出ステップにより得られた第1ピーク成分の周波数領域を除去または低減するフィルタ処理を行なう主画像周波数処理ステップと、
埋め込み処理手段により、前記主画像周波数処理ステップで処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理ステップと、
を具備したことを特徴とする画像処理方法。 In an image processing method for creating composite image information by embedding the sub information in an invisible state by superimposing the sub information on the main image information in the visible state,
The key information peak component extracting means converts the key information used when restoring the sub information later into a two-dimensional image, and then performs a Fourier transform to convert the two-dimensional space region to the frequency region. Key information peak component extraction step for extracting the frequency region of the peak component;
Obtained by the key information peak component extraction step after performing transformation from the spatial domain to the frequency domain by performing Fourier transform on the main image information before embedding the sub information by the main image frequency processing means. Processing for removing or reducing the frequency region of the first peak component, or removing or reducing the frequency region of the first peak component obtained by the key information peak component extraction step with respect to the main image information before embedding the sub information. A main image frequency processing step for performing filtering processing;
An embedding processing step for embedding the sub-information in an invisible state by superimposing the sub-information on the main image information processed in the main image frequency processing step by an embedding processing unit, and creating composite image information;
An image processing method comprising:
後で副情報を復元する際に用いる鍵情報を2次元画像に変換した後、フーリエ変換を行なうことで2次元空間領域から周波数領域への変換を行ない、第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出手段と、
副情報を埋め込む前に主画像情報に対してフーリエ変換を行なうことで、空間領域から周波数領域への変換を行なった後に、前記鍵情報ピーク成分抽出手段により得られた第1ピーク成分の周波数領域を除去または低減する処理、あるいは、副情報を埋め込む前に主画像情報に対して前記鍵情報ピーク成分抽出手段により得られた第1ピーク成分の周波数領域を除去または低減するフィルタ処理を行なう主画像周波数処理手段と、
この主画像周波数処理手段で処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理手段と、
を具備したことを特徴とする画像処理装置。 In an image processing apparatus that creates composite image information by embedding the sub information in an invisible state by superimposing the sub information on the main image information in the visible state,
The key information used when restoring the sub information later is converted into a two-dimensional image, and then the Fourier transform is performed to convert the two-dimensional space region to the frequency region, thereby extracting the frequency region of the first peak component. Key information peak component extraction means;
The frequency domain of the first peak component obtained by the key information peak component extraction means after performing the transformation from the spatial domain to the frequency domain by performing Fourier transform on the main image information before embedding the sub information. A main image that is subjected to a process for removing or reducing the main image information, or a filter process for removing or reducing the frequency region of the first peak component obtained by the key information peak component extracting means before embedding the sub information. Frequency processing means;
An embedding processing means for embedding the sub information in an invisible state by superimposing the sub information on the main image information processed by the main image frequency processing means, and creating composite image information;
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005246141A JP4630765B2 (en) | 2005-08-26 | 2005-08-26 | Image processing method and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005246141A JP4630765B2 (en) | 2005-08-26 | 2005-08-26 | Image processing method and image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007060527A JP2007060527A (en) | 2007-03-08 |
JP4630765B2 true JP4630765B2 (en) | 2011-02-09 |
Family
ID=37923567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005246141A Expired - Fee Related JP4630765B2 (en) | 2005-08-26 | 2005-08-26 | Image processing method and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4630765B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4922205B2 (en) * | 2007-08-17 | 2012-04-25 | 株式会社東芝 | Image processing method and image processing apparatus |
JP2010136206A (en) * | 2008-12-05 | 2010-06-17 | Toshiba Corp | Image processing method and image processing apparatus |
JP6296319B1 (en) * | 2016-09-30 | 2018-03-20 | 国立大学法人 奈良先端科学技術大学院大学 | Information processing apparatus, display method, reading method, and computer-readable non-transitory storage medium |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004328217A (en) * | 2003-04-23 | 2004-11-18 | Toshiba Corp | Image processing method and image recording apparatus |
JP2004343712A (en) * | 2003-04-25 | 2004-12-02 | Toshiba Corp | Image processing system, image processing apparatus, and image processing method |
-
2005
- 2005-08-26 JP JP2005246141A patent/JP4630765B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004328217A (en) * | 2003-04-23 | 2004-11-18 | Toshiba Corp | Image processing method and image recording apparatus |
JP2004343712A (en) * | 2003-04-25 | 2004-12-02 | Toshiba Corp | Image processing system, image processing apparatus, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2007060527A (en) | 2007-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4550749B2 (en) | Image processing method and image processing apparatus | |
JP4227048B2 (en) | Image processing system | |
Kutter et al. | Fair evaluation methods for image watermarking systems | |
JP4167590B2 (en) | Image processing method | |
Rabie | Digital image steganography: An fft approach | |
JP4630765B2 (en) | Image processing method and image processing apparatus | |
JP5508896B2 (en) | Image processing method | |
JPH11355554A (en) | Picture information processing method and forgery preventing method of certificate and the like | |
Gull et al. | Color image authentication using dual watermarks | |
JP6937012B2 (en) | Digital watermarking device and method | |
JP6937010B2 (en) | Digital watermarking device and method | |
Rabie | High-capacity steganography | |
JP2005159438A (en) | Image processing method | |
WO2021084812A1 (en) | Electronic device | |
JP4829164B2 (en) | Image processing apparatus and image processing method | |
KR101308137B1 (en) | Digital image watermarking scheme | |
JP2001094755A (en) | Image processing method | |
Barkat et al. | Time-frequency and time-scale-based fragile watermarking methods for image authentication | |
El Gamal et al. | A fragile video watermarking algorithm for content authentication based on block mean and modulation factor | |
JP7008950B2 (en) | Digital watermarking device and method | |
JP2006301334A (en) | Image information security method | |
WO2007064006A1 (en) | Image information producing apparatus and image information producing method | |
JP4686578B2 (en) | Image processing method | |
JP4746663B2 (en) | Image processing apparatus and image processing method | |
JP2009065364A (en) | Image processing method, image processing apparatus and recorded matter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100803 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100929 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101019 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101115 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131119 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4630765 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131119 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |