JP4630765B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP4630765B2
JP4630765B2 JP2005246141A JP2005246141A JP4630765B2 JP 4630765 B2 JP4630765 B2 JP 4630765B2 JP 2005246141 A JP2005246141 A JP 2005246141A JP 2005246141 A JP2005246141 A JP 2005246141A JP 4630765 B2 JP4630765 B2 JP 4630765B2
Authority
JP
Japan
Prior art keywords
information
frequency
main image
sub
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005246141A
Other languages
Japanese (ja)
Other versions
JP2007060527A (en
Inventor
隆 山口
真哉 徳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2005246141A priority Critical patent/JP4630765B2/en
Publication of JP2007060527A publication Critical patent/JP2007060527A/en
Application granted granted Critical
Publication of JP4630765B2 publication Critical patent/JP4630765B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Credit Cards Or The Like (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、たとえば、可視状態の主画像情報(人物の顔画像など)に対して別の付加的な副情報(セキュリティ情報など)を不可視状態で埋め込み合成して合成画像情報を作成する画像処理方法および画像処理装置に関する。   The present invention, for example, performs image processing for creating composite image information by embedding and synthesizing additional additional sub information (security information or the like) in the invisible state with respect to main image information (such as a human face image) in the visible state. The present invention relates to a method and an image processing apparatus.

最近、情報の電子化やインターネットの普及に伴って、画像の偽造や変造防止のために電子透かし、電子署名などの技術が重要視されるようになってきている。特に、主画像情報に付加的な副情報を不可視状態で埋め込む電子透かし技術は、IDカードや著作権情報を埋め込んだ写真に対する不正コピー、偽造、改ざん対策として提案されている。
たとえば、主画像情報に色差情報を利用して副情報を重畳処理することにより当該副情報の埋め込みを行なう電子透かし方法が開示されている(たとえば、特許文献1参照)。
特開2001−268346号公報
Recently, with the digitization of information and the spread of the Internet, techniques such as digital watermarks and digital signatures have come to be regarded as important in order to prevent forgery and alteration of images. In particular, a digital watermark technique for embedding additional sub information in the main image information in an invisible state has been proposed as a measure against illegal copying, forgery, and falsification of a photo in which an ID card or copyright information is embedded.
For example, a digital watermark method for embedding the sub-information by superimposing the sub-information on the main image information using color difference information is disclosed (for example, see Patent Document 1).
JP 2001-268346 A

画像の偽造や変造防止のために用いられる電子透かし技術は、主画像情報に副情報(電子透かし情報)等の埋め込み情報を不可視状態で埋め込む技術であるが、後で副情報を取出すために復元処理を行なう必要がある。
副情報を取出す際の復元処理に関しては、従来から色々な手法があるが、その中でも周波数領域を利用した周波数フィルタリング等の手法はよく利用されることが多い。
ところが、周波数フィルタリングの手法では、主画像情報の周波数成分と埋め込んだ副情報の周波数成分とが干渉していると、周波数フィルタリング手法を用いて取出すことが困難になるといった問題が生じる。
The digital watermark technology used to prevent forgery and alteration of images is a technology that embeds embedded information such as sub information (digital watermark information) in the invisible state in the main image information, but it is restored to retrieve the sub information later. It is necessary to perform processing.
Various methods have been conventionally used for restoration processing when sub-information is extracted, and among them, methods such as frequency filtering using a frequency domain are often used.
However, in the frequency filtering method, if the frequency component of the main image information and the frequency component of the embedded sub information interfere with each other, there arises a problem that it is difficult to extract using the frequency filtering method.

そこで、本発明は、主画像情報の周波数分布に影響を受けることなく、安定して副情報を復元処理により取出すことが可能になる画像処理方法および画像処理装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an image processing method and an image processing apparatus that can stably extract sub information by a restoration process without being affected by the frequency distribution of main image information.

本発明の画像処理方法は、可視状態の主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込んで合成画像情報を作成する画像処理方法において、鍵情報ピーク成分抽出手段により、後で副情報を復元する際に用いる鍵情報を2次元画像に変換した後、フーリエ変換を行なうことで2次元空間領域から周波数領域への変換を行ない、第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出ステップと、主画像周波数処理手段により、副情報を埋め込む前に主画像情報に対してフーリエ変換を行なうことで、空間領域から周波数領域への変換を行なった後に、前記鍵情報ピーク成分抽出ステップにより得られた第1ピーク成分の周波数領域を除去または低減する処理、あるいは、副情報を埋め込む前に主画像情報に対して前記鍵情報ピーク成分抽出ステップにより得られた第1ピーク成分の周波数領域を除去または低減するフィルタ処理を行なう主画像周波数処理ステップと、埋め込み処理手段により、前記主画像周波数処理ステップで処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理ステップとを具備している。 The image processing method of the present invention is a key information peak component extraction in an image processing method for creating composite image information by embedding the sub information in an invisible state by superimposing the sub information on the main image information in the visible state. The key information used when restoring the sub-information later is converted into a two-dimensional image by the means, and then converted from the two-dimensional space region to the frequency region by performing Fourier transform, and the frequency region of the first peak component After performing the transformation from the spatial domain to the frequency domain by performing a Fourier transform on the main image information before embedding the sub information by the key information peak component extraction step for extracting the sub information and the main image frequency processing means, Processing for removing or reducing the frequency region of the first peak component obtained by the key information peak component extraction step, or before embedding the sub information A main image frequency processing step for performing filtering processing to remove or reduce a frequency region of the first peak component obtained by the key information peak component extraction step for information, and an embedding processing means, in the main image frequency processing step. An embedding process step for embedding the sub-information in the invisible state by superimposing the sub-information on the processed main image information to create composite image information.

また、本発明の画像処理装置は、可視状態の主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込んで合成画像情報を作成する画像処理装置において、後で副情報を復元する際に用いる鍵情報を2次元画像に変換した後、フーリエ変換を行なうことで2次元空間領域から周波数領域への変換を行ない、第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出手段と、副情報を埋め込む前に主画像情報に対してフーリエ変換を行なうことで、空間領域から周波数領域への変換を行なった後に、前記鍵情報ピーク成分抽出手段により得られた第1ピーク成分の周波数領域を除去または低減する処理、あるいは、副情報を埋め込む前に主画像情報に対して前記鍵情報ピーク成分抽出手段により得られた第1ピーク成分の周波数領域を除去または低減するフィルタ処理を行なう主画像周波数処理手段と、この主画像周波数処理手段で処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理手段とを具備している。 The image processing apparatus according to the present invention is an image processing apparatus that creates composite image information by embedding the sub information in an invisible state by superimposing the sub information on the main image information in the visible state. Key information peak for extracting the frequency region of the first peak component by converting the key information used for restoring information into a two-dimensional image and then performing a Fourier transform to convert the two-dimensional space region to the frequency region. A first component obtained by the key information peak component extraction unit after the transformation from the spatial domain to the frequency domain is performed by performing Fourier transform on the main image information before embedding the sub information and the component extraction unit. Processing for removing or reducing the frequency region of the peak component, or the first peak obtained by the key information peak component extracting means for the main image information before embedding the sub information. Main image frequency processing means for performing a filtering process to remove or reduce the frequency region of the noise component, and the sub-information is invisible by superimposing the sub-information on the main image information processed by the main image frequency processing means. Embedding processing means for embedding in a state and creating composite image information.

本発明によれば、電子透かし埋め込み前の原画像から電子透かしに影響する周波数成分を除去することにより、主画像情報の周波数分布に影響を受けることなく、安定して副情報を復元処理により取出すことが可能になる画像処理方法および画像処理装置を提供できる。   According to the present invention, by removing frequency components affecting the digital watermark from the original image before embedding the digital watermark, the sub-information is stably extracted by the restoration process without being affected by the frequency distribution of the main image information. It is possible to provide an image processing method and an image processing apparatus that can be used.

以下、本発明の実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。
図1(a)は、第1の実施の形態に係る画像処理装置の埋め込み処理系の構成を概略的に示すものである。この画像処理装置の埋め込み処理系は、たとえば、IDカードの個人認証用顔画像の処理に適用され、肉眼で可視状態の主画像情報(顔画像)に副情報(セキュリティ情報など)を不可視状態で埋め込んで合成画像情報を作成する、いわゆる電子透かし埋め込み処理を行なうもので、後で副情報を復元する際に用いる鍵情報を周波数領域に変換して第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出手段としての鍵情報ピーク成分抽出部104、副情報を埋め込む前に主画像情報に対して鍵情報ピーク成分抽出部104により得られた第1ピーク成分の周波数領域を除去または低減する主画像周波数処理手段としての主画像周波数処理部105、主画像周波数処理部105で処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理手段としての電子透かし埋め込み処理部106、および、電子透かし埋め込み処理部106により作成された合成画像情報107を記録媒体の記録面上に可視状態で記録(印刷)する記録処理手段としての記録処理部108によって構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the first embodiment will be described.
FIG. 1A schematically shows a configuration of an embedding processing system of the image processing apparatus according to the first embodiment. The embedding processing system of this image processing apparatus is applied to, for example, processing of a face image for personal authentication of an ID card, and sub-information (security information, etc.) is invisible to main image information (face image) visible to the naked eye Key information for performing so-called digital watermark embedding processing for embedding composite image information, converting key information used when restoring sub-information later into the frequency domain and extracting the frequency domain of the first peak component Key information peak component extraction unit 104 as a peak component extraction unit, a main component that removes or reduces the frequency region of the first peak component obtained by the key information peak component extraction unit 104 from the main image information before embedding the sub information. Sub-information is superimposed on the main image information processed by the main image frequency processing unit 105 and the main image frequency processing unit 105 as image frequency processing means. Embedded in the invisible state, the digital watermark embedding processing unit 106 as an embedding processing unit for creating composite image information, and the composite image information 107 created by the digital watermark embedding processing unit 106 on the recording surface of the recording medium A recording processing unit 108 serving as recording processing means for recording (printing) in a visible state is formed on the recording processing unit 108.

次に、このような構成において処理の流れについて説明する。
入力情報として、主画像情報101、副情報(電子透かし情報)102、鍵情報103がある。主画像情報101は例えば個人認証用の顔画像、副情報102は主画像情報101のセキュリティ性を高める情報または真偽判定に用いる情報、さらには著作権管理に用いる情報など、鍵情報103は電子透かしとして埋め込んだ副情報102を後で取出して復元するときに用いる鍵となる情報である。
Next, the flow of processing in such a configuration will be described.
As input information, there are main image information 101, sub-information (digital watermark information) 102, and key information 103. The main image information 101 is, for example, a face image for personal authentication, the sub information 102 is information for improving the security of the main image information 101 or information used for authenticity determination, and information used for copyright management. This is key information used when the sub information 102 embedded as a watermark is later retrieved and restored.

まず、鍵情報ピーク成分抽出部104は、鍵情報103を入力としてピーク成分抽出処理を行なう。ここでは、復元に用いる鍵情報103を2次元画像に変換した後、たとえば、フーリエ変換等を行なうことで、2次元空間領域から周波数領域への変換を行ない、周波数領域での第1ピーク成分を抽出する。ここでの第1ピーク成分とは、周波数領域での振幅の信号レベルが一番高い領域を示す。   First, the key information peak component extraction unit 104 performs peak component extraction processing with the key information 103 as an input. Here, after converting the key information 103 used for restoration into a two-dimensional image, for example, by performing Fourier transform or the like, the transformation from the two-dimensional space region to the frequency region is performed, and the first peak component in the frequency region is obtained. Extract. Here, the first peak component indicates a region having the highest amplitude signal level in the frequency region.

次に、主画像周波数処理部105は、鍵情報ピーク成分抽出部104で抽出された第1ピーク成分および主画像情報101を入力として主画像周波数処理を行なう。ここでは、たとえば、主画像情報101をフーリエ変換等を行なうことで、空間領域から周波数領域への変換を行なった後に、鍵情報103の第1ピーク成分に相当する周波数成分を主画像情報101から低減または除去する。   Next, the main image frequency processing unit 105 performs main image frequency processing using the first peak component extracted by the key information peak component extraction unit 104 and the main image information 101 as inputs. Here, for example, after performing transformation from the spatial domain to the frequency domain by performing Fourier transform or the like on the main image information 101, a frequency component corresponding to the first peak component of the key information 103 is obtained from the main image information 101. Reduce or eliminate.

次に、電子透かし埋め込み処理部106は、主画像周波数処理部105で鍵情報103の第1ピーク成分相当を処理された主画像情報101、副情報102、および、鍵情報103を入力として電子透かし埋め込み処理を行なう。ここでは、処理済みの主画像情報101に対し副情報102を不可視状態で埋め込むことにより合成画像情報107を作成する。   Next, the digital watermark embedding processing unit 106 receives the main image information 101, the sub information 102, and the key information 103, which have been processed by the main image frequency processing unit 105 as to the first peak component of the key information 103, as input. Perform embedding. Here, the composite image information 107 is created by embedding the sub information 102 in the invisible state in the processed main image information 101.

次に、記録処理部108は、電子透かし埋め込み処理部106で作成された合成画像情報107を可視画像として記録媒体に記録処理することにより、記録された合成画像情報(記録物)109が作成される。この場合の記録物とは例えば社員証等のIDカードを示す。   Next, the recording processing unit 108 records the synthesized image information 107 created by the digital watermark embedding processing unit 106 on a recording medium as a visible image, thereby creating recorded synthesized image information (recorded material) 109. The The recorded material in this case indicates an ID card such as an employee ID card.

以降、上述した図1(a)の副情報の埋め込み処理を電子透かし埋め込み処理と呼ぶ。   Hereinafter, the sub information embedding process in FIG. 1A described above is referred to as a digital watermark embedding process.

図1(b)は、第1の実施の形態に係る画像処理装置の復元処理系の構成を概略的に示すものである。この画像処理装置の復元処理系は、図1(a)の電子透かし埋め込み処理で作成された記録物109から副情報102を復元する、いわゆる電子透かし復元処理を行なうもので、記録物109に記録されている合成画像情報を取込み、デジタルの画像情報に変換する記録画像入力部110、取込まれた画像情報から副情報(電子透かし情報)102を復元する復元処理部111、および、復元された副情報102の結果を表示する結果表示処理部114によって構成されている。
復元処理部111は、取込まれた画像情報から鍵情報103の空間周波数成分を検出する周波数検出処理部112、および、検出された空間周波数成分から副情報102を再構成する再構成処理部113によって構成されている。
FIG. 1B schematically shows the configuration of the restoration processing system of the image processing apparatus according to the first embodiment. The restoration processing system of this image processing apparatus performs so-called digital watermark restoration processing for restoring the sub information 102 from the recorded material 109 created by the digital watermark embedding processing of FIG. The recorded image input unit 110 that captures the converted composite image information and converts it into digital image information, the restoration processing unit 111 that restores the sub-information (digital watermark information) 102 from the captured image information, and the restored The result display processing unit 114 displays the result of the sub information 102.
The restoration processing unit 111 is a frequency detection processing unit 112 that detects a spatial frequency component of the key information 103 from the captured image information, and a reconstruction processing unit 113 that reconstructs the sub information 102 from the detected spatial frequency component. It is constituted by.

次に、このような構成において処理の流れについて説明する。
まず、記録画像入力部110は、記録物109に記録されている合成画像情報を光学的に読取り、デジタルの画像情報として入力する。次に、周波数検出処理部112は、記録画像入力部110で取込まれた画像情報から鍵情報103の空間周波数成分を検出する。次に、再構成処理部113は、周波数検出処理部112で検出された空間周波数成分から副情報102を再構成する。次に、結果表示処理部114は、再構成処理部113で再構成された副情報を表示する。
Next, the flow of processing in such a configuration will be described.
First, the recorded image input unit 110 optically reads the composite image information recorded on the recorded material 109 and inputs it as digital image information. Next, the frequency detection processing unit 112 detects the spatial frequency component of the key information 103 from the image information captured by the recorded image input unit 110. Next, the reconstruction processing unit 113 reconstructs the sub information 102 from the spatial frequency components detected by the frequency detection processing unit 112. Next, the result display processing unit 114 displays the sub information reconstructed by the reconstruction processing unit 113.

以降、上述した図1(b)の副情報の復元処理を電子透かし復元処理と呼ぶ。   Hereinafter, the sub information restoration processing of FIG. 1B described above is referred to as digital watermark restoration processing.

図2は、作成されたIDカード201(記録物109に相当)の具体例を示している。IDカード201には、持ち主の個人認証用顔画像202が記録されているが、この顔画像202は図1(a)で説明した処理によって作成され記録されたものである。また、識別番号(いわゆるID番号)、氏名、生年月日、有効期限などの個人管理情報203が記録されている。これらの個人管理情報203を、図1(a)の電子透かし埋め込み処理における副情報102として用いることにより、IDカード201の認証用顔画像202と個人管理情報203とが関連付けられるため、IDカード201の一部を改ざんしたり、偽造したりすることが困難になり、セキュリティ性を高めることが可能になる。   FIG. 2 shows a specific example of the created ID card 201 (corresponding to the recorded material 109). A face image 202 for personal authentication of the owner is recorded on the ID card 201. This face image 202 is created and recorded by the process described with reference to FIG. In addition, personal management information 203 such as an identification number (so-called ID number), name, date of birth, and expiration date is recorded. By using the personal management information 203 as the sub information 102 in the digital watermark embedding process in FIG. 1A, the authentication face image 202 of the ID card 201 and the personal management information 203 are associated with each other. It becomes difficult to falsify or counterfeit a part of the network, and security can be improved.

図3は、重畳処理を利用した電子透かし埋め込み処理の例を示している。本実施の形態では、たとえば、特願2003−424329等に記述されている色差および重畳処理を用いた電子透かし処理方法が適用できる。詳細については上記文献の記述内容を参照していただき、ここでは簡単な原理のみについて説明する。   FIG. 3 shows an example of digital watermark embedding processing using superimposition processing. In the present embodiment, for example, a digital watermark processing method using color difference and superimposition processing described in Japanese Patent Application No. 2003-424329 can be applied. For details, please refer to the description in the above document, and only a simple principle will be described here.

最初に色差変調処理について説明する。
図1(a)における鍵情報103を下記式(A−1)〜(A−6)にしたがい色差変調処理することにより埋め込み情報を作成する。
KEY(x,y)=白画素の場合 → EMD(x,y)−R
+△CD−R……(A−1)
EMD(x,y)−G
−△CD−G……(A−2)
EMD(x,y)−B
−△CD−B……(A−3)
KEY(x,y)=黒画素の場合 → EMD(x,y)−R
−△CD−R……(A−4)
EMD(x,y)−G
+△CD−G……(A−5)
EMD(x,y)−B
+△CD−B……(A−6)
KEY(x,y):鍵情報
EMD(x,y):埋め込み情報(色差変調処理結果)
ΔCD :色差量
色差変調処理の結果、鍵情報が白画素に対応している部分はレッド成分リッチ(R−rich)になり、黒画素に対応している部分はシアン成分リッチ(C−rich)になる。レッドとシアンは物理補色の関係にあるために、両者を足し合わせると無彩色になる。したがって、この画素ピッチを人間の肉眼の感知範囲を超えた高解像度(約300dpi以上)に設定することにより、色差変調処理結果である埋め込み情報は肉眼ではレッドとシアンが識別できず無彩色(灰色)となる。この性質を利用することにより、鍵情報のパターンを見かけ上無彩色情報に置き換えることができる。
First, the color difference modulation process will be described.
Embedded information is created by subjecting the key information 103 in FIG. 1A to color difference modulation processing according to the following equations (A-1) to (A-6).
When KEY (x, y) = white pixel → EMD (x, y) −R =
+ ΔCD- R (A-1)
EMD (x, y) −G =
-△ CD -G (A-2)
EMD (x, y) −B =
-ΔCD -B (A-3)
When KEY (x, y) = black pixel → EMD (x, y) −R =
-△ CD -R (A-4)
EMD (x, y) −G =
+ ΔCD -G (A-5)
EMD (x, y) −B =
+ ΔCD -B (A-6)
KEY (x, y): Key information
EMD (x, y): embedded information (color difference modulation processing result)
ΔCD: Color difference amount As a result of the color difference modulation processing, the portion corresponding to the white pixel in the key information is red component rich (R-rich), and the portion corresponding to the black pixel is cyan component rich (C-rich). become. Since red and cyan are in a relationship of physical complementary colors, adding them together results in an achromatic color. Therefore, by setting this pixel pitch to a high resolution (about 300 dpi or more) that exceeds the perceived range of the human naked eye, the embedded information that is the result of the color difference modulation processing cannot be distinguished from red and cyan by the naked eye. ) By utilizing this property, the key information pattern can be apparently replaced with achromatic information.

なお、上記式では鍵情報が白画素の場合にシアン成分リッチに、黒画素の場合にレッド成分リッチになるように色差変調を行なっているが、この関係は相対的なので、シアン成分リッチとレッド成分リッチが逆になっても原理上差し支えない。   In the above equation, color difference modulation is performed so that the key information is rich in the cyan component when the pixel is white, and the red component is rich when the key information is black, but since this relationship is relative, the cyan component rich and red Even if the component rich is reversed, there is no problem in principle.

次に、重畳処理について説明する。
重畳処理は、画像の座標(x,y)における主画像情報、重畳用の埋め込み情報、合成画像情報を下記のように定義すると、
主画像情報 :SRC−C(x,y)……図3(a)に相当……(B−1)
埋め込み情報:EMD−C(x,y)……図3(b)に相当……(B−2)
合成画像情報:DES−C(x,y)……図3(c)に相当……(B−3)
x,yは画像の座標値(座標サイズは全て同じものとする)
C={R(赤)、G(緑)、B(青)}プレーンを示す
それぞれの値は24ビットカラー演算の場合は、0〜255の整数値
次式で表される。
Next, the superimposition process will be described.
The superimposition process defines the main image information, the embedding information for superimposition, and the composite image information at the coordinates (x, y) of the image as follows:
Main image information: SRC- C (x, y): equivalent to FIG. 3A ... (B-1)
Embedded information: EMD- C (x, y) ... corresponds to FIG. 3 (b) ... (B-2)
Composite image information: DES- C (x, y) ... corresponding to FIG. 3 (c) (B-3)
x and y are coordinate values of the image (the coordinate sizes are all the same)
C = {R (red), G (green), B (blue)} plane
Each value is an integer value between 0 and 255 for 24-bit color operations.
It is expressed by the following formula.

DES−R(x,y)=SRC−R(x,y)+EMD−R(x,y)……(C−1)
DES−G(x,y)=SRC−G(x,y)+EMD−G(x,y)……(C−2)
DES−B(x,y)=SRC−B(x,y)+EMD−B(x,y)……(C−3)
この方式では、
(1)人間の視覚特性を利用
・画像の周波数が高くなるほど階調識別能力が低下
・輝度情報よりも色差情報の方が判別困難
(2)補色の関係例……赤色+シアン色=無彩色(白) (加法混色の場合)
(3)高周波キャリアパターン画像に補色の関係および色差情報を適用(色差変調処
理)
を用いることにより、画質劣化を招くことなく、主画像情報に副情報を不可視状態で埋め込むことが可能になっている。
DES- R (x, y) = SRC- R (x, y) + EMD- R (x, y) (C-1)
DES- G (x, y) = SRC- G (x, y) + EMD- G (x, y) (C-2)
DES- B (x, y) = SRC- B (x, y) + EMD- B (x, y) (C-3)
In this method,
(1) Utilizing human visual characteristics
・ The gradation discrimination ability decreases as the frequency of the image increases.
-Color difference information is more difficult to distinguish than luminance information
(2) Example of complementary colors: Red + cyan = achromatic (white) (in case of additive color mixture)
(3) Applying complementary color relationship and color difference information to the high frequency carrier pattern image (color difference modulation processing)
Reason)
By using the sub information, it is possible to embed the sub information in the main image information in an invisible state without causing image quality deterioration.

上記(2)の例でいえば、赤色とシアン色(=緑色+青色)は、加法混色の場合、補色の関係にあり、赤色とシアン色が隣り合っていても人間の目には判別しにくく無彩色に見える。
上記(3)のように、高周波キャリアパターン画像を用いることで、赤色リッチな画素とシアン色リッチな画素が繰り返し配置されているため、人間の目ではこれらの細かな色差の違いを識別できず、色差量はプラスマイナス「0」と判断してしまう人間の視覚特性を利用している。
In the example of (2) above, red and cyan (= green + blue) are complementary colors in the case of additive color mixing, and even if red and cyan are adjacent to each other, they are not recognized by human eyes. It looks difficult and achromatic.
As described in (3) above, by using the high-frequency carrier pattern image, red-rich pixels and cyan-rich pixels are repeatedly arranged, so that the human eye cannot identify these small color difference differences. The human visual characteristic that the color difference amount is determined to be plus or minus “0” is used.

図4は、本実施の形態で用いる主画像情報(人の顔画像)を空間領域から周波数領域に変換した例を示している。図4(a)は認証用写真等の人物の顔画像401であり、図4(b)は周波数領域での振幅の信号レベルを模式的に示したものである。図4(b)の符号402はx−y平面での周波数分布、403はx−z平面での周波数分布を示す。一般的に、人物の顔画像のような自然画像は周波数が低い領域である中央の信号レベルが高く、周波数が高い領域である周辺にいくにしたがって信号レベルは低くなる。   FIG. 4 shows an example in which the main image information (human face image) used in the present embodiment is converted from the spatial domain to the frequency domain. FIG. 4A shows a human face image 401 such as an authentication photograph, and FIG. 4B schematically shows an amplitude signal level in the frequency domain. In FIG. 4B, reference numeral 402 denotes a frequency distribution on the xy plane, and 403 denotes a frequency distribution on the xz plane. In general, a natural image such as a human face image has a high signal level in the center, which is a low frequency region, and the signal level decreases as it goes to the periphery, which is a high frequency region.

図5は、本実施の形態で用いる鍵情報を空間領域から周波数領域に変換した例を示している。図5の鍵情報は矩形格子パターンを用いているが、”1”または”0”のビット列を使用する場合は、たとえば、”1”を黒画素、”0”を白画素に対応させて白黒2値画像に変換して用いることで対応可能である。   FIG. 5 shows an example in which key information used in the present embodiment is converted from the spatial domain to the frequency domain. The key information in FIG. 5 uses a rectangular lattice pattern. However, when a bit string of “1” or “0” is used, for example, “1” corresponds to a black pixel and “0” corresponds to a white pixel. This can be handled by converting to a binary image.

図5(a)は鍵情報501であり、図5(b)は図5(a)の一部分を拡大したものであり、図5(c)は周波数領域での振幅の信号レベルを模式的に示したものである。図5(c)の符号503はx−y平面での周波数分布、504はx−z平面での周波数分布を示す。図5(b)の拡大図にあるように、本例の鍵情報502は、横KEY(P)x、縦KEY(P)yの半周期を持つ矩形格子パターンである。このような場合、周波数分布は、
KEY(P)x:KEY(P)y=f(P)y:f(P)x……(D−1)
の関係となる第1ピークP1が図5(c)に示すように4点存在し、x方向およびy方向に基本周期の奇数分の1の周期の高周波成分が第2ピークP2、第3ピークP3(図示省略)として現れる。
5A shows the key information 501, FIG. 5B is an enlarged view of a part of FIG. 5A, and FIG. 5C schematically shows the signal level of the amplitude in the frequency domain. It is shown. In FIG. 5C, reference numeral 503 denotes a frequency distribution on the xy plane, and 504 denotes a frequency distribution on the xz plane. As shown in the enlarged view of FIG. 5B, the key information 502 in this example is a rectangular lattice pattern having a half cycle of horizontal KEY (P) x and vertical KEY (P) y. In such a case, the frequency distribution is
KEY (P) x: KEY (P) y = f (P) y: f (P) x (D-1)
As shown in FIG. 5 (c), there are four first peaks P1 having the relationship of FIG. 5B, and high-frequency components having an odd-numbered period of the fundamental period in the x and y directions are the second peak P2 and the third peak. Appears as P3 (not shown).

図6は、上記式(C−1)〜(C−3)で示した重畳処理を周波数領域での表現に変換したものを模式的に示したものである。
図6(a)は主画像情報の周波数領域表現、図6(b)は鍵情報の周波数領域表現、図6(c)は合成画像情報の周波数領域表現である。正確には重畳処理において、図6(b)は鍵情報の周波数領域ではなく、埋め込み情報の周波数領域表現であるが、色差変調ではR,G,Bの1つの色プレーンに特定して着目した場合、鍵情報の周波数は全く変更されておらず、そのまま埋め込み情報へと変換されているため、[鍵情報の周波数領域表現=埋め込み情報の周波数表現]と見なして構わない。
FIG. 6 schematically shows a result obtained by converting the superimposition processing represented by the above formulas (C-1) to (C-3) into a representation in the frequency domain.
6A is a frequency domain representation of main image information, FIG. 6B is a frequency domain representation of key information, and FIG. 6C is a frequency domain representation of composite image information. To be precise, in the superimposition processing, FIG. 6B shows not the frequency domain of the key information but the frequency domain expression of the embedded information, but in the color difference modulation, attention is paid to specifying one color plane of R, G, and B. In this case, since the frequency of the key information is not changed at all and is converted into embedded information as it is, it may be regarded as [frequency domain expression of key information = frequency expression of embedded information].

重畳処理の結果、図6(c)で示すように、x−y平面で見た場合、主画像情報の周波数分布と鍵情報の周波数成分とが重なっているため、周波数の干渉を起こしている(E部参照)。
そのため、図1(b)で説明したように、復元処理において周波数検出処理で鍵情報の周波数成分だけを抽出するのは難しく、主画像情報の成分も一緒に検出してしまうこととなる。
As a result of the superimposition process, as shown in FIG. 6C, when viewed on the xy plane, the frequency distribution of the main image information and the frequency component of the key information overlap, causing frequency interference. (See part E).
Therefore, as described with reference to FIG. 1B, it is difficult to extract only the frequency component of the key information in the frequency detection process in the restoration process, and the main image information component is also detected together.

そこで、図7で示すような周波数低減関数を作成し、主画像情報に対し周波数フィルタリング処理を行なうことにより、上記問題点を解決する。
図7の周波数低減関数の±fx1は図5(c)のf(p)xから求められ、
fx1≦f(p)x……(E−1)
となる。
Therefore, the above problem is solved by creating a frequency reduction function as shown in FIG. 7 and performing frequency filtering on the main image information.
The frequency reduction function ± fx1 of FIG. 7 is obtained from f (p) x of FIG.
fx1 ≦ f (p) x (E-1)
It becomes.

また(図示していないが)、±fy1は図5(c)のf(p)yから求められ、
fy1≦f(p)y……(E−2)
となる。
Further, although not shown, ± fy1 is obtained from f (p) y in FIG.
fy1 ≦ f (p) y (E-2)
It becomes.

±fx2、±fy2は画像の画素数から決定され、主画像情報のx方向画素数Ix、y方向画素数Iyとすると、
fx2=1/(Ix/2)……(E−3)
fy2=1/(Iy/2)……(E−4)
となる。
± fx2 and ± fy2 are determined from the number of pixels of the image, and the number of pixels in the x direction Ix and the number of pixels in the y direction Iy of the main image information are
fx2 = 1 / (Ix / 2) (E-3)
fy2 = 1 / (Iy / 2) (E-4)
It becomes.

図7の周波数低減関数の係数A1およびA2は実験的に求められ、本実施の形態の場合、
A1=1.0……(E−5)
A2=0.5……(E−6)
とした。
The coefficients A1 and A2 of the frequency reduction function in FIG. 7 are obtained experimentally. In this embodiment,
A1 = 1.0 (E-5)
A2 = 0.5 (E-6)
It was.

上記のような周波数低減関数Fr(x,y)を主画像情報の周波数領域に変換した状態で掛け合わせると、変更後の主画像情報SRC2(x,y)は下記のように示される。
SRC2(x,y)=SRC(X,y)・Fr(x,y)……(F−1)
図8(a)に変更前の主画像情報の周波数分布を、図8(b)に変更後の主画像情報の周波数分布を模式的に示している。周波数低減関数の係数A1,A2にしたがい、全体のピークはあまり変更しないで維持されたまま、周波数の広がりがx方向、y方向ともに狭くなっている。
When the frequency reduction function Fr (x, y) as described above is multiplied in the state converted into the frequency region of the main image information, the changed main image information SRC2 (x, y) is expressed as follows.
SRC2 (x, y) = SRC (X, y) · Fr (x, y) (F-1)
FIG. 8A schematically shows the frequency distribution of the main image information before the change, and FIG. 8B schematically shows the frequency distribution of the main image information after the change. According to the coefficients A1 and A2 of the frequency reduction function, the spread of the frequency is narrowed in both the x and y directions while maintaining the entire peak with little change.

変更後の主画像情報を用いて重畳処理した結果の周波数分布を図9に模式的に示す。図示のように、x−y平面において主画像情報と鍵情報(埋め込み情報)との周波数の重なりがほとんど無いため、周波数干渉が生じない(F部参照)。したがって、復元処理を行なった場合、鍵情報の周波数のみを精度良く検知することが可能になる。   FIG. 9 schematically shows the frequency distribution as a result of the superimposition processing using the main image information after the change. As shown in the figure, there is almost no frequency overlap between the main image information and the key information (embedded information) in the xy plane, and therefore no frequency interference occurs (see section F). Therefore, when the restoration process is performed, only the frequency of the key information can be detected with high accuracy.

以上説明したように第1の実施の形態によれば、電子透かし埋め込み前の原画像から電子透かしに影響する周波数成分を除去することにより、副情報の復元処理時に周波数干渉が起こりにくくなるため、精度良く鍵情報の周波数のみを検知でき、電子透かし情報(副情報)を取出しやすくなる。   As described above, according to the first embodiment, by removing the frequency component that affects the digital watermark from the original image before embedding the digital watermark, frequency interference is less likely to occur during the sub information restoration process. Only the frequency of the key information can be detected with high accuracy, and the electronic watermark information (sub information) can be easily extracted.

次に、第2の実施の形態について説明する。
図10は、第2の実施の形態に係る画像処理装置の埋め込み処理系の構成を概略的に示すものである。第2の実施の形態に係る画像処理装置の埋め込み処理系は、鍵情報103が複数個(N個)の鍵情報103〜103となり、それに伴い鍵情報ピーク成分抽出部104も複数個(N個)の鍵情報ピーク成分抽出部104〜104となり、これら鍵情報ピーク成分抽出部104〜104により得られた第1ピーク成分の周波数領域を合成して1つの鍵情報ピーク成分の周波数領域を作成する鍵情報ピーク成分群合成手段としての鍵情報ピーク成分群合成部115が追加された点が第1の実施の形態と異なり、その他は第1の実施の形態と同様であるので説明は省略する。
Next, a second embodiment will be described.
FIG. 10 schematically shows a configuration of an embedding processing system of the image processing apparatus according to the second embodiment. In the embedding processing system of the image processing apparatus according to the second embodiment, the key information 103 is a plurality (N pieces) of key information 103 1 to 103 N , and accordingly, the key information peak component extraction unit 104 is also a plurality ( N) key information peak component extraction units 104 1 to 104 N , and one key information peak component is synthesized by combining the frequency regions of the first peak components obtained by the key information peak component extraction units 104 1 to 104 N. Unlike the first embodiment, the key information peak component group synthesizing unit 115 as a key information peak component group synthesizing unit for creating a frequency region is added, and the rest is the same as the first embodiment. Therefore, explanation is omitted.

以下、処理の流れについて説明する。
まず、鍵情報ピーク成分抽出部104〜104は、複数の鍵情報103〜103を入力として鍵情報ピーク成分抽出処理を行なう。これらは、たとえば、復元に用いる鍵情報103〜103を2次元画像に変換した後、フーリエ変換等を行なうことで、2次元空間領域から周波数領域への変換を行ない、周波数領域での第1ピーク成分を抽出する。ここでの第1ピーク成分とは周波数領域での振幅の信号レベルが一番高い領域を示す。
Hereinafter, the flow of processing will be described.
First, the key information peak component extraction units 104 1 to 104 N perform key information peak component extraction processing with a plurality of pieces of key information 103 1 to 103 N as inputs. For example, the key information 103 1 to 103 N used for restoration is converted into a two-dimensional image, and then subjected to Fourier transform or the like to perform conversion from the two-dimensional space region to the frequency region. One peak component is extracted. Here, the first peak component indicates a region having the highest amplitude signal level in the frequency region.

次に、鍵情報ピーク成分群合成部115は、複数の鍵情報ピーク成分抽出部104〜104で求めた各鍵情報103〜103の第1ピーク成分を1つの周波数分布に合成する。 Next, the key information peak component group synthesizing unit 115 synthesizes the first peak components of the key information 103 1 to 103 N obtained by the plurality of key information peak component extracting units 104 1 to 104 N into one frequency distribution. .

次に、主画像周波数処理部105は、鍵情報ピーク成分群合成部110でまとめた周波数分布および主画像情報101を入力として主画像周波数処理を行なう。ここでは、たとえば、主画像情報101をフーリエ変換等を行なうことで、空間領域から周波数領域への変換を行った後に、複数の鍵情報103〜103の第1ピーク成分を合成した周波数分布に相当する周波数成分を主画像情報101から低減または除去する。 Next, the main image frequency processing unit 105 performs main image frequency processing with the frequency distribution and the main image information 101 collected by the key information peak component group synthesizing unit 110 as inputs. Here, for example, the frequency distribution obtained by synthesizing the first peak components of the plurality of key information 103 1 to 103 N after performing transformation from the spatial domain to the frequency domain by performing Fourier transform or the like on the main image information 101. Are reduced or removed from the main image information 101.

次に、電子透かし埋め込み処理部106は、主画像周波数処理部105で複数の鍵情報103〜103の第1ピーク成分相当を処理された主画像情報101、副情報102、および、複数の鍵情報103〜103を入力として電子透かし埋め込み処理を行なう。ここでは、処理済みの主画像情報101に対し副情報102を不可視状態で埋め込むことにより合成画像情報107を作成する。 Next, the digital watermark embedding processing unit 106 processes the main image information 101, the sub-information 102, and the plurality of pieces of key information 103 1 to 103 N corresponding to the first peak component by the main image frequency processing unit 105. The digital watermark embedding process is performed with the key information 103 1 to 103 N as an input. Here, the composite image information 107 is created by embedding the sub information 102 in the invisible state in the processed main image information 101.

次に、記録処理部108は、電子透かし埋め込み処理部106で作成された合成画像情報107を可視画像として記録媒体に記録処理することにより、記録された合成画像情報(記録物)109が作成される。この場合の記録物とは例えば社員証等のIDカードを示す。   Next, the recording processing unit 108 records the synthesized image information 107 created by the digital watermark embedding processing unit 106 on a recording medium as a visible image, thereby creating recorded synthesized image information (recorded material) 109. The The recorded material in this case indicates an ID card such as an employee ID card.

鍵情報ピーク成分群合成部115は、下記数式にしたがって鍵画像ピーク成分の合成を行なう。
fc(x,y)=Σ(fp1(x,y)+fp2(x,y)+…
+fpi(x,y)+…+fpN(x,y))……(G−1)
fc(x,y) :鍵情報ピーク成分群合成部の結果
fpi(x,y):i番目の鍵情報ピーク成分抽出部の結果
電子透かし埋め込み処理部106は、たとえば、特願2003−424329等に記述されている電子透かし埋め込み処理方法が適用できる。詳細については上記文献の記述内容を参照していただき、ここでは簡単な原理のみについて以下に説明する。
The key information peak component group synthesizing unit 115 synthesizes key image peak components according to the following mathematical formula.
fc (x, y) = Σ (fp1 (x, y) + fp2 (x, y) +.
+ Fpi (x, y) +... + FpN (x, y)) (G-1)
fc (x, y): result of the key information peak component group synthesis unit
fpi (x, y): Result of the i-th key information peak component extraction unit The digital watermark embedding processing unit 106 can apply, for example, a digital watermark embedding processing method described in Japanese Patent Application No. 2003-424329. For details, refer to the description of the above document, and only a simple principle will be described below.

図11は、主画像情報に副情報を埋め込んで合成画像情報を作成する処理の流れを示しており、以下、この流れ図を参照して説明する。
入力情報として、主画像周波数処理部105で処理後の主画像情報101′、副情報102、N個の鍵情報103〜103がある。鍵情報103〜103は、それぞれ種類の異なるN個(N:整数)の鍵情報を2値画像で表現したものである。
FIG. 11 shows a flow of processing for creating the composite image information by embedding the sub-information in the main image information, and will be described below with reference to this flowchart.
As input information, there are main image information 101 ′ processed by the main image frequency processing unit 105, sub information 102, and N pieces of key information 103 1 to 103 N. The key information 103 1 to 103 N is a binary image representing N (N: integer) key information of different types.

まず、N個の色差量補正処理ステップ116〜116では、主画像情報101′およびあらかじめ設定された色差量ΔCdをそれぞれ入力として色差量補正処理が行なわれる。
次に、N個の色差変調処理ステップ117〜117では、色差量補正処理ステップ111〜111の各結果および鍵情報103〜103をそれぞれ入力として、色差変調処理が行なわれ、N個の色差変調処理結果がそれぞれ得られる。
First, in N color difference amount correction processing steps 116 1 to 116 N , color difference amount correction processing is performed by using the main image information 101 ′ and a preset color difference amount ΔCd as inputs.
Next, in the N color difference modulation processing steps 117 1 to 117 N , the color difference modulation processing is performed with each result of the color difference amount correction processing steps 111 1 to 111 N and the key information 103 1 to 103 N being input. N color difference modulation processing results are obtained.

次に、選択・合成処理ステップ118では、色差変調処理ステップ117〜117の各結果および副情報102をそれぞれ入力として、選択・合成処理が行なわれ、1つの選択・合成結果が得られる。
次に、重畳処理ステップ119では、主画像情報101′および選択・合成処理ステップ118の結果をそれぞれ入力として、主画像情報101′に対する選択・合成処理結果の重畳処理が行なわれ、合成画像情報107が作成される。
Next, the selection and combining process step 118, the respective results and sub information 102 of the color difference modulation processing step 117 1 ~117 N as input, respectively, selection and combining process is performed, one selection and combining results.
Next, in the superimposition processing step 119, the main image information 101 ′ and the result of the selection / composition processing step 118 are input, respectively, and the superimposition processing of the selection / composition processing result on the main image information 101 ′ is performed. Is created.

以上説明したように第2の実施実施の形態によれば、鍵情報が複数個になった場合でも、電子透かし埋め込み前の原画像から電子透かしに影響する周波数成分を除去することにより、副情報の復元処理時に周波数干渉が起こりにくくなるため、精度良く鍵情報の周波数のみを検知でき、電子透かし情報(副情報)を取出しやすくなる。   As described above, according to the second embodiment, even when there are a plurality of pieces of key information, sub-information is removed by removing frequency components affecting the digital watermark from the original image before embedding the digital watermark. Since the frequency interference is less likely to occur during the restoration process, only the frequency of the key information can be detected with high accuracy, and the electronic watermark information (sub-information) can be easily extracted.

本発明の第1の実施の形態に係る画像処理装置の構成を示すもので、(a)図は埋め込み処理系の構成を概略的に示すブロック図、(b)図は復元処理系の構成を概略的に示すブロック図。1 shows a configuration of an image processing apparatus according to a first embodiment of the present invention, in which (a) a diagram schematically shows a configuration of an embedding processing system, and (b) a diagram shows a configuration of a restoration processing system. The block diagram shown schematically. 作成されたIDカードの一例を模式的に示す平面図。The top view which shows an example of the produced ID card typically. 電子透かしの重畳処理を説明するための模式図。The schematic diagram for demonstrating the superimposition process of a digital watermark. 主画像情報の周波数分布を示す模式図。The schematic diagram which shows the frequency distribution of main image information. 鍵情報の周波数分布を示す模式図。The schematic diagram which shows the frequency distribution of key information. 合成画像情報の周波数分布を示す模式図。The schematic diagram which shows the frequency distribution of synthetic | combination image information. 周波数低減関数を示す模式図。The schematic diagram which shows a frequency reduction function. 主画像情報の周波数分布処理の例を示す模式図。The schematic diagram which shows the example of the frequency distribution process of main image information. 効果を説明するための模式図。The schematic diagram for demonstrating an effect. 本発明の第2の実施の形態に係る画像処理装置の埋め込み処理系の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the embedding processing system of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 電子透かし埋め込み処理部の処理を説明するための流れ図。The flowchart for demonstrating the process of a digital watermark embedding process part.

符号の説明Explanation of symbols

101…主画像情報、102…副情報(電子透かし情報)、103…鍵情報、104…鍵情報ピーク成分抽出部(鍵情報ピーク成分抽出手段)、105…主画像周波数処理部(主画像周波数処理手段)、106…電子透かし埋め込み処理部(埋め込み処理手段)、107…合成画像情報、108…記録処理部(記録処理手段)、109…記録物、201…IDカード、202…認証用顔画像、203…個人管理情報。   DESCRIPTION OF SYMBOLS 101 ... Main image information, 102 ... Sub information (digital watermark information), 103 ... Key information, 104 ... Key information peak component extraction part (key information peak component extraction means), 105 ... Main image frequency processing part (main image frequency processing) Means), 106 ... digital watermark embedding processing section (embedding processing means), 107 ... composite image information, 108 ... recording processing section (recording processing means), 109 ... recorded matter, 201 ... ID card, 202 ... authentication face image, 203 ... personal management information.

Claims (2)

可視状態の主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込んで合成画像情報を作成する画像処理方法において、
鍵情報ピーク成分抽出手段により、後で副情報を復元する際に用いる鍵情報を2次元画像に変換した後、フーリエ変換を行なうことで2次元空間領域から周波数領域への変換を行ない、第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出ステップと、
主画像周波数処理手段により、副情報を埋め込む前に主画像情報に対してフーリエ変換を行なうことで、空間領域から周波数領域への変換を行なった後に、前記鍵情報ピーク成分抽出ステップにより得られた第1ピーク成分の周波数領域を除去または低減する処理、あるいは、副情報を埋め込む前に主画像情報に対して前記鍵情報ピーク成分抽出ステップにより得られた第1ピーク成分の周波数領域を除去または低減するフィルタ処理を行なう主画像周波数処理ステップと、
埋め込み処理手段により、前記主画像周波数処理ステップで処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理ステップと、
を具備したことを特徴とする画像処理方法。
In an image processing method for creating composite image information by embedding the sub information in an invisible state by superimposing the sub information on the main image information in the visible state,
The key information peak component extracting means converts the key information used when restoring the sub information later into a two-dimensional image, and then performs a Fourier transform to convert the two-dimensional space region to the frequency region. Key information peak component extraction step for extracting the frequency region of the peak component;
Obtained by the key information peak component extraction step after performing transformation from the spatial domain to the frequency domain by performing Fourier transform on the main image information before embedding the sub information by the main image frequency processing means. Processing for removing or reducing the frequency region of the first peak component, or removing or reducing the frequency region of the first peak component obtained by the key information peak component extraction step with respect to the main image information before embedding the sub information. A main image frequency processing step for performing filtering processing;
An embedding processing step for embedding the sub-information in an invisible state by superimposing the sub-information on the main image information processed in the main image frequency processing step by an embedding processing unit, and creating composite image information;
An image processing method comprising:
可視状態の主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込んで合成画像情報を作成する画像処理装置において、
後で副情報を復元する際に用いる鍵情報を2次元画像に変換した後、フーリエ変換を行なうことで2次元空間領域から周波数領域への変換を行ない、第1ピーク成分の周波数領域を抽出する鍵情報ピーク成分抽出手段と、
副情報を埋め込む前に主画像情報に対してフーリエ変換を行なうことで、空間領域から周波数領域への変換を行なった後に、前記鍵情報ピーク成分抽出手段により得られた第1ピーク成分の周波数領域を除去または低減する処理、あるいは、副情報を埋め込む前に主画像情報に対して前記鍵情報ピーク成分抽出手段により得られた第1ピーク成分の周波数領域を除去または低減するフィルタ処理を行なう主画像周波数処理手段と、
この主画像周波数処理手段で処理された主画像情報に対して副情報を重畳処理することにより当該副情報を不可視状態で埋め込み、合成画像情報を作成する埋め込み処理手段と、
を具備したことを特徴とする画像処理装置。
In an image processing apparatus that creates composite image information by embedding the sub information in an invisible state by superimposing the sub information on the main image information in the visible state,
The key information used when restoring the sub information later is converted into a two-dimensional image, and then the Fourier transform is performed to convert the two-dimensional space region to the frequency region, thereby extracting the frequency region of the first peak component. Key information peak component extraction means;
The frequency domain of the first peak component obtained by the key information peak component extraction means after performing the transformation from the spatial domain to the frequency domain by performing Fourier transform on the main image information before embedding the sub information. A main image that is subjected to a process for removing or reducing the main image information, or a filter process for removing or reducing the frequency region of the first peak component obtained by the key information peak component extracting means before embedding the sub information. Frequency processing means;
An embedding processing means for embedding the sub information in an invisible state by superimposing the sub information on the main image information processed by the main image frequency processing means, and creating composite image information;
An image processing apparatus comprising:
JP2005246141A 2005-08-26 2005-08-26 Image processing method and image processing apparatus Expired - Fee Related JP4630765B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005246141A JP4630765B2 (en) 2005-08-26 2005-08-26 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005246141A JP4630765B2 (en) 2005-08-26 2005-08-26 Image processing method and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2007060527A JP2007060527A (en) 2007-03-08
JP4630765B2 true JP4630765B2 (en) 2011-02-09

Family

ID=37923567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005246141A Expired - Fee Related JP4630765B2 (en) 2005-08-26 2005-08-26 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP4630765B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4922205B2 (en) * 2007-08-17 2012-04-25 株式会社東芝 Image processing method and image processing apparatus
JP2010136206A (en) * 2008-12-05 2010-06-17 Toshiba Corp Image processing method and image processing apparatus
JP6296319B1 (en) * 2016-09-30 2018-03-20 国立大学法人 奈良先端科学技術大学院大学 Information processing apparatus, display method, reading method, and computer-readable non-transitory storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328217A (en) * 2003-04-23 2004-11-18 Toshiba Corp Image processing method and image recording apparatus
JP2004343712A (en) * 2003-04-25 2004-12-02 Toshiba Corp Image processing system, image processing apparatus, and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004328217A (en) * 2003-04-23 2004-11-18 Toshiba Corp Image processing method and image recording apparatus
JP2004343712A (en) * 2003-04-25 2004-12-02 Toshiba Corp Image processing system, image processing apparatus, and image processing method

Also Published As

Publication number Publication date
JP2007060527A (en) 2007-03-08

Similar Documents

Publication Publication Date Title
JP4550749B2 (en) Image processing method and image processing apparatus
JP4227048B2 (en) Image processing system
Kutter et al. Fair evaluation methods for image watermarking systems
JP4167590B2 (en) Image processing method
Rabie Digital image steganography: An fft approach
JP4630765B2 (en) Image processing method and image processing apparatus
JP5508896B2 (en) Image processing method
JPH11355554A (en) Picture information processing method and forgery preventing method of certificate and the like
Gull et al. Color image authentication using dual watermarks
JP6937012B2 (en) Digital watermarking device and method
JP6937010B2 (en) Digital watermarking device and method
Rabie High-capacity steganography
JP2005159438A (en) Image processing method
WO2021084812A1 (en) Electronic device
JP4829164B2 (en) Image processing apparatus and image processing method
KR101308137B1 (en) Digital image watermarking scheme
JP2001094755A (en) Image processing method
Barkat et al. Time-frequency and time-scale-based fragile watermarking methods for image authentication
El Gamal et al. A fragile video watermarking algorithm for content authentication based on block mean and modulation factor
JP7008950B2 (en) Digital watermarking device and method
JP2006301334A (en) Image information security method
WO2007064006A1 (en) Image information producing apparatus and image information producing method
JP4686578B2 (en) Image processing method
JP4746663B2 (en) Image processing apparatus and image processing method
JP2009065364A (en) Image processing method, image processing apparatus and recorded matter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101019

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101115

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4630765

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131119

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees