JP4746663B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4746663B2
JP4746663B2 JP2008283396A JP2008283396A JP4746663B2 JP 4746663 B2 JP4746663 B2 JP 4746663B2 JP 2008283396 A JP2008283396 A JP 2008283396A JP 2008283396 A JP2008283396 A JP 2008283396A JP 4746663 B2 JP4746663 B2 JP 4746663B2
Authority
JP
Japan
Prior art keywords
information
color
image information
frequency component
sub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008283396A
Other languages
Japanese (ja)
Other versions
JP2009050023A (en
Inventor
真哉 徳田
隆 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008283396A priority Critical patent/JP4746663B2/en
Publication of JP2009050023A publication Critical patent/JP2009050023A/en
Application granted granted Critical
Publication of JP4746663B2 publication Critical patent/JP4746663B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Cleaning In Electrography (AREA)
  • Image Processing (AREA)

Description

本発明は、たとえば、可視状態の主画像情報(人物の顔画像など)に対して別の付加的な副情報(セキュリティ情報など)を不可視状態で埋め込み合成して合成画像情報を作成し、この作成した合成画像情報を記録媒体上に記録したり、その記録した合成画像情報からその中に埋込まれた副情報を復元したりする画像処理システムに用いられる画像処理装置および画像処理方法に関する。   The present invention, for example, creates composite image information by embedding and synthesizing other additional sub information (security information, etc.) in the invisible state with respect to the main image information (human face image, etc.) in the visible state. The present invention relates to an image processing apparatus and an image processing method used in an image processing system that records generated composite image information on a recording medium and restores sub-information embedded therein from the recorded composite image information.

近年、情報の電子化やインターネットの普及に伴って、画像の偽造や変造防止のために電子透かし、電子署名などの技術が重要視されるようになってきた。特に、主画像情報に付加的な副情報(副画像情報)を不可視状態で埋め込む電子透かし技術は、IDカードなどの個人認証媒体や著作権情報を埋め込んだ写真に対する不正コピー、偽造、改竄対策として提案されている。   In recent years, with the digitization of information and the spread of the Internet, techniques such as digital watermarks and digital signatures have come to be regarded as important in order to prevent forgery and alteration of images. In particular, digital watermark technology that embeds additional sub-information (sub-image information) in the main image information in an invisible state is a measure against illegal copying, counterfeiting, and falsification of personal authentication media such as ID cards and photographs embedded with copyright information. Proposed.

たとえば、印刷物へ出力される画像データに対して、人間が感知しにくい高い空間周波数成分および色差成分の特性を利用してデータを埋め込む電子透かし挿入方法が知られている(たとえば、特許文献1参照)。
また、光学フィルタで確認できる電子透かしの印刷装置が知られている(たとえば、特許文献2参照)。
For example, there is known a digital watermark insertion method for embedding data in image data output to a printed matter by using characteristics of high spatial frequency components and color difference components that are difficult for humans to detect (see, for example, Patent Document 1). ).
Also, a digital watermark printing apparatus that can be confirmed with an optical filter is known (see, for example, Patent Document 2).

記録装置の観点からは、従来、免許証などの各種身分証明書、会員証などに代表される個人認証媒体における個人認証用の顔画像を記録する際には、昇華型熱転写記録方式を用いるのが一般的である。
一般的に、昇華型熱転写記録方式は、昇華性材料で染色できる材料が限られていて、限られた記録媒体にしか適応できないといった欠点がある。このため、個人認証媒体における個人認証用の顔画像を記録する記録媒体の選択の自由度が低く、結果的に入手し易いものを選択せねばならないため、セキュリティ性が低下することが多い。また、一般的に昇華性染料は、耐光性、耐溶剤性などの画像耐久性が劣っている。
From the viewpoint of the recording device, conventionally, when recording face images for personal authentication on personal authentication media represented by various identification cards such as licenses and membership cards, a sublimation thermal transfer recording system is used. Is common.
In general, the sublimation type thermal transfer recording method has a drawback that the material that can be dyed with a sublimable material is limited and can be applied only to a limited recording medium. For this reason, since the degree of freedom in selecting a recording medium for recording a face image for personal authentication in the personal authentication medium is low and it is necessary to select a recording medium that is easily available as a result, security is often lowered. In general, sublimation dyes are inferior in image durability such as light resistance and solvent resistance.

一方、溶融型熱転写記録方式は、着色材料を一般的に耐光性の良いといわれるものを選択することが可能になる。また、記録媒体の選択の自由度が高く、特殊性の高い記録媒体を用いてセキュリティ性を高めることができる。しかし、溶融型熱転写記録方式では、転写したドットのサイズを変化させて階調記録を行なうドット面積階調法を用いるため、昇華型熱転写記録並みの階調性能をだすのが困難である。
その対策として、たとえば、転写ドットの配列をいわゆる千鳥状に並べて記録する方法(以後、これを交互駆動記録方式と称す)が知られている(たとえば、特許文献3参照)。
特開平9−248935号公報 特開2001−268346号公報 特公平6−59739号公報
On the other hand, in the melt-type thermal transfer recording system, it is possible to select a coloring material that is generally said to have good light resistance. Further, the degree of freedom of selection of the recording medium is high, and the security can be improved by using a recording medium with high specificity. However, in the melt type thermal transfer recording method, since the dot area gradation method is used in which gradation recording is performed by changing the size of the transferred dots, it is difficult to achieve gradation performance equivalent to that of sublimation thermal transfer recording.
As a countermeasure, for example, there is known a method of recording the arrangement of transfer dots in a so-called zigzag pattern (hereinafter referred to as an alternating drive recording method) (see, for example, Patent Document 3).
Japanese Patent Laid-Open No. 9-248935 JP 2001-268346 A Japanese Patent Publication No. 6-59739

上記したように、個人認証媒体における個人認証用の顔画像の記録などに電子透かし技術を適用して、顔画像自体のセキュリティ性を高めることが最近要求されてきているが、電子透かし技術は基本的にデジタルデータを扱うことを前提にしているため、画像記録装置(カラープリンタなど)での記録時において、階調性能が高く、記録時の影響で透かし情報を壊してしまったり改変してしまうことが無いことが要求される。   As described above, there has recently been a demand for improving the security of the face image itself by applying the digital watermark technology to the recording of a face image for personal authentication on a personal authentication medium. Because digital data is presumed to be handled, the gradation performance is high when recording with an image recording device (color printer, etc.), and the watermark information is destroyed or altered due to the recording effect. It is required that there is nothing.

前記特許文献3では、溶融型熱転写記録方式において階調記録性能を向上させるための記録方法を開示しているが、電子透かし技術を用いて透かし情報を埋め込んだ顔画像情報を記録すると、千鳥状にデータが間引かれて、その部分の情報が消失してしまうため、電子透かし情報が破壊されてしまう欠点がある。   Patent Document 3 discloses a recording method for improving the gradation recording performance in the melt-type thermal transfer recording method. However, when face image information in which watermark information is embedded using digital watermark technology is recorded, a staggered pattern is obtained. Since the data is thinned out and the information in the portion is lost, the digital watermark information is destroyed.

また、印刷に対応した電子透かし技術には、副情報の埋め込みから復元までの過程中に必ずデジタル−アナログ変換およびアナログ−デジタル変換を含むため、画像の劣化を避けることができないという本質的な課題がある。したがって、副情報を復元する際に劣化の影響を抑制する技術が必須となる。
この課題に対し、特許文献1では、あらかじめ劣化の度合を予測し、その度合に応じて埋め込みの強さを大きくする方法に関する記述があるが、この方法には副情報が暴露される危険性を増大させてしまうという問題がある。
In addition, since the digital watermark technology corresponding to printing includes digital-analog conversion and analog-digital conversion in the process from embedding of sub-information to restoration, an essential problem that image deterioration cannot be avoided. There is. Therefore, a technique for suppressing the influence of deterioration when restoring the sub information is essential.
To deal with this problem, Patent Document 1 describes a method for predicting the degree of deterioration in advance and increasing the embedding strength according to the degree, but this method has a risk of exposing sub information. There is a problem that it increases.

そこで、本発明は、記録媒体に出力するようなアナログデータを対象として、主画像情報に対し別の付加的な副情報を不可視状態で埋め込んだ合成画像情報を作成する際に、合成画像情報から副情報が暴露される危険性を増大させずに、埋め込まれた副情報の復元性および視認性を向上させることができる画像処理装置および画像処理方法を提供することを目的とする。   In view of this, the present invention is based on the composite image information when creating composite image information in which other additional sub-information is embedded in the main image information in an invisible state for analog data to be output to a recording medium. It is an object of the present invention to provide an image processing apparatus and an image processing method capable of improving the restoration property and visibility of embedded sub information without increasing the risk of exposure of sub information.

本発明の画像処理装置は、人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から前記合成画像情報を読取り入力する画像入力手段と、前記鍵情報のサイズを前記記録媒体に記録されている合成画像情報の解像度と前記画像入力手段の読取解像度とを基に伸縮した後、当該鍵情報に対してフーリエ変換を行なうことにより周波数領域に展開し、この展開された値を参照することによりフィルタの通過域を調整し、この調整後の値に対してフーリエ逆変換を行なうことにより得られた値を周波数フィルタ係数とし、この周波数フィルタ係数を用いて前記画像入力手段により入力された合成画像情報から前記鍵情報の空間周波数成分を抽出する周波数成分抽出手段と、この周波数成分抽出手段により抽出された空間周波数成分から前記副情報を再構成する再構成手段とを具備している。 The image processing apparatus according to the present invention includes main image information that is visible to the human naked eye, sub-information for embedding the main image information in an invisible state with the human naked eye, and key information used when restoring the sub-information. The composite image information created by embedding the sub-information in the main image information in an invisible state by performing an electronic watermark embedding process using a color difference modulation method using the image is recorded from the recording medium in which the composite image information is recorded in the visible state. Image input means for reading and inputting image information, and the size of the key information is expanded and contracted based on the resolution of the composite image information recorded on the recording medium and the reading resolution of the image input means, and then the key information The Fourier transform is applied to the frequency domain, and the filter passband is adjusted by referring to the expanded value. Frequency component values obtained by performing the inverse Fourier transform to the frequency filter coefficients, extracts a spatial frequency component of the key information from the composite image information input by said image input means using the frequency filter coefficients for Extraction means, and reconstruction means for reconstructing the sub information from the spatial frequency components extracted by the frequency component extraction means.

また、本発明の画像処理装置は、人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から前記合成画像情報を読取り入力する画像入力手段と、色成分情報を格納する色成分情報格納手段と、この色成分情報格納手段に格納された色成分情報に基づき前記画像入力手段により入力された合成画像情報から色成分を抽出する色成分抽出手段と、この色成分抽出手段により抽出された色成分から前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出手段と、この周波数成分抽出手段により抽出された空間周波数成分から前記副情報を再構成する再構成手段とを具備している。 The image processing apparatus according to the present invention is used to restore main image information that is visible to the human naked eye, sub-information for embedding the main image information in an invisible state to the human naked eye, and the sub-information. From a recording medium on which composite image information created by embedding the sub-information in the main image information in an invisible state by performing digital watermark embedding processing using a color difference modulation method using key information is recorded in a visible state Image input means for reading and inputting the composite image information, color component information storage means for storing color component information, and composition input by the image input means based on the color component information stored in the color component information storage means Color component extraction means for extracting color components from the image information, and spatial frequency components specific to the key information are extracted from the color components extracted by the color component extraction means. A frequency component extracting means for, and a reconstruction means for reconstructing the sub-information from the spatial frequency component extracted by the frequency component extracting means.

また、本発明の画像処理装置は、人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から前記合成画像情報を読取り入力する画像入力手段と、この画像入力手段により入力された合成画像情報から埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数の領域を局所領域として抽出する領域抽出手段と、この領域抽出手段により抽出された局所領域から当該局所領域内の色特徴量を抽出する色特徴量抽出手段と、この色特徴量抽出手段により抽出された色特徴量に基づき色成分を合成して色成分合成画像情報を生成する色合成手段と、この色合成手段により生成された色成分合成画像情報から前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出手段と、この周波数成分抽出手段により抽出された空間周波数成分から前記副情報を再構成する再構成手段とを具備している。 The image processing apparatus according to the present invention is used to restore main image information that is visible to the human naked eye, sub-information for embedding the main image information in an invisible state to the human naked eye, and the sub-information. From a recording medium on which composite image information created by embedding the sub-information in the main image information in an invisible state by performing digital watermark embedding processing using a color difference modulation method using key information is recorded in a visible state An image input means for reading and inputting the composite image information, and a region having the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used for embedding from the composite image information input by the image input means a region extracting means for extracting a color feature amount extraction hand for extracting a color feature in the local area from the local area extracted by the area extraction means A color composition unit that generates color component composite image information by combining color components based on the color feature amount extracted by the color feature amount extraction unit, and a color component composite image information generated by the color composition unit. Frequency component extraction means for extracting a spatial frequency component unique to the key information, and reconstruction means for reconstructing the sub-information from the spatial frequency component extracted by the frequency component extraction means.

また、本発明の画像処理装置は、人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から前記合成画像情報を読取り入力する画像入力手段と、この画像入力手段により入力された合成画像情報から埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数の領域を局所領域として抽出する領域抽出手段と、この領域抽出手段により抽出された局所領域から当該局所領域内の色特徴量を抽出する色特徴量抽出手段と、この色特徴量抽出手段により抽出された色特徴量に基づき再構成パラメータを決定する再構成パラメータ決定手段と、前記画像入力手段により入力された合成画像情報から前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出手段と、前記再構成パラメータ決定手段により決定された再構成パラメータを用いて前記周波数成分抽出手段により抽出された空間周波数成分から前記副情報を再構成する再構成手段とを具備している。 The image processing apparatus according to the present invention is used to restore main image information that is visible to the human naked eye, sub-information for embedding the main image information in an invisible state to the human naked eye, and the sub-information. From a recording medium on which composite image information created by embedding the sub-information in the main image information in an invisible state by performing digital watermark embedding processing using a color difference modulation method using key information is recorded in a visible state An image input means for reading and inputting the composite image information, and a region having the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used for embedding from the composite image information input by the image input means a region extracting means for extracting a color feature amount extraction hand for extracting a color feature in the local area from the local area extracted by the area extraction means A reconstruction parameter determination unit that determines a reconstruction parameter based on the color feature amount extracted by the color feature amount extraction unit, and a spatial frequency specific to the key information from the composite image information input by the image input unit Frequency component extraction means for extracting components, and reconstruction means for reconstructing the sub information from the spatial frequency components extracted by the frequency component extraction means using the reconstruction parameters determined by the reconstruction parameter determination means. It has.

また、本発明の画像処理方法は、人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から画像入力手段により前記合成画像情報を読取り入力する画像入力ステップと、前記鍵情報のサイズを前記記録媒体に記録されている合成画像情報の解像度と前記画像入力ステップにおける読取解像度とを基に伸縮した後、当該鍵情報に対してフーリエ変換を行なうことにより周波数領域に展開し、この展開された値を参照することによりフィルタの通過域を調整し、この調整後の値に対してフーリエ逆変換を行なうことにより得られた値を周波数フィルタ係数とし、この周波数フィルタ係数を用いて前記画像入力ステップにより入力された合成画像情報から周波数成分抽出手段により前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出ステップと、この周波数成分抽出ステップにより抽出された空間周波数成分から再構成手段により前記副情報を再構成する再構成ステップとを具備している。 The image processing method of the present invention is used when main image information that is visible to the human naked eye, sub-information for embedding the main image information in an invisible state with the human naked eye, and the sub-information. From a recording medium on which composite image information created by embedding the sub-information in the main image information in an invisible state by performing digital watermark embedding processing using a color difference modulation method using key information is recorded in a visible state An image input step of reading and inputting the composite image information by an image input means, and the size of the key information is expanded and contracted based on the resolution of the composite image information recorded on the recording medium and the reading resolution in the image input step After that, the key information is expanded in the frequency domain by performing Fourier transform, and the expanded value is referred to by referring to the expanded value. Adjust the passband of the filter, the values obtained by performing the inverse Fourier transform and the frequency filter coefficients for values after the adjustment, the synthetic image input by the image input step by using the frequency filter coefficient A frequency component extracting step for extracting a spatial frequency component specific to the key information from the information by the frequency component extracting means, and a reconfiguration for reconstructing the sub information by the reconstructing means from the spatial frequency components extracted by the frequency component extracting step. Configuration steps.

また、本発明の画像処理方法は、人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から画像入力手段により前記合成画像情報を読取り入力する画像入力ステップと、色成分情報格納手段に格納された色成分情報に基づき前記画像入力ステップにより入力された合成画像情報から色成分抽出手段により色成分を抽出する色成分抽出ステップと、この色成分抽出ステップにより抽出された色成分から周波数成分抽出手段により前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出ステップと、この周波数成分抽出ステップにより抽出された空間周波数成分から再構成手段により前記副情報を再構成する再構成ステップとを具備している。 The image processing method of the present invention is used when main image information that is visible to the human naked eye, sub-information for embedding the main image information in an invisible state with the human naked eye, and the sub-information. From a recording medium on which composite image information created by embedding the sub-information in the main image information in an invisible state by performing digital watermark embedding processing using a color difference modulation method using key information is recorded in a visible state An image input step of reading and inputting the composite image information by the image input means, and a color component extraction means by the color component extraction means from the composite image information input by the image input step based on the color component information stored in the color component information storage means a color component extracting step of extracting, said by the frequency component extracting means from the color component extracted by the color component extracting step It has and a reconstruction step of reconstructing the frequency component extraction step of extracting a specific spatial frequency components, the sub-information by the reconstruction means from the spatial frequency component extracted by the frequency component extracting step to the information.

また、本発明の画像処理方法は、人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から画像入力手段により前記合成画像情報を読取り入力する画像入力ステップと、この画像入力ステップにより入力された合成画像情報から領域抽出手段により埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数の領域を局所領域として抽出する領域抽出ステップと、この領域抽出ステップにより抽出された局所領域から色特徴量抽出手段により当該局所領域内の色特徴量を抽出する色特徴量抽出ステップと、この色特徴量抽出ステップにより抽出された色特徴量に基づき色合成手段により色成分を合成して色成分合成画像情報を生成する色合成ステップと、この色合成ステップにより生成された色成分合成画像情報から周波数成分抽出手段により前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出ステップと、この周波数成分抽出ステップにより抽出された空間周波数成分から再構成手段により前記副情報を再構成する再構成ステップとを具備している。 The image processing method of the present invention is used when main image information that is visible to the human naked eye, sub-information for embedding the main image information in an invisible state with the human naked eye, and the sub-information. From a recording medium on which composite image information created by embedding the sub-information in the main image information in an invisible state by performing digital watermark embedding processing using a color difference modulation method using key information is recorded in a visible state Corresponding to the fundamental wavelength of the spatial frequency component of the key information used when embedding by the region extraction means from the composite image information input by the image input step by reading and inputting the composite image information by the image input means a region extraction step of extracting as a local area regions of the number of pixels, a local area extracted by the area extracting step A color feature extraction step by al color feature extracting unit for extracting a color feature in the local area, by combining the color components by color synthesizing means based on the color feature extracted by the color feature extraction step A color composition step for generating color component composite image information, and a frequency component extraction step for extracting a spatial frequency component specific to the key information by frequency component extraction means from the color component composite image information generated by the color composition step; A reconstruction step of reconstructing the sub information from the spatial frequency component extracted by the frequency component extraction step by a reconstruction means .

さらに、本発明の画像処理方法は、人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から画像入力手段により前記合成画像情報を読取り入力する画像入力ステップと、この画像入力ステップにより入力された合成画像情報から領域抽出手段により埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数の領域を局所領域として抽出する領域抽出ステップと、この領域抽出ステップにより抽出された局所領域から色特徴量抽出手段により当該局所領域内の色特徴量を抽出する色特徴量抽出ステップと、この色特徴量抽出ステップにより抽出された色特徴量に基づき再構成パラメータ決定手段により再構成パラメータを決定する再構成パラメータ決定ステップと、前記画像入力ステップにより入力された合成画像情報から周波数成分抽出手段により前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出ステップと、前記再構成パラメータ決定ステップにより決定された再構成パラメータを用いて前記周波数成分抽出ステップにより抽出された空間周波数成分から再構成手段により前記副情報を再構成する再構成ステップとを具備している。 Furthermore, the image processing method of the present invention is used to restore main image information visible to the naked eye of human eyes, sub-information for embedding the main image information invisible to the naked eye of human eyes, and the sub-information. From a recording medium on which composite image information created by embedding the sub-information in the main image information in an invisible state by performing digital watermark embedding processing using a color difference modulation method using key information is recorded in a visible state Corresponding to the fundamental wavelength of the spatial frequency component of the key information used when embedding by the region extraction means from the composite image information input by the image input step by reading and inputting the composite image information by the image input means a region extraction step of extracting as a local area regions of the number of pixels, a local territory extracted by the area extracting step From the color feature extraction step of extracting a color feature in the local region by the color feature extracting unit, the reconstruction parameters by the reconstruction parameter determining means based on the color feature extracted by the color feature extraction step A reconstruction parameter determination step for determining, a frequency component extraction step for extracting a spatial frequency component specific to the key information by frequency component extraction means from the composite image information input in the image input step, and the reconstruction parameter determination step A reconstruction step of reconstructing the sub information by the reconstruction means from the spatial frequency component extracted by the frequency component extraction step using the reconstruction parameter determined by

本発明によれば、記録媒体に出力するようなアナログデータを対象として、主画像情報に対し別の付加的な副情報を不可視状態で埋め込んだ合成画像情報を作成する際に、合成画像情報から副情報が暴露される危険性を増大させずに、埋め込まれた副情報の復元性および視認性を向上させることができる画像処理装置および画像処理方法を提供できる。   According to the present invention, when generating composite image information in which additional sub information is embedded in the main image information in an invisible state for analog data to be output to a recording medium, the composite image information is used. It is possible to provide an image processing apparatus and an image processing method capable of improving the reconstructability and visibility of the embedded sub information without increasing the risk of exposure of the sub information.

以下、本発明の実施の形態について図面を参照して説明する。
まず、第1の実施の形態について説明する。
図1は、第1の実施の形態に係る画像処理システムの全体の構成を概略的に示すものである。この画像処理システムは、たとえば、IDカードなどの個人認証媒体における個人認証用の顔画像の処理に適用した場合を示しており、人間の肉眼で可視状態の主画像情報に対して、人間の肉眼で不可視状態で副情報(副画像情報)を埋め込むことによって作成した合成画像情報を記録媒体M上に可視状態で記録するための第1の画像処理装置100と、この第1の画像処理装置100により記録媒体Mに記録された合成画像情報からそれに埋め込まれた副情報を復元する第2の画像処理装置110とから構成されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
First, the first embodiment will be described.
FIG. 1 schematically shows the overall configuration of the image processing system according to the first embodiment. This image processing system shows a case where it is applied to, for example, processing of a face image for personal authentication in a personal authentication medium such as an ID card. The first image processing apparatus 100 for recording the composite image information created by embedding the sub information (sub image information) in the invisible state on the recording medium M, and the first image processing apparatus 100 The second image processing apparatus 110 restores the sub-information embedded in the composite image information recorded on the recording medium M.

第1の画像処理装置100は、個人認証媒体の所持者本人の顔画像を取込み、デジタル画像情報に変換する画像入力手段としての主画像入力部101、主画像入力部101で取込まれた顔画像情報(以下、主画像情報とも称す)を後述する記録部106の画素形成処理に適した形状へ変換する第1の前処理手段としての第1の前処理部102、第1の前処理部102で変換された画像情報を電子透かし埋め込み処理に適した形状へ変換する第2の前処理手段としての第2の前処理部103、第2の前処理部103にて変換された画像情報へ鍵情報を用いて電子透かし情報を埋め込む埋め込み手段としての電子透かし埋め込み処理部104、電子透かしが埋め込まれた画像情報に対し第2の前処理部103の逆の処理を行ない、後述する記録部106の画素形成処理に適した形状へ戻す逆変換手段としての後処理部105、および、後処理部105にて変換された画像情報に基いて記録媒体Mへ電子透かしが埋め込まれた合成画像情報を印刷記録する記録手段としての記録部106により構成されており、以下、各部の機能について詳細に説明する。   The first image processing apparatus 100 captures the face image of the person who owns the personal authentication medium and converts it into digital image information. The main image input unit 101 as an image input unit and the face captured by the main image input unit 101 A first pre-processing unit 102 and a first pre-processing unit as first pre-processing means for converting image information (hereinafter also referred to as main image information) into a shape suitable for pixel formation processing of the recording unit 106 to be described later The second pre-processing unit 103 as a second pre-processing unit that converts the image information converted in 102 into a shape suitable for digital watermark embedding processing, and the image information converted by the second pre-processing unit 103 A digital watermark embedding processing unit 104 as an embedding unit that embeds digital watermark information using key information, and performs a reverse process of the second pre-processing unit 103 on the image information in which the digital watermark is embedded, and will be described later. The post-processing unit 105 as an inverse conversion means for returning to a shape suitable for the pixel formation processing of 06, and the composite image information in which the digital watermark is embedded in the recording medium M based on the image information converted by the post-processing unit 105 In the following, the function of each unit will be described in detail.

主画像入力部101は、個人認証媒体の所持者本人の顔画像をカメラにより入力したり、あるいは、顔写真をスキャナなどの画像入力装置で取込むことにより、個人の顔画像情報をデジタル化する。この時点での主画像情報(顔画像情報)は、R(赤),G(緑),B(青)の3プレーンから構成されている。   The main image input unit 101 digitizes personal face image information by inputting a face image of the person who owns the personal authentication medium with a camera or capturing a face photograph with an image input device such as a scanner. . The main image information (face image information) at this time is composed of three planes of R (red), G (green), and B (blue).

第1の前処理部102から後処理部105は、主画像情報への電子透かしの埋め込み、および、記録部106の画素形成処理に適した形状への変換を行なう。以下、これらの処理の流れを図2に示すフローチャートを参照して説明する。   The first pre-processing unit 102 to the post-processing unit 105 perform embedding of a digital watermark into the main image information and conversion into a shape suitable for the pixel forming process of the recording unit 106. Hereinafter, the flow of these processes will be described with reference to the flowchart shown in FIG.

まず、第1の前処理部102にて、主画像入力部101で取込まれた主画像情報に対して、記録部106の画素形成処理に対応した第1の前処理を行ない、第1の前処理済み主画像情報を作成する(ステップS201)。ここでは、第1の前処理は主画像情報に対して間引き(無効化)処理を行なう。   First, the first preprocessing unit 102 performs first preprocessing corresponding to the pixel formation processing of the recording unit 106 on the main image information captured by the main image input unit 101, Pre-processed main image information is created (step S201). Here, in the first preprocessing, thinning (invalidation) processing is performed on the main image information.

次に、第2の前処理部103にて、ステップS201で作成された第1の前処理済み主画像情報に対して幾何学変処理を行ない、被埋め込み画像情報を作成する(ステップS202)。ここでは、第1の前処理済み主画像情報に対して、回転処理を行ない、さらに第1の前処理で間引きした画素部分を取り除いて有効画像サイズを圧縮することを行なう。   Next, the second pre-processing unit 103 performs geometric change processing on the first pre-processed main image information created in step S201 to create embedded image information (step S202). Here, a rotation process is performed on the first preprocessed main image information, and the effective image size is compressed by removing the pixel portion thinned out in the first preprocess.

次に、電子透かし埋め込み処理部104にて、ステップS202で作成された被埋め込み画像情報(第2の前処理済み主画像情報)に対して、電子透かし埋め込み処理を行なう(ステップS203)。ここでは、被埋め込み画像情報に対し副情報を人間の視覚に感知できないように不可視状態で埋め込んだ合成画像情報が作成される。   Next, the digital watermark embedding processing unit 104 performs digital watermark embedding processing on the embedded image information (second preprocessed main image information) created in step S202 (step S203). Here, composite image information is created in which the sub-information is embedded in the invisible state so that the sub-information cannot be perceived by human vision.

次に、後処理部105にて、ステップS203で作成された合成画像情報に対して後処理を行なうことにより、記録画像情報を作成する(ステップS204)。ここでは、合成画像情報に対して逆回転処理を行ない、さらにステップS202の第2の前処理で取り除いた画素部分を付加して有効画像サイズの伸長を行なう。   Next, post-processing unit 105 performs post-processing on the composite image information created in step S203, thereby creating recorded image information (step S204). Here, reverse rotation processing is performed on the composite image information, and the pixel portion removed in the second preprocessing in step S202 is added to expand the effective image size.

なお、電子透かしの埋め込み処理は、R(赤),G(緑),B(青)のデータに限定されるものではなく、後述の色変換を先に行なっておき、C(シアン),M(マゼンタ),Y(イエロー)の3プレーンのデータに対して埋め込み処理を行なう形であっても構わない。   The digital watermark embedding process is not limited to R (red), G (green), and B (blue) data, and color conversion described later is performed first, and C (cyan), M (Magenta) and Y (yellow) 3 plane data may be embedded.

記録部106は、後処理部105にて作成された記録画像情報を個人認証媒体となる記録媒体M上に印刷記録することにより、個人認証媒体が作成される。具体的には、まず記録画像情報の各画素のR(赤),G(緑),B(青)を記録用のC(シアン),M(マゼンタ),Y(イエロー)へ色変換する。色変換の方法としては、記録デバイスの特性に合わせて、3×3や3×9の色変換マトリクスないしはLUT(ルック・アップ・テーブル)を使用する。次に、C,M,Yの画像情報から、記録デバイスを制御する駆動信号を生成する。たとえば、溶融型熱転写記録方式の場合は、サーマルヘッドの駆動電圧制御信号や駆動パルス信号などを生成する。また、サーマルヘッドの熱制御などもここで行なわれる。最後に、記録媒体Mへ、サーマルヘッドに代表される記録デバイスの主走査方向の偶数番目の画素と奇数番目の画素を記録ラインごとに交互に形成することにより、合成画像情報を記録する。   The recording unit 106 creates a personal authentication medium by printing and recording the recorded image information created by the post-processing unit 105 on a recording medium M serving as a personal authentication medium. Specifically, first, R (red), G (green), and B (blue) of each pixel of the recorded image information are color-converted into C (cyan), M (magenta), and Y (yellow) for recording. As a color conversion method, a 3 × 3 or 3 × 9 color conversion matrix or LUT (Look Up Table) is used in accordance with the characteristics of the recording device. Next, a drive signal for controlling the recording device is generated from the C, M, and Y image information. For example, in the case of the melt type thermal transfer recording method, a drive voltage control signal, a drive pulse signal, etc. for the thermal head are generated. The thermal control of the thermal head is also performed here. Finally, composite image information is recorded on the recording medium M by alternately forming even-numbered pixels and odd-numbered pixels in the main scanning direction of a recording device typified by a thermal head for each recording line.

記録媒体M上に形成されるドットの配列は図3に示すようになる。図3中のA−A’ラインを見ると、ドットは1ドット置きではなく、ピッチd(サーマルヘッドの発熱体のピッチの1/√2)で隣接した状態で、45°方向へ一列に並んでいることがわかる。   The arrangement of dots formed on the recording medium M is as shown in FIG. Looking at the line AA ′ in FIG. 3, the dots are not arranged every other dot, but are arranged in a line in the 45 ° direction in a state where they are adjacent at a pitch d (1 / √2 of the pitch of the heating element of the thermal head). You can see that

図4は、記録部106により作成されたIDカードなどの個人認証媒体401の一例を示す。個人認証媒体401には、持ち主の個人認証用顔画像402が記録されているが、この顔画像402は図2で説明した処理によって作成され印刷記録されたものである。また、識別番号(No.)、氏名、生年月日、有効期限などの個人管理情報403も記録されている。これらの個人管理情報403を、図2におけるステップS203の電子透かし埋め込み処理の副情報として用いることにより、個人認証媒体401の認証用顔画像402と個人管理情報403とが関連付けられるため、個人認証媒体401の一部を改竄したり、偽造することが困難になり、セキュリティ性を高めることが可能になる。   FIG. 4 shows an example of a personal authentication medium 401 such as an ID card created by the recording unit 106. A personal authentication face image 402 of the owner is recorded on the personal authentication medium 401. This face image 402 is created and printed and recorded by the process described with reference to FIG. In addition, personal management information 403 such as an identification number (No.), name, date of birth, and expiration date is also recorded. Since these personal management information 403 is used as sub-information for the digital watermark embedding process in step S203 in FIG. 2, the authentication face image 402 of the personal authentication medium 401 and the personal management information 403 are associated with each other. It becomes difficult to falsify or forge a part of 401, and security can be improved.

第2の画像処理装置110は、たとえば、図4の個人認証媒体401に記録されている合成画像情報403を読取り入力し、デジタルの画像情報に変換する画像入力手段としての記録画像入力部111、記録画像入力部111で取り込まれた合成画像情報から電子透かし情報(副情報)を復元する復元手段としての復元部115、および、復元部115で復元された電子透かし情報に基いて当該個人認証媒体の真偽性を判定する判定手段としての判定部114により構成されており、以下、各部の機能について詳細に説明する。   For example, the second image processing apparatus 110 reads and inputs the composite image information 403 recorded on the personal authentication medium 401 shown in FIG. 4 and converts it into digital image information. A restoration unit 115 as restoration means for restoring digital watermark information (sub-information) from the combined image information captured by the recorded image input unit 111, and the personal authentication medium based on the digital watermark information restored by the restoration unit 115 It is comprised by the determination part 114 as a determination means to determine the authenticity of each, and hereafter, the function of each part is demonstrated in detail.

記録画像入力部111は、個人認証媒体401に記録されている合成画像情報403をカメラなどの画像入力装置で取込み、デジタルの合成画像情報に変換する。この時点での画像情報は、主画像入力部101の場合と同様に、R(赤),G(緑),B(青)の3プレーンから構成されている。   The recorded image input unit 111 takes in the composite image information 403 recorded on the personal authentication medium 401 with an image input device such as a camera and converts it into digital composite image information. The image information at this time is composed of three planes of R (red), G (green), and B (blue) as in the case of the main image input unit 101.

復元部115は、記録画像入力部111で取り込まれた合成画像情報から鍵情報の空間周波数成分を抽出する周波数成分抽出手段としての周波数成分抽出部112、および、周波数成分抽出部112で抽出された空間周波数成分から電子透かし情報(副情報)を再構成する再構成手段としての再構成部113により構成されている。   The restoration unit 115 is extracted by the frequency component extraction unit 112 as a frequency component extraction unit that extracts the spatial frequency component of the key information from the composite image information captured by the recorded image input unit 111 and the frequency component extraction unit 112. It is configured by a reconstruction unit 113 as reconstruction means for reconstructing digital watermark information (sub-information) from spatial frequency components.

周波数成分抽出部112は、記録画像入力部111で取り込まれた合成画像情報に対して周波数フィルタリングを行ない、埋め込まれている鍵情報の周波数成分について、その振幅(=強度)情報と位相情報とを取出す。   The frequency component extraction unit 112 performs frequency filtering on the composite image information captured by the recorded image input unit 111, and uses the amplitude (= intensity) information and phase information of the frequency component of the embedded key information. Take out.

再構成部113は、周波数成分抽出部112で抽出された空間周波数成分の振幅情報および位相情報に対して集計処理および空間フィルタリングを行ない、鍵情報に対する変調成分すなわち副情報を再構成する。   The reconstructing unit 113 performs aggregation processing and spatial filtering on the amplitude information and phase information of the spatial frequency component extracted by the frequency component extracting unit 112, and reconstructs the modulation component, that is, sub-information on the key information.

判定部114は、復元部115で復元された副情報(個人管理情報)と、記録画像入力部111で取り込まれた個人認証媒体401上の個人管理情報403とを照合し、当該個人認証媒体401の真偽性を判定する。   The determination unit 114 collates the sub-information (personal management information) restored by the restoration unit 115 with the personal management information 403 on the personal authentication medium 401 captured by the recording image input unit 111, and the personal authentication medium 401 Determine the authenticity of.

次に、本発明に係る交互駆動記録方式、詳しくはドットを千鳥状に配列させて記録する溶融型熱転写記録方式について説明する。ドットの有無で画像を形成するような溶融型熱転写記録方式では、多階調画像を表現する場合、ドットの面積を変化させる面積変調処理を行なうことにより、見かけの濃度を制御している。このため、ドットのサイズを正確に変調することが求められ、そのためには交互駆動記録方式が望ましい。   Next, an alternate drive recording method according to the present invention, specifically, a melt type thermal transfer recording method in which dots are arranged in a zigzag manner will be described. In the melt type thermal transfer recording method in which an image is formed with or without dots, when a multi-tone image is expressed, the apparent density is controlled by performing an area modulation process that changes the area of the dots. For this reason, it is required to accurately modulate the dot size, and for this purpose, an alternate drive recording method is desirable.

交互駆動記録方式は、記録ヘッド(ライン型サーマルヘッド)の奇数ラインの奇数番目の発熱体と偶数ラインの偶数番目の発熱体を記録ラインごとに交互に駆動する方式である。このように駆動した場合、記録するべき画像情報が図5(a)に示すように格子状に配列されて格納されているのが、実際の記録時には図5(b)に示すように千鳥状に配列されて画像が形成される。したがって、記録するべき画像情報の奇数ラインの偶数番目の情報および偶数ラインの奇数番目の情報が欠落することになる。   The alternating drive recording method is a method in which the odd-numbered heating elements of the odd-numbered lines and the even-numbered heating elements of the even-numbered lines of the recording head (line-type thermal head) are alternately driven for each recording line. When driven in this way, the image information to be recorded is stored in a grid pattern as shown in FIG. 5A. In actual recording, the image information is staggered as shown in FIG. 5B. To form an image. Therefore, even-numbered information on odd lines and odd-numbered information on even lines of image information to be recorded are lost.

このことは、単純に記録したい画像情報に電子透かし処理を用いて副情報を不可視状態で埋め込んでも、元の画像情報の1/2の面積しか有効にならず、その他の情報が欠落してしまうために、電子透かしが破壊されるか改変されてしまうことを意味する。一般的に、これだけ電子透かしが破壊された場合、副情報を復元することは非常に困難であり、セキュリティ性を保つことができなくなる。   This means that even if the sub-information is embedded in an invisible state using digital watermark processing in the image information to be recorded, only half the area of the original image information is valid and other information is lost. Therefore, it means that the digital watermark is destroyed or altered. In general, when such a digital watermark is destroyed, it is very difficult to restore the sub information, and security cannot be maintained.

そこで、本発明では、ステップS203の電子透かし埋め込み処理を行なう際に、ステップS201の第1の前処理およびステップS202の第2の前処理を行ない、さらに、ステップS203の電子透かし埋め込み処理後にステップS204の後処理を行なうことにより、交互駆動記録時の電子透かしの破壊を防ぐものである。   Therefore, in the present invention, when the digital watermark embedding process in step S203 is performed, the first preprocess in step S201 and the second preprocess in step S202 are performed, and further, after the digital watermark embedding process in step S203, step S204 is performed. By performing post-processing, the electronic watermark is prevented from being destroyed during alternate drive recording.

第1の前処理(ステップS201)では、交互駆動記録方式のときにエネルギを印加されない画素に対応する画像情報を間引く。図6(a)は、記録するべき画像情報全体の配列を示していて、黒い部分601は記録される画素(間引かれない情報)に対応し、白い部分602は記録されない画素(間引かれる情報)に対応している。   In the first preprocessing (step S201), image information corresponding to pixels to which no energy is applied is thinned out in the alternate drive recording method. FIG. 6A shows the arrangement of the entire image information to be recorded. The black portion 601 corresponds to the pixels to be recorded (information that is not thinned out), and the white portion 602 is the pixels that are not recorded (thinned out). Information).

第2の前処理(ステップS202)では、第1の前処理を行なった画像情報の配列に対して、たとえば、45°の回転処理および間引いた情報を取り除く処理を行ない、有効な画像情報サイズの圧縮処理を行なう。図6(b)に示すように、図6(a)の画像情報配列を45°回転させると黒い部分601(間引かれない情報)が整列に並ぶ。そこで、白い部分602(間引かれる部分)を取り除き、再配列させることにより、交互駆動記録方式の影響がない画像情報だけの配列が作成される。   In the second preprocessing (step S202), for example, a 45 ° rotation process and a process of removing the thinned information are performed on the arrangement of the image information subjected to the first preprocessing, and an effective image information size is set. Perform compression processing. As shown in FIG. 6B, when the image information array in FIG. 6A is rotated by 45 °, black portions 601 (information not thinned out) are aligned. Therefore, the white portion 602 (the portion to be thinned out) is removed and rearranged to create an array of only image information that is not affected by the alternating drive recording method.

さらに、図7に示す具体例をあげて第1の前処理および第2の前処理の説明を行なうと、図7(a)は記録したい画像情報の配列を示していて、最初の段階では、aij(i=1〜4、j=1〜4)の情報が格納されている。第1の前処理により間引き処理を行ない、画像情報の配列の奇数ラインの偶数番目の情報および偶数ラインの奇数番目の情報が間引かれて、図7(b)に示す×印の付いた配列要素が削除される。   Furthermore, when the first pre-processing and the second pre-processing are described with reference to the specific example shown in FIG. 7, FIG. 7 (a) shows the arrangement of image information to be recorded. In the first stage, Information on aij (i = 1 to 4, j = 1 to 4) is stored. The thinning process is performed by the first preprocessing, and the even-numbered information and the odd-numbered information of the even-numbered lines in the image information array are thinned out, and the array with x shown in FIG. The element is deleted.

次に、第2の前処理で45°回転処理が行なわれ、図7(c)に示す状態になる。さらに、×印の部分を除去した後に、有効な画像情報の要素を再配列すると、図7(d)に示す状態になる。空いた隙間の配列要素には記録しない意味の情報(この場合は「0」)を格納しておく。   Next, a 45 ° rotation process is performed in the second pretreatment, and the state shown in FIG. Further, when the elements of valid image information are rearranged after removing the portion marked with x, the state shown in FIG. 7D is obtained. Information that is not recorded (in this case, “0”) is stored in the array element of the vacant gap.

図7(a)と図7(d)とでは、実際に記録される、あるいは、交互駆動記録の影響を受けない画像情報の配列サイズは減少している(図7(d)の太枠部分)。この図7(d)の太枠部分に副情報が収まるように、電子透かし埋め込み処理を行なうことによって、副情報は完全に保持される。   In FIG. 7A and FIG. 7D, the arrangement size of the image information that is actually recorded or not affected by the alternating drive recording is reduced (the thick frame portion in FIG. 7D). ). By executing the digital watermark embedding process so that the sub information is contained in the thick frame portion of FIG. 7D, the sub information is completely retained.

後処理(ステップS204)に関しては、上記の全く逆の処理を行なうことになる。   With respect to the post-processing (step S204), the above processing is completely reversed.

なお、本実施の形態では、溶融型熱転写記録方式を一例として示したが、記録画素のドット面積変調により階調表現を行なう記録方式に対しては、どの方式においても本実施の形態の画像処理は適応可能である。   In the present embodiment, the melt type thermal transfer recording method is shown as an example. However, the image processing of the present embodiment is applicable to any recording method in which gradation representation is performed by dot area modulation of recording pixels. Is adaptable.

図8は、今まで説明した手順を模式的に示したものである。
図8において、主画像情報801は、たとえば、個人認証用の顔画像情報、副情報802は、たとえば、主画像情報801のセキュリティ性を高める情報(今回は数字の「174」)で、氏名や誕生日などをコード化して画像としたものや会社のロゴマークなどの図形を用いる。鍵情報803は、電子透かし埋め込み処理によって不可視状態で埋め込まれた副情報を後で復元するための鍵となる情報である。
FIG. 8 schematically shows the procedure described so far.
In FIG. 8, the main image information 801 is, for example, face image information for personal authentication, and the sub-information 802 is, for example, information for improving the security of the main image information 801 (this time, the number “174”). Use graphics such as birthdays as images and company logo marks. The key information 803 is key information for later restoring the sub information embedded in an invisible state by the digital watermark embedding process.

最初に、主画像情報801に対し第1の前処理および第2の前処理を行なうことにより、被埋め込み画像情報804を作成する。次に、被埋め込み画像情報804と副情報802と鍵情報803とを用いて電子透かし埋め込み処理805を行ない、電子透かし入り画像情報806を作成する。そして、第1の前処理と第2の前処理の逆変換処理を行なう後処理を行なうことにより、合成画像情報807を作成する。最後に、作成した合成画像情報807を記録(印刷)処理808することにより、個人認証媒体809が完成する。   First, embedded image information 804 is created by performing first preprocessing and second preprocessing on the main image information 801. Next, a digital watermark embedding process 805 is performed using the embedded image information 804, the sub information 802, and the key information 803, thereby creating the digital watermarked image information 806. Then, composite image information 807 is created by performing post-processing that performs inverse transformation processing of the first pre-processing and the second pre-processing. Finally, a personal authentication medium 809 is completed by performing a recording (printing) process 808 on the created composite image information 807.

次に、電子透かし埋め込み処理について説明する。本実施の形態では、電子透かしの手法一般に適用可能であるが、特に副情報と主画像情報とを重畳処理することによって埋め込みを行なう手法と相性がよい。   Next, the digital watermark embedding process will be described. In the present embodiment, the method of digital watermarking can be generally applied, but it is particularly compatible with the method of embedding by superimposing the sub information and the main image information.

この電子透かし埋め込み処理手法の詳細は、たとえば、特開平11−168616号公報や特開2001−268346号公報などに記述されており、これらを適用することが可能である。これらの手法は、基本的に主画像情報がカラー(フルカラー)画像であることを前提に記述されているが、これらに対し更に例えば特開平11−355554号公報に記述されている技術を加えて応用することにより、白黒画像に対しても副情報(副画像情報)を不可視状態で埋め込むことが可能である。
もし、個人認証媒体の顔画像の真偽判定が必要になった場合は、上記公報などに記載されている復元処理を鍵情報を利用して行なうことによって、不可視状態で記録されていた副情報が復元される。
Details of this digital watermark embedding processing method are described in, for example, Japanese Patent Application Laid-Open No. 11-168616 and Japanese Patent Application Laid-Open No. 2001-268346, and these can be applied. These methods are basically described on the premise that the main image information is a color (full color) image. However, for example, a technique described in Japanese Patent Laid-Open No. 11-355554 is added to these methods. By applying it, it is possible to embed sub-information (sub-image information) in a black and white image in an invisible state.
If it is necessary to determine the authenticity of the face image of the personal authentication medium, the sub-information recorded in an invisible state is obtained by performing the restoration process described in the above publication using the key information. Is restored.

図9に、特開平11−168616号公報に記述されている色差変調方式を用いた電子透かし埋め込み処理の流れ図を示し、本実施の形態への適用例を説明する。この方式では、
(1) 人間の視覚特性を利用
・画像の周波数が高くなるほど階調識別能力が低下
・輝度情報よりも色差情報の方が判別困難
(2) 補色の関係 例…赤色+シアン色=無彩色(白)(加法混色の場合)
(3) 高周波キャリアパターン画像に補色の関係および色差情報を適用(色差変調処
理)
を用いることにより、画質劣化を招くことなく、主画像情報に副情報を不可視状態で埋め込むことが可能になっている。
FIG. 9 is a flowchart of digital watermark embedding processing using the color difference modulation method described in Japanese Patent Laid-Open No. 11-168616, and an application example to this embodiment will be described. In this method,
(1) Utilizing human visual characteristics
・ The gradation discrimination ability decreases as the frequency of the image increases.
-Color difference information is more difficult to distinguish than luminance information
(2) Complementary color relationship Example: Red + cyan color = achromatic color (white) (in case of additive color mixture)
(3) Applying complementary color relationships and color difference information to high-frequency carrier pattern images (color difference modulation processing)
By using the sub information, it is possible to embed the sub information in the main image information in an invisible state without causing image quality deterioration.

上記(2)の例でいえば、赤色とシアン色(=緑色+青色)は、加法混色の場合、補色の関係にあり、赤色とシアン色とが隣り合っていても人間の目には判別しにくく無彩色に見える。   In the example of (2) above, red and cyan (= green + blue) are complementary colors in the case of additive color mixing, and even if red and cyan are adjacent to each other, they are discriminated by the human eye. Difficult to see and looks achromatic.

上記(3)の例のように、高周波キャリアパターン画像を用いることで、赤色リッチな画素とシアン色リッチな画素とが繰り返し配置されているため、人間の目ではこれらの細かな色差の違いを識別できず、色差量はプラスマイナス「0」と判断してしまう人間の視覚特性を利用している。この方式で作成した合成画像情報(電子透かし入り画像)は、格納する画像フォーマットに依存しないので、現在流通しているBMPやTIFF、JPEGなどの画像フォーマットだけでなく、将来新しい画像フォーマットに変更されても全く問題ない。   As in the example of (3) above, the high-frequency carrier pattern image is used to repeatedly arrange red-rich pixels and cyan-rich pixels. Human visual characteristics that cannot be identified and the color difference amount is determined to be plus or minus “0” are used. Since the composite image information (image with digital watermark) created by this method does not depend on the image format to be stored, it will be changed to a new image format in the future in addition to the currently distributed image formats such as BMP, TIFF, and JPEG. No problem at all.

ここで、図9に示した特開平11−168616号公報の電子透かし埋め込み処理の流れについて簡単に説明しておく。なお、詳細については特開平11−168616号公報の記述内容を参照されたい。   Here, the flow of the digital watermark embedding process of Japanese Patent Laid-Open No. 11-168616 shown in FIG. 9 will be briefly described. For details, refer to the description in JP-A-11-168616.

被埋め込み画像情報(主画像情報)901は、埋め込み情報が埋め込まれる画像情報で、個人認証媒体では所有者の顔写真(顔画像)に相当する。これは、1画素当たり24ビット(R,G,B各8ビット)の情報を持っている。埋め込み画像情報(副情報)902は、埋め込む情報を2値画像に変換したもので、個人認証媒体では例えば識別番号などに相当する。これは、1画素あたり1ビットの情報を持っている。マスク画像情報(鍵情報)903は、合成処理時および埋め込み画像情報の復元(再生)時に用いる画像情報で、1画素あたり1ビットの情報を持っている。   Embedded image information (main image information) 901 is image information in which embedded information is embedded, and corresponds to an owner's face photograph (face image) in a personal authentication medium. This has 24 bits of information per pixel (8 bits for each of R, G, and B). Embedded image information (sub-information) 902 is obtained by converting embedded information into a binary image, and corresponds to, for example, an identification number or the like in a personal authentication medium. This has 1 bit of information per pixel. Mask image information (key information) 903 is image information used at the time of composition processing and restoration (reproduction) of embedded image information, and has 1-bit information per pixel.

最初に、平滑化処理ステップ904において、埋め込み画像情報902の黒画素を「1」、白画素を「0」として平滑化処理を行なう。ここでは、x方向について注目画素の両端の画素を3×1画素の領域を切り出して、重み平均を取る。次に、位相変調処理ステップ905において、平滑化処理ステップ904における平滑化処理の結果を基にマスク画像情報903に対し位相変調を行なう。   First, in the smoothing process step 904, the black pixel of the embedded image information 902 is set to “1” and the white pixel is set to “0” to perform the smoothing process. Here, an area of 3 × 1 pixels is extracted from both ends of the target pixel in the x direction, and a weighted average is taken. Next, in the phase modulation processing step 905, phase modulation is performed on the mask image information 903 based on the result of the smoothing processing in the smoothing processing step 904.

次に、色差変調処理ステップ907において、位相変調処理ステップ905における位相変調結果を基に、色差量ΔCdを用いて色差変調処理を行なう。この場合、R(赤)、G(緑)、B(青)の3成分を別々に計算する。次に、重畳処理ステップ908において、色差変調処理ステップ907における色差変調結果と被埋込み画像情報901とから、重畳処理を行なうことにより、合成画像情報909を作成する。   Next, in color difference modulation processing step 907, color difference modulation processing is performed using the color difference amount ΔCd based on the phase modulation result in phase modulation processing step 905. In this case, three components R (red), G (green), and B (blue) are calculated separately. Next, in superimposition processing step 908, composite image information 909 is created by performing superimposition processing from the color difference modulation result in color difference modulation processing step 907 and the embedded image information 901.

以上の説明からも明らかなように、図9の被埋め込み画像情報901と埋め込み画像情報902とマスク画像情報903は、図8で説明した本実施の形態における主画像情報801と副情報802と鍵情報803と全く同じものである。したがって、基本的には図9に示した電子透かし埋め込み処理方式を本実施の形態に適用可能であることは明らかである。   As is apparent from the above description, the embedded image information 901, the embedded image information 902, and the mask image information 903 in FIG. 9 are the main image information 801, the sub information 802, and the key in the present embodiment described in FIG. It is exactly the same as information 803. Therefore, it is obvious that the digital watermark embedding processing method shown in FIG. 9 can basically be applied to this embodiment.

ただし、本実施の形態では、第1の前処理および第2の前処理を主画像情報に対してあらかじめ行なうために、有効な画像情報の配列サイズが図7(d)の太線枠で示したように、主画像情報の本来のサイズよりも小さくなっている。したがって、図9の電子透かし埋め込み処理のように、被埋め込み画像情報901’と色差変調処理の結果得られた重畳用画像情報910とを重畳処理することによって合成画像情報909を作成する場合は、重畳用画像情報910の有効部分(この場合は「174」)の領域が被埋め込み画像情報901’のハッチング部分に完全に入っている必要がある。   However, in this embodiment, since the first pre-processing and the second pre-processing are performed on the main image information in advance, the effective image information array size is indicated by the bold line frame in FIG. Thus, it is smaller than the original size of the main image information. Therefore, when the composite image information 909 is created by superimposing the embedded image information 901 ′ and the superimposing image information 910 obtained as a result of the color difference modulation processing, like the digital watermark embedding processing of FIG. The area of the effective portion (in this case, “174”) of the superimposing image information 910 needs to be completely included in the hatched portion of the embedded image information 901 ′.

重畳処理に関しては、被埋め込み画像情報901’、重畳用画像情報910、合成画像情報909を下記のように定義すると、
被埋め込み画像情報: SRCC(x,y) (A−1)
重畳用画像情報 : STLC(x,y) (A−2)
合成画像情報 : DESC(x,y) (A−3)
x,yは画像の座標値
C={R(赤)、G(緑)、B(青)}プレーンを示す
それぞれの値は24ビットカラー演算の場合、0〜255の整数値
次式で表わされる。
DESR(x,y)=SRCR(x,y)
+STLR(x,y) (B−1)
DESG(x,y)=SRCG(x,y)
+STLG(x,y) (B−2)
DESB(x,y)=SRCB(x,y)
+STLB(x,y) (B−3)
本実施の形態では、加法混色での演算として色の基本原色にR(赤)、G(緑)、B(青)を用いたが、減法混色での演算では色の基本原色にC(シアン)、M(マゼンダ)、Y(イエロー)を用いても本質的には変わらない。
Regarding the superimposition processing, if the embedded image information 901 ′, the superimposing image information 910, and the composite image information 909 are defined as follows,
Embedded image information: SRC C (x, y) (A-1)
Superimposing image information: STL C (x, y) (A-2)
Composite image information: DES C (x, y) (A-3)
x and y are the coordinate values of the image
C = {R (red), G (green), B (blue)} plane
Each value is an integer value between 0 and 255 for 24-bit color operation.
It is expressed by the following formula.
DES R (x, y) = SRC R (x, y)
+ STL R (x, y) (B-1)
DES G (x, y) = SRC G (x, y)
+ STL G (x, y) (B-2)
DES B (x, y) = SRC B (x, y)
+ STL B (x, y) (B-3)
In the present embodiment, R (red), G (green), and B (blue) are used as the basic primary colors for the calculation in the additive color mixture, but C (cyan) is used as the basic primary color in the calculation in the subtractive color mixture. ), M (magenta), and Y (yellow) are essentially unchanged.

次に、上述した特開平11−168616号公報の電子透かし埋め込み処理にて作成された合成画像情報に対する副情報の復元処理について説明する。副情報の復元は、埋め込み処理の際に用いた鍵情報に基いて特定の空間周波数成分を合成画像情報から抽出し、その空間周波数成分から副情報を再構成することにより行なう。   Next, a sub information restoration process for the composite image information created by the digital watermark embedding process of the above-mentioned JP-A-11-168616 will be described. The restoration of the sub information is performed by extracting a specific spatial frequency component from the synthesized image information based on the key information used in the embedding process, and reconstructing the sub information from the spatial frequency component.

鍵情報としては、幾何学模様などで構成された2値(白黒)の画像情報を利用できる。たとえば、1×2画素を単位矩形とする白黒の市松模様や、あらかじめ定めておいたシードを元に作成した擬似乱数パターンなどである。   As key information, binary (monochrome) image information composed of a geometric pattern or the like can be used. For example, a black and white checkered pattern having 1 × 2 pixels as a unit rectangle, a pseudo-random pattern created based on a predetermined seed, or the like.

鍵情報に基づいて特定の空間周波数成分を抽出する方法としては、空間周波数フィルタを用いることができる。鍵情報に対応する空間周波数フィルタの係数は、以下の(1)〜(4)の手順にて計算する。なお、係数の計算はあらかじめ行なって結果を格納しておいてもよいし、抽出処理を行なう前、あるいは、その都度、計算して用いてもかまわない。   As a method for extracting a specific spatial frequency component based on the key information, a spatial frequency filter can be used. The coefficient of the spatial frequency filter corresponding to the key information is calculated by the following procedures (1) to (4). The coefficient may be calculated in advance and the result may be stored, or may be calculated and used before the extraction process or each time.

(1) 鍵情報のサイズを、主画像情報の解像度と、記録媒体上に記録されている合成画像情報の解像度と、記録画像入力部111の読取り解像度とを基にして伸縮する。
(2) フーリエ変換を行ない、周波数領域に展開する。なお、変換は整数で行なって
もよいし、実数や複素数に拡張してもよい。
(3) 展開された値を参照し、フィルタの通過域を調整する。
(4) 調整後の値に対してフーリエ逆変換を行ない、得られた値を周波数フィルタ係
数とする。
(1) The size of the key information is expanded or contracted based on the resolution of the main image information, the resolution of the composite image information recorded on the recording medium, and the reading resolution of the recording image input unit 111.
(2) Perform Fourier transform and expand to the frequency domain. The conversion may be performed with an integer, or may be extended to a real number or a complex number.
(3) Refer to the expanded value and adjust the pass band of the filter.
(4) Perform inverse Fourier transform on the adjusted value, and use the obtained value as the frequency filter coefficient.

上記(1)については、たとえば、図10(a)に示す鍵情報を用いて埋め込みを行なった場合に、主画像情報の解像度が200dpi、合成画像情報の印刷解像度と記録画像入力部111の読取り解像度が400dpiであったとすると、記録画像入力部111により取込まれる合成画像情報は図10(b)に示すようになる。   Regarding (1) above, for example, when embedding is performed using the key information shown in FIG. 10A, the resolution of the main image information is 200 dpi, the print resolution of the composite image information and the reading of the recorded image input unit 111 If the resolution is 400 dpi, the combined image information captured by the recorded image input unit 111 is as shown in FIG.

図10(a)において、白丸1001は白、黒丸1002は黒を表わし、1003は主走査方向の基本周波数波形、1004は副走査方向の基本周波数波形を表わしている。図10(b)において、白丸1005は主色リッチ、黒丸1006は補色リッチなドットを表わしている。この場合、主色が赤(R)の場合では、補色はシアン(C)になる。また、1007は主走査方向の基本周波数波形、1008は副走査方向の基本周波数波形を表わしている。   In FIG. 10A, a white circle 1001 represents white, a black circle 1002 represents black, 1003 represents a basic frequency waveform in the main scanning direction, and 1004 represents a basic frequency waveform in the sub-scanning direction. In FIG. 10B, a white circle 1005 represents a main color rich dot, and a black circle 1006 represents a complementary color rich dot. In this case, when the main color is red (R), the complementary color is cyan (C). Reference numeral 1007 denotes a fundamental frequency waveform in the main scanning direction, and reference numeral 1008 denotes a fundamental frequency waveform in the sub-scanning direction.

埋め込まれた鍵情報は、図10(b)に示す形状1009へ変換されており、その基本周波数は鍵情報のサイズを読取り解像度と印刷解像度との比の分だけ伸長した場合の周波数と同等になっている。したがって、フィルタ係数を計算する際には、あらかじめ記録、読取りにおける解像度の変化を繰り入れておく。   The embedded key information has been converted into a shape 1009 shown in FIG. 10B, and the fundamental frequency is equivalent to the frequency when the size of the key information is expanded by the ratio of the reading resolution and the printing resolution. It has become. Therefore, when calculating the filter coefficient, a change in resolution in recording and reading is introduced in advance.

上記(2)〜(4)にて、合成画像情報から鍵情報の空間周波数成分を抽出する周波数フィルタを設計するが、鍵情報はもともと2値であるため、エッジ(=白画素と黒画素とが接する境界)の傾きが急峻であるという特徴を持っている。空間領域においてエッジが急峻であればあるほど、周波数領域においては高調波を多く含むことになるため、急峻なエッジが多い画像情報をそのまま用いて計算された周波数フィルタ係数を使うと、高調波側に載ったノイズが素通しになり、S/N比が悪化して副情報の復元に支障をきたす。   In (2) to (4) above, a frequency filter that extracts the spatial frequency component of the key information from the synthesized image information is designed. Since the key information is originally binary, the edge (= white pixel and black pixel) It has a feature that the inclination of the boundary (which touches) is steep. The sharper the edge in the spatial domain, the more harmonics are included in the frequency domain. Therefore, using the frequency filter coefficient calculated using image information with many sharp edges as it is, the harmonic side The noise on the screen becomes transparent, and the S / N ratio deteriorates, which hinders the restoration of the sub information.

このため、上記(3)に示す調整作業が必要となるが、この内容は個々の鍵情報およびシステムの運用環境に依存する。一般的には、ノイズを抑制するために高調波を阻止し、基本周波数に近い周波数のみを通過させるが、ノイズが少ない環境では、高調波も通過させることで鍵情報の複雑性を積極的に利用し、セキュリティ性を高めるというアプローチもある。   For this reason, the adjustment work shown in (3) above is required, but this content depends on the individual key information and the operating environment of the system. In general, in order to suppress noise, harmonics are blocked and only frequencies close to the fundamental frequency are allowed to pass. However, in environments where noise is low, the harmonics are also allowed to pass through to actively increase the complexity of key information. There is also an approach to improve security by using it.

記録画像入力部111にて取込まれた合成画像情報から、上記方法にてあらかじめ計算された周波数フィルタ係数を用い鍵情報の空間周波数成分を抽出するには、以下に示す数1による畳み込み積分を行なう。

Figure 0004746663
In order to extract the spatial frequency component of the key information from the synthesized image information captured by the recorded image input unit 111 using the frequency filter coefficient calculated in advance by the above method, the convolution integral by the following equation 1 is performed. Do.
Figure 0004746663

ここで、Iは記録画像入力部111で取込まれた合成画像情報、gは周波数フィルタ係数、Kは抽出された鍵情報の空間周波数成分である。   Here, I is the composite image information captured by the recorded image input unit 111, g is a frequency filter coefficient, and K is a spatial frequency component of the extracted key information.

なお、特定の空間周波数成分を抽出する方法は、上記した空間周波数フィルタを用いる方法に限定されるものではなく、周知のフーリエ変換やウェーブレット変換などを利用し、一旦別空間へ写像して処理を施した後、逆に写像することで抽出する方法を用いても構わない。   Note that the method of extracting a specific spatial frequency component is not limited to the method using the spatial frequency filter described above, and uses a well-known Fourier transform, wavelet transform, etc., and once maps to another space for processing. After applying, a method of extracting by mapping in reverse may be used.

次に、上記のようにして抽出された空間周波数成分から副情報を再構成する処理について説明する。再構成処理は以下の(1)〜(3)の手順にて行なう。
(1) 抽出された空間周波数成分からゼロクロス点(符号が変化するポイント)を抽
出する。
(2) ゼロクロス点を射影し、空間周波数成分の基準位相を求める。
(3) 空間周波数成分の各座標について基準位相からのずれを計算し、所定の閾値以
上ずれている座標の画素値を黒、そうでないものを白に置き換える。
Next, a process for reconstructing the sub information from the spatial frequency component extracted as described above will be described. The reconstruction process is performed according to the following procedures (1) to (3).
(1) Extract the zero-cross point (point where the sign changes) from the extracted spatial frequency component.
(2) Project the zero-cross point to obtain the reference phase of the spatial frequency component.
(3) Calculate the deviation from the reference phase for each coordinate of the spatial frequency component, and replace the pixel value of the coordinate that deviates by more than a predetermined threshold value with black, and replace the others with white.

図11〜図13は、再構成処理の各過程における模式図を示している。図11は、抽出された鍵情報の空間周波数成分の振幅を表わし、白部分1101が+側、黒部分1102が−側を意味している。図12は、+−の符号が変わる点(ゼロクロス点)の座標を射影してその数を集計した結果を表わし、所定の閾値TH以上の数がある座標を基準位相のゼロクロス点として抽出している。図13は、各座標における空間周波数成分について基準位相からのずれを計算し、ずれ量に応じて画素値を置き換えた結果を表わしている。   11 to 13 show schematic diagrams in each process of the reconstruction process. FIG. 11 shows the amplitude of the spatial frequency component of the extracted key information, where the white portion 1101 means the + side and the black portion 1102 means the − side. FIG. 12 shows the result of projecting the coordinates of the points where the sign of + − changes (zero cross points) and totaling the numbers, and extracting the coordinates having a number greater than or equal to a predetermined threshold TH as the zero cross points of the reference phase. Yes. FIG. 13 shows the result of calculating the deviation from the reference phase for the spatial frequency component at each coordinate and replacing the pixel value in accordance with the deviation amount.

以上のような処理を行なうことにより、合成画像情報から副情報を白黒2値の画像情報として復元することができる。   By performing the processing as described above, the sub information can be restored from the composite image information as black and white binary image information.

なお、前記特開2001−268346号公報に開示されている方法にて合成画像情報を作成した場合には、副情報(副画像情報)の復元は以下の手順にて行なう。
(1) 所定の鍵情報Ki(1≦i≦N)に基づいて特定の空間周波数成分Fiを抽出
する。ここで、Nは副情報(副画像情報)の埋め込みに使用した鍵情報Kiの総
数である。
(2) 抽出結果Fiに対し、鍵情報Kiに対応する所定の閾値THiにて2値化処理
を行なう。
(3) 上記(1)〜(2)の手順を復元に必要なNd個(Nd≦N)の鍵情報について行な
い、所定の手順に基づいて結果を合成する。
When composite image information is created by the method disclosed in Japanese Patent Laid-Open No. 2001-268346, sub information (sub image information) is restored in the following procedure.
(1) A specific spatial frequency component Fi is extracted based on predetermined key information Ki (1 ≦ i ≦ N). Here, N is the total number of key information Ki used for embedding sub-information (sub-image information).
(2) A binarization process is performed on the extraction result Fi with a predetermined threshold THi corresponding to the key information Ki.
(3) The above steps (1) to (2) are performed on Nd pieces (Nd ≦ N) of key information necessary for restoration, and the results are synthesized based on a predetermined procedure.

前記特開2001−268346号公報に開示されている方法は、副情報(副画像情報)の埋め込みの際に複数の鍵情報を用いることができ、さらに、副情報(副画像情報)の復元の際に必要となる鍵情報の組合わせを任意に選択できるという特徴を有している。   The method disclosed in Japanese Patent Application Laid-Open No. 2001-268346 can use a plurality of pieces of key information when embedding sub information (sub image information), and further restore sub information (sub image information). It has a feature that a combination of key information necessary at the time can be arbitrarily selected.

したがって、当該方法を用いて作成された合成画像情報から副情報(副画像情報)を復元する際には、鍵情報に対応する空間周波数成分の抽出、および、副情報(副画像情報)の断片の2値化による再構成という手順を所定回数行ない、それら断片を合成するという手順を実施する。   Therefore, when sub-information (sub-image information) is restored from composite image information created using the method, extraction of spatial frequency components corresponding to key information and sub-information (sub-image information) fragments The procedure of reconstruction by binarization is performed a predetermined number of times, and the procedure of synthesizing these fragments is performed.

復元の際に必要となる鍵情報、閾値、合成方法については、あらかじめ埋め込みの際にそれぞれ決定しておく。Nd個の鍵情報Kiについては、埋め込みの際に使用したもの全て(N個の鍵情報全て)を必要とするようにしてもよいし、それらのうちから所定の手順またはランダムに選択したいくつかのもの(Nd≦NであるNd個)に限ってもよい。   Key information, a threshold value, and a synthesis method necessary for restoration are determined in advance at the time of embedding. As for Nd pieces of key information Ki, all of those used at the time of embedding (all pieces of N pieces of key information) may be required, or a predetermined procedure or some randomly selected from among them (Nd with Nd ≦ N).

閾値THiについては、全ての鍵情報Ki(i=1,…,N)で共通の値であってもよいし、それぞれの鍵情報Kiについて個別の値であってもよい。副情報(副画像情報)の断片の合成については、それぞれの断片を上下左右に連結する方法であってもよいし、断片同志を加算や排他的論理和などで合成する方法であってもよいし、それら連結、合成などの演算が混在する方法であってもよい。また、演算前にそれぞれの断片に所定の重みを掛けてあってもよい。   The threshold THi may be a value common to all the key information Ki (i = 1,..., N), or may be an individual value for each key information Ki. The synthesis of the pieces of sub information (sub image information) may be a method of linking the pieces vertically, horizontally, or a method of synthesizing fragments by addition or exclusive OR. However, a method in which operations such as concatenation and synthesis are mixed may be used. Further, a predetermined weight may be applied to each fragment before calculation.

以上説明したような画像処理システムを用いることにより、電子透かしを埋め込んだ個人認証媒体を作成し確認することができ、従来よりもセキュリティ性の高いシステムを実現できる。   By using the image processing system as described above, it is possible to create and check a personal authentication medium in which a digital watermark is embedded, and to realize a system with higher security than before.

以上説明したように、上記第1の実施の形態によれば、個人認証媒体に出力するようなアナログデータを対象として、主画像情報に別の付加的な副情報(副画像情報)を不可視状態で埋め込んだ合成画像情報を作成でき、記録後も記録した合成画像情報内の電子透かし情報が維持できる。
また、溶融型熱転写記録方式を用いた画像記録装置において、高階調性能を維持したまま、記録画像への電子透かし技術が適用可能で、その電子透かし情報(副情報)は記録後も壊れないで保存され、復元可能である。
次に、第2の実施の形態について説明する。
図14は、第2の実施の形態に係る第2の画像処理装置110の構成を示すものである。この第2の画像処理装置110は、画像入力手段としての画像入力部11、色成分情報格納手段としての色成分情報格納部12、色成分抽出手段としての色成分抽出部13、周波数成分抽出手段としての周波数成分抽出部14、再構成手段としての再構成部15、および、出力手段としての表示部16により構成されており、以下、各部の機能について詳細に説明する。
As described above, according to the first embodiment, the additional sub-information (sub-image information) other than the main image information is invisible for analog data that is output to the personal authentication medium. Embedded image information can be created, and digital watermark information in the recorded composite image information can be maintained even after recording.
In addition, in an image recording apparatus using a fusion type thermal transfer recording method, digital watermark technology can be applied to a recorded image while maintaining high gradation performance, and the digital watermark information (sub-information) is not broken after recording. Saved and recoverable.
Next, a second embodiment will be described.
FIG. 14 shows the configuration of the second image processing apparatus 110 according to the second embodiment. The second image processing apparatus 110 includes an image input unit 11 as an image input unit, a color component information storage unit 12 as a color component information storage unit, a color component extraction unit 13 as a color component extraction unit, and a frequency component extraction unit. The frequency component extraction unit 14 as a reconstruction unit, the reconstruction unit 15 as a reconstruction unit, and the display unit 16 as an output unit. The function of each unit will be described in detail below.

画像入力部11は、たとえば、図4の個人認証媒体401に記録されている合成画像情報403をカメラなどの画像入力装置で取込み、デジタルの合成画像情報に変換する。この画像情報はR,G,Bの3プレーンから構成されている。   For example, the image input unit 11 takes in the composite image information 403 recorded in the personal authentication medium 401 of FIG. 4 with an image input device such as a camera, and converts it into digital composite image information. This image information is composed of three planes R, G, and B.

色成分情報格納部12は、電子透かしの復元に使用する色成分の情報を格納する。色成分抽出部13は、色成分情報格納部12から読出した色成分情報に基づいて、画像入力部11により入力された画像情報から電子透かしの復元に使用する色成分を抽出する。   The color component information storage unit 12 stores information on color components used for restoring the digital watermark. Based on the color component information read from the color component information storage unit 12, the color component extraction unit 13 extracts a color component used for restoring the digital watermark from the image information input by the image input unit 11.

周波数成分抽出部104は、色成分抽出部13により抽出された色成分に対して周波数フィルタリングを行ない、埋め込まれている鍵情報の空間周波数成分について、その振幅(=強度)情報と位相情報とを取出す。   The frequency component extraction unit 104 performs frequency filtering on the color component extracted by the color component extraction unit 13, and outputs amplitude (= intensity) information and phase information about the spatial frequency component of the embedded key information. Take out.

再構成部15は、周波数成分抽出部14で抽出された空間周波数成分の振幅情報ないしは位相情報に対し集計処理および空間フィルタリングを行ない、鍵情報に対する変調成分すなわち副情報を再構成する。
表示部16は、再構成部15により再構成された副情報を表示する(もしくは、入力された画像情報と副情報とを同時に表示してもよい)。
The reconstructing unit 15 performs aggregation processing and spatial filtering on the amplitude information or phase information of the spatial frequency component extracted by the frequency component extracting unit 14, and reconstructs the modulation component, that is, sub-information on the key information.
The display unit 16 displays the sub information reconstructed by the reconstructing unit 15 (or the input image information and sub information may be displayed simultaneously).

色成分情報格納部12には、あらかじめ最も階調性の高い色成分に関する情報、たとえば、C,M,Yなど印刷に用いるインクの色や、R,G,Bなど画像取込みの際に用いる光学フィルタの色などのうち、最も階調性の高い色成分がどの色であるかを特定できる情報を格納する。この情報は、色名などの文字列であってもよいし、その色に対応する電磁波の波長などの数値や、色成分情報格納部12内での管理のために付与した番号やアドレスなどであってもよい。   The color component information storage unit 12 stores information on the color component having the highest gradation in advance, for example, the color of ink used for printing such as C, M, and Y, and the optical used when capturing images such as R, G, and B. Information that can identify which color component has the highest gradation among the colors of the filter is stored. This information may be a character string such as a color name, or may be a numerical value such as the wavelength of an electromagnetic wave corresponding to the color, or a number or address assigned for management in the color component information storage unit 12. There may be.

以下、階調性の高い色成分について、プリンタのインクを例として説明する。一般に、プリンタのインクは組成が色ごとに異なるため、インクが示す物理的特性も色ごとに異なる。階調性は物理的特性に依存するため、結果として階調性もインクの色ごとに異なる。   Hereinafter, a color component having high gradation will be described by taking printer ink as an example. In general, since the composition of ink in a printer varies from color to color, the physical characteristics of the ink also vary from color to color. Since gradation depends on physical characteristics, as a result, gradation varies depending on the ink color.

たとえば、昇華型のような、印加エネルギを制御することにより印刷対象へ付着するインクの濃度を変化させる方式のプリンタでは、印加エネルギと濃度との関係は図15に示すような特性を示す。一般的に、印加エネルギが小さい領域と大きい領域では濃度はあまり変化せず、その中間の領域では印加エネルギに応じた濃度となる。階調性はインクの濃度の制御性および実現可能な濃度範囲によって決まり、前者については印加エネルギとそれに対応する濃度とをプロットしたときに傾きが緩やかなほど、後者については最小濃度と最大濃度との差が大きいほど、良好な階調性を示す。   For example, in a printer such as a sublimation type that changes the density of ink adhering to a print target by controlling the applied energy, the relationship between the applied energy and the density exhibits characteristics as shown in FIG. In general, the density does not change much between the area where the applied energy is small and the area where the applied energy is large, and the density corresponds to the applied energy in the intermediate area. Gradation is determined by the controllability of the ink density and the density range that can be realized. For the former, when the applied energy and the corresponding density are plotted, the slope becomes gentler, and for the latter the minimum density and maximum density. The larger the difference, the better the gradation.

たとえば、図15では、3種類のインクの印加エネルギ濃度特性が示されているが、インク1(特性A)は実現可能な濃度範囲が狭く、インク3(特性C)は制御性が低いため、この中ではインク2(特性B)が最も良好な階調性を示す。   For example, FIG. 15 shows applied energy density characteristics of three types of ink, but ink 1 (characteristic A) has a narrow realizable density range, and ink 3 (characteristic C) has low controllability. Of these, ink 2 (characteristic B) exhibits the best gradation.

以上で説明した階調性については、例として挙げた方式のみに特有のものではなく、たとえば、溶融型のように濃度ではなく、画点の面積を変化させる方式などであっても、インクごとの物理的特性の違いによって階調性に差がでるという点は同様である。   The gradation described above is not unique only to the method exemplified as an example. For example, even in a method of changing not the density but the area of the dot as in the melt type, it is different for each ink. The same is true in that the difference in gradation is caused by the difference in physical characteristics.

また、以上ではプリンタのインクを例として説明したが、画像取込みの際に用いる光学フィルタについても、それぞれ通過帯域幅や減衰率が異なるなど物理的特性に違いがあるため、階調性に差がでるという点は同様である。   In addition, the printer ink has been described above as an example. However, the optical filters used for capturing images also have different physical characteristics such as different pass bandwidths and attenuation rates, so there is a difference in gradation. The point of going out is the same.

次に、電子透かしの復元と階調性との関係について説明する。色差変調処理を行なうことによって埋め込まれた電子透かしの復元は、色成分抽出→空間周波数成分抽出→副情報再構成という処理過程を経ることによって行なうことができる。処理の詳細については既に述べてあるため、概略のみを記述すると、色成分抽出処理および空間周波数成分抽出処理にて、取込んだ画像から色差を抽出し、副情報再構成処理において色差をそれに対応する情報、たとえば、ビットのオン・オフなどに変換することで電子透かしを復元する。   Next, the relationship between digital watermark restoration and gradation will be described. The digital watermark embedded by performing the color difference modulation process can be restored through a process of color component extraction → spatial frequency component extraction → sub-information reconstruction. Since the details of the processing have already been described, if only the outline is described, the color difference is extracted from the captured image by the color component extraction process and the spatial frequency component extraction process, and the color difference is handled in the sub information reconstruction process. The digital watermark is restored by converting it into information, for example, bit on / off.

一方、色差によって表現可能な情報は階調性に依存する。すなわち、階調性が低いと表現可能な情報は少なくなり、高いと多くなる。階調性はデジタル情報をアナログ情報へ変換する際、または、その逆の変換を行なう際に、それぞれの色成分ごとに変化する。したがって、最も階調性の高い色成分を用いることによって、色差によって表現される情報量の劣化を抑制することことができ、電子透かしの復元性を向上させることができる。   On the other hand, information that can be expressed by color difference depends on gradation. That is, the information that can be expressed decreases if the gradation is low, and increases if it is high. Gradation changes for each color component when digital information is converted to analog information or vice versa. Therefore, by using the color component having the highest gradation, it is possible to suppress deterioration in the amount of information expressed by the color difference, and to improve the restoration property of the digital watermark.

このように、デジタルとアナログとの変換の際に劣化が少ない色成分を用いることにより、埋め込まれた副情報の復元性を向上させることができる。   As described above, by using a color component with little deterioration in conversion between digital and analog, it is possible to improve the recoverability of the embedded sub information.

次に、第3の実施の形態について説明する。
図16は、第3の実施の形態に係る第2の画像処理装置110の構成を示すものである。この第2の画像処理装置110は、画像入力手段としての画像入力部21、領域抽出手段としての領域抽出部22、色特徴量抽出手段としての色特徴量抽出部23、色合成手段としての色合成部24、周波数成分抽出手段としての周波数成分抽出部25、再構成手段としての再構成部26、および、出力手段としての表示部27により構成されており、以下、各部の機能について詳細に説明する。
Next, a third embodiment will be described.
FIG. 16 shows the configuration of the second image processing apparatus 110 according to the third embodiment. The second image processing apparatus 110 includes an image input unit 21 as an image input unit, a region extraction unit 22 as a region extraction unit, a color feature amount extraction unit 23 as a color feature amount extraction unit, and a color as a color synthesis unit. The composition unit 24 includes a frequency component extraction unit 25 as a frequency component extraction unit, a reconstruction unit 26 as a reconstruction unit, and a display unit 27 as an output unit. The function of each unit will be described in detail below. To do.

画像入力部21は、たとえば、図4の個人認証媒体401に記録されている合成画像情報403をカメラなどの画像入力装置で取込み、デジタルの合成画像情報に変換する。この画像情報はR,G,Bの3プレーンから構成されている。   For example, the image input unit 21 takes in the composite image information 403 recorded in the personal authentication medium 401 of FIG. 4 with an image input device such as a camera, and converts it into digital composite image information. This image information is composed of three planes R, G, and B.

領域抽出部22は、画像入力部21により入力された画像情報上に所定のサイズを有する領域を設定する。設定する領域のサイズとしては、埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数を用いる。   The region extraction unit 22 sets a region having a predetermined size on the image information input by the image input unit 21. As the size of the area to be set, the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used at the time of embedding is used.

色特徴量抽出部23は、R,G,Bの各プレーンについて、領域抽出部22により設定された領域内に存在する画素の値を集計し、色の特徴量を計算する。色合成部24は、色特徴量抽出部23の集計結果に基いてR,G,B各プレーンの合成時の重みを算出し、さらに合成処理を行なう。   The color feature amount extraction unit 23 adds up the values of pixels existing in the region set by the region extraction unit 22 for each of the R, G, and B planes, and calculates the color feature amount. The color synthesizing unit 24 calculates weights at the time of synthesizing each of the R, G, and B planes based on the total result of the color feature amount extracting unit 23, and further performs synthesis processing.

周波数成分抽出部25は、色合成部24により合成された色成分に対して周波数フィルタリングを行ない、埋め込まれている鍵情報の空間周波数成分について、その振幅(=強度)情報と位相情報とを取出す。   The frequency component extraction unit 25 performs frequency filtering on the color components synthesized by the color synthesis unit 24, and extracts the amplitude (= intensity) information and phase information of the spatial frequency component of the embedded key information. .

再構成部26は、周波数成分抽出部25で抽出された空間周波数成分の振幅情報ないしは位相情報に対し集計処理および空間フィルタリングを行ない、鍵情報に対する変調成分すなわち副情報を再構成する。表示部27は、再構成部26により再構成された副情報を表示する(もしくは、入力された画像情報と副情報とを同時に表示してもよい)。   The reconstruction unit 26 performs aggregation processing and spatial filtering on the amplitude information or phase information of the spatial frequency component extracted by the frequency component extraction unit 25, and reconstructs a modulation component, that is, sub-information on the key information. The display unit 27 displays the sub information reconstructed by the reconstruction unit 26 (or the input image information and sub information may be displayed simultaneously).

領域抽出部22、色特徴量抽出部23および色合成部24における処理の流れの概略を図17に示す。領域抽出部22では、まず、画像入力部21にて取込まれたデジタルの画像情報上に、注目画素を中心とした色特徴量の抽出対象領域Sを設定する(ステップ31)。   FIG. 17 shows an outline of the processing flow in the area extracting unit 22, the color feature amount extracting unit 23, and the color synthesizing unit 24. First, the region extraction unit 22 sets a color feature amount extraction target region S centered on the pixel of interest on the digital image information captured by the image input unit 21 (step 31).

本実施の形態では、領域Sのサイズとして、埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数、すなわち、基本波長に対し記録および読取りにおける解像度の変化を繰り入れた値を用いる。たとえば、基本波長が2画素、主画像および記録時の解像度が200dpi、読取り解像度が400dpiであったとすると、領域Sのサイズは4画素となる。注目画素は、画像の左から右および下から上へ順次移動してゆくものとし、その移動量は領域のサイズの分とする。
なお、最初の注目画素の位置は、画像入力時における個人認証媒体の置き位置と、個人認証媒体内における顔画像の記録位置とから、あらかじめ計算しておく。
In the present embodiment, the size of the region S is the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used at the time of embedding, that is, a value obtained by introducing a resolution change in recording and reading with respect to the fundamental wavelength. Is used. For example, assuming that the fundamental wavelength is 2 pixels, the main image and recording resolution is 200 dpi, and the reading resolution is 400 dpi, the size of the area S is 4 pixels. The target pixel moves sequentially from left to right and from the bottom to the top of the image, and the amount of movement is the size of the area.
Note that the position of the first pixel of interest is calculated in advance from the position of the personal authentication medium at the time of image input and the face image recording position in the personal authentication medium.

次に、各プレーンごとに領域内部の画素の値を用いて、領域Sごとの色特徴量を求める(ステップ32)。色特徴量は、その領域内の色を代表する数値である。本実施の形態では、色特徴量として、各プレーンごとの領域内部の画素の輝度平均値を用いる。たとえば、m×n画素の領域SにおけるR,G,Bの各プレーンでの画素の値をそれぞれRij,Gij,Bij(i=1…m,j=1…n)とすると、色特徴量RF,GF,BFは下記数2のようになる。

Figure 0004746663
Next, the color feature amount for each region S is obtained using the value of the pixel inside the region for each plane (step 32). The color feature amount is a numerical value representing the color in the area. In this embodiment, the average luminance value of the pixels in the area for each plane is used as the color feature amount. For example, if the pixel values in the R, G, B planes in the m × n pixel area S are R ij , G ij , B ij (i = 1... M, j = 1. The feature quantities R F , G F , and B F are as shown in the following formula 2.
Figure 0004746663

色合成部24では、各プレーンごとの色特徴量に対応する色合成パラメータPCを決定し(ステップ33)、その色合成パラメータPCに基づいて、領域内の各画素に対して色合成処理を行なう(ステップ34)。本実施の形態では、色特徴量から色合成パラメータPCを決定する際に、色特徴量をインデクスとして色合成パラメータPCを格納した3次元配列を用いる。 The color combining unit 24 determines a color combining parameter P C corresponding to the color feature amount of each plane (step 33), on the basis of the color combining parameter P C, the color combining processing to each pixel in the region (Step 34). In the present embodiment, when the color synthesis parameter P C is determined from the color feature quantity, a three-dimensional array storing the color synthesis parameter P C using the color feature quantity as an index is used.

たとえば、m×n画素の領域SにおけるR,G,Bの各プレーンでの画素の値をそれぞれRij,Gij,Bij(i=1…m,j=1…n)とし、色特徴量をそれぞれRF,GF,BFとすると、色合成パラメータPR,PG,PBは以下のように決定する。
C=AC[RF,GF,BF] (C=R,G,B)
ここで、AC(C=R,G,B)は3次元配列であり、各プレーンに対応する色合成パラメータを格納する。たとえば、ARはRプレーンの色合成パラメータPRを格納する。
For example, let R ij , G ij , B ij (i = 1... M, j = 1... N) be the pixel values in the R, G, and B planes in the m × n pixel region S, respectively, and the color characteristics. When the amounts are R F , G F , and B F , the color composition parameters P R , P G , and P B are determined as follows.
P C = A C [R F , G F , B F ] (C = R, G, B)
Here, A C (C = R, G, B) is a three-dimensional array and stores color synthesis parameters corresponding to each plane. For example, A R stores the color combining parameter P R of the R plane.

色合成パラメータPC(C=R,G,B)の値は、以下の処理によりあらかじめ決定しておくものとする。
(1) パラメータを決定するための色パッチを作成する。色パッチは、所定の面積の領域を単一の色で塗り潰した印刷物であり、さらに当該領域には電子透かし埋め込み処理を施してあるものとする。
(2) 色パッチを画像入力部21または同等の性能を有する画像入力手段にて取込み、R,G,Bの各プレーンの色特徴量を算出する。
(3) R,G,Bの各プレーンのそれぞれから電子透かしを復元し、復元した信号の振幅の平均値を算出する。この際には色合成は行なわない。
(4) 上記(2)で算出した色特徴量に対応する色合成パラメータを、上記(3)で算出した値から決定する。たとえば、あるプレーンの振幅平均値が所定の閾値εよりも大きければ、そのプレーンの色合成パラメータを「1」、他プレーンのそれを「0」とする。逆に、全てのプレーンの振幅平均値が閾値εよりも小さい場合は、全プレーンの色合成パラメータを1/3とする。
The value of the color synthesis parameter P C (C = R, G, B) is determined in advance by the following processing.
(1) Create a color patch to determine the parameters. The color patch is a printed material in which a region having a predetermined area is filled with a single color, and the region is subjected to a digital watermark embedding process.
(2) The color patch is taken in by the image input unit 21 or an image input unit having equivalent performance, and the color feature amount of each of the R, G, and B planes is calculated.
(3) The digital watermark is restored from each of the R, G, and B planes, and the average value of the amplitudes of the restored signals is calculated. At this time, color synthesis is not performed.
(4) The color synthesis parameter corresponding to the color feature amount calculated in (2) above is determined from the value calculated in (3) above. For example, if the average amplitude value of a certain plane is larger than a predetermined threshold ε, the color composition parameter of that plane is set to “1” and that of the other plane is set to “0”. Conversely, when the average amplitude value of all the planes is smaller than the threshold ε, the color synthesis parameter of all the planes is set to 1/3.

次に、上記にて決定した色合成パラメータを用いて、領域内の画素それぞれに対し色合成演算を行なう。本実施例では、色合成演算として、各プレーンの画素値にそれぞれ対応する色合成パラメータを重みとして乗じ加算した線形和を用いる。たとえば、m×n画素の領域SにおけるR,G,Bの各プレーンでの画素の値をそれぞれRij,Gij,Bij(i=1…m,j=1…n)とし、その領域Sにおける色合成パラメータをそれぞれPR,PG,PBとすると、色合成の結果の値Tijは以下のように計算する。
ij=PRij+PGij+PBij (i=1…m,j=1…n)
以上の処理を入力画像全体に対して施して色合成画像Tを得る。以下、周波数成分抽出部25にて、色合成画像Tから電子透かし埋め込み処理の際に用いた鍵情報に基いて特定の空間周波数成分を抽出し、再構成部26にて副情報を再構成する。
Next, color composition calculation is performed for each pixel in the region using the color composition parameter determined above. In the present embodiment, a linear sum obtained by multiplying and adding the color composition parameter corresponding to the pixel value of each plane as a weight is used as the color composition calculation. For example, let R ij , G ij , and B ij (i = 1... M, j = 1... N) be the pixel values in the R, G, and B planes in the m × n pixel area S, respectively. Assuming that the color synthesis parameters in S are P R , P G , and P B , the value T ij resulting from the color synthesis is calculated as follows.
T ij = P R R ij + P G G ij + P B B ij (i = 1... M, j = 1... N)
The above process is performed on the entire input image to obtain a color composite image T. Thereafter, the frequency component extraction unit 25 extracts a specific spatial frequency component from the color composite image T based on the key information used in the digital watermark embedding process, and the reconstruction unit 26 reconstructs the sub information. .

なお、上記した説明では、最初の注目画素の位置を決定する際に、個人認証媒体の置き位置と顔画像の記録位置とを用いたが、この方法のみに限定されるものではなく、たとえば、顔画像内または周辺に特定のパターンをあらかじめ記録しておき、そのパターンの位置を検出した結果を用いて決定してもよい。   In the above description, the position of the personal authentication medium and the recording position of the face image are used when determining the position of the first target pixel. However, the present invention is not limited to this method. A specific pattern may be recorded in advance in or around the face image, and the determination may be made using the result of detecting the position of the pattern.

この他、鍵情報の空間周波数成分のサイズが顔画像のサイズに対して充分に小さい場合は、領域分割を行なわず、注目画素を中心とした所定の範囲から色特徴量を計算するようにしてもよい。   In addition, when the size of the spatial frequency component of the key information is sufficiently small with respect to the size of the face image, the color feature amount is calculated from a predetermined range centered on the target pixel without performing region division. Also good.

また、上記した説明では、色特徴量として領域内の画素の輝度平均を用いているが、これのみに限定されるものではなく、たとえば、中央値、最頻値などであってもよいし、これらへ分布形状を示す値、たとえば、標準偏差や分散などを重みとして修正を加えたものであってもよい。あるいは、所定の関数ないしアルゴリズムを適用した結果の値などであってもよい。   Further, in the above description, the luminance average of the pixels in the region is used as the color feature amount, but it is not limited to this, and may be, for example, a median value, a mode value, These may be modified by using values indicating the distribution shape, for example, standard deviation or variance as weights. Alternatively, it may be a value resulting from applying a predetermined function or algorithm.

また、上記した説明では、色合成パラメータを決定する際に3次元配列を用いたが、この方法のみに限定されるものではなく、たとえば、下記のような関数に基づいて決定する方法でもよい。
C=fC(RF,GF,BF) (C=R,G,B)
ここで、fC(C=R,G,B)は、色特徴量から色合成パラメータを決定する色演算関数を表わしている。色演算関数fC(C=R,G,B)としては、た とえば、RF,GF,BFにそれぞれ所定の重みを乗じた線形和PC=WC1F+WC2F+WC3F(C=R,G,B)であってもよいし、RF 2のような高次項や、RFFのような交差項を有する多項式であってもよい。あるいは、RF′=log(RF)のように、対数変換してから計算してもよい。
In the above description, the three-dimensional array is used when determining the color synthesis parameters. However, the method is not limited to this method, and may be determined based on the following functions, for example.
P C = f C (R F , G F , B F ) (C = R, G, B)
Here, f C (C = R, G, B) represents a color calculation function for determining a color synthesis parameter from the color feature amount. As the color calculation function f C (C = R, G, B), for example, a linear sum P C = W C1 R F + W C2 G F obtained by multiplying R F , G F , and B F by a predetermined weight, for example. It may be + W C3 B F (C = R, G, B), or may be a polynomial having a high-order term such as R F 2 or a cross term such as R F G F. Alternatively, the calculation may be performed after logarithmic transformation such as R F ′ = log (R F ).

また、上記した説明では、色合成演算の際に重み付き線形和を用いたが、この方法のみに限定されるものではなく、たとえば、Rij 2のような高次項やRijijのような交差項を有する多項式であってもよいし、Rij′=log(Rij)の ように、それぞれを対数変換してから計算してもよい。あるいは、色特徴量および色合成パラメータをインデクスとして色合成値を格納した6次元配列ATを用いて=Tij[Rij,Gij,Bij,PR,PG,PB]としてもよい。 In the above description, the weighted linear sum is used in the color composition calculation. However, the present invention is not limited to this method. For example, a higher order term such as R ij 2 or R ij G ij is used. It may be a polynomial having a simple cross term, or may be calculated after logarithmically transforming each such as R ij ′ = log (R ij ). Alternatively, by using a 6-dimensional array A T in which the color feature value and the color synthesis parameter are used as indexes and the color synthesis value is stored, = T ij [R ij , G ij , B ij , P R , P G , P B ] Good.

このように、入力された画像情報の色成分を合成して劣化の影響を軽減することにより、埋め込まれた副情報の復元性を向上させることができる。   In this way, by restoring the influence of deterioration by combining the color components of the input image information, it is possible to improve the recoverability of the embedded sub information.

次に、第4の実施の形態について説明する。
図18は、第4の実施の形態に係る第2の画像処理装置110の構成を示すものである。この第2の画像処理装置110は、画像入力手段としての画像入力部41、領域抽出手段としての領域抽出部42、色特徴量抽出手段としての色特徴量抽出部43、再構成パラメータ決定手段としての増幅係数決定部44、周波数成分抽出手段としての周波数成分抽出部45、増幅手段としての抽出信号増幅部46、再構成手段としての再構成部47、および、出力手段としての表示部48により構成されており、以下、各部の機能について詳細に説明する。
Next, a fourth embodiment will be described.
FIG. 18 shows the configuration of the second image processing apparatus 110 according to the fourth embodiment. The second image processing apparatus 110 includes an image input unit 41 as an image input unit, a region extraction unit 42 as a region extraction unit, a color feature amount extraction unit 43 as a color feature amount extraction unit, and a reconstruction parameter determination unit. Amplification coefficient determination unit 44, frequency component extraction unit 45 as frequency component extraction means, extraction signal amplification unit 46 as amplification means, reconstruction unit 47 as reconstruction means, and display unit 48 as output means Hereinafter, the function of each unit will be described in detail.

画像入力部41は、たとえば、図4の個人認証媒体401に記録されている合成画像情報403をカメラなどの画像入力装置で取込み、デジタルの合成画像情報に変換する。この画像情報はR,G,Bの3プレーンから構成されている。   For example, the image input unit 41 takes in the composite image information 403 recorded in the personal authentication medium 401 of FIG. 4 with an image input device such as a camera, and converts it into digital composite image information. This image information is composed of three planes R, G, and B.

領域抽出部42は、画像入力部41により入力された画像情報上に所定のサイズを有する領域を設定する。設定する領域のサイズとしては、埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数を用いる。   The area extraction unit 42 sets an area having a predetermined size on the image information input by the image input unit 41. As the size of the area to be set, the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used at the time of embedding is used.

色特徴量抽出部43は、R,G,Bの各プレーンについて、領域抽出部42により設定された領域内に存在する画素の値を集計し、色の特徴量を計算する。増幅係数決定部44は、色特徴量抽出部43の集計結果に基いて復元結果の再構成時の増幅係数を決定する。   The color feature quantity extraction unit 43 calculates the color feature quantity by adding up the values of pixels existing in the region set by the region extraction unit 42 for each of the R, G, and B planes. The amplification coefficient determination unit 44 determines an amplification coefficient at the time of reconstruction of the restoration result based on the total result of the color feature amount extraction unit 43.

周波数成分抽出部45は、画像入力部41により入力された画像情報に対して周波数フィルタリングを行ない、埋め込まれている鍵情報の空間周波数成分について、その振幅(=強度)情報と位相情報とを取出す。   The frequency component extraction unit 45 performs frequency filtering on the image information input by the image input unit 41, and extracts the amplitude (= strength) information and phase information of the spatial frequency component of the embedded key information. .

抽出信号増幅部46は、周波数成分抽出部45で抽出された空間周波数成分の振幅情報ないしは位相情報に対し、増幅係数決定部44にて決定された増幅係数を用いて増幅処理を行なう。   The extracted signal amplification unit 46 performs amplification processing on the amplitude information or phase information of the spatial frequency component extracted by the frequency component extraction unit 45 using the amplification coefficient determined by the amplification coefficient determination unit 44.

再構成部47は、抽出信号増幅部46で増幅された空間周波数成分の振幅情報ないしは位相情報に対し集計処理および空間フィルタリングを行ない、鍵情報に対する変調成分すなわち副情報を再構成する。表示部48は、再構成部47により再構成された副情報を表示する(もしくは、入力された画像情報と副情報とを同時に表示してもよい)。   The reconstruction unit 47 performs aggregation processing and spatial filtering on the amplitude information or phase information of the spatial frequency component amplified by the extracted signal amplification unit 46, and reconstructs the modulation component, that is, sub-information on the key information. The display unit 48 displays the sub information reconstructed by the reconstructing unit 47 (or the input image information and sub information may be displayed simultaneously).

抽出信号増幅部46における処理の流れの概略を図19に示す。まず、色特徴量抽出部43では、前記第3の実施の形態にて説明した色特徴量抽出部23と同様の処理を行ない、色特徴量を計算する(ステップ51)。   FIG. 19 shows an outline of the processing flow in the extraction signal amplification unit 46. First, the color feature quantity extraction unit 43 performs the same processing as the color feature quantity extraction unit 23 described in the third embodiment, and calculates a color feature quantity (step 51).

次に、増幅係数決定部44では、各プレーンごとの色特徴量から、その領域における増幅係数(増幅率)Mを決定する(ステップ52)。たとえば、m×n画素の領域SにおけるR,G,Bの各プレーンでの色特徴量をそれぞれRF,GF,BFとすると、増幅係数Mは以下のように決定する。
M=AM[RF,GF,BF
ここで、AMは3次元配列であり、色特徴量に対応する増幅係数を格納する。
Next, the amplification coefficient determination unit 44 determines an amplification coefficient (amplification factor) M in the region from the color feature amount for each plane (step 52). For example, if the color feature amounts in the R, G, and B planes in the m × n pixel region S are R F , G F , and B F , the amplification coefficient M is determined as follows.
M = A M [R F , G F , B F ]
Here, A M is a three-dimensional array and stores an amplification coefficient corresponding to the color feature amount.

抽出信号増幅部46では、周波数成分抽出部45にて抽出された空間周波数成分に対し、増幅係数決定部44にて得られた増幅係数Mを領域ごとに乗じる処理を行なう(ステップ53)。この処理を行なうことにより、抽出した周波数成分について、領域ごとの最大値のばらつきを所定の範囲内へ収まるように補正する。   The extracted signal amplifying unit 46 multiplies the spatial frequency component extracted by the frequency component extracting unit 45 by the amplification coefficient M obtained by the amplification coefficient determining unit 44 for each region (step 53). By performing this processing, the extracted frequency component is corrected so that the variation in the maximum value for each region falls within a predetermined range.

なお、上記した説明では、増幅係数Mの決定に3次元配列を用いたが、この方法のみに限定されるものではなく、たとえば、下記のような関数に基づいて決定する方法でもよい。
M=fM(RF,GF,BF
ここで、fMは色特徴量から増幅係数を決定する増幅係数演算関数を表わしている。増幅係数演算関数fMについては、たとえば、RF,GF,BFにそれぞれ所定の重みを乗じた線形和M=WM1F+WM2F+WM3Fであってもよいし、RF 2のような高次項や、RFFのような交差項を有する多項式であってもよい。あるいは、RF′=log(RF)のように、対数変換してから計算してもよい。
In the above description, the three-dimensional array is used to determine the amplification coefficient M. However, the method is not limited to this method, and may be determined based on the following function, for example.
M = f M (R F , G F , B F )
Here, f M represents an amplification coefficient calculation function for determining the amplification coefficient from the color feature amount. The amplification coefficient calculation function f M, for example, R F, G F, respectively may be a predetermined linear sum M = W M1 multiplied by the weight of R F + W M2 G F + W M3 B F to B F, It may be a polynomial having a high-order term such as R F 2 or a cross term such as R F G F. Alternatively, the calculation may be performed after logarithmic transformation such as R F ′ = log (R F ).

このように、入力された画像情報の色成分に応じて再構成処理を補正することで、埋め込まれた副情報の視認性を向上させることができる。   Thus, by correcting the reconstruction process according to the color component of the input image information, the visibility of the embedded sub information can be improved.

なお、上記第4の実施の形態では、抽出した空間周波数成分に増幅係数を掛けることで多値の画像を生成したが、代わりに、領域ごとの色特徴量に応じた2値化閾値を格納した3次元配列ABを用いて、領域ごとに2値化処理を行なうことで2値の画像を生成するようにしてもよい。この方法によれば、復元結果のデータ量を減らし、また、復元結果のコントラストを高めることができる。 In the fourth embodiment, a multivalued image is generated by multiplying the extracted spatial frequency component by an amplification coefficient. Instead, a binarization threshold value corresponding to a color feature amount for each region is stored. using 3-dimensional array a B that may be configured to generate a binary image by performing binarization processing for each area. According to this method, the data amount of the restoration result can be reduced, and the contrast of the restoration result can be increased.

以上説明したように、上記第2ないし第4の実施の形態によれば、デジタルとアナログとの変換の際に劣化が少ない色成分を用いることで、印刷物に出力するようなアナログデータを対象として、主画像情報に別の付加的な副情報を不可視状態で埋めこんだ合成画像情報を作成する際に、合成画像情報から副情報が暴露される危険性を増大させることなしに、印刷された合成画像情報から埋め込まれた副情報を復元する性能を向上させることができる。   As described above, according to the second to fourth embodiments, analog data that is output to a printed matter by using a color component that is less deteriorated at the time of conversion between digital and analog is targeted. When creating composite image information in which other additional sub-information is embedded in the invisible state in the main image information, it is printed without increasing the risk of the sub-information being exposed from the composite image information. The performance of restoring the sub-information embedded from the composite image information can be improved.

また、入力された画像情報の色成分を合成して劣化の影響を軽減することで、同様な危険性を増大させることなしに、印刷された合成画像情報から埋め込まれた副情報を復元する性能を向上させることができる。   In addition, by combining the color components of the input image information to reduce the effects of deterioration, the ability to restore the sub-information embedded from the printed composite image information without increasing the same risk Can be improved.

さらに、入力された画像情報の色成分に応じて再構成処理を補正することで、同様な危険性を増大させることなしに、印刷された合成画像情報から復元した副情報の視認性を向上させることができる。   Further, by correcting the reconstruction process according to the color components of the input image information, the visibility of the sub information restored from the printed composite image information is improved without increasing the same risk. be able to.

本発明の第1の実施の形態に係る画像処理システムの全体の構成を概略的に示すブロック図。1 is a block diagram schematically showing an overall configuration of an image processing system according to a first embodiment of the present invention. 第1の前処理部から後処理部までの処理の流れを説明するフローチャート。The flowchart explaining the flow of a process from a 1st pre-processing part to a post-processing part. 記録したドットの配列状態を示す図。The figure which shows the arrangement | sequence state of the recorded dot. 作成された個人認証媒体の一例を模式的に示す平面図。The top view which shows typically an example of the produced personal authentication medium. 記録する画像情報と記録したドットを説明する図。The figure explaining the image information to record and the recorded dot. 第1の前処理および第2の前処理の概念を説明する図。The figure explaining the concept of the 1st preprocessing and the 2nd preprocessing. 第1の前処理および第2の前処理の具体例を説明する図。The figure explaining the specific example of a 1st pre-process and a 2nd pre-process. 電子透かし埋め込み処理全体の流れを示す図。The figure which shows the flow of the whole electronic watermark embedding process. 電子透かし埋め込み処理の手順を模式的に示す流れ図。5 is a flowchart schematically showing a procedure of digital watermark embedding processing. 鍵情報の周波数成分を説明する模式図。The schematic diagram explaining the frequency component of key information. 副情報の再構成処理の過程を示す模式図。The schematic diagram which shows the process of the reconstruction process of subinformation. 副情報の再構成処理の過程を示す模式図。The schematic diagram which shows the process of the reconstruction process of subinformation. 副情報の再構成処理の過程を示す模式図。The schematic diagram which shows the process of the reconstruction process of subinformation. 本発明の第2の実施の形態に係る第2の画像処理装置の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the 2nd image processing apparatus which concerns on the 2nd Embodiment of this invention. インクの階調性を説明する特性図。FIG. 6 is a characteristic diagram for explaining ink gradation. 本発明の第3の実施の形態に係る第2の画像処理装置の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the 2nd image processing apparatus which concerns on the 3rd Embodiment of this invention. 色特徴量抽出処理および色合成処理の流れを説明するための図。The figure for demonstrating the flow of a color feature-value extraction process and a color composition process. 本発明の第4の実施の形態に係る第2の画像処理装置の構成を概略的に示すブロック図。The block diagram which shows schematically the structure of the 2nd image processing apparatus which concerns on the 4th Embodiment of this invention. 抽出信号増幅処理の流れを説明するための図。The figure for demonstrating the flow of an extraction signal amplification process.

符号の説明Explanation of symbols

100…第1の画像処理装置、101…主画像入力部(画像入力手段)、102…第1の前処理部(第1の前処理手段)、103…第2の前処理部(第2の前処理手段)、104…電子透かし埋め込み処理部(埋め込み手段)、105…後処理部(逆変換手段)、106…記録部(記録手段)、110…第2の画像処理装置、111…記録画像入力部(画像入力手段)、112,14,25,45…周波数成分抽出部(周波数成分抽出手段)、113,15,26,47…再構成部(再構成手段)、114…判定部(判定手段)、115…復元部(復元手段)、401…個人認証媒体、402…顔画像、403…個人管理情報、801…主画像情報、802…副情報(副画像情報)、803…鍵情報、807…合成画像情報、11,21,41…画像入力部(画像入力手段)、12…色成分情報格納部(色成分情報格納手段)、13…色成分抽出部(色成分抽出手段)、16,27…表示部、22,42…領域抽出部(領域抽出手段)、23,43…色特徴量抽出部(色特徴量抽出手段)、24…色合成部(色合成手段)、44…増幅係数決定部(再構成パラメータ決定手段)、46…抽出信号増幅部(増幅手段)。   DESCRIPTION OF SYMBOLS 100 ... 1st image processing apparatus, 101 ... Main image input part (image input means), 102 ... 1st pre-processing part (1st pre-processing means), 103 ... 2nd pre-processing part (2nd Pre-processing means), 104 ... Digital watermark embedding processing section (embedding means), 105 ... Post-processing section (inverse conversion means), 106 ... Recording section (recording means), 110 ... Second image processing apparatus, 111 ... Recorded image Input unit (image input unit), 112, 14, 25, 45 ... frequency component extraction unit (frequency component extraction unit), 113, 15, 26, 47 ... reconstruction unit (reconstruction unit), 114 ... determination unit (determination) 115) Restoration unit (restoration means), 401 ... Personal authentication medium, 402 ... Face image, 403 ... Personal management information, 801 ... Main image information, 802 ... Sub information (sub image information), 803 ... Key information, 807 ... Composite image information, 11, 21, 4 ... Image input section (image input means), 12 ... Color component information storage section (color component information storage means), 13 ... Color component extraction section (color component extraction means), 16, 27 ... Display section, 22, 42 ... area Extraction unit (region extraction unit), 23, 43 ... color feature amount extraction unit (color feature amount extraction unit), 24 ... color synthesis unit (color synthesis unit), 44 ... amplification factor determination unit (reconstruction parameter determination unit), 46: Extraction signal amplification section (amplification means).

Claims (16)

人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から前記合成画像情報を読取り入力する画像入力手段と、
前記鍵情報のサイズを前記記録媒体に記録されている合成画像情報の解像度と前記画像入力手段の読取解像度とを基に伸縮した後、当該鍵情報に対してフーリエ変換を行なうことにより周波数領域に展開し、この展開された値を参照することによりフィルタの通過域を調整し、この調整後の値に対してフーリエ逆変換を行なうことにより得られた値を周波数フィルタ係数とし、この周波数フィルタ係数を用いて前記画像入力手段により入力された合成画像情報から前記鍵情報の空間周波数成分を抽出する周波数成分抽出手段と、
この周波数成分抽出手段により抽出された空間周波数成分から前記副情報を再構成する再構成手段と、
を具備したことを特徴とする画像処理装置。
Using the color difference modulation method using main image information visible to the human naked eye, sub-information for embedding the main image information invisible to the human naked eye, and key information used to restore the sub-information . An image input for reading out and inputting the composite image information from a recording medium in which composite image information created by embedding the sub-information in the main image information in an invisible state by performing an embedded digital watermark processing Means,
The size of the key information is expanded or contracted based on the resolution of the composite image information recorded on the recording medium and the reading resolution of the image input means, and then subjected to Fourier transform on the key information to obtain a frequency domain. The value obtained by performing expansion and adjusting the pass band of the filter by referring to the expanded value and performing inverse Fourier transform on the adjusted value is defined as the frequency filter coefficient. Frequency component extraction means for extracting the spatial frequency component of the key information from the composite image information input by the image input means using
Reconstructing means for reconstructing the sub information from the spatial frequency components extracted by the frequency component extracting means;
An image processing apparatus comprising:
前記再構成手段は、前記周波数成分抽出手段により抽出された空間周波数成分から符号が変化する変化点を抽出し、この抽出された変化点を射影することにより空間周波数成分の基準位相を求め、前記周波数成分抽出手段により抽出された空間周波数成分の各座標について前記求めた基準位相からのずれを計算し、所定の閾値以上ずれている座標の画素値を第1の値、そうでないものを第2の値に置き換えることにより副情報を再構成することを特徴とする請求項1記載の画像処理装置。   The reconstruction unit extracts a change point where a sign changes from the spatial frequency component extracted by the frequency component extraction unit, and obtains a reference phase of the spatial frequency component by projecting the extracted change point, For each coordinate of the spatial frequency component extracted by the frequency component extraction means, the deviation from the obtained reference phase is calculated, the pixel value of the coordinate that is deviated by a predetermined threshold or more is the first value, and the others are the second value. The image processing apparatus according to claim 1, wherein the sub-information is reconstructed by replacing with the value of 前記再構成手段により再構成された副情報に基づき当該記録媒体の真偽性を判定する判定手段をさらに具備したことを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a determination unit that determines authenticity of the recording medium based on the sub-information reconfigured by the reconfiguration unit. 人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から前記合成画像情報を読取り入力する画像入力手段と、
色成分情報を格納する色成分情報格納手段と、
この色成分情報格納手段に格納された色成分情報に基づき前記画像入力手段により入力された合成画像情報から色成分を抽出する色成分抽出手段と、
この色成分抽出手段により抽出された色成分から前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出手段と、
この周波数成分抽出手段により抽出された空間周波数成分から前記副情報を再構成する再構成手段と、
を具備したことを特徴とする画像処理装置。
Using the color difference modulation method using main image information visible to the human naked eye, sub-information for embedding the main image information invisible to the human naked eye, and key information used to restore the sub-information . An image input for reading out and inputting the composite image information from a recording medium in which composite image information created by embedding the sub-information in the main image information in an invisible state by performing an embedded digital watermark processing Means,
Color component information storage means for storing color component information;
Color component extraction means for extracting color components from the composite image information input by the image input means based on the color component information stored in the color component information storage means;
Frequency component extraction means for extracting a spatial frequency component specific to the key information from the color component extracted by the color component extraction means;
Reconstructing means for reconstructing the sub information from the spatial frequency components extracted by the frequency component extracting means;
An image processing apparatus comprising:
前記合成画像情報から抽出する色成分は当該合成画像情報の記録時の階調特性が最も高いインクの色に対応する色成分であり、当該色成分の情報を前記色成分情報格納手段に格納することを特徴とする請求項記載の画像処理装置。 The color component extracted from the composite image information is a color component corresponding to the color of the ink having the highest gradation characteristics at the time of recording the composite image information, and the color component information is stored in the color component information storage means. The image processing apparatus according to claim 4 . 前記合成画像情報から抽出する色成分は当該合成画像情報の入力時の階調特性が最も高いインクの色に対応する色成分であり、当該色成分の情報を前記色成分情報格納手段に格納することを特徴とする請求項記載の画像処理装置。 The color component extracted from the composite image information is a color component corresponding to the color of the ink having the highest gradation characteristics when the composite image information is input, and the color component information is stored in the color component information storage unit. The image processing apparatus according to claim 4 . 人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から前記合成画像情報を読取り入力する画像入力手段と、
この画像入力手段により入力された合成画像情報から埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数の領域を局所領域として抽出する領域抽出手段と、
この領域抽出手段により抽出された局所領域から当該局所領域内の色特徴量を抽出する色特徴量抽出手段と、
この色特徴量抽出手段により抽出された色特徴量に基づき色成分を合成して色成分合成画像情報を生成する色合成手段と、
この色合成手段により生成された色成分合成画像情報から前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出手段と、
この周波数成分抽出手段により抽出された空間周波数成分から前記副情報を再構成する再構成手段と、
を具備したことを特徴とする画像処理装置。
Using the color difference modulation method using main image information visible to the human naked eye, sub-information for embedding the main image information invisible to the human naked eye, and key information used to restore the sub-information . An image input for reading out and inputting the composite image information from a recording medium in which composite image information created by embedding the sub-information in the main image information in an invisible state by performing an embedded digital watermark processing Means,
A region extraction unit that extracts, as a local region, a region having the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used in embedding from the composite image information input by the image input unit;
Color feature amount extraction means for extracting a color feature amount in the local area from the local area extracted by the area extraction means;
Color synthesis means for synthesizing color components based on the color feature values extracted by the color feature quantity extraction means to generate color component synthesized image information;
A frequency component extracting unit that extracts a spatial frequency component unique to the key information from the color component combined image information generated by the color combining unit;
Reconstructing means for reconstructing the sub information from the spatial frequency components extracted by the frequency component extracting means;
An image processing apparatus comprising:
人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から前記合成画像情報を読取り入力する画像入力手段と、
この画像入力手段により入力された合成画像情報から埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数の領域を局所領域として抽出する領域抽出手段と、
この領域抽出手段により抽出された局所領域から当該局所領域内の色特徴量を抽出する色特徴量抽出手段と、
この色特徴量抽出手段により抽出された色特徴量に基づき再構成パラメータを決定する再構成パラメータ決定手段と、
前記画像入力手段により入力された合成画像情報から前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出手段と、
前記再構成パラメータ決定手段により決定された再構成パラメータを用いて前記周波数成分抽出手段により抽出された空間周波数成分から前記副情報を再構成する再構成手段と、
を具備したことを特徴とする画像処理装置。
Using the color difference modulation method using main image information visible to the human naked eye, sub-information for embedding the main image information invisible to the human naked eye, and key information used to restore the sub-information . An image input for reading out and inputting the composite image information from a recording medium in which composite image information created by embedding the sub-information in the main image information in an invisible state by performing an embedded digital watermark processing Means,
A region extraction unit that extracts, as a local region, a region having the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used in embedding from the composite image information input by the image input unit;
Color feature amount extraction means for extracting a color feature amount in the local area from the local area extracted by the area extraction means;
Reconstruction parameter determination means for determining a reconstruction parameter based on the color feature amount extracted by the color feature amount extraction means;
Frequency component extraction means for extracting a spatial frequency component specific to the key information from the composite image information input by the image input means;
Reconstructing means for reconstructing the sub-information from the spatial frequency component extracted by the frequency component extracting means using the reconstruction parameter determined by the reconstruction parameter determining means;
An image processing apparatus comprising:
前記再構成パラメータは前記空間周波数成分を増幅する増幅係数であり、前記再構成手段は前記増幅係数を用いて前記空間周波数成分を増幅する増幅手段を含むことを特徴とする請求項記載の画像処理装置。 9. The image according to claim 8, wherein the reconstruction parameter is an amplification coefficient for amplifying the spatial frequency component, and the reconstruction means includes amplification means for amplifying the spatial frequency component using the amplification coefficient. Processing equipment. 前記再構成パラメータは前記空間周波数成分を2値化する閾値であり、前記再構成手段は前記閾値を用いて前記空間周波数成分を2値化する2値化手段を含むことを特徴とする請求項記載の画像処理装置。 The reconfiguration parameter is a threshold value for binarizing the spatial frequency component, and the reconstruction means includes binarization means for binarizing the spatial frequency component using the threshold value. 8. The image processing apparatus according to 8 . 人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から画像入力手段により前記合成画像情報を読取り入力する画像入力ステップと、
前記鍵情報のサイズを前記記録媒体に記録されている合成画像情報の解像度と前記画像入力ステップにおける読取解像度とを基に伸縮した後、当該鍵情報に対してフーリエ変換を行なうことにより周波数領域に展開し、この展開された値を参照することによりフィルタの通過域を調整し、この調整後の値に対してフーリエ逆変換を行なうことにより得られた値を周波数フィルタ係数とし、この周波数フィルタ係数を用いて前記画像入力ステップにより入力された合成画像情報から周波数成分抽出手段により前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出ステップと、
この周波数成分抽出ステップにより抽出された空間周波数成分から再構成手段により前記副情報を再構成する再構成ステップと、
を具備したことを特徴とする画像処理方法。
Using the color difference modulation method using main image information visible to the human naked eye, sub-information for embedding the main image information invisible to the human naked eye, and key information used to restore the sub-information . The composite image information is read by the image input means from the recording medium in which the composite image information created by embedding the sub-information in the main image information in an invisible state by performing a digital watermark embedding process that has been recorded. An image input step to input;
The size of the key information is expanded or contracted based on the resolution of the composite image information recorded on the recording medium and the reading resolution in the image input step, and then the Fourier transform is performed on the key information to obtain a frequency domain. The value obtained by performing expansion and adjusting the pass band of the filter by referring to the expanded value and performing inverse Fourier transform on the adjusted value is defined as the frequency filter coefficient. A frequency component extraction step of extracting a spatial frequency component specific to the key information by frequency component extraction means from the composite image information input by the image input step using
A reconstruction step of reconstructing the sub information by a reconstruction means from the spatial frequency component extracted by the frequency component extraction step;
An image processing method comprising:
前記再構成ステップは、前記周波数成分抽出ステップにより抽出された空間周波数成分から符号が変化する変化点を抽出し、この抽出された変化点を射影することにより空間周波数成分の基準位相を求め、前記周波数成分抽出ステップにより抽出された空間周波数成分の各座標について前記求めた基準位相からのずれを計算し、所定の閾値以上ずれている座標の画素値を第1の値、そうでないものを第2の値に置き換えることにより副情報を再構成することを特徴とする請求項11記載の画像処理方法。 The reconstruction step extracts a change point where a sign changes from the spatial frequency component extracted by the frequency component extraction step, and obtains a reference phase of the spatial frequency component by projecting the extracted change point, For each coordinate of the spatial frequency component extracted in the frequency component extraction step, the deviation from the obtained reference phase is calculated, the pixel value of the coordinate that is deviated by a predetermined threshold or more is the first value, and the other is the second value. The image processing method according to claim 11, wherein the sub-information is reconstructed by replacing the value with a value. 前記再構成ステップにより再構成された副情報に基づき当該記録媒体の真偽性を判定する判定ステップをさらに具備したことを特徴とする請求項11記載の画像処理方法。 The image processing method according to claim 11 , further comprising a determination step of determining authenticity of the recording medium based on the sub-information reconfigured by the reconfiguration step. 人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から画像入力手段により前記合成画像情報を読取り入力する画像入力ステップと、
色成分情報格納手段に格納された色成分情報に基づき前記画像入力ステップにより入力された合成画像情報から色成分抽出手段により色成分を抽出する色成分抽出ステップと、
この色成分抽出ステップにより抽出された色成分から周波数成分抽出手段により前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出ステップと、
この周波数成分抽出ステップにより抽出された空間周波数成分から再構成手段により前記副情報を再構成する再構成ステップと、
を具備したことを特徴とする画像処理方法。
Using the color difference modulation method using main image information visible to the human naked eye, sub-information for embedding the main image information invisible to the human naked eye, and key information used to restore the sub-information . The composite image information is read by the image input means from the recording medium in which the composite image information created by embedding the sub-information in the main image information in an invisible state by performing a digital watermark embedding process that has been recorded. An image input step to input;
A color component extraction step of extracting a color component by the color component extraction means from the combined image information input by the image input step based on the color component information stored in the color component information storage means;
A frequency component extraction step of extracting a spatial frequency component specific to the key information by frequency component extraction means from the color component extracted in this color component extraction step;
A reconstruction step of reconstructing the sub information by a reconstruction means from the spatial frequency component extracted by the frequency component extraction step;
An image processing method comprising:
人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から画像入力手段により前記合成画像情報を読取り入力する画像入力ステップと、
この画像入力ステップにより入力された合成画像情報から領域抽出手段により埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数の領域を局所領域として抽出する領域抽出ステップと、
この領域抽出ステップにより抽出された局所領域から色特徴量抽出手段により当該局所領域内の色特徴量を抽出する色特徴量抽出ステップと、
この色特徴量抽出ステップにより抽出された色特徴量に基づき色合成手段により色成分を合成して色成分合成画像情報を生成する色合成ステップと、
この色合成ステップにより生成された色成分合成画像情報から周波数成分抽出手段により前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出ステップと、
この周波数成分抽出ステップにより抽出された空間周波数成分から再構成手段により前記副情報を再構成する再構成ステップと、
を具備したことを特徴とする画像処理方法。
Using the color difference modulation method using main image information visible to the human naked eye, sub-information for embedding the main image information invisible to the human naked eye, and key information used to restore the sub-information . The composite image information is read by the image input means from the recording medium in which the composite image information created by embedding the sub-information in the main image information in an invisible state by performing a digital watermark embedding process that has been recorded. An image input step to input;
A region extraction step for extracting, as a local region, a region having the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used in embedding by the region extraction means from the composite image information input in this image input step;
A color feature amount extraction step of extracting color feature amounts in the local region from the local region extracted by the region extraction step by color feature amount extraction means ;
A color synthesizing step for synthesizing color components by color synthesizing means based on the color feature amount extracted by the color feature amount extracting step and generating color component synthesized image information;
A frequency component extracting step of extracting a spatial frequency component specific to the key information by frequency component extracting means from the color component synthesized image information generated by the color synthesizing step;
A reconstruction step of reconstructing the sub information by a reconstruction means from the spatial frequency component extracted by the frequency component extraction step;
An image processing method comprising:
人間の肉眼で可視状態の主画像情報および当該主画像情報に対して人間の肉眼で不可視状態で埋め込むための副情報および当該副情報を復元する際に用いる鍵情報を用いて色差変調方式を用いた電子透かし埋め込み処理を行なうことにより前記副情報を不可視状態で前記主画像情報に埋め込むことによって作成した合成画像情報が可視状態で記録されている記録媒体から画像入力手段により前記合成画像情報を読取り入力する画像入力ステップと、
この画像入力ステップにより入力された合成画像情報から領域抽出手段により埋め込みの際に使用した鍵情報の空間周波数成分の基本波長に相当する画素数の領域を局所領域として抽出する領域抽出ステップと、
この領域抽出ステップにより抽出された局所領域から色特徴量抽出手段により当該局所領域内の色特徴量を抽出する色特徴量抽出ステップと、
この色特徴量抽出ステップにより抽出された色特徴量に基づき再構成パラメータ決定手段により再構成パラメータを決定する再構成パラメータ決定ステップと、
前記画像入力ステップにより入力された合成画像情報から周波数成分抽出手段により前記鍵情報に固有の空間周波数成分を抽出する周波数成分抽出ステップと、
前記再構成パラメータ決定ステップにより決定された再構成パラメータを用いて前記周波数成分抽出ステップにより抽出された空間周波数成分から再構成手段により前記副情報を再構成する再構成ステップと、
を具備したことを特徴とする画像処理方法。
Using the color difference modulation method using main image information visible to the human naked eye, sub-information for embedding the main image information invisible to the human naked eye, and key information used to restore the sub-information . The composite image information is read by the image input means from the recording medium in which the composite image information created by embedding the sub-information in the main image information in an invisible state by performing a digital watermark embedding process that has been recorded. An image input step to input;
A region extraction step for extracting, as a local region, a region having the number of pixels corresponding to the fundamental wavelength of the spatial frequency component of the key information used in embedding by the region extraction means from the composite image information input in this image input step;
A color feature amount extraction step of extracting color feature amounts in the local region from the local region extracted by the region extraction step by color feature amount extraction means ;
A reconstruction parameter determination step for determining a reconstruction parameter by the reconstruction parameter determination means based on the color feature amount extracted by the color feature amount extraction step;
A frequency component extraction step of extracting a spatial frequency component specific to the key information by frequency component extraction means from the composite image information input in the image input step;
A reconstruction step of reconstructing the sub information by reconstruction means from the spatial frequency component extracted by the frequency component extraction step using the reconstruction parameter determined by the reconstruction parameter determination step;
An image processing method comprising:
JP2008283396A 2003-04-25 2008-11-04 Image processing apparatus and image processing method Expired - Fee Related JP4746663B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008283396A JP4746663B2 (en) 2003-04-25 2008-11-04 Image processing apparatus and image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003122346 2003-04-25
JP2003122346 2003-04-25
JP2008283396A JP4746663B2 (en) 2003-04-25 2008-11-04 Image processing apparatus and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004075020A Division JP4227048B2 (en) 2003-04-25 2004-03-16 Image processing system

Publications (2)

Publication Number Publication Date
JP2009050023A JP2009050023A (en) 2009-03-05
JP4746663B2 true JP4746663B2 (en) 2011-08-10

Family

ID=40501722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008283396A Expired - Fee Related JP4746663B2 (en) 2003-04-25 2008-11-04 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4746663B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000155798A (en) * 1998-11-18 2000-06-06 Toshiba Corp Method and system for device control

Also Published As

Publication number Publication date
JP2009050023A (en) 2009-03-05

Similar Documents

Publication Publication Date Title
JP4227048B2 (en) Image processing system
JP4167590B2 (en) Image processing method
US7489800B2 (en) Image processing method
KR100864997B1 (en) Image processing method and device
JP2005159438A (en) Image processing method
JP4746663B2 (en) Image processing apparatus and image processing method
JP4088191B2 (en) Image processing method and image recording apparatus
JP4327676B2 (en) Image printing method and image printing apparatus
JP4686578B2 (en) Image processing method
JP2001094755A (en) Image processing method
JP4829164B2 (en) Image processing apparatus and image processing method
JP2009033443A (en) Image processor, and image processing method
JP2009065364A (en) Image processing method, image processing apparatus and recorded matter
CA2545472A1 (en) Image processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110419

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110513

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4746663

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees