JP2003060887A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JP2003060887A
JP2003060887A JP2001243956A JP2001243956A JP2003060887A JP 2003060887 A JP2003060887 A JP 2003060887A JP 2001243956 A JP2001243956 A JP 2001243956A JP 2001243956 A JP2001243956 A JP 2001243956A JP 2003060887 A JP2003060887 A JP 2003060887A
Authority
JP
Japan
Prior art keywords
information
image
extraction
time
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001243956A
Other languages
Japanese (ja)
Other versions
JP3684178B2 (en
Inventor
Nobutaka Miyake
信孝 三宅
Minoru Kusakabe
稔 日下部
Kiyoshi Umeda
清 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001243956A priority Critical patent/JP3684178B2/en
Publication of JP2003060887A publication Critical patent/JP2003060887A/en
Application granted granted Critical
Publication of JP3684178B2 publication Critical patent/JP3684178B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Record Information Processing For Printing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor and an image processing method by which extraction precision and extraction time are optimized when prescribed information is extracted from the image. SOLUTION: The image processor is provided with an image inputting means for reading records with formed image where prescribed information is buried and inputting the image corresponding to the records, related information input means for inputting related information concerning an image forming situation with respect to the records, an extracting means for extracting prescribed information from the inputted image in response to a prescribed extracting method and a changeover means for changing-over the extracting method by the extracting means based on the inputted related information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置及び
画像処理方法に関し、特に、画像情報中に、該画像情報
とは別の情報、例えば音声情報や、テキスト文書情報、
画像に関する諸情報、全く別の画像情報等を付加情報と
して、視覚的に目立たぬように埋め込む画像処理に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and in particular, in image information, information different from the image information, such as voice information or text document information,
The present invention relates to image processing for embedding in a visually inconspicuous manner by using various information relating to an image, completely different image information, and the like as additional information.

【0002】[0002]

【従来の技術】従来より、画像情報中に、画像に関連の
ある他の情報を多重化する研究が盛んに行われている。
近年では、電子透かし技術と称し、写真、絵画等の画像
情報中に、その著作者名や、使用許可の可否等の付加情
報を視覚的に判別しづらい様に多重化して、インターネ
ット等のネットワークを通じて流通する技術が標準化さ
れつつある。
2. Description of the Related Art Conventionally, much research has been conducted on multiplexing other information related to an image in the image information.
In recent years, it has been called digital watermarking technology, and in image information such as photographs and paintings, the author's name and additional information such as permission / prohibition of use are multiplexed so that it is difficult to visually distinguish, and the network such as the Internet is used. The technology distributed through is being standardized.

【0003】また、他の応用分野としては、複写機、プ
リンタ等の画像出力装置の高画質化に伴い、紙幣、印
紙、有価証券等の不正な偽造を防止する目的で、紙上に
出力された画像から出力機器、及び、その機体番号を特
定する為に、画像中に付加情報を埋め込む技術がある。
As another field of application, as the image output devices such as copying machines and printers have become higher in image quality, they are output on paper for the purpose of preventing unauthorized forgery of banknotes, stamps, securities and the like. There is a technique of embedding additional information in an image in order to specify the output device and its machine number from the image.

【0004】例えば、特開平7-123244では、視覚的に感
度の低い色差成分、及び彩度成分の高周波域に付加情報
を埋め込むことにより情報の多重化を行う技術を提案し
ている。
For example, Japanese Patent Laid-Open No. 7-123244 proposes a technique for multiplexing information by embedding additional information in the high frequency regions of the color difference component and the saturation component, which have low visual sensitivity.

【0005】しかし、前述した技術は以下の問題点があ
る。図14は、電子透かし技術の一般的な付加情報の埋
め込みを示した図である。画像情報Aと付加情報Bが加算
器1401を介して多重化され、Cという多重化情報に
変化する。図14は画像情報の実空間領域で付加情報を
多重化する例である。この多重化情報Cを各種フィルタ
リング等の画像処理や、非可逆圧縮等の符号化をせずに
流通することが可能であれば、多重化情報Cから付加情
報Bを復号することは従来技術でも容易である。インタ
ーネット上で流通する画像情報では、多少のノイズ耐性
があれば、エッジ強調、平滑化等の画質向上のデジタル
フィルタを通しても復号が可能になる。
However, the above-mentioned technique has the following problems. FIG. 14 is a diagram showing the embedding of general additional information in the digital watermark technique. The image information A and the additional information B are multiplexed via the adder 1401 and changed into multiplexed information C. FIG. 14 shows an example in which additional information is multiplexed in the real space area of image information. If it is possible to distribute this multiplexed information C without performing image processing such as various filtering or encoding such as lossy compression, it is possible to decode the additional information B from the multiplexed information C even with the conventional technology. It's easy. If the image information distributed on the Internet has some noise resistance, it can be decoded even through a digital filter for improving image quality such as edge enhancement and smoothing.

【0006】しかし、今、多重化した画像をプリンタ等
の出力装置により印字し、その印字物から付加情報を取
り出す場合を想定する。しかも、使用するプリンタが単
色あたり2階調から数階調程度の表現能力しか有してい
ないプリンタ出力を想定する。近年、インクジェットプ
リンタは、染料濃度を薄くしたインクを有したり、出力
するドット径を可変に制御したりして、単色あたり数階
調表現できる装置が上市されているが、それでも疑似階
調処理を用いない限り、写真調の画像の階調性は表現で
きない。
However, it is now assumed that the multiplexed image is printed by an output device such as a printer and the additional information is extracted from the printed matter. Moreover, it is assumed that the printer to be used has a printer output of only two to several gradations per single color. In recent years, inkjet printers have been put on the market, which have ink with a low dye concentration or can control the output dot diameter in a variable manner to express several gradations per single color. The gradation property of a photographic image cannot be expressed unless is used.

【0007】すなわち、図14の電子透かし技術を用い
た多重化方法をプリンタに出力するという前述の想定で
は、図15に示すように、疑似階調処理1501により
多重化情報CはDという量子化情報に変化し、その後、プ
リンタ出力1502にて紙上に印字されることにより、
非常に劣化したEという紙上情報(印字物)に変化す
る。従って、前述した偽造防止の目的の為に紙上の情報
から付加情報を復号するということは、図15の一連の
処理後の紙上情報Eから付加情報Bを復号することになる
わけである。この1501、1502の両処理による情
報の変化量は非常に大きく、視覚的に判別できないよう
に付加情報を多重化し、かつ、多重化した付加情報を紙
上から正しく復号することは非常に困難なことになる。
That is, under the above-mentioned assumption that the multiplexing method using the digital watermark technique of FIG. 14 is output to the printer, the multiplexed information C is quantized as D by the pseudo gradation processing 1501, as shown in FIG. Information, and then printed on paper at printer output 1502,
The information on the paper (printed matter), which is very deteriorated, changes. Therefore, decoding the additional information from the information on the paper for the purpose of preventing the forgery described above means that the additional information B is decoded from the on-paper information E after the series of processing in FIG. The amount of change in information due to both the processes 1501 and 1502 is very large, and it is very difficult to multiplex additional information so that it cannot be visually discriminated and to correctly decode the multiplexed additional information from the paper. become.

【0008】また、図16は、実空間領域ではなく、画
像情報をフーリエ変換等を用い、周波数領域に変換して
から高周波域等に合成する従来の電子透かし技術の例を
示している。図16において、画像情報を直交変換処理
1601により周波数領域に変換し、加算器1602に
より、視覚的に判別しづらい特定の周波数に付加情報が
加算される。1603逆直交変換処理により再び実空間
領域に戻された後に、図15の例と同様に、疑似階調処
理、プリンタ出力という大きな変化を伴うフィルタを通
ることに相当する。
Further, FIG. 16 shows an example of a conventional digital watermarking technique in which image information is converted into a frequency domain using Fourier transform or the like and then combined into a high frequency domain or the like, instead of the real space domain. In FIG. 16, the image information is transformed into the frequency domain by the orthogonal transformation processing 1601, and the adder 1602 adds the additional information to a specific frequency that is difficult to be visually discriminated. After being returned to the real space area again by the 1603 inverse orthogonal transform processing, it corresponds to passing through a filter that undergoes large changes such as pseudo gradation processing and printer output, as in the example of FIG.

【0009】図17では、紙上からの付加情報の分離の
手順を示している。すなわち、印字物をスキャナ等の画
像読み取り装置1701を介して、印字物の情報を入力
する。入力された情報は、疑似階調処理により階調表現
されている画像である為に、逆疑似階調処理である復元
処理1702を施す。復元処理は、LPF(ローパスフ
ィルタ)を用いるのが一般的である。復元後の情報を1
703により直交変換処理させた後に、1704の分離
処理において、特定の周波数の電力から埋め込んだ付加
情報の分離を行う。
FIG. 17 shows a procedure for separating the additional information from the paper. That is, the information of the printed matter is input through the image reading device 1701 such as a scanner. Since the input information is an image in which gradation is expressed by pseudo gradation processing, restoration processing 1702 which is inverse pseudo gradation processing is performed. The restoration process generally uses an LPF (low-pass filter). Information after restoration 1
After the orthogonal transform processing by 703, in the separation processing of 1704, the embedded additional information is separated from the power of the specific frequency.

【0010】以上の図16、図17から明らかなよう
に、付加情報を多重化してから分離するまでに、複雑な
多数の処理工程を通過することがわかる。カラー画像の
場合には、この一連の処理工程の中にプリンタ特有の色
に変換する色変換処理も含まれることになる。このよう
な複雑な処理工程でも良好な分離を実現するためには、
非常に耐性の強い信号を入れなくてはならない。良好な
画質を維持しつつ、耐性の強い信号を入れるのは困難で
ある。また、処理工程が多数、複雑ということは、多重
化、及び分離に要する処理時間が非常に長くなってしま
う。
As is apparent from FIGS. 16 and 17, it is understood that a large number of complicated processing steps are passed from the multiplexing of the additional information to the separation thereof. In the case of a color image, a color conversion process for converting into a color peculiar to the printer is included in this series of processing steps. In order to achieve good separation even in such complicated processing steps,
You have to put in a very strong signal. It is difficult to insert a signal with high tolerance while maintaining good image quality. In addition, the large number of processing steps and the complexity make the processing time required for multiplexing and separation very long.

【0011】また、前述した特開平7-123244では、高周
波域に情報を付加させているが、後段の疑似階調処理
で、誤差拡散法を実施した場合には、誤差拡散法特有の
ハイパスフィルタの特性により、付加情報の帯域が誤差
拡散で発生するテクスチャの帯域に埋没してしまい、復
号に失敗する恐れが多分にある。また、復号には非常に
精度の高いスキャナ装置が必要になる。
Further, in the above-mentioned Japanese Patent Laid-Open No. 7-123244, the information is added to the high frequency region. However, when the error diffusion method is implemented in the pseudo gradation process in the subsequent stage, a high-pass filter peculiar to the error diffusion method is used. Due to the characteristic (1), the band of the additional information is buried in the band of the texture generated by the error diffusion, and there is a possibility that the decoding may fail. Further, a highly accurate scanner device is required for decoding.

【0012】すなわち、疑似階調処理が前提である場合
には、図15、図16の方式は適さないことがわかる。
言い換えると、疑似階調処理の特性を大きく活かした付
加情報の多重化方式が必要になる。
That is, it is understood that the method of FIGS. 15 and 16 is not suitable when the pseudo gradation processing is premised.
In other words, a method of multiplexing additional information that makes the most of the characteristics of pseudo gradation processing is required.

【0013】付加情報の多重化と疑似階調処理の冗長性
とを結び付けた例として、特登録2640939、特登録27778
00がある。
As an example in which the multiplexing of the additional information and the redundancy of the pseudo gradation processing are linked, as a special registration 2640939 and a special registration 27778.
There is 00.

【0014】前者は、組織的ディザ法にて2値化する際
に、同一階調を表すディザマトリクスの中からいづれか
一つを選定することによって、画像信号中にデータを混
入するものである。
In the former method, when binarizing by the systematic dither method, data is mixed in the image signal by selecting one of the dither matrices representing the same gradation.

【0015】しかし、組織的ディザ法では、高解像の、
しかも機械的精度の非常に優れたプリンタで無い限り、
写真調の高画質の出力は困難である。多少の機械的精度
のずれが、横筋等の低周波のノイズとして発生し、紙上
では容易に視覚されてくるからである。また、ディザマ
トリクスを周期的に変化させると、規則的に配列されて
いたディザにより発生する特定周波数の帯域が乱され、
画質的に悪影響を及ぼす。また、ディザマトリクスの種
類により階調表現能力が大きく異なる。特に紙上におい
ては、ドットの重なり等における面積率の変化がディザ
マトリクスによって異なる為、たとえ信号上では均一濃
度である領域でもディザマトリクスの切り替えで濃度の
変化を引き起こすことも考えられる。
However, in the systematic dither method, high resolution
Moreover, unless it is a printer with excellent mechanical accuracy,
It is difficult to output photographic-quality high quality images. This is because a slight deviation in mechanical precision occurs as low-frequency noise such as horizontal stripes and is easily visible on paper. Further, when the dither matrix is changed periodically, the band of the specific frequency generated by the regularly arranged dither is disturbed,
The image quality is adversely affected. Further, the gradation expression capability greatly differs depending on the type of dither matrix. Particularly on paper, since the change in area ratio due to dot overlap and the like differs depending on the dither matrix, it is possible to cause a change in density even by switching the dither matrix even in a region where the density is uniform on the signal.

【0016】また、復号(分離)側にとって、原信号で
ある画像情報の画素値が不明な状態で、いかなるディザ
マトリクスで2値化されたかを推測する復号方法では、
誤った復号をしてしまう可能性が非常に大きい。
Further, in the decoding method for estimating what kind of dither matrix is binarized in the state where the pixel value of the image information which is the original signal is unknown to the decoding (separation) side,
There is a great possibility that the wrong decoding will be done.

【0017】また、後者は、カラーのディザパターン法
を用いて、その配列により付加情報を多重化する方法で
ある。この方法でも前者と同様、切り換えにより画質劣
化は避けられない。また、前者と比べて、より多くの付
加情報を多重化できる代わりに、色成分の配列を変化さ
せることによる色見の変化をもたらし、特に平坦部にお
いて画質劣化が大きくなる。また、紙上での復号も更に
困難になることが予想される。
The latter is a method of multiplexing the additional information by the arrangement using the color dither pattern method. With this method, similarly to the former method, deterioration of image quality cannot be avoided by switching. Further, as compared with the former, a larger amount of additional information can be multiplexed, but a change in color appearance is brought about by changing the arrangement of color components, and the image quality is deteriorated particularly in a flat portion. Further, it is expected that decoding on paper will become more difficult.

【0018】いずれにしても、ディザマトリクスを変化
させる両者の方法では、画質劣化が大きい割に、復号が
困難という問題点を有している。
In any case, both of the methods of changing the dither matrix have a problem that the image quality is largely deteriorated but the decoding is difficult.

【0019】そこで、本発明の出願人は、先に、誤差拡
散法によって生じるテクスチャを利用し、通常の疑似階
調処理では発生し得ない量子化値の組み合わせを人工的
に作成することにより符号の埋め込みにする方法を提案
した。
Therefore, the applicant of the present invention first uses a texture generated by the error diffusion method and artificially creates a combination of quantized values that cannot be generated by a normal pseudo gradation process. The method of embedding is proposed.

【0020】この方法は、テクスチャの形状が微視的に
多少変化するだけなので、視覚的には画質が劣化するも
のではない。また、誤差拡散法の量子化閾値を変更する
方法を用いれば、視覚的に面積階調の濃度値も保たれる
為、極めて容易に異種信号の多重化が実現できる。
In this method, the shape of the texture is only slightly changed microscopically, and therefore the image quality is not visually deteriorated. Further, if the method of changing the quantization threshold of the error diffusion method is used, the density value of the area gradation can be visually maintained, so that the multiplexing of different signals can be realized very easily.

【0021】しかし、前述の提案によると、復号側で
は、テクスチャが人工的であるか否かを判別しなくては
ならない。紙上に出力した印字物では、ドットのよれ等
の所望の着弾点位置からのずれにより、テクスチャが良
好に再現できない場合がある。
However, according to the above-mentioned proposal, the decoding side must determine whether or not the texture is artificial. In the printed matter output on the paper, the texture may not be reproduced well due to the deviation from the desired landing point position such as the dot deviation.

【0022】また、カラー画像においては、最も視覚的
に感度の低い色成分に多重化する方法が主流であるが、
実空間領域でのテクスチャの判別は、他の色成分の影響
を受けやすく、多重化情報の分離が困難なものになって
しまう。
In the case of a color image, the method of multiplexing to the color component having the least visual sensitivity is the mainstream.
The determination of the texture in the real space area is easily affected by other color components, which makes it difficult to separate the multiplexed information.

【0023】また、本出願人は、前述した問題点を解決
する為に、誤差拡散法の量子化閾値自身を所定の周期性
で振幅変調し、この閾値変調の周期性を領域単位に複数
種類制御することによって、擬似階調処理の量子化値の
発生確率を制御し、この周期性に基づき符号を埋め込む
方法を提案した。この方法は、前述したテクスチャの位
置や形状を判別する方法に比べ、符号を形成している位
相情報よりも、複数の所定周波数帯域での相対的な電力
情報が重要な復号因子になる為、紙上においても良好な
復号が実現できる。
Further, in order to solve the above-mentioned problems, the present applicant amplitude-modulates the quantization threshold value itself of the error diffusion method with a predetermined periodicity, and a plurality of types of the periodicity of this threshold value modulation are used for each region. We proposed a method to control the probability of occurrence of quantized values in pseudo grayscale processing by controlling, and to embed a code based on this periodicity. In this method, as compared with the method of determining the position or shape of the texture described above, the relative power information in a plurality of predetermined frequency bands becomes an important decoding factor rather than the phase information forming the code. Good decoding can be realized even on paper.

【0024】[0024]

【発明が解決しようとする課題】しかし、前述した提案
には以下のような問題点がある。
However, the above-mentioned proposal has the following problems.

【0025】すなわち、印字物からの付加情報の分離と
なる復号手段を考えた場合に、経時変化による印字物の
劣化が大きな問題となる。電子的なファイルであれば、
デジタルデータの永年性により、そのような劣化因子は
全く考慮する必要がないが、印字物、特にインクジェッ
トプリンタによる紙への出力では、印字直後と、印字し
てから数日後、数ヶ月後、数年後では、インク、及び記
録した印字媒体の特質、堅牢性能により退色、変色が発
生し、その変化の度合いも異なってくる。
That is, when considering a decoding means for separating the additional information from the printed matter, the deterioration of the printed matter due to a change with time becomes a serious problem. If it is an electronic file,
Due to the longevity of digital data, it is not necessary to consider such deterioration factors at all, but when printing on printed matter, especially on paper with an inkjet printer, immediately after printing, days after printing, months after printing, After a year, fading or discoloration occurs due to the characteristics of the ink and the recorded printing medium and the robustness, and the degree of the change also changes.

【0026】今までは、復号方式が単独であり、印字し
た状況がわかり得なかった為、印字直後の印字物におい
ても数年後の退色後の印字物においても、同一の復号方
法を用いるしか方法がなかった。また、印字物の作成日
時のみならず、作成時の温湿度等の環境を知る手段がな
かった為、いかなる環境で印字された印字物でも同様に
同一の復号方法を用いるしかなかった。
Up to now, since the decoding method is independent and the printing situation cannot be understood, the same decoding method must be used for the printed matter immediately after printing and the printed matter after fading several years later. There was no way. Further, since there is no means for knowing not only the date and time when the printed matter was created but also the environment such as temperature and humidity at the time of creation, the same decoding method had to be used for printed matter printed in any environment.

【0027】すなわち、復号における検出精度、復号処
理時間の最適設計が実現できる復号システムが提案でき
なかった。
That is, a decoding system which can realize the optimum design of the detection accuracy in decoding and the decoding processing time has not been proposed.

【0028】本発明は、上記課題を解決するためになさ
れたものであり、画像から所定の情報を抽出する際の抽
出精度、抽出時間の最適化を実現することができる画像
処理装置及び画像処理方法を提供することを目的とす
る。
The present invention has been made in order to solve the above problems, and an image processing apparatus and an image processing which can realize optimization of extraction accuracy and extraction time when extracting predetermined information from an image. The purpose is to provide a method.

【0029】[0029]

【課題を解決するための手段】上記目的を達成するため
に、本発明の画像処理装置は、所定の情報が埋め込まれ
た画像を像形成した記録物を読み取って該記録物に応じ
た画像を入力する画像入力手段と、前記記録物に対する
像形成状況に関する関連情報を入力する関連情報入力手
段と、前記入力された画像から前記所定の情報を所定の
抽出方法に従って抽出する抽出手段と、前記入力された
関連情報に基づいて前記抽出手段による抽出方法を切り
替える切替手段とを有する。
In order to achieve the above object, an image processing apparatus of the present invention reads a recorded matter on which an image in which predetermined information is embedded is imaged and forms an image corresponding to the recorded matter. Image input means for inputting, related information inputting means for inputting related information relating to the image formation state on the recorded matter, extracting means for extracting the predetermined information from the input image according to a predetermined extracting method, and the inputting Switching means for switching the extraction method by the extraction means based on the related information thus obtained.

【0030】また、本発明の画像処理方法は、所定の情
報が埋め込まれた画像を像形成した記録物を読み取って
該記録物に応じた画像を入力する画像入力工程と、前記
記録物に対する像形成状況に関する関連情報を入力する
関連情報入力工程と、前記入力された画像から前記所定
の情報を所定の抽出方法に従って抽出する抽出工程と、
前記入力された関連情報に基づいて前記抽出工程による
抽出方法を切り替える切替工程とを有する。
Further, the image processing method of the present invention comprises an image input step of reading a recorded matter on which an image in which predetermined information is embedded is formed and inputting an image corresponding to the recorded matter, and an image for the recorded matter. A related information inputting step of inputting related information relating to the formation state; an extraction step of extracting the predetermined information from the input image according to a predetermined extraction method;
And a switching step of switching the extraction method in the extraction step based on the input related information.

【0031】[0031]

【発明の実施の形態】以下、本発明に係る一実施形態に
ついて、図面を参照して詳細に説明する。尚、本実施形
態における画像処理装置は、主として、プリンタエンジ
ンへ出力すべき画像情報を作成するコンピュータ内のプ
リンタドライバソフト、もしくは、アプリケーションソ
フトとして内蔵することが効率的であるが、複写機、フ
ァクシミリ、プリンタ本体等にハードウエア、及びソフ
トウエアとして内蔵することも効果がある。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings. It is efficient that the image processing apparatus according to the present embodiment is built in mainly as printer driver software in a computer that creates image information to be output to the printer engine, or as application software. It is also effective to incorporate it as hardware and software in the printer body or the like.

【0032】(第1の実施形態)図1は、第1の実施形
態の画像処理システムの構成を表すブロック図である。
(First Embodiment) FIG. 1 is a block diagram showing the arrangement of an image processing system according to the first embodiment.

【0033】100、101、102はともに入力端子
を示し、100からは多階調の画像情報を、101から
は、画像情報の中に埋め込むべき必要な付加情報が入力
される。この付加情報は、入力端子100にて入力され
る画像情報とは別の情報、例えば音声情報や、テキスト
文書情報、入力端子100にて入力される画像に関する
著作権、撮影日時、撮影場所、撮影者等の諸情報、ま
た、全く別の画像情報等、様々な応用が考えられる。
Reference numerals 100, 101, and 102 denote input terminals, in which multi-tone image information is input from 100, and necessary additional information to be embedded in the image information is input from 101. This additional information is information different from the image information input through the input terminal 100, such as voice information, text document information, copyright relating to the image input through the input terminal 100, shooting date, shooting location, and shooting. Various applications are conceivable such as various information of the person or the like or completely different image information.

【0034】102からは、プリンタから印字物が作成
される日時に関する情報が入力される。本実施形態で
は、前述した付加情報に加え、印字日時をヘッダ情報と
して画像情報に埋め込む。この印字日時は、使用者によ
るキーボード、もしくはマウス等による入力でも良い
し、接続しているコンピュータ、及び、その他のシステ
ム上で管理している時計中の日時でも良い。
From 102, information relating to the date and time when a printed matter is created is input from the printer. In the present embodiment, in addition to the above-mentioned additional information, the print date and time is embedded in the image information as header information. The printing date and time may be input by a user with a keyboard, a mouse, or the like, or may be a date and time in a clock managed on a connected computer or other system.

【0035】103は、埋め込み情報多重化装置を示
し、視覚的に判別しづらいように、画像情報中に日時情
報と付加情報(以下、この2種を合わせて埋め込み情報
と称す)を埋め込ませる装置である。この埋め込み情報
多重化装置103は、埋め込み情報の多重化とともに、
入力した多階調の画像情報の量子化をも司る。
Reference numeral 103 denotes an embedded information multiplexing device, which embeds date and time information and additional information (hereinafter, these two types are collectively referred to as embedded information) in the image information so that it is difficult to discriminate visually. Is. This embedded information multiplexing device 103 multiplexes embedded information and
It also controls the quantization of input multi-tone image information.

【0036】104はプリンタを示し、埋め込み情報多
重化装置103で作成された情報をプリンタエンジンに
て出力する。プリンタは、インクジェットプリンタ、レ
ーザープリンタ等、疑似階調処理を用いることにより階
調表現を実現するプリンタを想定する。
Reference numeral 104 denotes a printer, and the printer engine outputs the information created by the embedded information multiplexing apparatus 103. The printer is assumed to be a printer that realizes gradation expression by using pseudo gradation processing, such as an inkjet printer or a laser printer.

【0037】出力された印字物は、スキャナ105を用
いて印字物上の情報を読み取り、埋め込み情報分離装置
106によって、印字物中に埋め込まれた埋め込み情報
を分離(抽出)し、出力端子107に出力する。
The output printed matter is read by the scanner 105 to read the information on the printed matter, and the embedded information separating device 106 separates (extracts) the embedded information embedded in the printed matter and outputs it to the output terminal 107. Output.

【0038】図2は、図1の埋め込み情報多重化装置1
03の構成を示すブロック図である。
FIG. 2 shows an embedded information multiplexing device 1 of FIG.
It is a block diagram which shows the structure of 03.

【0039】200は誤差拡散処理部を示し、入力され
た画像情報を誤差拡散法を用いた疑似階調処理すること
によって、入力階調数よりも少ない量子化レベルに変換
し、複数画素の量子化値によって面積的に階調性を表現
する。誤差拡散処理についての詳細は後述する。
Reference numeral 200 denotes an error diffusion processing unit, which converts the input image information into a quantization level smaller than the number of input gradations by performing pseudo gradation processing using an error diffusion method, and converts the quantization of a plurality of pixels. The gradation value is expressed in the area by the conversion value. Details of the error diffusion processing will be described later.

【0040】201はブロック化部を示し、入力された
画像情報を所定領域単位に区分する。このブロック化は
矩形でも良いし、矩形以外の領域に区分しても良い。
Reference numeral 201 denotes a blocking unit, which divides the input image information into predetermined area units. This blocking may be rectangular or may be divided into areas other than rectangular.

【0041】202は量子化条件制御部を示し、ブロッ
ク化部201にてブロック化した領域単位で量子化条件
を変更、制御する。量子化条件制御部202は、入力端
子101で入力された埋め込み情報に基づき、ブロック
単位で量子化条件が制御される。
Reference numeral 202 denotes a quantization condition control unit, which changes and controls the quantization condition in units of regions blocked by the blocking unit 201. The quantization condition control unit 202 controls the quantization condition on a block-by-block basis based on the embedded information input at the input terminal 101.

【0042】210は、CPU211、ROM212、
RAM213などからなる制御部である。CPU211
は、ROM212に保持された制御プログラムに従っ
て、上述した各構成の動作、及び処理を制御する。RA
M213は、CPU211の作業領域として使用され
る。
210 is a CPU 211, a ROM 212,
The control unit includes a RAM 213 and the like. CPU211
Controls the operation and processing of the above-described components according to the control program stored in the ROM 212. RA
The M213 is used as a work area of the CPU 211.

【0043】図3は、誤差拡散処理部200の詳細を表
すブロック図である。一般的な誤差拡散処理は、文献R.
Floyd & L.Steinberg: “An Adaptive Alogorithm for
Spatial Grayscale”, SID Symposium Digest of Paper
pp.36〜37 (1975)に詳細が記載されている。いま、量
子化値が2値である誤差拡散処理を例にして説明する。
尚、量子化値は2値に限らず、多値、例えば3値、4値
でもよい。
FIG. 3 is a block diagram showing details of the error diffusion processing section 200. For general error diffusion processing, see R.
Floyd & L. Steinberg: “An Adaptive Alogorithm for
Spatial Grayscale ”, SID Symposium Digest of Paper
Details are described in pp.36-37 (1975). Now, an error diffusion process in which the quantized value is binary will be described as an example.
The quantized value is not limited to binary, but may be multi-valued, for example, ternary or quaternary.

【0044】300は加算器を示し、入力された画像情
報の注目画素値と既に2値化された周辺画素の分配され
た量子化誤差が加算される。量子化条件制御部202か
らの量子化閾値と誤差の加算された加算結果とを比較部
301にて比較し、所定の閾値よりも大きい場合には
“1”を、それ以外では“0”を出力する。例えば、8
ビットの精度で画素の階調を表現する場合には、最大値
である“255”と最小値である“0”で表現するのが
一般的である。いま、量子化値が“1”の時に、紙上に
ドット(インク、トナー等)が印字されると仮定する。
Reference numeral 300 denotes an adder, which adds the target pixel value of the input image information and the distributed quantization error of the already binarized peripheral pixels. The comparison unit 301 compares the quantization threshold value from the quantization condition control unit 202 and the addition result in which the error is added, and if it is larger than a predetermined threshold value, "1" is set, and otherwise, "0" is set. Output. For example, 8
When expressing the gradation of a pixel with bit precision, it is general to express it with the maximum value "255" and the minimum value "0". Now, it is assumed that dots (ink, toner, etc.) are printed on the paper when the quantized value is "1".

【0045】302は減算器を示し、量子化結果と前述
した加算結果との誤差を算出し、誤差配分演算部303
に基づいて、今後の量子化処理が施される周辺画素に誤
差を配分する。誤差の配分割合は注目画素との相対的な
距離に基づいて実験的に設定された誤差の配分テーブル
304を予め所有しておき、配分テーブルに記された配
分割合に基づいて誤差を分配する。
Reference numeral 302 denotes a subtracter, which calculates an error between the quantization result and the above addition result, and the error distribution calculation unit 303.
Based on, the error is distributed to the peripheral pixels to be subjected to the quantization process in the future. As the error distribution ratio, an error distribution table 304 that is experimentally set based on the relative distance to the target pixel is owned in advance, and the error is distributed based on the distribution ratio written in the distribution table.

【0046】図3の配分テーブル304は、周囲4画素
分の配分テーブルを示しているが、これに限るものでは
ない。
The distribution table 304 in FIG. 3 shows a distribution table for four surrounding pixels, but it is not limited to this.

【0047】次に量子化条件制御部202を含む全体の
動作手順について、図4のフローチャートを基に説明す
る。いま、量子化値は2値である例について述べる。
尚、量子化値は2値に限らず、多値、例えば3値、4値
でもよい。
Next, the entire operation procedure including the quantization condition control unit 202 will be described with reference to the flowchart of FIG. Now, an example in which the quantized value is binary will be described.
The quantized value is not limited to binary, but may be multi-valued, for example, ternary or quaternary.

【0048】S401は、変数iの初期化を示す。変数i
は垂直方向のアドレスをカウントする変数である。
S401 shows the initialization of the variable i. Variable i
Is a variable that counts vertical addresses.

【0049】S402は、変数jの初期化を示す。変数
jは水平方向のアドレスをカウントする変数である。
S402 shows the initialization of the variable j. The variable j is a variable for counting addresses in the horizontal direction.

【0050】続いてS403は、i、jのアドレス値に
よる判定工程であり、現在の処理アドレスであるi、j
の座標が多重化処理を実行すべき領域に属しているか否
かを判定している。
Subsequently, step S403 is a determination process based on the address values of i and j, i, j which is the current processing address.
It is determined whether or not the coordinates of belong to the area where the multiplexing process should be executed.

【0051】図5を基に多重化領域について説明する。
図5は、水平画素数がWIDTH、垂直画素数がHEIGHTから
成る、ひとつの画像イメージを示している。
The multiplexing area will be described with reference to FIG.
FIG. 5 shows one image image in which the number of horizontal pixels is WIDTH and the number of vertical pixels is HEIGHT.

【0052】いま、この画像イメージ中に埋め込み情報
を多重化すると仮定する。画像イメージの左上を原点と
し、横N画素、縦M画素でブロック化をする。本実施形
態では、原点を基準点としてブロック化を行なうが、原
点から離れた点を基準点として設定しても良い。この画
像イメージ中に最大限の情報を多重化する場合に、N×
Mのブロックを基準点から配置していく。すなわち、水
平方向に配置可能なブロック数をW、垂直方向に配置可
能なブロック数をHとすると、以下の関係になる。 W = INT(WIDTH / N) ・・・式1 H = INT(HEIGHT / M) ・・・式2 但し、INT( )は( )内の整数部分を示す。
Now, assume that embedded information is multiplexed in this image. The upper left of the image is used as the origin, and blocks are formed with N horizontal pixels and M vertical pixels. In this embodiment, the block is formed with the origin as the reference point, but a point distant from the origin may be set as the reference point. If the maximum amount of information is to be multiplexed in this image, N ×
The blocks of M are arranged from the reference point. That is, assuming that the number of blocks that can be arranged in the horizontal direction is W and the number of blocks that can be arranged in the vertical direction is H, the following relationship is established. W = INT (WIDTH / N) ... Equation 1 H = INT (HEIGHT / M) ... Equation 2 However, INT () shows the integer part in ().

【0053】式1、式2において割り切れない剰余画素
数が、N×Mのブロックを複数配置した時の端部に相当
し、符号多重化領域外となる。
The number of surplus pixels that cannot be divided in the equations (1) and (2) corresponds to the end when a plurality of N × M blocks are arranged, and is outside the code multiplexing area.

【0054】図4中、S403にて、現在処理している
注目画素が多重化領域外と判定された場合には、S40
4にて量子化条件Cが設定される。
In FIG. 4, if it is determined in S403 that the pixel of interest currently being processed is outside the multiplexing area, S40 is executed.
At 4, the quantization condition C is set.

【0055】一方、多重化領域内と判定された場合に
は、多重化すべき埋め込み情報を読み込む。いま、説明
を容易にする為に、埋め込み情報をcode[ ]という配列
を用いて、各1ビットづつ表現するものとする。例えば
印字日時関連情報を32ビット分、付加情報を200ビ
ット分の情報と仮定すると、埋め込み情報は2種が加算
された232ビット分となり、配列code[ ]はcode[0]か
らcode[231]まで、各1ビットづつが格納されているこ
とになる。
On the other hand, when it is determined that the information is within the multiplexing area, the embedded information to be multiplexed is read. For ease of explanation, it is assumed that the embedded information is represented by each 1 bit using an array called code []. For example, assuming that the print date / time related information is 32 bits and the additional information is 200 bits, the embedded information is 232 bits obtained by adding two types, and the array code [] is code [0] to code [231]. Up to this, each one bit is stored.

【0056】S405において、変数bitは、以下のよ
うに配列code[ ]内の情報を代入する。 bit = code[INT(i / M)×W + INT(j / N)]・・・式3 続いて、S406にて代入した変数bitが“1”か否か
を判定する。前述したように、配列code[ ]内の情報は
各1ビットずつ格納されている為、変数bitの値も
“0”か“1”かの何れかを示すことになる。
In S405, the information in the array code [] is substituted for the variable bit as follows. bit = code [INT (i / M) × W + INT (j / N)] Equation 3 Next, it is determined whether the variable bit substituted in S406 is “1”. As described above, since the information in the array code [] is stored for each one bit, the value of the variable bit also indicates either "0" or "1".

【0057】S406にて、“0”と判定された場合に
は、S407にて量子化条件Aを、“1”と判定された
場合には、S408にて量子化条件Bを設定する。
If it is determined to be "0" in S406, the quantization condition A is set in S407, and if it is determined to be "1", the quantization condition B is set in S408.

【0058】続いてS409では、設定された量子化条
件に基づいて量子化処理を行う。この量子化処理は、図
3にて説明している誤差拡散法に相当する。
Subsequently, in S409, a quantization process is performed based on the set quantization condition. This quantization processing corresponds to the error diffusion method described in FIG.

【0059】続いて、S410では水平方向変数jをカ
ウントアップし、S411にて画像の水平画素数である
WIDTH未満か否かを判定し、 処理画素数がWIDTHになる
まで前述の処理を繰り返す。また、水平方向の処理がWI
DTH画素数分終了すると、S412にて垂直方向変数i
をカウントアップし、S413にて画像の垂直画素数で
あるHEIGHT未満か否かを判定し、 処理画素数がHEIGHT
になるまで前述の処理を繰り返す。以上の動作手順によ
り、N×M画素よりなるブロック単位で、量子化条件を
変更することが可能になる。
Subsequently, in S410, the horizontal direction variable j is counted up, and in S411, it is the number of horizontal pixels of the image.
It is determined whether or not it is less than WIDTH, and the above processing is repeated until the number of processed pixels reaches WIDTH. In addition, the horizontal processing is WI
When the number of DTH pixels is completed, the vertical direction variable i is determined in S412.
Is counted up, and in S413, it is determined whether the number of pixels is less than HEIGHT which is the vertical pixel number of the image.
The above-mentioned processing is repeated until. With the above operation procedure, it becomes possible to change the quantization condition for each block composed of N × M pixels.

【0060】続いて、量子化条件A、B、Cの例につい
て説明する。
Next, examples of the quantization conditions A, B and C will be described.

【0061】誤差拡散法における量子化条件は様々な因
子があるが、本実施形態では量子化条件は、量子化閾値
とする。量子化条件Cの使用は、多重化領域外である為
に、量子化閾値は何でも良い。前述したように、1画素
が8ビットによる階調表現で、量子化レベルが2値の場
合には、最大値である“255”、及び、最小値である
“0”が量子化代表値となるが、その中間値となる“1
28”を量子化閾値として設定することが多い。すなわ
ち、量子化条件Cでは、量子化閾値を“128”固定と
する条件にする。
Although there are various factors for the quantization condition in the error diffusion method, the quantization condition is the quantization threshold in this embodiment. Since the use of the quantization condition C is outside the multiplexing area, any quantization threshold may be used. As described above, when one pixel is represented by a gradation of 8 bits and the quantization level is binary, the maximum value “255” and the minimum value “0” are the quantization representative value. However, it becomes an intermediate value of "1".
In many cases, 28 "is set as the quantization threshold. That is, in the quantization condition C, the quantization threshold is fixed to" 128 ".

【0062】量子化条件A、量子化条件Bの使用は多重
化領域内のブロックである為、量子化条件の違いによる
画質の違いを生じさせなければならない。但し、画質の
違いは視覚的には判別しにくいように表現し、かつ、紙
上から容易に識別できなくてはならない。
Since the use of the quantizing condition A and the quantizing condition B is a block in the multiplexing area, it is necessary to cause a difference in image quality due to a difference in the quantizing condition. However, the difference in image quality must be expressed so that it is difficult to distinguish visually and can be easily identified from the paper.

【0063】図6は、量子化条件A、Bを表した例であ
る。図6(a)は、量子化条件Aにおける量子化閾値の
変化の周期を示した図である。図中、ひとつのマスを1
画素分と想定し、白いマスは固定閾値、灰色のマスを変
動閾値とする。
FIG. 6 is an example showing the quantization conditions A and B. FIG. 6A is a diagram showing a cycle of change of the quantization threshold value under the quantization condition A. 1 square in the figure
Assuming pixels, the white cells have a fixed threshold and the gray cells have a variable threshold.

【0064】すなわち、図6(a)の例では、横8画
素、縦4画素のマトリクスを組み、灰色のマスの閾値の
み突出した値を閾値として設定する。
That is, in the example of FIG. 6A, a matrix of 8 horizontal pixels and 4 vertical pixels is assembled, and the threshold value of only the gray threshold value is set as the threshold value.

【0065】図6(b)は、同様に、量子化条件Bにお
ける量子化閾値の変化の周期を示した図である。図6
(b)の例では、図6(a)とは異なり、横4画素、縦
8画素のマトリクスを組み、灰色のマスの閾値のみ突出
した値を閾値として設定する。
Similarly, FIG. 6B is a diagram showing the cycle of change of the quantization threshold value under the quantization condition B. Figure 6
In the example of (b), unlike the case of FIG. 6A, a matrix of 4 pixels in the horizontal direction and 8 pixels in the vertical direction is combined, and only the threshold value of the gray square is set as the threshold value.

【0066】いま、前述したように1画素が8ビットの
階調値の場合に、一例として、固定閾値として“12
8”、突出した閾値を“48”と設定する。量子化閾値
が低くなると、注目画素の量子化値が“1”(量子化代
表値“255”)になりやすくなる。すなわち、図6
(a)、(b)ともに、図中の灰色のマスの並びで量子
化値“1”が発生しやすくなる。言い換えると、N×M
画素のブロック毎に、図6(a)の灰色のマスの並びで
ドットが発生するブロックと、図6(b)の灰色のマス
の並びでドットが発生するブロックとが混在することに
なる。当然、N×M画素の同一ブロック内では、図6
(a)、もしくは図6(b)のマトリクスを繰り返すこ
とになる。
Now, as described above, when one pixel has a gradation value of 8 bits, as an example, the fixed threshold value is "12".
8 "and the protruding threshold value is set to" 48. "When the quantization threshold value becomes low, the quantized value of the pixel of interest easily becomes" 1 "(quantized representative value" 255 "), that is, FIG.
In both (a) and (b), the quantized value “1” is likely to occur in the arrangement of gray cells in the figure. In other words, N × M
For each block of pixels, a block in which dots are generated in the arrangement of gray cells in FIG. 6A and a block in which dots are generated in the arrangement of gray cells in FIG. 6B are mixed. Naturally, in the same block of N × M pixels, as shown in FIG.
The matrix of (a) or FIG. 6 (b) is repeated.

【0067】誤差拡散法における量子化閾値の多少の変
更は、画質的には大きな影響を及ぼさない。組織的ディ
ザ法においては、使用するディザパターンによって、階
調表現の画質が大きく左右する。しかし、前述したよう
な、規則的に量子化閾値の変化を与えた誤差拡散法で
は、あくまでも画質を決定する階調表現は誤差拡散法で
あるため、ドットの並びが多少変化したり、テクスチャ
の発生が変化したり等、階調表現の画質にはほとんど影
響を与えないことになる。
A slight change in the quantization threshold value in the error diffusion method does not significantly affect the image quality. In the systematic dither method, the image quality of gradation expression greatly depends on the dither pattern used. However, in the error diffusion method in which the quantization threshold value is regularly changed as described above, since the gradation expression that determines the image quality is the error diffusion method, the dot arrangement may be slightly changed or the texture may be changed. For example, the occurrence will change, and the image quality of gradation expression will not be affected.

【0068】それは、量子化閾値が変化した場合でも、
あくまでも信号値と量子化値との差分となる誤差は周囲
画素に拡散される為、入力された信号値はマクロ的に保
存される。すなわち、誤差拡散法におけるドットの並
び、テクスチャの発生に関しては冗長性が非常に大きい
ことになる。
Even if the quantization threshold changes,
Since the error, which is the difference between the signal value and the quantized value, is diffused to the surrounding pixels, the input signal value is stored macroscopically. That is, the redundancy of dot arrangement and texture generation in the error diffusion method is very large.

【0069】また、前述した例は、単純に変数bitの値
が“0”の時には量子化条件A、“1”の時には量子化
条件Bとして切り替えていたが、これに限るものではな
い。量子化条件の組み合わせによって変数bitを表現す
ることも可能である。例えば、図7に示した様に、N×M
画素のブロックを更に4つの小ブロックに分割し、変数
bitの値が“0”の時には図7(a)の配置を、“1”の
時には、図7(a)の配置を使用して量子化することで
違いを出すことも可能である。
Further, in the above-mentioned example, the quantizing condition A is simply switched when the value of the variable bit is "0", and the quantizing condition B is switched when the value of the variable bit is "1", but the present invention is not limited to this. The variable bit can also be expressed by a combination of quantization conditions. For example, as shown in FIG. 7, N × M
Divide the pixel block into four smaller blocks
It is possible to make a difference by quantizing the arrangement of FIG. 7A when the bit value is “0” and using the arrangement of FIG. 7A when the bit value is “1”.

【0070】次に、埋め込み情報分離装置106につい
て説明する。
Next, the embedded information separating device 106 will be described.

【0071】図8は、埋め込み情報分離装置106の構
成を示すブロック図である。
FIG. 8 is a block diagram showing the structure of the embedded information separation device 106.

【0072】800は、入力端子を示し、スキャナで読
み込まれた画像情報が入力される。使用するスキャナの
解像度は、印字物を作成するプリンタ解像度と同等以上
が好ましい。当然、正確に印字物のドットの点在情報を
読み込む為には、サンプリング定理により、スキャナ側
はプリンタ側よりも2倍以上の解像度が必要になる。し
かし、同等以上であれば、正確でなくとも、ある程度ド
ットが点在しているのを判別することは可能である。
Reference numeral 800 denotes an input terminal to which the image information read by the scanner is input. The resolution of the scanner used is preferably equal to or higher than the resolution of the printer that creates the printed matter. As a matter of course, in order to accurately read the dot information of dots on the printed matter, the resolution on the scanner side is more than double that on the printer side, due to the sampling theorem. However, if they are equal to or more than equal, it is possible to determine that dots are scattered to some extent even if they are not accurate.

【0073】本実施形態では、説明を容易にするために
プリンタ解像度とスキャナ解像度が同一解像度と想定す
る。
In the present embodiment, it is assumed that the printer resolution and the scanner resolution are the same in order to facilitate the explanation.

【0074】801は、印字物作成関連情報復号部を示
し、埋め込まれた付加情報のうち、まずは、ヘッダ情報
である印字日時情報を復号する。この印字物作成関連情
報復号部801は、後述する付加情報復号部Bを使用す
るのが好ましいが、ここでは限定しない。まずはヘッダ
情報から復号するわけである。
Reference numeral 801 denotes a printed matter creation related information decoding unit, which first decodes the printing date and time information, which is the header information, of the embedded additional information. It is preferable that the printed matter creation related information decoding unit 801 uses an additional information decoding unit B described later, but the present invention is not limited to this. First, decoding is performed from the header information.

【0075】802は選択部を示し、復号された印字日
時情報から、以下の変数Dの計算をする。 D =(復号日時)−(印字日時) ・・・式4 すなわち、変数Dは、印字物を作成してから、どの程度
の時間が経ているかを計算するものである。この場合の
復号日時は、印字日時と同様に、使用者によるキーボー
ド、もしくはマウス等による入力でも良いし、接続して
いるコンピュータ、及び、その他のシステム上で管理し
ている時計中の日時でも良い。
Reference numeral 802 denotes a selection unit, which calculates the following variable D from the decoded print date / time information. D = (decoding date / time) − (printing date / time) Equation 4 That is, the variable D is for calculating how much time has passed since the printed matter was created. In this case, the decryption date and time may be input by the user with the keyboard or the mouse, or may be the date and time in the clock managed on the connected computer and other systems, like the print date and time. .

【0076】803、804は、それぞれ、付加情報復
号部A、付加情報復号部Bを示し、選択部802で算出し
たDの値に基づいて、一方が選択される。
Reference numerals 803 and 804 denote the additional information decoding unit A and the additional information decoding unit B, respectively, one of which is selected based on the value of D calculated by the selection unit 802.

【0077】805は、スイッチを示し、以下の選択が
なされる。 1) D < TH の場合 ・・・ 付加情報復号部Aを選択 2) それ以外の場合 ・・・ 付加情報復号部Bを選択 ここで、THは予め実験的、経験的に求めた閾値である。
すなわち、余り印字してから月日が経っていないと判断
した場合には、付加情報復号部Aを、それ以外では、復
号部Bを選択する。
Reference numeral 805 denotes a switch, and the following selections are made. 1) In the case of D <TH: ... Select the additional information decoding unit A 2) In other cases: Select the additional information decoding unit B Here, TH is a threshold value that is experimentally and empirically obtained in advance. .
That is, when it is determined that the date has not been printed too much, the additional information decoding unit A is selected, and the decoding unit B is selected in other cases.

【0078】図9は、復号部Aの構成を示すブロック図
である。
FIG. 9 is a block diagram showing the structure of the decoding unit A.

【0079】901は、ブロック化部を示し、P×Q画
素単位にブロック化をする。このブロックは、多重化時
にブロック化したN×M画素よりも小さくなければなら
ない。すなわち、 P≦N、かつ Q≦M ・・・式5 の関係が成り立つ。
Reference numeral 901 denotes a blocking unit, which blocks in units of P × Q pixels. This block must be smaller than the N × M pixels that were blocked when multiplexing. That is, the relation of P ≦ N and Q ≦ M ...

【0080】また、 P×Q画素単位のブロック化は、
ある一定間隔毎スキップしてブロック化を行う。すなわ
ち、多重化時のN×M画素よりなるブロックと想定され
る領域内に、P×Q画素単位のブロックがひとつ内包す
るようにブロック化する。スキップ画素数は、水平N画
素分、垂直M画素分が基本となる。
Further, the block formation in P × Q pixel units is as follows.
Blocking is performed by skipping at regular intervals. That is, it is divided into blocks so that one block of P × Q pixel units is included in a region assumed to be a block of N × M pixels at the time of multiplexing. The number of skip pixels is basically N horizontal pixels and M vertical pixels.

【0081】902、903は、それぞれ特性の異なる
空間フィルタA、Bを示し、904は、周辺画素との積
和を演算するディジタルフィルタリング部を示してい
る。この空間フィルタの各係数は、多重化時の量子化条
件の変動閾値の周期に適応して作成する。
Reference numerals 902 and 903 denote spatial filters A and B having different characteristics, and reference numeral 904 denotes a digital filtering unit for calculating the sum of products with peripheral pixels. Each coefficient of this spatial filter is created by adapting to the cycle of the variation threshold of the quantization condition at the time of multiplexing.

【0082】いま、埋め込み情報多重化装置106にお
ける量子化条件の変更を図6(a)、図6(b)の2種
の周期性を用いることにより付加情報を多重化したと仮
定する。
Now, it is assumed that the additional information is multiplexed by changing the quantization condition in the embedded information multiplexer 106 by using the two types of periodicity shown in FIGS. 6 (a) and 6 (b).

【0083】その時の埋め込み情報分離装置106に使
用する空間フィルタA902、空間フィルタB903の
例を、図10(a)、図10(b)に示す。図中、5×
5画素の中央部が注目画素になり、それ以外の24画素
分が周辺画素になる。図中、空白部の画素は、フィルタ
係数が“0”であることを表している。図から明らかな
様に、図10(a)、(b)はエッジ強調のフィルタに
なっている。しかも、その強調するエッジの方向性と多
重化した時の変動閾値の方向性とが一致している。つま
り、図10(a)は図6(a)に、また、図10(b)
は図6(b)に一致するように作成する。
Examples of the spatial filter A 902 and the spatial filter B 903 used in the embedded information separating apparatus 106 at that time are shown in FIGS. 10 (a) and 10 (b). 5x in the figure
The central portion of the five pixels becomes the target pixel, and the other 24 pixels become the peripheral pixels. In the figure, the blank pixels represent that the filter coefficient is "0". As is clear from the figure, FIGS. 10A and 10B are edge emphasis filters. Moreover, the directionality of the edge to be emphasized and the directionality of the variation threshold value when multiplexed are the same. That is, FIG. 10 (a) corresponds to FIG. 6 (a), and FIG.
Are created so as to correspond to FIG.

【0084】905は、特徴量検出部を示し、空間フィ
ルタA902、及び、空間フィルタB903によるフィ
ルタリング部904からのフィルタ後の変換値を基に、
なんらかの特徴量を検出する。検出する特徴量の例とし
て、以下のものが考えられる。 1.デジタルフィルタ後のブロック内の変換値の最大値 2.デジタルフィルタ後のブロック内の変換値の最大値
と最小値の差分 3.デジタルフィルタ後のブロック内の変換値の分散値 本実施形態では、上記3に示した分散値を特徴量とす
る。
Reference numeral 905 denotes a feature quantity detection unit, which is based on the converted value after filtering from the filtering unit 904 by the spatial filter A 902 and the spatial filter B 903.
Detect some feature amount. The following can be considered as examples of the detected feature amount. 1. Maximum value of conversion value in block after digital filter 2. 2. Difference between the maximum value and the minimum value of the converted values in the block after digital filtering Variance value of conversion value in block after digital filter In the present embodiment, the variance value shown in the above 3 is used as a feature amount.

【0085】906は、判定部を示し、それぞれの分散
値の大小比較をして、分散値が大きい方を符号と判断す
る。すなわち、空間フィルタAによるフィルタリングの
分散値が大きければ、印字時に量子化条件Aで量子化さ
れたものと推測し、反対に空間フィルタBによるフィル
タリングの分散値が大きければ、印字時に量子化条件B
で量子化されたものと推測する。
Reference numeral 906 denotes a judging unit, which compares the respective dispersion values and judges that the one having the larger dispersion value is the code. That is, if the variance value of the filtering by the spatial filter A is large, it is assumed that it was quantized by the quantization condition A at the time of printing, and conversely, if the variance value of the filtering by the spatial filter B is large, the quantization condition B at the time of printing is determined.
It is supposed to be quantized by.

【0086】量子化条件は、付加情報の符号(式3のbi
t)に連動している為、量子化条件が識別できるという
ことは、多重化された符号が特定できることに相当す
る。すなわち、量子化条件Aと推測された場合には、bi
t=0、量子化条件Bと推測された場合には、bit=1と
判断できる。
The quantization condition is the sign of the additional information (bi in equation 3).
Since it is linked to t), the fact that the quantization condition can be identified corresponds to the fact that the multiplexed code can be specified. That is, when the quantization condition A is estimated,
When it is estimated that t = 0 and the quantization condition B, it can be determined that bit = 1.

【0087】図11は、付加情報復号部Bを示すブロッ
ク図である。
FIG. 11 is a block diagram showing the additional information decoding unit B.

【0088】図1101は、ブロック化部を示し、図9
の902と同じでP×Q画素単位にブロック化する。
FIG. 1101 shows the blocking unit, and FIG.
The same as 902 of No. 902 of FIG.

【0089】1102は、直交変換部を示し、ブロック
化したP×Q画素を直交変換する。ただ、2次元の直交
変換を行う時には、Q=Pの正方ブロックでブロック化
する必要がある。本実施形態では、DCT(離散コサイ
ン変換)を例にする。
Reference numeral 1102 denotes an orthogonal transform unit, which orthogonally transforms the P × Q pixels in blocks. However, when performing a two-dimensional orthogonal transformation, it is necessary to form a block with a square block of Q = P. In this embodiment, DCT (discrete cosine transform) is taken as an example.

【0090】P×P画素よりなるブロックの二次元DC
Tの変換係数は、 但し、C(x)=1/√2 (x=0), C(x)=1 (x≠0) ・・・式6 で与えられる。
Two-dimensional DC of a block consisting of P × P pixels
The conversion coefficient of T is, however, given by C (x) = 1 / √2 (x = 0), C (x) = 1 (x ≠ 0) ...

【0091】1103は、クラス分類部を示し、直交変
換係数の帯域毎にクラス分類する。
Reference numeral 1103 denotes a class classification unit, which classifies each band of orthogonal transform coefficients.

【0092】図12は、P=Q=16の時のクラス分類
の一例を示している。図12は、1ブロック内の直交変
換係数F(u,v)を表していて、左上がDC成分、残りの2
55成分がAC成分となる。
FIG. 12 shows an example of class classification when P = Q = 16. FIG. 12 shows the orthogonal transform coefficient F (u, v) in one block, where the upper left is the DC component and the remaining 2
55 components become AC components.

【0093】いま、F(4,8)を中心とするクラスAと、F
(8,4)を中心とするクラスBの2クラスを作成する。2
クラスを図中、太線で示す。このクラス分類部1103
は、全256成分をクラス分類する必要はなく、所望の
成分を中心とした複数のクラスに分類するだけで良い。
この必要なクラス数は、多重化時に量子化制御した条件
数に対応する。すなわち、量子化制御した条件数よりも
クラス数は多くなることはない。
Now, class A centering on F (4,8) and F
Create two classes of class B centered on (8,4). Two
Classes are indicated by bold lines in the figure. This class classification unit 1103
Does not need to classify all 256 components, but only needs to classify them into a plurality of classes centered on a desired component.
The required number of classes corresponds to the number of conditions under which the quantization control is performed at the time of multiplexing. That is, the number of classes does not become larger than the number of conditions under quantization control.

【0094】1104は、電力比較部を示し、各クラス
の電力の総和を比較する。演算を高速にする為に、発生
した変換係数の絶対値を電力の代用としても良い。各ク
ラスの電力の総和を比較することで、付加情報の信号を
判断する。
Reference numeral 1104 denotes a power comparison unit, which compares the total power of each class. In order to speed up the calculation, the absolute value of the generated conversion coefficient may be used as a substitute for electric power. The signal of the additional information is determined by comparing the total power of each class.

【0095】いま、多重化時に図6(a)、(b)の量
子化条件A、Bを施した例について説明する。前述した
ように、量子化条件A、Bを用いた量子化では、各々角
度の異なる斜め方向にドットが並ぶテクスチャが発生し
やすい。すなわち、量子化条件Aにおいて量子化したブ
ロックでは、直交変換処理を行うと、図12のクラスA
に大きな電力が発生する。
Now, an example in which the quantization conditions A and B of FIGS. 6A and 6B are applied at the time of multiplexing will be described. As described above, in the quantization using the quantization conditions A and B, a texture in which dots are arranged in diagonal directions with different angles is likely to occur. That is, when the block quantized under the quantization condition A is subjected to the orthogonal transformation process, the class A in FIG.
Generates a large amount of power.

【0096】一方、量子化条件Bにおいて量子化したブ
ロックでは、直交変換処理を行うと、図12のクラスB
に大きな電力が発生する。
On the other hand, in the block quantized under the quantization condition B, when orthogonal transformation processing is performed, the class B in FIG.
Generates a large amount of power.

【0097】すなわち、クラスAとクラスBの電力の大
小関係を相対的に比較することにより、該当するブロッ
クの多重化時の量子化条件が、量子化条件A、量子化条
件Bの何れであるかが判断できる。量子化条件は、付加
情報の符号(式3のbit)に連動している為、量子化条
件が識別できるということは、多重化された符号が特定
できることに相当する。
That is, by comparing the magnitude relationships between the powers of the class A and the class B relatively, the quantization condition at the time of multiplexing the corresponding block is either the quantization condition A or the quantization condition B. Can judge. Since the quantization condition is linked to the code of the additional information (bit of Expression 3), the fact that the quantization condition can be identified means that the multiplexed code can be specified.

【0098】図4に示したフローチャートの例では、bi
t=0を量子化条件A、bit=1を量子化条件Bに設定し
ている為、クラスAの電力の方が大きい場合には、bit
=0、クラスBの電力の方が大きい場合には、bit=1
と判断できる。
In the example of the flow chart shown in FIG.
Since t = 0 is set as the quantization condition A and bit = 1 is set as the quantization condition B, when the power of class A is larger,
= 0, when the power of class B is higher, bit = 1
Can be judged.

【0099】以上、2種の復号部を説明したが、本実施
形態の復号部の切り替えは、復号検出率と復号時間との
最適設計に必要である。
Although two types of decoding units have been described above, switching of the decoding units of this embodiment is necessary for optimum design of the decoding detection rate and the decoding time.

【0100】すなわち、印字から余り時間の経ていない
印字物に関しては、変色、退色が進行していないと判断
し、復号時間の速い復号部Aにて復号する。一方、印字
からかなり時間の経過したものに関しては、変色、退色
が進行していると判断し、復号時間よりも復号検出率を
優先にして、より精度の高い復号方法を用いる。
That is, it is judged that the discoloration or fading has not progressed with respect to the printed matter which has not been printed for a long time, and the decoding section A having a high decoding time decodes it. On the other hand, for a long time after printing, it is determined that discoloration and fading have progressed, and the decoding detection rate is prioritized over the decoding time, and a more accurate decoding method is used.

【0101】このように、印字日時からの経過時間を評
価因子にすることにより、変色、退色が予測することが
でき、より最適な復号部を選択することができる。
As described above, by using the elapsed time from the printing date and time as the evaluation factor, discoloration and fading can be predicted, and a more optimal decoding unit can be selected.

【0102】本実施形態では、復号部をA、Bの2種に
て説明したが、当然これ以上でも構わない。また、復号
部もこれに限定するものではない。
In the present embodiment, the decoding unit has been described as two kinds of A and B, but naturally more decoding units may be used. Also, the decoding unit is not limited to this.

【0103】また、復号部を同一にして、その検出精度
だけを変化させる方法も考えられる。すなわち、より精
度が求められる復号部においては、冗長性の高い、繰り
返しによる復号が有効である。
It is also possible to use the same decoding unit and change only the detection accuracy. That is, iterative decoding with high redundancy is effective in a decoding unit that requires higher accuracy.

【0104】例えば、前述のP×Q画素による直交変換
を用いる方法(復号部B)では、P×Q画素のブロック
を空間的に数画素ずらして複数回の直交変換を行い、複
数回のクラス比較を通して判断の精度を高める方法が考
えられる。その際に、印字日時からの経過時間を評価因
子にして、繰り返しの回数を経過時間と共に徐々に増や
す様に制御することも有効な方法である。
For example, in the above-described method using the orthogonal transformation by P × Q pixels (decoding section B), the block of P × Q pixels is spatially shifted by several pixels to perform the orthogonal transformation a plurality of times, and the class of a plurality of times A method of improving the accuracy of judgment through comparison can be considered. At this time, it is also an effective method to use the elapsed time from the printing date and time as an evaluation factor and to control the number of repetitions to gradually increase with the elapsed time.

【0105】当然、複数回の直交変換を用いて判断した
方が、復号精度は向上するが、処理時間は余計にかかっ
てしまう。その最適化は経験的に設計するのが好まし
い。
Of course, if the determination is performed using a plurality of orthogonal transformations, the decoding accuracy will be improved, but the processing time will be extra. The optimization is preferably designed empirically.

【0106】また、退色の程度を予測して補正する方法
も考えられる。すなわち、退色により印字物の濃度が薄
くなる為、印字日時からの経過時間を評価因子にして、
経験的な補正値を算出して、濃度補正をも含めた復号方
法も考えられる。
Further, a method of predicting the degree of fading and correcting it is also conceivable. That is, since the density of the printed matter decreases due to fading, the elapsed time from the printing date and time is used as an evaluation factor,
A decoding method including empirical correction values and density correction can also be considered.

【0107】その際には、経過時間に依存した濃度補正
カーブなるものを複数種テーブルとして予め用意してお
いて、復号時に補正するものである。
At this time, a density correction curve depending on the elapsed time is prepared in advance as a plurality of types of tables and is corrected at the time of decoding.

【0108】また、色材(インク)により退色の程度が
異なる場合には、復号処理に使用する色を変化する方法
も考えられる。例えば、仮にマゼンタが他の色(シア
ン、イエロー、ブラック)よりも退色しやすい傾向があ
れば、経過時間を評価因子にして、RGBのうち、マゼ
ンタの補色となるG成分からの復号影響度合いを変化さ
せることも有効である。
Further, when the degree of fading differs depending on the color material (ink), a method of changing the color used for the decoding process can be considered. For example, if magenta tends to fade more easily than other colors (cyan, yellow, black), the elapsed time is used as an evaluation factor and the degree of decoding influence from the G component, which is the complementary color of magenta, of RGB is determined. It is also effective to change.

【0109】すなわち、経過時間が経っていない場合に
は、G成分の復号を中心に判断して、経過時間が経つほ
どにG成分の復号の影響を減らして判断する方法であ
る。
That is, when the elapsed time has not elapsed, the determination is made mainly on the decoding of the G component, and the influence of the decoding of the G component is reduced as the elapsed time elapses.

【0110】以上説明したように、上記第1の実施形態
によれば、印字日時からの経過時間に基づいて画像に埋
め込まれた所定の情報を抽出する抽出方法を切り替える
ことにより、抽出時の抽出精度、抽出時間の最適化を実
現することができる。
As described above, according to the first embodiment, the extraction method at the time of extraction is switched by switching the extraction method for extracting the predetermined information embedded in the image based on the elapsed time from the print date and time. The accuracy and the extraction time can be optimized.

【0111】(第2の実施形態)図13に、第2の実施
形態の画像処理システムの構成を示す。
(Second Embodiment) FIG. 13 shows the arrangement of an image processing system according to the second embodiment.

【0112】図13は、図1に示した構成と一部異なっ
ているので、異なる点のみ説明する。すなわち、本実施
形態では、前述した第1の実施形態の印字日時情報の代
わりに、端子1301から印字環境情報をヘッダ情報と
して埋め込むものである。
Since FIG. 13 is partially different from the configuration shown in FIG. 1, only different points will be described. That is, in the present embodiment, the printing environment information is embedded as header information from the terminal 1301 instead of the printing date and time information of the first embodiment described above.

【0113】印字環境情報とは、印字物を作成した時の
温度、湿度、気圧(高度)等が考えられるが、本実施形
態では温度のみを対象とする。印字時の温度は、使用者
によるキーボード、もしくはマウス等による入力でも良
いし、プリンタ内蔵の温度検知部からの信号によるもの
でも良い。今、例えば、温度情報を16ビット分、付加
情報を200ビットとすると、合計216ビットの埋め
込み情報を多重化することになる。
The printing environment information may be temperature, humidity, atmospheric pressure (altitude), etc. when the printed matter is prepared, but in the present embodiment, only the temperature is targeted. The temperature at the time of printing may be input by a user with a keyboard, a mouse, or the like, or may be a signal from a temperature detection unit built in the printer. For example, if the temperature information is 16 bits and the additional information is 200 bits, a total of 216 bits of embedded information will be multiplexed.

【0114】復号部は前述した第1の実施形態と同様で
ある。本実施形態では、前述した第1の実施形態の変数
Dの換わりに、温度情報を変数Tとして、復号部の切り替
え、もしくは復号精度の制御を行うことを特徴とする。
The decoding unit is the same as in the first embodiment described above. In this embodiment, the variables of the first embodiment described above are used.
Instead of D, temperature information is used as a variable T to switch decoding units or control decoding accuracy.

【0115】印字時の温度は、インクジェットプリンタ
や電子写真系のプリンタにとって、ドット径が変化する
要因となる。すなわち、高温時に印字したものは、ドッ
ト径が大きくなり、常温時よりも復号がより困難になる
恐れがある。逆に低温時に印字したものは、ドット径が
小さくなり、同様に常温時よりも復号が困難になる恐れ
がある。そこで、変数Tは、常温時を中心にして、高
温、もしくは、低温に変化するにつれ、復号精度を向上
させるような制御をすることが必要だ。復号精度の向上
は、前述したように、復号時間とのトレードオフになる
為に、実験的に最適な方法を設定する必要がある。
The temperature at the time of printing becomes a factor for changing the dot diameter for an ink jet printer or an electrophotographic printer. That is, a dot printed at a high temperature has a large dot diameter, which may make decoding more difficult than at a normal temperature. On the contrary, when printed at a low temperature, the dot diameter becomes smaller, and similarly, there is a possibility that the decoding becomes more difficult than that at a normal temperature. Therefore, it is necessary to control the variable T so as to improve the decoding accuracy as the temperature changes to a high temperature or a low temperature around the normal temperature. As described above, the improvement of the decoding accuracy is a trade-off with the decoding time, so it is necessary to experimentally set the optimum method.

【0116】以上、印字環境を温度を例にして説明した
が、前述した他の環境情報でも同様の制御が実現でき
る。
Although the printing environment has been described by taking the temperature as an example, the same control can be realized with the other environment information described above.

【0117】また、印字日時情報、各種印字環境情報を
合わせてヘッダにして埋め込み情報にして多重化する方
法も考えられる。
A method is also conceivable in which the print date / time information and various print environment information are combined into a header and embedded information is multiplexed.

【0118】また、多重化方法、付加情報の分離方法は
限定しない。いかなる、多重化方法、分離方法において
も、印字日時からの経過時間、もしくは、印字時の環境
情報に基づいて分離方法を制御する構成は有効である。
The multiplexing method and the additional information separating method are not limited. In any multiplexing method or separation method, a configuration in which the separation method is controlled based on the elapsed time from the printing date or time or the environmental information at the time of printing is effective.

【0119】以上説明したように、上記第2の実施形態
によれば、印字時の環境情報基づいて画像に埋め込まれ
た所定の情報を抽出する抽出方法を切り替えることによ
り、抽出時の抽出精度、抽出時間の最適化を実現するこ
とができる。
As described above, according to the second embodiment, by changing the extraction method for extracting the predetermined information embedded in the image based on the environmental information at the time of printing, the extraction accuracy at the time of extraction, The extraction time can be optimized.

【0120】(他の実施形態)また、本発明は、複数の
機器(例えばホストコンピュータ、インタフェイス機
器、リーダ、プリンタ等)から構成されるシステムに適
用しても、一つの機器からなる装置(例えば、複写機、
ファクシミリ装置等)に適用しても良い。
(Other Embodiments) Further, even when the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), a device (a device composed of one device). For example, a copier,
It may be applied to a facsimile machine).

【0121】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウエアのプログラムコードを記
録した記憶媒体(または記録媒体)を、システムあるい
は装置に供給し、そのシステムあるいは装置のコンピュ
ータ(またはCPUやMPU)が記憶媒体に格納された
プログラムコードを読み出し実行することによっても、
達成されることは言うまでもない。この場合、記憶媒体
から読み出されたプログラムコード自体が前述した実施
形態の機能を実現することになり、そのプログラムコー
ドを記憶した記憶媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実
行することにより、前述した実施形態の機能が実現され
るだけでなく、そのプログラムコードの指示に基づき、
コンピュータ上で稼働しているオペレーティングシステ
ム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
Further, an object of the present invention is to supply a storage medium (or recording medium) recording a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to supply the computer of the system or apparatus. (Or CPU or MPU) reads and executes the program code stored in the storage medium,
It goes without saying that it will be achieved. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also based on the instruction of the program code,
An operating system (OS) running on the computer does some or all of the actual processing,
It goes without saying that the processing includes the case where the functions of the above-described embodiments are realized.

【0122】さらに、記憶媒体から読み出されたプログ
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書き込まれた後、そのプログラムコードの指
示に基づき、その機能拡張カードや機能拡張ユニットに
備わるCPUなどが実際の処理の一部または全部を行
い、その処理によって前述した実施形態の機能が実現さ
れる場合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written in the memory provided in the function expansion card inserted into the computer or the function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that a case where the CPU included in the function expansion card or the function expansion unit performs a part or all of the actual processing and the processing realizes the functions of the above-described embodiments is also included.

【0123】[0123]

【発明の効果】以上説明したように、本発明によれば、
印字日時からの経過時間、もしくは、印字時の環境情報
に基づいて画像に埋め込まれた所定の情報を抽出する抽
出方法を切り替えることにより、抽出時の抽出精度、抽
出時間の最適化を実現することができる。
As described above, according to the present invention,
To optimize the extraction accuracy and extraction time at the time of extraction by switching the extraction method that extracts the predetermined information embedded in the image based on the elapsed time from the printing date and time or the environmental information at the time of printing You can

【0124】また、本発明により、容易に画像情報への
付加情報の多重化が実現できる為、画像情報中に音声情
報や秘匿情報を埋め込むサービス、アプリケーションが
提供できる。また、紙幣、印紙、有価証券等の不正な偽
造行為を抑制したり、画像情報の著作権侵害を防止した
りすることができる。
Further, according to the present invention, since the additional information can be easily multiplexed with the image information, it is possible to provide a service or application for embedding voice information or secret information in the image information. In addition, it is possible to prevent illegal forgery of bills, stamps, securities, and the like, and prevent copyright infringement of image information.

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態の画像処理システムを示す要部ブロ
ック図
FIG. 1 is a block diagram of essential parts showing an image processing system according to an embodiment.

【図2】図1の埋め込み情報多重化装置を示す要部ブロ
ック図
FIG. 2 is a block diagram of essential parts showing the embedded information multiplexing apparatus of FIG.

【図3】図2の誤差拡散処理部を示す要部ブロック図3 is a principal block diagram showing an error diffusion processing unit of FIG.

【図4】量子化制御部を含む多重化処理の動作手順を示
すフローチャート
FIG. 4 is a flowchart showing an operation procedure of a multiplexing process including a quantization control unit.

【図5】ブロック化の一例FIG. 5: Example of blocking

【図6】量子化条件における量子化閾値変化の一例FIG. 6 shows an example of a change in quantization threshold under a quantization condition.

【図7】量子化条件の組み合わせの配置例FIG. 7: Example of arrangement of combinations of quantization conditions

【図8】図1の埋め込み情報分離装置を示す要部ブロッ
ク図
8 is a principal block diagram showing the embedded information separation device of FIG. 1. FIG.

【図9】図8の付加情報復号部Aの構成を示すブロック
9 is a block diagram showing a configuration of an additional information decoding unit A of FIG.

【図10】空間フィルタの一例FIG. 10 is an example of a spatial filter

【図11】図8の付加情報復号部Bの構成を示すブロッ
ク図
11 is a block diagram showing the configuration of an additional information decoding unit B of FIG.

【図12】二次元周波数領域での周波数ベクトルの説明
FIG. 12 is an explanatory diagram of frequency vectors in a two-dimensional frequency domain.

【図13】第2の実施形態の埋め込み情報分離装置を示
す要部ブロック図
FIG. 13 is a block diagram of essential parts showing an embedded information separating device according to a second embodiment.

【図14】従来法の多重化の一例を示すブロック図FIG. 14 is a block diagram showing an example of conventional multiplexing.

【図15】従来法の多重化の一例を示すブロック図FIG. 15 is a block diagram showing an example of conventional multiplexing.

【図16】従来法の多重化の一例を示すブロック図FIG. 16 is a block diagram showing an example of conventional multiplexing.

【図17】従来法の分離の一例を示すブロック図FIG. 17 is a block diagram showing an example of separation according to a conventional method.

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/40 H04N 1/40 Z 5C077 // H04N 7/08 7/08 Z 7/081 (72)発明者 梅田 清 東京都大田区下丸子3丁目30番2号キヤノ ン株式会社内 Fターム(参考) 2C087 AA03 AA09 AC07 AC08 BA03 BA06 BA12 BA14 BB10 5B021 AA01 LG07 LG08 5B057 AA11 BA02 BA29 BA30 CC03 CE08 CE09 CE13 CG07 CH07 CH09 CH18 5C063 AA01 AB03 AB05 AC01 AC10 CA23 CA36 DA02 DA05 DA07 DA13 DB09 5C076 AA14 AA16 BA06 5C077 LL14 NN11 PP21 PP23 PP27 PP43 PP47 PP65 PP68 PP74 PP77 PP78 PP80 PQ08 PQ20 RR08 RR11 ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 7 Identification code FI theme code (reference) H04N 1/40 H04N 1/40 Z 5C077 // H04N 7/08 7/08 Z 7/081 (72) Invention Kiyoshi Umeda 3-30-2 Shimomaruko, Ota-ku, Tokyo F-term within Canon Co., Ltd. (reference) 2C087 AA03 AA09 AC07 AC08 BA03 BA06 BA12 BA14 BB10 5B021 AA01 LG07 LG08 5B057 AA11 BA02 BA29 BA30 CC03 CE08 CE09 CE13 CG07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH07 CH18 5C063 AA01 AB03 AB05 AC01 AC10 CA23 CA36 DA02 DA05 DA07 DA13 DB09 5C076 AA14 AA16 BA06 5C077 LL14 NN11 PP21 PP23 PP27 PP43 PP47 PP65 PP68 PP74 PP77 PP78 PP80 PQ08 PQ20 RR08 RR11

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 所定の情報が埋め込まれた画像を像形成
した記録物を読み取って該記録物に応じた画像を入力す
る画像入力手段と、 前記記録物に対する像形成状況に関する関連情報を入力
する関連情報入力手段と、 前記入力された画像から前記所定の情報を所定の抽出方
法に従って抽出する抽出手段と、 前記入力された関連情報に基づいて前記抽出手段による
抽出方法を切り替える切替手段とを有する画像処理装
置。
1. An image input unit for reading a recorded matter on which an image having predetermined information embedded therein is formed and inputting an image corresponding to the recorded matter, and related information relating to an image formation state of the recorded matter. It has a related information input means, an extraction means for extracting the predetermined information from the input image according to a predetermined extraction method, and a switching means for switching the extraction method by the extraction means based on the input related information. Image processing device.
【請求項2】 前記関連情報とは、記録物が作成された
作成日時であることを特徴とする請求項1記載の画像処
理装置。
2. The image processing apparatus according to claim 1, wherein the related information is a creation date and time when a recorded material is created.
【請求項3】 前記切替手段は、前記作成日時と、前記
記録物から該所定の情報を抽出する抽出日時に基づいて
該記録物の経過時間を推定し、該推定された経過時間に
基づいて前記抽出手段による抽出方法を切り替えること
を特徴とする請求項2記載の画像処理装置。
3. The switching means estimates the elapsed time of the recorded material based on the creation date and time and the extraction date and time when the predetermined information is extracted from the recorded material, and based on the estimated elapsed time. The image processing apparatus according to claim 2, wherein the extraction method by the extraction means is switched.
【請求項4】 前記関連情報とは、記録物作成環境情報
であることを特徴とする請求項1記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the related information is recorded matter creation environment information.
【請求項5】 前記環境情報とは、記録物作成時の温度
情報であることを特徴とする請求項4記載の画像処理装
置。
5. The image processing apparatus according to claim 4, wherein the environmental information is temperature information at the time of making a printed matter.
【請求項6】 前記環境情報とは、記録物作成時の湿度
情報であることを特徴とする請求項4記載の画像処理装
置。
6. The image processing apparatus according to claim 4, wherein the environmental information is humidity information at the time of making a recorded matter.
【請求項7】 前記環境情報とは、記録物作成時の気圧
情報であることを特徴とする請求項4記載の画像処理装
置。
7. The image processing apparatus according to claim 4, wherein the environmental information is atmospheric pressure information at the time of creating a recorded material.
【請求項8】 前記切替手段は、各々抽出方法が異なる
複数の抽出手段から最適な抽出手段を選択し、該選択さ
れた抽出手段により抽出を行うことにより前記抽出方法
を切り替えることを特徴とする請求項1記載の画像処理
装置。
8. The switching means switches the extraction method by selecting an optimum extraction means from a plurality of extraction means each having a different extraction method and performing extraction by the selected extraction means. The image processing apparatus according to claim 1.
【請求項9】 前記切替手段は、抽出手段により抽出す
る際の抽出精度を切り替えることにより、前記抽出方法
を切り替えることを特徴とする請求項1記載の画像処理
装置。
9. The image processing apparatus according to claim 1, wherein the switching unit switches the extraction method by switching the extraction accuracy when performing extraction by the extraction unit.
【請求項10】 所定の情報が埋め込まれた画像を像形
成した記録物を読み取って該記録物に応じた画像を入力
する画像入力工程と、 前記記録物に対する像形成状況に関する関連情報を入力
する関連情報入力工程と、 前記入力された画像から前記所定の情報を所定の抽出方
法に従って抽出する抽出工程と、 前記入力された関連情報に基づいて前記抽出工程による
抽出方法を切り替える切替工程とを有する画像処理方
法。
10. An image input step of reading a recorded matter on which an image in which predetermined information is embedded is formed and inputting an image corresponding to the recorded matter, and inputting relevant information on an image formation state of the recorded matter. A related information input step, an extraction step of extracting the predetermined information from the input image according to a predetermined extraction method, and a switching step of switching the extraction method by the extraction step based on the input related information. Image processing method.
【請求項11】 コンピュータ上で実行されることによ
って、請求項10に記載の画像処理方法を実現するプロ
グラム。
11. A program for executing the image processing method according to claim 10, when the program is executed on a computer.
【請求項12】 請求項11記載のプログラムを記録し
た記録媒体。
12. A recording medium on which the program according to claim 11 is recorded.
JP2001243956A 2001-08-10 2001-08-10 Image processing apparatus and image processing method Expired - Fee Related JP3684178B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001243956A JP3684178B2 (en) 2001-08-10 2001-08-10 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001243956A JP3684178B2 (en) 2001-08-10 2001-08-10 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2003060887A true JP2003060887A (en) 2003-02-28
JP3684178B2 JP3684178B2 (en) 2005-08-17

Family

ID=19073960

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001243956A Expired - Fee Related JP3684178B2 (en) 2001-08-10 2001-08-10 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3684178B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7519199B2 (en) 2003-04-02 2009-04-14 Panasonic Corporation Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
US10469701B2 (en) 2015-10-06 2019-11-05 Canon Kabushiki Kaisha Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7519199B2 (en) 2003-04-02 2009-04-14 Panasonic Corporation Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
US7664295B2 (en) 2003-04-02 2010-02-16 Panasonic Corporation Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
US7734069B2 (en) 2003-04-02 2010-06-08 Panasonic Corporation Image processing method, image processor, photographic apparatus, image output unit and iris verify unit
US10469701B2 (en) 2015-10-06 2019-11-05 Canon Kabushiki Kaisha Image processing method that obtains special data from an external apparatus based on information multiplexed in image data and apparatus therefor

Also Published As

Publication number Publication date
JP3684178B2 (en) 2005-08-17

Similar Documents

Publication Publication Date Title
JP3647405B2 (en) Image processing apparatus and image processing method
US7995790B2 (en) Digital watermark detection using predetermined color projections
US6763121B1 (en) Halftone watermarking method and system
JP3599621B2 (en) Image processing apparatus, image processing method, and storage medium
US6750983B1 (en) Image processing apparatus and method, and storage medium
US20050031160A1 (en) Error diffusion halftone watermarking
US7171019B2 (en) Image processing apparatus and image processing method
US6853736B2 (en) Image processing apparatus, image processing method and storage medium
US7408680B2 (en) Image processing apparatus and method
JP4310031B2 (en) Image processing apparatus, image processing method, and storage medium
JP3684181B2 (en) Image processing apparatus and image processing method
JP4061143B2 (en) Image processing apparatus and image processing method
JP3684178B2 (en) Image processing apparatus and image processing method
JP3478781B2 (en) Image processing apparatus, image processing method, and storage medium
JP3787511B2 (en) Image processing apparatus and image processing method
JP3715821B2 (en) Image processing apparatus and method
JP2003110838A (en) Device and method for processing image
JP4147074B2 (en) Image processing apparatus and image processing method
JP3535791B2 (en) Image processing apparatus, image processing method, and storage medium
JP2003110839A (en) Device and method for processing image
JP3472210B2 (en) Image processing method and apparatus
JP2001103281A (en) Image processing device and image processing method
JP2006166201A (en) Image forming apparatus
JP2001103289A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050527

R150 Certificate of patent or registration of utility model

Ref document number: 3684178

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090603

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090603

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100603

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110603

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120603

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120603

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130603

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees