JP2005210622A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2005210622A
JP2005210622A JP2004017408A JP2004017408A JP2005210622A JP 2005210622 A JP2005210622 A JP 2005210622A JP 2004017408 A JP2004017408 A JP 2004017408A JP 2004017408 A JP2004017408 A JP 2004017408A JP 2005210622 A JP2005210622 A JP 2005210622A
Authority
JP
Japan
Prior art keywords
image data
image
additional information
additional
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004017408A
Other languages
Japanese (ja)
Inventor
Fujio Ihara
富士夫 井原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2004017408A priority Critical patent/JP2005210622A/en
Publication of JP2005210622A publication Critical patent/JP2005210622A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Error Detection And Correction (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus and an image processing method, by which maximum additional information can be multiplexed in an image, while minimizing the deterioraration of image quality and the additional information can be stably restored, even if the image is printed on a paper sheet. <P>SOLUTION: In the image processing apparatus, which composites additional image data to be embedded embedding based on additional information to image data to be processed to generate composite image data, a control section 11 determines a predetermined feature amount from the image data and generates the additional image data, based on the predetermined feature amount and on the error correction capability of an encoding method which used to an additional information encoding means for encoding the additional information. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、多階調で表現された画像内に情報を埋め込む装置とその方法、及び、画像内に埋め込まれた情報を検出する装置とその方法に関するものである。   The present invention relates to an apparatus and method for embedding information in an image expressed in multiple gradations, and an apparatus and method for detecting information embedded in an image.

近年、付加的な情報を、視覚的には容易に識別できない態様で画像データ(処理対象の画像データ)に合成するといった、いわゆる電子すかし技術が研究され、実用化されている。こうした電子すかしを合成した画像データは、後に読み取って復号され、文書の認証など、所定の処理に供されている。   In recent years, so-called electronic watermark technology has been studied and put into practical use, such as synthesizing additional information with image data (image data to be processed) in a manner that cannot be easily visually identified. Image data obtained by combining such electronic watermarks is read and decoded later, and is subjected to predetermined processing such as document authentication.

しかしながら、紙媒体に形成した画像データには、プリントおよびスキャンによるD/A,A/D変換、色変換、スクリーンによる2値化処理、プリンタおよびスキャナの解像度の違いによって生じる解像度変換、スキャン時のスキュー(傾き)に加えてノイズや、プリンタおよびスキャナの機械的動作に伴う画素位置のずれ(面内むら)、入力機器としてデジタルカメラを用いる場合の収差など、種々の画質劣化要因があり、合成された情報を安定して読み取ることができない。   However, image data formed on a paper medium includes D / A, A / D conversion by printing and scanning, color conversion, binarization processing by a screen, resolution conversion caused by a difference in resolution between a printer and a scanner, and scanning In addition to skew (tilt), there are various image quality degradation factors such as noise, pixel position shift (in-plane unevenness) due to mechanical operation of printers and scanners, and aberrations when using a digital camera as an input device. Information cannot be read stably.

そこで、情報を「0」又は「1」の二進数で符号化する場合に、「0」,「1」の各符号について、図10に示すような2種類のパターン画像の各々を対応づけておき、符号化して得た符号列について、それに含まれる各符号に対応するパターン画像を順次選択して所定順序に配列し、付加画像を得て、これを合成すると、上記紙媒体などにおける画質劣化に対する耐性を獲得できる。   Therefore, when the information is encoded with a binary number of “0” or “1”, each of the two types of pattern images as shown in FIG. 10 is associated with each of the codes “0” and “1”. In addition, for the code string obtained by encoding, pattern images corresponding to the respective codes included in the code string are sequentially selected and arranged in a predetermined order to obtain an additional image. You can gain resistance to.

すなわち、図10に示したパターン画像は、図11に示すように、符号「1」を意味する基本パターン(A)と、符号「0」を意味する基本パターン(B)とを定義しておき、これらの各要素の値(画素値)に図11(C)に示す(1)式または(2)式のような式(これらの式においてCは埋め込み強度、αは減衰率であり、利用者等によって予め指定されているとする)によって定義される値を乗じて得たものである。なお、(1)、(2)式でX,Yは、パターン画像の中心を(X,Y)=(0,0)としたときの各画素の座標(X,Y)の値である。   That is, the pattern image shown in FIG. 10 defines a basic pattern (A) meaning “1” and a basic pattern (B) meaning “0” as shown in FIG. The values (pixel values) of these elements are represented by equations (1) or (2) shown in FIG. 11C (in these equations, C is the embedding strength, α is the attenuation factor, and It is obtained by multiplying the value defined by the user). In the equations (1) and (2), X and Y are the values of the coordinates (X, Y) of each pixel when the center of the pattern image is (X, Y) = (0, 0).

この乗算の結果、図11(A),(B)のそれぞれに基づいて、図10に示した各パターン画像が生成される。なお、図10では、図示の都合上、濃度の違いをハッチングの違いによって示している。これらのパターン画像は、
(1)双方のパターン画像の対応する画素同士を加算した結果は、いずれも同じ所定値(例えば「0」)になる、
(2)各々のパターン画像中の全画素を加算した結果は、いずれも同じ所定値(例えば「0」)になる、
(3)各々のパターン画像は、画像の中心部を通り、その方向が異なる、画素値の2つの不連続線(エッジと呼ぶ)を有する。図10の例では、縦横に直交してエッジが形成されている、
(4)各々のパターン画像の持つ画素値の絶対値は中心でもっとも大きく、中心から離れるほど小さくなる、
という特徴を有している。このように面積を持ったパターンによって符号を表現することで各画質劣化要因に対する耐性を獲得する一方、合成後に画像の濃度が大きく変化することが防止され((1),(2)の特徴による)、パターン画像の検出が容易で復号処理が簡便となり((2),(3)の特徴による)、かつパターン間でのエッジの発生が防止されて((4)の特徴による)、その存在が視覚的に目立たないようになる。
As a result of this multiplication, each pattern image shown in FIG. 10 is generated based on each of FIGS. 11 (A) and 11 (B). In FIG. 10, for the sake of illustration, the difference in density is indicated by the difference in hatching. These pattern images
(1) The result of adding the corresponding pixels of both pattern images is the same predetermined value (for example, “0”).
(2) The result of adding all the pixels in each pattern image is the same predetermined value (for example, “0”).
(3) Each pattern image has two discontinuous lines (called edges) of pixel values that pass through the center of the image and have different directions. In the example of FIG. 10, edges are formed orthogonally in the vertical and horizontal directions.
(4) The absolute value of the pixel value of each pattern image is the largest at the center and decreases as the distance from the center increases.
It has the characteristics. In this way, by expressing the code by a pattern having an area, the resistance to each image quality deterioration factor is acquired, while the density of the image is prevented from changing greatly after composition (by the characteristics of (1) and (2)). ) The pattern image can be easily detected and the decoding process is simplified (by the features (2) and (3)), and the occurrence of an edge between patterns is prevented (by the feature (4)). Becomes visually inconspicuous.

このパターン画像を合成した画像を、復号する際は、パターン画像内のエッジによって仕切られた各象限に相当する合成後の画素値の和(第1から第4象限についてR1からR4)を算出し、例えば、R1>R2かつR1>R4かつR3>R2かつR3>R4の場合に符号「1」であると判定する。すなわち、各象限ごとの画素値群の和の比較によって復号を行うことができる。   When decoding an image obtained by synthesizing this pattern image, a sum of pixel values after synthesis corresponding to each quadrant divided by edges in the pattern image (R1 to R4 for the first to fourth quadrants) is calculated. For example, when R1> R2 and R1> R4 and R3> R2 and R3> R4, it is determined that the code is “1”. That is, decoding can be performed by comparing the sum of pixel value groups for each quadrant.

ところが、このようなパターン画像を用いたときには、合成の対象となる画像データの内容によっては、合成の結果の画像から、各パターン画像の読み取りが困難になる場合がある。すなわち、合成先の画像データに高周波成分を含む部分があり、例えば画素値が図12に示すように、合成されるパターン画像のエッジ部分を境界として、第1象限(右上側のブロック)から第4象限(右下側のブロック)へ(角度方向に)順に、平均的にその輝度が「低」、「高」、「高」、「高」となっている場合、ここに符号「1」に対応するパターン画像を合成した結果は、R1からR4の値がいずれも「高」となって、R1からR4の値の間に有意な差ができず、「1」であるとの判定が事実上困難になる。   However, when such a pattern image is used, depending on the content of the image data to be combined, it may be difficult to read each pattern image from the combined image. That is, there is a portion including high-frequency components in the image data to be combined. For example, as shown in FIG. 12, the pixel value has a boundary from the edge portion of the pattern image to be combined as a boundary from the first quadrant (the upper right block). If the brightness is “low”, “high”, “high”, “high” on average in order (in the angular direction) to the four quadrants (lower right block), the symbol “1” is used here. As a result of synthesizing the pattern image corresponding to, the values of R1 to R4 are all “high”, there is no significant difference between the values of R1 to R4, and it is determined that the value is “1”. It becomes practically difficult.

従って、上記のような埋め込み手法および復号手法を用いた場合は、画像の平坦部に埋め込んだ信号は検出が容易で、そうでない部分、つまりエッジ部分や複雑な絵柄部分などでは埋め込んだ信号の検出が難しくなる。   Therefore, when the embedding method and decoding method as described above are used, it is easy to detect the signal embedded in the flat part of the image, and detection of the signal embedded in the other part, that is, the edge part or the complicated pattern part. Becomes difficult.

このような場合に、埋め込み対象画像の特徴を考慮せずに一様な強度で付加画像データを生成して合成すると、安定した復号ができなかったり、あるいは必要以上に画像を劣化させてしまう。   In such a case, if additional image data is generated and synthesized with a uniform intensity without considering the characteristics of the embedding target image, stable decoding cannot be performed, or the image is deteriorated more than necessary.

このような問題を部分的に解決する例として、発明者はすでにブロック状の付加画像パターン(以降セルと呼ぶ)の強度Cを、合成先のブロック画像から求めた特徴量に応じて制御する手法を報告している。しかし、所定の画像サイズに所定の情報量の付加情報を埋め込む場合には、必ずしも全てのセルに対して、特徴量に応じた埋め込み強度を適用する必要はなく、画質改善の余地がある。   As an example for partially solving such a problem, the inventor has already controlled the intensity C of a block-shaped additional image pattern (hereinafter referred to as a cell) according to the feature amount obtained from the block image at the synthesis destination. Has been reported. However, when embedding additional information with a predetermined information amount in a predetermined image size, it is not always necessary to apply the embedding strength according to the feature amount to all cells, and there is room for improvement in image quality.

すなわち、所定の画像サイズに所定の情報量の付加情報を符号化して画像内に付加情報を合成する場合には、符号化方法として採用した誤り訂正符号に依存する訂正能力が存在するため、すべてのセルから正しい埋め込み情報を識別する必要はなく、そのため、識別が難しいと予測されるセルに対しては、周辺のセルの状況に応じて、その識別を容易化させるためにより強めの強度で作成した付加画像データを合成する必要はない。   That is, when additional information of a predetermined amount of information is encoded into a predetermined image size and the additional information is synthesized in the image, since there is a correction capability depending on the error correction code adopted as the encoding method, all It is not necessary to identify the correct embedded information from other cells, so for cells that are expected to be difficult to identify, create a stronger strength to facilitate identification depending on the situation of surrounding cells There is no need to synthesize the added image data.

誤り訂正を効果的に用いて、読み取りの安定化を向上させる試みはいくつか存在する。例えば、下記特許文献1に記載されている技術は、埋め込まれる情報側の性質に応じて誤り訂正符号の能力を決定することで、最大限の情報を埋め込み可能にする技術を開示している。   There are several attempts to use error correction effectively to improve reading stability. For example, the technique described in Patent Document 1 below discloses a technique that enables embedding of maximum information by determining the capability of an error correction code according to the property of the information to be embedded.

また、下記特許文献2に記載されている技術では、印刷に用いる紙の種類(たとえば、普通紙、光沢紙など)の違いにより用いる誤り訂正符号を変更することにより使用する紙に対して最大限の埋め込み情報量を得るという技術を開示している。
特開2002−374402号公報 特開2002−218207号公報
In the technique described in Patent Document 2 below, the maximum amount of paper used is changed by changing the error correction code used depending on the type of paper used for printing (for example, plain paper, glossy paper, etc.). Discloses a technique for obtaining the amount of embedded information.
JP 2002-374402 A JP 2002-218207 A

しかし、上記従来の技術においては、合成を受ける側の画像データ(処理対象となった画像データ)の性質や付加情報の符号化に用いられる符号の特性などを考慮した埋め込みは行っておらず、画像劣化の抑制及び正確な復号の点で十分な効果を得られていないという問題があった。   However, in the above conventional technique, embedding is not performed in consideration of the characteristics of the image data on the side to be combined (image data to be processed) and the characteristics of the code used for encoding the additional information. There is a problem that sufficient effects cannot be obtained in terms of suppression of image degradation and accurate decoding.

本発明は、上述した事情に鑑みてなされたものであり、紙上に画像を印刷した場合でも、画質劣化を最小限に抑えた上で最大限の付加情報を画像内に多重化でき、かつ安定な付加情報の復元が可能となる画像処理装置および画像処理方法を提供することを、その目的の一つとする。   The present invention has been made in view of the above-described circumstances. Even when an image is printed on paper, the maximum additional information can be multiplexed in the image while minimizing image quality degradation, and is stable. An object of the present invention is to provide an image processing apparatus and an image processing method that can restore additional information.

上記目的を達成するために、本発明は、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理装置であって、前記画像データを入力する画像入力手段と、前記付加情報を入力する付加情報手段と、前記付加情報を符号化する付加情報符号化手段と、前記入力された画像データから所定の特徴量を演算する特徴量演算手段と、前記所定の特徴量と、前記付加情報符号化手段で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する付加画像生成手段と、を備えることを特徴とする。   In order to achieve the above object, the present invention provides an image processing apparatus that synthesizes additional image data based on additional information to be embedded with image data to be processed and generates combined image data. An image input means for inputting the image data, an additional information means for inputting the additional information, an additional information encoding means for encoding the additional information, and a predetermined feature amount from the input image data Characteristic amount calculating means for calculating the additional image data based on the predetermined characteristic amount and the error correction capability of the encoding method used in the additional information encoding means. It is characterized by that.

ここで、前記所定の特徴量は、所定の部分画像データの画素値の分散または所定の部分画像データを等分割して求めた所定の画素値の差分に基づいて決定される量であることを特徴とする。また、前記付加画像生成手段は、前記所定の特徴量に応じて、前記付加画像データの強度を変更することを特徴とする。   Here, the predetermined feature amount is an amount determined based on a dispersion of pixel values of predetermined partial image data or a difference between predetermined pixel values obtained by equally dividing the predetermined partial image data. Features. Further, the additional image generation means changes the intensity of the additional image data in accordance with the predetermined feature amount.

また、本発明は、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理装置であって、前記画像データを入力する画像入力手段と、前記入力された画像データを補正する画像補正手段と、前記付加情報を入力する付加情報手段と、前記付加情報を符号化する付加情報符号化手段と、前記補正された画像データから所定の特徴量を演算する特徴量演算手段と、前記所定の特徴量と、前記付加情報符号化手段で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する付加画像生成手段とを備えることを特徴とする。   In addition, the present invention is an image processing apparatus that synthesizes additional image data based on additional information to be embedded with image data to be processed, and generates combined image data, the image data Image input means for inputting the image data, image correction means for correcting the input image data, additional information means for inputting the additional information, additional information encoding means for encoding the additional information, and the corrected Additional image data is generated based on the feature amount calculating means for calculating a predetermined feature amount from the obtained image data, the predetermined feature amount, and the error correction capability of the encoding method used in the additional information encoding means. And an additional image generating means.

ここで、前記画像補正手段は、前記付加画像生成手段で生成した付加画像データの画素値が所定の範囲内に収まるように前記画像データを補正することを特徴とする。また、前記所定の特徴量は、前記補正画像の部分画像データの画素値の分散または前記補正画像の部分画像データを等分割して求めた所定の画素値の差分に基づいて決定される量であることを特徴とする。また、前記付加画像生成手段は、前記所定の特徴量に応じて、前記付加画像データの強度を変更することを特徴とする。   Here, the image correction unit corrects the image data so that the pixel value of the additional image data generated by the additional image generation unit falls within a predetermined range. The predetermined feature amount is an amount determined based on a variance of pixel values of the partial image data of the corrected image or a difference between predetermined pixel values obtained by equally dividing the partial image data of the corrected image. It is characterized by being. Further, the additional image generation means changes the intensity of the additional image data in accordance with the predetermined feature amount.

また、本発明は、コンピュータに、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成させる画像処理方法であって、前記画像データを入力する工程と、前記付加情報を入力する工程と、前記付加情報を符号化する工程と、前記入力された画像データから所定の特徴量を演算する工程と、前記所定の特徴量と、前記付加情報を符号化する際に用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する工程と、を有することを特徴とする。   Further, the present invention is an image processing method for causing a computer to synthesize additional image data based on additional information to be embedded with image data to be processed, and to generate combined image data, A step of inputting the image data; a step of inputting the additional information; a step of encoding the additional information; a step of calculating a predetermined feature amount from the input image data; and the predetermined feature amount And generating additional image data based on the error correction capability of the encoding method used when encoding the additional information.

さらに、本発明は、コンピュータを用いて、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理プログラムであって、前記コンピュータに、前記画像データを入力する手順と、前記付加情報を入力する手順と、前記付加情報を符号化する手順と、前記入力された画像データから所定の特徴量を演算する手順と、前記所定の特徴量と、前記付加情報を符号化する際に用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する手順と、を実行させることを特徴とする。   Furthermore, the present invention is an image processing program that uses a computer to synthesize additional image data based on additional information to be embedded with image data to be processed to generate composite image data. A procedure for inputting the image data to the computer; a procedure for inputting the additional information; a procedure for encoding the additional information; and a procedure for calculating a predetermined feature amount from the input image data; And a procedure for generating additional image data based on the predetermined feature amount and an error correction capability of an encoding method used when encoding the additional information.

以下、本発明を実施するための最良の形態(以下、実施形態という)を、図面に従って説明する。   Hereinafter, the best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings.

本実施の形態に係る画像処理装置は、図1に示すように、制御部11と記憶部12と操作部13と表示部14と入出力部15とを含んで構成されている。制御部11は、記憶部12に格納された画像処理プログラムに従って動作しており、処理対象となった画像データに対して埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する処理を行う。この処理の具体的内容については、後に詳しく述べる。   As shown in FIG. 1, the image processing apparatus according to the present embodiment includes a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and an input / output unit 15. The control unit 11 operates in accordance with an image processing program stored in the storage unit 12, and synthesizes additional image data based on additional information that is an embedding target with image data that is a processing target, and generates a composite image Process to generate data. The specific contents of this processing will be described in detail later.

記憶部12は、制御部11によって実行されるプログラムを保持する、コンピュータ可読な記録媒体を含む。また、この記憶部12は、制御部11による画像処理の過程で生じる種々のデータを格納するワークメモリとしても動作する。   The storage unit 12 includes a computer-readable recording medium that holds a program executed by the control unit 11. The storage unit 12 also operates as a work memory that stores various data generated in the course of image processing by the control unit 11.

操作部13は、キーボードやマウス等であり、利用者の操作を受けて、その操作内容を制御部11に出力する。表示部14は、制御部11から入力される指示に従って、利用者に対して情報を提示する。   The operation unit 13 is a keyboard, a mouse, or the like, and outputs the operation content to the control unit 11 in response to a user operation. The display unit 14 presents information to the user in accordance with an instruction input from the control unit 11.

入出力部15は、外部から入力されるデータを制御部11に出力する。また、この入出力部15は、制御部11から入力される指示に従ってデータをプリンタ等の外部の装置に出力する。   The input / output unit 15 outputs data input from the outside to the control unit 11. The input / output unit 15 outputs data to an external device such as a printer in accordance with an instruction input from the control unit 11.

ここで、制御部11の処理の具体的な内容について述べる。制御部11は、処理対象となった画像データを記憶部12に格納し、以下に説明するプログラムに従って、この画像データに付加画像データを合成する。   Here, specific contents of the processing of the control unit 11 will be described. The control unit 11 stores the image data to be processed in the storage unit 12, and synthesizes the additional image data with this image data according to a program described below.

制御部11によって実行されるプログラムは、機能的には図2に示すように、画像データ解析部21と、付加情報符号化部22と、付加画像生成部23と、合成部24とを含んで構成されている。   Functionally, the program executed by the control unit 11 includes an image data analysis unit 21, an additional information encoding unit 22, an additional image generation unit 23, and a synthesis unit 24, as shown in FIG. It is configured.

画像データ解析部21は、埋め込みの対象(処理対象)となる画像を合成されるパターン画像と同じサイズのセルに分割し、そのセル毎に画像を解析してある特徴量Aを算出し、その特徴量Aが予め定めてある閾値を超えている場合はその値を、そうでない場合は0(ゼロ)をテーブルなどの各要素に記憶する。具体的には、図4に示したように、画像内に配置できるセル数と同じ要素数の2次元配列をテーブルとして用いれば、各要素の値すなわち2次元配列の各要素に記憶された値によりセルの位置とそのセルの特徴量Aとの関係を記憶できる。   The image data analysis unit 21 divides an image to be embedded (processing target) into cells having the same size as the pattern image to be synthesized, calculates a feature quantity A obtained by analyzing the image for each cell, If the feature amount A exceeds a predetermined threshold value, the value is stored in each element such as a table. Specifically, as shown in FIG. 4, if a two-dimensional array having the same number of elements as the number of cells that can be arranged in an image is used as a table, the value of each element, that is, the value stored in each element of the two-dimensional array Thus, the relationship between the cell position and the feature amount A of the cell can be stored.

次に、前記2次元配列をラスタスキャン順(左から右へ走査して得たラインを、上から下へ走査する順)にスキャンし、後述する付加情報符号化部22で用いられている誤り訂正符号の符号長と同数の要素の値を取り出してくる。その取り出された要素の値が0(ゼロ)でないセルの数が誤り訂正符号の誤り訂正可能ビット数以下であった場合には、それらの要素の値も0(ゼロ)に書き換える。また、上記要素の値が0(ゼロ)でないセルの数が誤り訂正符号の訂正可能ビット数を超えていた場合は、要素の値が0(ゼロ)以外でかつ要素の値が小さいセルから順に、要素の値が0(ゼロ)以外のセルの数から訂正可能なビット数を差し引いた数だけのセルについて要素の値の記憶を残し、それ以外のセルについて要素の値をすべて0(ゼロ)に書き換える。   Next, the two-dimensional array is scanned in the raster scan order (the order obtained by scanning the lines obtained by scanning from the left to the right from the top to the bottom), and an error used in the additional information encoding unit 22 described later. The number of element values equal to the code length of the correction code is extracted. When the number of cells whose extracted element values are not 0 (zero) is less than or equal to the number of error-correctable bits of the error correction code, the values of those elements are also rewritten to 0 (zero). When the number of cells whose element value is not 0 (zero) exceeds the number of correctable bits of the error correction code, cells whose element value is other than 0 (zero) and whose element value is smaller are sequentially , The element value is stored for the number of cells obtained by subtracting the correctable number of bits from the number of cells whose element value is not 0 (zero), and all the element values are set to 0 (zero) for the other cells. Rewrite to

具体的には、符号化方法として、BCH符号(パラメータnは符号長、パラメータkは情報ビット数、パラメータtは訂正可能なビット数)を用いたとすると、2次元配列の要素をラスタスキャン順にn個ずつ取り出し、その中に要素の値が0(ゼロ)でないセルがt個以下であれば、そこに記憶されている値をすべて0(ゼロ)にし、逆に、要素の値が0(ゼロ)でないセルがt1個(t1>t)であれば、要素の値が0(ゼロ)以外でかつ小さいほうからt1−t個だけの要素の値のみを残し、その他の要素の値はすべて0(ゼロ)に書き換える。なお、前記特徴量Aは付加情報の埋め込み難易度、あるいは読み取り時の識別(復号)の難しさを表す尺度であり、その算出については後に詳しく述べる。   Specifically, if a BCH code (parameter n is the code length, parameter k is the number of information bits, and parameter t is the number of bits that can be corrected) is used as the encoding method, the elements of the two-dimensional array are n in the raster scan order. If there are t cells whose element value is not 0 (zero), the values stored there are all 0 (zero), and conversely, the element value is 0 (zero). ) If there are t1 cells (t1> t), the element value is other than 0 (zero) and only the t1-t element values from the smallest are left, and the other element values are all 0 Rewrite to (zero). The feature amount A is a scale representing the difficulty of embedding additional information or the difficulty of identification (decoding) at the time of reading, and the calculation thereof will be described in detail later.

付加情報符号化部22は、予め定めれらた符号化方法に基づいて付加情報を符号化する。なお、上述の説明では、符号化方法の例としてBCH符号を取り上げたが、符号化方法はこれに限定されるものではない。   The additional information encoding unit 22 encodes the additional information based on a predetermined encoding method. In the above description, the BCH code is taken as an example of the encoding method, but the encoding method is not limited to this.

付加画像生成部23は、付加情報符号化部22が符号化した付加情報の符号化列と、画像データ解析部21が記憶した2次元配列を元に付加画像データを生成する。具体的に、この付加画像生成部23は、図3に示したように、各符号に対応する複数のパターン画像を作成するパターン画像作成部31と、当該符号列を構成する各符号に対応するパターン画像を選択しつつ出力するパターン選択部32と、選択されたパターン画像を配列するパターン配列部33とを含んでいる。   The additional image generation unit 23 generates additional image data based on the encoded sequence of additional information encoded by the additional information encoding unit 22 and the two-dimensional array stored by the image data analysis unit 21. Specifically, as shown in FIG. 3, the additional image generation unit 23 corresponds to a pattern image generation unit 31 that generates a plurality of pattern images corresponding to each code and each code constituting the code string. A pattern selection unit 32 that outputs a pattern image while selecting it, and a pattern arrangement unit 33 that arranges the selected pattern image are included.

パターン画像作成部31は、図10に示したような、符号「0」と「1」とのそれぞれに対応するパターン画像を作成するが、その強度(大きさ)は画像データ解析部21が作成した2次元配列を参照して決定する。具体的に、図10のような画像パターンが図11(C)の(1)式や(2)式により生成されるとすると、図5に示したような予め作成されている所定特徴量Aとそれに対応する埋め込み強度Cおよび減衰率αに関するテーブルと前記2次元配列とを参照し、2次元配列の各要素の値を図5の所定特徴量Aとして、これに応じて埋め込み強度Cおよび減衰率αで画像パターンを順次作成する。なお図5に示したようなテーブルは、後述する識別法により識別が容易となる強度や減衰率を予め実験して求めておけばよい。   The pattern image creation unit 31 creates pattern images corresponding to the codes “0” and “1” as shown in FIG. 10, and the image data analysis unit 21 creates the intensity (size) thereof. The determination is made with reference to the two-dimensional array. Specifically, if an image pattern as shown in FIG. 10 is generated by the equations (1) and (2) in FIG. 11C, a predetermined feature amount A created in advance as shown in FIG. 5 and the table regarding the corresponding embedding strength C and attenuation rate α and the two-dimensional array, the value of each element of the two-dimensional array is set as the predetermined feature amount A in FIG. Image patterns are sequentially created at a rate α. Note that the table shown in FIG. 5 may be obtained by experimenting in advance the strength and attenuation rate that facilitate identification by the identification method described later.

パターン選択部32は、付加情報の符号化結果である符号列を参照しながら、パターン画像作成部31が出力する複数のパターン画像のうち、符号列に含まれる各符号に対応するパターン画像を順次(符号列の順に)選択して出力する。   The pattern selection unit 32 sequentially selects a pattern image corresponding to each code included in the code sequence from among a plurality of pattern images output by the pattern image creation unit 31 while referring to the code sequence that is the encoding result of the additional information. Select (in order of code string) and output.

パターン配列部33は、画像データのサイズを(X,Y)、画像パターンのサイズを(W,H)とした場合、パターン選択部32が出力したパターン画像を、INT(X/W)×INT(Y/H)個のマトリクス状にパターン画像を配列する。ここで配列の順序は、ラスタスキャンと同じ順である。   When the size of the image data is (X, Y) and the size of the image pattern is (W, H), the pattern arrangement unit 33 converts the pattern image output by the pattern selection unit 32 to INT (X / W) × INT Pattern images are arranged in (Y / H) matrix. Here, the arrangement order is the same as the raster scan.

以上のようにして、画像データの特徴量と、付加情報符号化部22で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成することができる。   As described above, the additional image data can be generated based on the feature amount of the image data and the error correction capability of the encoding method used in the additional information encoding unit 22.

合成部24は、付加画像生成部23が生成した付加画像を、処理対象となった画像データ上の対応するマクロブロック領域に相当する範囲に合成する。すなわち、合成部24は、記憶部12に格納されている処理対象の画像データの対応する画素値に、付加画像の画素値を加算して出力する。ここで加算値が画素値の最大値(例えば255)を超えたときには、その値を最大値に設定し、加算値が画素値の最小値(例えば0)を下回ったときには、その値を最小値に設定する。   The synthesizing unit 24 synthesizes the additional image generated by the additional image generating unit 23 into a range corresponding to the corresponding macroblock region on the image data to be processed. That is, the composition unit 24 adds the pixel value of the additional image to the corresponding pixel value of the processing target image data stored in the storage unit 12 and outputs the result. Here, when the added value exceeds the maximum value (for example, 255) of the pixel value, the value is set to the maximum value, and when the added value falls below the minimum value (for example, 0) of the pixel value, the value is set to the minimum value. Set to.

次に、こうして付加画像を合成した後の画像データは制御部11の処理により、入出力部15を介してプリンタに出力され、プリンタが、当該画像データの入力を受けて、画像データによって表される画像を、用紙等の媒体上に形成することとなる。   Next, the image data after combining the additional images in this way is output to the printer via the input / output unit 15 by the processing of the control unit 11, and the printer receives the input of the image data and is represented by the image data. The image is formed on a medium such as paper.

[復号の処理]
次に、こうして媒体上に形成された画像から付加情報を復号する方法について説明する。なお、付加情報を復号する装置も、図1に示した画像処理装置を用いて実現できる。すなわち、図示しないスキャナで、媒体上に形成された画像を読み取って画像データを得、この画像データを制御部11において処理して復号を行えばよい。以下、図1に示した画像処理装置を用いて復号の処理を行う場合を例として説明する。
[Decryption process]
Next, a method for decoding additional information from the image thus formed on the medium will be described. An apparatus for decoding the additional information can also be realized using the image processing apparatus shown in FIG. That is, a scanner (not shown) may read an image formed on the medium to obtain image data, and the image data may be processed and decoded by the control unit 11. Hereinafter, a case where decoding processing is performed using the image processing apparatus illustrated in FIG. 1 will be described as an example.

この復号の処理を行うための制御部11のプログラムは、機能的に図6に示すように、画像データ保持部41と、傾き補正部42と、セルサイズ推定部43と、セル位置検出部44と、付加情報識別部45と、付加情報復号部46とを含む。   As shown in FIG. 6, the program of the control unit 11 for performing the decoding process functionally includes an image data holding unit 41, an inclination correction unit 42, a cell size estimation unit 43, and a cell position detection unit 44. And an additional information identifying unit 45 and an additional information decoding unit 46.

図示しないスキャナにて読み取られた画像データは、画像データ保持部41によって記憶部12内に保持される。なお、ここでスキャナ等から入力される画像データに圧縮が行われているときには、当該圧縮された画像データを、元の画像データ(ビットマップのデータ)に伸長ないし復元する。傾き補正部42は、広く知られた方法によって、画像データ保持部41が保持している画像データの傾きを補正する。   Image data read by a scanner (not shown) is held in the storage unit 12 by the image data holding unit 41. When image data input from a scanner or the like is compressed here, the compressed image data is expanded or restored to the original image data (bitmap data). The inclination correction unit 42 corrects the inclination of the image data held by the image data holding unit 41 by a widely known method.

セルサイズ推定部43は、傾き補正後の画像データから付加画像の単位であるセルのサイズを推定する。具体的に、付加画像が図10に示したようなエッジを含むものである場合、このエッジを検出することにより、エッジ間隔に基づいてセルサイズを推定する。すなわち、画素値が急激に変化する高周波成分のみを抽出したエッジ抽出画像を生成し、このエッジ抽出画像に関する自己相関関数のピーク位置からセルサイズを推定する。この処理により、印刷から読み取りまでの過程で画像データのサイズが変化し、セルのサイズが変化しても、復号処理を遂行できるようになっている。   The cell size estimation unit 43 estimates the size of a cell that is a unit of the additional image from the image data after the inclination correction. Specifically, when the additional image includes an edge as shown in FIG. 10, the cell size is estimated based on the edge interval by detecting this edge. That is, an edge extraction image is generated by extracting only high-frequency components whose pixel values change rapidly, and the cell size is estimated from the peak position of the autocorrelation function related to the edge extraction image. By this process, the size of the image data changes in the process from printing to reading, and the decoding process can be performed even if the cell size changes.

セル位置検出部44は、推定されたセルサイズに基づき、画像データから付加画像を表す各パターンの位置(すなわちセルの位置)を検出する。このセル位置の検出は、例えば、図10、図11に示した各符号を表すパターン画像のうち、いずれか一方のパターン画像における極性情報(図11(A)又は(B)を参照)に対応して、例えば「−1」を黒、「1」を白とした2値パターンを生成し、これをマスクとしてセルサイズに従ってマトリクス状に配列したマスク画像データを生成する。そしてマスク画像データと、画像データ保持部41で保持している画像データとの間で相関演算を行い、当該相関演算の結果が極大又は極小となる点を抽出し、それらを画像データの水平、垂直方向に投影する。すると、図10に示したようにパターン画像中央部に2つのエッジの交点がある場合、略中央部に相関演算結果の極大、極小が現れるので、当該極大極小位置の投影位置を中心として、推定して得たセルサイズの±1/2だけ水平又は垂直方向に移動した位置がセル間の境界位置として画定できることとなる。   The cell position detection unit 44 detects the position of each pattern representing the additional image (that is, the position of the cell) from the image data based on the estimated cell size. The detection of the cell position corresponds to, for example, polarity information (see FIG. 11A or 11B) in one of the pattern images representing the respective codes shown in FIGS. Then, for example, a binary pattern in which “−1” is black and “1” is white is generated, and this is used as a mask to generate mask image data arranged in a matrix according to the cell size. Then, a correlation calculation is performed between the mask image data and the image data held in the image data holding unit 41, and a point where the result of the correlation calculation becomes a maximum or a minimum is extracted. Project in the vertical direction. Then, when there is an intersection of two edges at the center of the pattern image as shown in FIG. 10, since the maximum and minimum of the correlation calculation result appear at the approximate center, the estimation is performed around the projection position of the maximum and minimum positions. The position moved in the horizontal or vertical direction by ± 1/2 of the obtained cell size can be defined as the boundary position between the cells.

なお、ここでいずれか一方のパターン画像に対応するマスク画像を生成しているだけなのは、図11のパターン画像は、その極性が互いに逆となっているからである。   Here, the reason why only the mask image corresponding to one of the pattern images is generated is that the polarities of the pattern images in FIG. 11 are opposite to each other.

付加情報識別部45は、後述する付加情報復号部46によって制御され、セルサイズ推定部43とセル位置検出部44とによって、その位置及び大きさが推定されたセルに埋め込まれている付加画像を識別する。具体的に、この付加画像の識別は次のように、パターンに含まれるエッジに沿った線で分割された、4つの領域の画素値の総和の大小関係に基づいて行う。   The additional information identification unit 45 is controlled by an additional information decoding unit 46 described later, and an additional image embedded in a cell whose position and size are estimated by the cell size estimation unit 43 and the cell position detection unit 44. Identify. Specifically, this additional image is identified based on the magnitude relationship of the sum of the pixel values of the four regions divided by lines along the edges included in the pattern as follows.

図10のパターン画像は、その中心部を通過し、水平・垂直の各方向に直交するエッジによって4つの領域に分割されているので、これに対応して付加情報識別部45は、セルサイズ推定部43及びセル位置検出部44によって画定された各セルに含まれるセル画像のそれぞれを、図7(A)に示すような領域R1からR4に分割し、各領域R1からR4内のそれぞれの画素値の合計(SP1からSP4)を算出する。なお、セルの幅や高さが奇数である場合は、図7(B)に示すように、セルの中心を通り、高さ方向(幅が奇数の場合)並びに幅方向(高さが奇数の場合)に延びる画素を除いて、上述の領域R1からR4に分割すればよい。   Since the pattern image of FIG. 10 passes through the center and is divided into four regions by edges orthogonal to the horizontal and vertical directions, the additional information identification unit 45 correspondingly performs the cell size estimation. Each of the cell images included in each cell defined by the unit 43 and the cell position detection unit 44 is divided into regions R1 to R4 as shown in FIG. 7A, and each pixel in each region R1 to R4 is divided. The sum of the values (SP1 to SP4) is calculated. When the cell width or height is an odd number, as shown in FIG. 7B, the cell passes through the center of the cell, and the height direction (when the width is odd) and the width direction (the height is odd). In other words, the above-described regions R1 to R4 may be divided except for the pixels extending in the case).

そして、このSP1からSP4の大小関係からそのセルに合成されているパターン画像が表す符号が「1」であるか「0」であるか(又は判別不能となっているか)を判定する。具体的には、
(1)((SP1>SP2) &&(SP1>SP4) && (SP3>SP2) &&(SP3>SP4))であれば、符号は「1」である。なお、「&&」は、AND条件、すなわち前後の条件を「且つ」で結んだ条件を意味する。
(2)(1)でなく、((SP2>SP1) &&(SP3>SP2) && (SP4>SP1) &&(SP4>SP3))であれば、符号は「0」である。
といったように、複数の条件を適合することによってセル内に合成されているパターン画像が表す符号の判定が行われる。
Then, based on the magnitude relationship from SP1 to SP4, it is determined whether the code represented by the pattern image synthesized in the cell is “1” or “0” (or cannot be discriminated). In particular,
(1) If ((SP1> SP2) &&(SP1> SP4) &&(SP3> SP2) &&(SP3> SP4)), the code is “1”. “&&” means an AND condition, that is, a condition in which the preceding and following conditions are connected by “and”.
(2) If ((SP2> SP1) &&(SP3> SP2) &&(SP4> SP1) &&(SP4> SP3)) instead of (1), the code is “0”.
As described above, the code represented by the pattern image synthesized in the cell is determined by satisfying a plurality of conditions.

図8は、付加情報識別部45におけるパターン画像の識別処理の一例を表す説明図である。この図8では、比較的値の小さい側にハッチングを施している。パターン画像の合成前のセル内の画素がどこも略同じ値(いわば画像が平坦)など、一定の値の範囲にあるのであれば、符号「1」を表すパターン画像を合成した場合には、R1とR3との部分での画素値が大きくなり、R2とR4との部分での画素値が小さくなるので、印刷やスキャンを経た後でも((SP1>SP2) && (SP1>SP4) &&(SP3>SP2) && (SP3>SP4))の条件が成立している蓋然性が高く、上記の条件による判断が可能となっているのである。   FIG. 8 is an explanatory diagram illustrating an example of pattern image identification processing in the additional information identification unit 45. In FIG. 8, the relatively small value is hatched. If the pixels in the cell before the pattern image synthesis are within a certain range of values such as almost the same value (in other words, the image is flat), if the pattern image representing the code “1” is synthesized, R1 Since the pixel value in the part of R3 and R3 becomes larger and the pixel value in the part of R2 and R4 becomes smaller, even after printing or scanning ((SP1> SP2) && (SP1> SP4) && (SP3 > SP2) && (SP3> SP4)) is highly likely to be satisfied, and determination based on the above conditions is possible.

なお、処理対象画像データに高周波成分が含まれ、これがいずれかのセル内にある場合、このセルでは、付加画像の合成後の画素値が、上記条件を満足しているとは限らないことになる。そこで、例えば図9に示すように、セル上部の画素値が比較的小さい値であり、セル下部の画素値が比較的大きい値であったような場合に対応して、上記条件(1)でも(2)でもなく、((SP1>SP4) && (SP3>SP2) &&(SP3>SP4))が成り立っている場合、そのセル内のパターン画像は符号「1」を表すものであると判定してもよい。同様に、セル上部の画素値が比較的大きい値であり、セル下部の画素値が比較的小さい値であったような場合や、セルの左右で画素値の高低が変化する場合等に対応して、それぞれ条件を定めてもよい。   If the processing target image data includes a high-frequency component and this is in one of the cells, the pixel value after synthesis of the additional image does not necessarily satisfy the above condition in this cell. Become. Therefore, for example, as shown in FIG. 9, the above condition (1) also corresponds to the case where the pixel value in the upper part of the cell is a relatively small value and the pixel value in the lower part of the cell is a relatively large value. If ((SP1> SP4) && (SP3> SP2) && (SP3> SP4)) is satisfied instead of (2), it is determined that the pattern image in the cell represents the code “1”. May be. Similarly, it corresponds to the case where the pixel value in the upper part of the cell is a relatively large value and the pixel value in the lower part of the cell is relatively small, or when the pixel value changes between right and left of the cell. Each condition may be determined.

付加情報識別部45は、こうして各セルを順次ラスタスキャンの順に識別し、対応する符号を順次出力していく。なお、付加情報の埋め込み時に、強度の大きい付加画像パターンを合成しておけば、上記条件(1)または(2)が成立しやすくなることはいうまでもない。   In this way, the additional information identification unit 45 sequentially identifies each cell in the order of raster scanning, and sequentially outputs the corresponding codes. Needless to say, the above condition (1) or (2) can be easily established if an additional image pattern having a high strength is synthesized at the time of embedding the additional information.

付加情報復号部46は、付加情報識別部45が順次出力する符号の列を予め定められている符号化方式に基づいて復号することにより付加情報を得る。   The additional information decoding unit 46 obtains additional information by decoding a sequence of codes sequentially output by the additional information identifying unit 45 based on a predetermined encoding method.

[所定特徴量Aの演算]
次に、符号化の際の制御部11の処理における画像データ解析部21の所定特徴量Aの演算の例について説明する。この所定特徴量Aは、上記復号の方法に関連づけて定義されるものである。例えば、復号において、上述のように、セル内のR1からR4の各領域に含まれる画素値の総和を利用して各パターン画像が表す符号を識別している場合、上述のように、処理対象画像データのセルに相当する部分に予めエッジがある場合に識別が困難になり、識別不能な状態が発生し得る。それに対して、あらかじめ付加画像パターンの合成時に強めの強度でパターン画像を作成しておけば、識別不能なセルの数は減るが必要以上に元画像を劣化させることになる。また、識別の困難度に応じて、セル毎に強度を変える方式は、より多くの付加情報を埋め込むことを目的とした場合には良いが、付加情報量が一定の場合は、画質劣化の観点から好ましくない。
[Calculation of predetermined feature A]
Next, an example of calculation of the predetermined feature amount A of the image data analysis unit 21 in the processing of the control unit 11 at the time of encoding will be described. The predetermined feature amount A is defined in association with the decoding method. For example, in decoding, as described above, when the code represented by each pattern image is identified using the sum of the pixel values included in each region R1 to R4 in the cell, as described above, If there is an edge in advance in a portion corresponding to a cell of image data, it becomes difficult to identify, and an indistinguishable state may occur. On the other hand, if a pattern image is created with a strong intensity when synthesizing the additional image pattern in advance, the number of cells that cannot be identified is reduced, but the original image is deteriorated more than necessary. In addition, the method of changing the strength for each cell according to the degree of identification difficulty is good for the purpose of embedding more additional information, but if the amount of additional information is constant, the viewpoint of image quality degradation Is not preferable.

従ってこの場合、標準のパターン強度では識別が困難となるセルを予測し、その予測結果とあらかじめ符号化方式として採用されている誤り訂正符号の訂正能力とを考慮して、必要最低分のセルのみ標準よりやや大きな強度のパターン画像を合成することが、画質および読み取り安定性の面で好ましい。つまり、上述のような復号を行う場合には、画像内の平坦度、すなわち、エッジの少なさを、所定特徴量として演算する。具体的には、画像をセルサイズに分割し、各セル内での画素値の分散(これが大きいほど、平坦でない)を求め、それを所定特徴量とする。また、分散は大きくとも、セルを上述の領域R1からR4に分割したとき、画素値の差分|SP1+SP3-(SP2+SP4)|(|・|は絶対値を表す)が所定しきい値より小さい場合には識別は容易である。そこで、|SP1+SP3-(SP2+SP4)|の値を所定特徴量としてもよい。すなわち、この値は識別の難しさを示しており、この値が大きくて識別が困難なセルの識別を容易化せしめるためには、より強度の大きいパターン画像を合成する必要がある。   Therefore, in this case, cells that are difficult to identify with the standard pattern strength are predicted, and only the minimum necessary number of cells are taken into account, taking into account the prediction results and the correction capability of the error correction code that has been previously adopted as the encoding method. It is preferable in terms of image quality and reading stability to synthesize a pattern image having a slightly higher intensity than the standard. That is, when decoding as described above is performed, the flatness in the image, that is, the small number of edges is calculated as the predetermined feature amount. Specifically, the image is divided into cell sizes, and the dispersion of pixel values within each cell (the larger the value, the less flat) is determined and used as a predetermined feature amount. Even if the variance is large, when the cell is divided into the above-described regions R1 to R4, the difference of pixel values | SP1 + SP3- (SP2 + SP4) | (| · | represents an absolute value) is a predetermined threshold value. If it is smaller, identification is easy. Therefore, the value of | SP1 + SP3- (SP2 + SP4) | may be set as the predetermined feature amount. That is, this value indicates the difficulty of identification. In order to facilitate the identification of cells that are large and difficult to identify, it is necessary to synthesize a pattern image with a higher intensity.

また、上記所定特徴量の変わりに、画像内の全セルに対して、各セルの分散値が所定の閾値以上であるセル数の割合や、画像内の全セルに対して、各セルの|SP1+SP3-(SP2+SP4)|の値が所定の閾値以上であるセル数の割合を所定特徴量とし、それと符号化方式として採用した誤り訂正符号が復号可能なBER(Bit Error Rate : ビット誤り率)とを考慮してパターン画像を合成することができる。   Further, instead of the predetermined feature amount, the ratio of the number of cells in which the variance value of each cell is equal to or greater than a predetermined threshold with respect to all the cells in the image, or | SP1 + SP3- (SP2 + SP4) | The ratio of the number of cells whose value is equal to or greater than a predetermined threshold is defined as a predetermined feature amount, and the BER (Bit Error Rate: bit) that can be decoded by the error correction code used as the encoding method The pattern image can be synthesized in consideration of the error rate.

なお、ここまでで説明したパターン画像とは異なるパターン画像を用いたり、復号方法が異なる場合は、所定特徴量をそれに合わせて設定することも好ましい。   In addition, when a pattern image different from the pattern image demonstrated so far is used, or when a decoding method differs, it is also preferable to set a predetermined feature amount according to it.

[動作]
本実施の形態の画像処理装置は、上述のように構成されており、従って、合成を受ける側の画像データについて、その画像データの性質と符号化方式として使用される誤り訂正符号の訂正能力とに基づいて、最低限のセルのみに対して通常よりも強めのパターン画像を作成し、それを画像に合成する動作を行う。これにより、画像の画質劣化を抑えた上でかつ、復号を容易にすることができるようになる。
[Operation]
The image processing apparatus according to the present embodiment is configured as described above. Therefore, with respect to the image data to be subjected to synthesis, the nature of the image data and the correction capability of the error correction code used as the encoding method are described. Based on the above, a pattern image that is stronger than usual is created for only the minimum number of cells, and an operation for synthesizing it with the image is performed. As a result, it is possible to facilitate decoding while suppressing image quality deterioration of the image.

[その他の変形例]
図2に示した機能ブロックの代わりに、図13に示したような機能ブロックを用いても良い。図13では、図2に示した機能ブロックに加えて、画像調整部25が加わっている。画像調整部25は、付加パターン合成時に加算値が画素値の最大値(たとえば255)を超えたり、あるいは減算時に画素値の最小値(たとえば0)を下回らないようにあらかじめダイナミックレンジを下げておくものである。
[Other variations]
Instead of the functional block shown in FIG. 2, a functional block as shown in FIG. 13 may be used. In FIG. 13, an image adjusting unit 25 is added to the functional blocks shown in FIG. The image adjustment unit 25 lowers the dynamic range in advance so that the added value does not exceed the maximum pixel value (for example, 255) at the time of additional pattern synthesis or falls below the minimum pixel value (for example, 0) at the time of subtraction. Is.

また、画像データ解析部21の説明では、採用する誤り訂正符号の誤り訂正可能ビット数tをn個のセル中で所定の値を超える特徴量を持つセルの数と比較したが、プリント時にはレーザービーム・プリンタであればトナーの飛び散りや感光体の傷の影響、さらにプリント後のよごれやかすれ、なども考慮し、tよりも小さな値t0を比較の対象としてもよい。   In the description of the image data analysis unit 21, the number t of error correctable bits t of the employed error correction code is compared with the number of cells having a feature value exceeding a predetermined value in n cells. In the case of a beam printer, a value t0 smaller than t may be used for comparison in consideration of scattering of toner, scratches on the photosensitive member, and dirt and fading after printing.

さらに、付加画像の生成に用いるパターンも図10に示したものだけに限られず、例えば少なくとも2方向にエッジを有するパターンであれば、いかなるものであってもよい。   Furthermore, the pattern used for generating the additional image is not limited to that shown in FIG. 10, and may be any pattern as long as it has edges in at least two directions.

本発明の実施の画像処理装置の一例を表す構成ブロック図である。1 is a configuration block diagram illustrating an example of an image processing apparatus according to an embodiment of the present invention. 本発明の実施の画像処理装置における符号化処理の一例を表す機能ブロック図である。It is a functional block diagram showing an example of the encoding process in the image processing apparatus of implementation of this invention. 符号化方法の設定例を表す説明図である。It is explanatory drawing showing the example of a setting of an encoding method. 各セルの特徴量を記録するテーブルである。It is a table which records the feature-value of each cell. 特徴量とセルの識別が容易になるためのパターン強度および減衰率の組み合わせの一例を示すテーブルである。It is a table which shows an example of the combination of the pattern intensity | strength and attenuation factor for the feature quantity and cell identification becoming easy. 本発明の実施の画像処理装置における復号処理の例を表す機能ブロック図である。It is a functional block diagram showing the example of the decoding process in the image processing apparatus of implementation of this invention. セルの分割例を表す説明図である。It is explanatory drawing showing the example of a division | segmentation of a cell. 画素の高低の例を表す説明図である。It is explanatory drawing showing the example of the height of a pixel. 画素の高低の例を表す説明図である。It is explanatory drawing showing the example of the height of a pixel. 付加画像データの生成に用いるパターンの例を表す説明図である。It is explanatory drawing showing the example of the pattern used for the production | generation of additional image data. パターンの生成例を表す説明図である。It is explanatory drawing showing the example of a pattern production | generation. セル内での画素の高低の例を表す説明図である。It is explanatory drawing showing the example of the height of the pixel in a cell. 本発明の実施の画像処理装置における符号化処理の別の一例を表す機能ブロック図である。It is a functional block diagram showing another example of the encoding process in the image processing apparatus of implementation of this invention.

符号の説明Explanation of symbols

11 制御部、12 記憶部、13 操作部、14 表示部、15 入出力部、21 画像データ解析部、22 付加情報符号化部、23 付加画像生成部、24 合成部、25 画像調整部、 31 パターン画像作成部、32 パターン選択部、33 パターン配列部、41 画像データ保持部、42 傾き補正部、43 セルサイズ推定部、44 セル位置検出部、45 付加情報識別部、46 付加情報復号部。
DESCRIPTION OF SYMBOLS 11 Control part, 12 Storage part, 13 Operation part, 14 Display part, 15 Input / output part, 21 Image data analysis part, 22 Additional information encoding part, 23 Additional image generation part, 24 Composition part, 25 Image adjustment part, 31 Pattern image creation unit, 32 pattern selection unit, 33 pattern arrangement unit, 41 image data holding unit, 42 tilt correction unit, 43 cell size estimation unit, 44 cell position detection unit, 45 additional information identification unit, 46 additional information decoding unit.

Claims (9)

処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理装置であって、
前記画像データを入力する画像入力手段と、
前記付加情報を入力する付加情報入力手段と、
前記付加情報を符号化する付加情報符号化手段と、
前記入力された画像データから所定の特徴量を演算する特徴量演算手段と、
前記所定の特徴量と、前記付加情報符号化手段で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する付加画像生成手段と、を備えることを特徴とする画像処理装置。
An image processing device that synthesizes additional image data based on additional information to be embedded with image data to be processed, and generates combined image data,
Image input means for inputting the image data;
Additional information input means for inputting the additional information;
Additional information encoding means for encoding the additional information;
Feature quantity computing means for computing a predetermined feature quantity from the input image data;
An image processing apparatus comprising: an additional image generation unit configured to generate additional image data based on the predetermined feature amount and an error correction capability of an encoding method used in the additional information encoding unit.
請求項1に記載の画像処理装置において、前記所定の特徴量は、所定の部分画像データの画素値の分散または所定の部分画像データを等分割して求めた所定の画素値の差分に基づいて決定される量であることを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the predetermined feature amount is based on a distribution of pixel values of predetermined partial image data or a difference between predetermined pixel values obtained by equally dividing the predetermined partial image data. An image processing apparatus characterized in that the amount is determined. 請求項1に記載の画像処理装置において、前記付加画像生成手段は、前記所定の特徴量に応じて、前記付加画像データの強度を変更することを特徴とする画像処理装置。   The image processing apparatus according to claim 1, wherein the additional image generation unit changes an intensity of the additional image data in accordance with the predetermined feature amount. 処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理装置であって、
前記画像データを入力する画像入力手段と、
前記入力された画像データを補正する画像補正手段と、
前記付加情報を入力する付加情報入力手段と、
前記付加情報を符号化する付加情報符号化手段と、
前記補正された画像データから所定の特徴量を演算する特徴量演算手段と、
前記所定の特徴量と、前記付加情報符号化手段で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する付加画像生成手段とを備えることを特徴とする画像処理装置。
An image processing device that synthesizes additional image data based on additional information to be embedded with image data to be processed, and generates combined image data,
Image input means for inputting the image data;
Image correcting means for correcting the input image data;
Additional information input means for inputting the additional information;
Additional information encoding means for encoding the additional information;
Feature amount calculating means for calculating a predetermined feature amount from the corrected image data;
An image processing apparatus comprising: an additional image generation unit configured to generate additional image data based on the predetermined feature amount and an error correction capability of an encoding method used by the additional information encoding unit.
請求項4に記載の画像処理装置において、前記画像補正手段は、前記付加画像生成手段で生成した付加画像データの画素値が所定の範囲内に収まるように前記画像データを補正することを特徴とする画像処理装置。   5. The image processing apparatus according to claim 4, wherein the image correction unit corrects the image data so that a pixel value of the additional image data generated by the additional image generation unit is within a predetermined range. An image processing apparatus. 請求項4に記載の画像処理装置において、前記所定の特徴量は、前記補正画像の部分画像データの画素値の分散または前記補正画像の部分画像データを等分割して求めた所定の画素値の差分に基づいて決定される量であることを特徴とする画像処理装置。   5. The image processing apparatus according to claim 4, wherein the predetermined feature amount is a predetermined pixel value obtained by dividing a pixel value of partial image data of the corrected image or by equally dividing the partial image data of the corrected image. An image processing apparatus characterized in that the amount is determined based on a difference. 請求項4に記載の画像処理装置において、前記付加画像生成手段は、前記所定の特徴量に応じて、前記付加画像データの強度を変更することを特徴とする画像処理装置。   5. The image processing apparatus according to claim 4, wherein the additional image generation unit changes the intensity of the additional image data in accordance with the predetermined feature amount. 処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理方法であって、
前記画像データを入力する工程と、
前記付加情報を入力する工程と、
前記付加情報を符号化する工程と、
前記入力された画像データから所定の特徴量を演算する工程と、
前記所定の特徴量と、前記付加情報を符号化する際に用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する工程と、を有することを特徴とする画像処理方法。
An image processing method for synthesizing additional image data based on additional information to be embedded with image data to be processed, and generating combined image data,
Inputting the image data;
Inputting the additional information;
Encoding the additional information;
Calculating a predetermined feature amount from the input image data;
An image processing method comprising: generating additional image data based on the predetermined feature amount and an error correction capability of an encoding method used when encoding the additional information.
コンピュータを用いて、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理プログラムであって、前記コンピュータに、
前記画像データを入力する手順と、
前記付加情報を入力する手順と、
前記付加情報を符号化する手順と、
前記入力された画像データから所定の特徴量を演算する手順と、
前記所定の特徴量と、前記付加情報を符号化する際に用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する手順と、
を実行させることを特徴とする画像処理プログラム。
An image processing program for synthesizing additional image data based on additional information to be embedded with respect to image data to be processed using a computer, and generating combined image data.
A procedure for inputting the image data;
A procedure for inputting the additional information;
A procedure for encoding the additional information;
A procedure for calculating a predetermined feature amount from the input image data;
A procedure for generating additional image data based on the predetermined feature amount and an error correction capability of an encoding method used when encoding the additional information;
An image processing program for executing
JP2004017408A 2004-01-26 2004-01-26 Image processing apparatus and image processing method Pending JP2005210622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004017408A JP2005210622A (en) 2004-01-26 2004-01-26 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004017408A JP2005210622A (en) 2004-01-26 2004-01-26 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2005210622A true JP2005210622A (en) 2005-08-04

Family

ID=34902243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004017408A Pending JP2005210622A (en) 2004-01-26 2004-01-26 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2005210622A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205892A (en) * 2007-02-21 2008-09-04 Fuji Xerox Co Ltd Image processor, image processing system and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008205892A (en) * 2007-02-21 2008-09-04 Fuji Xerox Co Ltd Image processor, image processing system and image processing program

Similar Documents

Publication Publication Date Title
JP4000316B2 (en) Generation of figure codes by halftoning using embedded figure coding
JP4035717B2 (en) Image processing apparatus and image processing method
JP4591211B2 (en) Image processing apparatus, image processing method, medium, code reading apparatus, and program
JP2010103681A (en) Image processing device and method
JP2006295606A (en) Image processor, its processing method, program, and storage medium
JP2006050551A (en) Image processing apparatus, image processing method, program and storage medium
US10992837B2 (en) Information processing apparatus, control method thereof, and storage medium
US7840027B2 (en) Data embedding apparatus and printed material
US20070110273A1 (en) Image processing method and image processing program product
JP5145833B2 (en) Two-dimensional code reading device, two-dimensional code reading method, two-dimensional code reading program, and recording medium
JP4140519B2 (en) Image processing apparatus, program, and recording medium
US7616837B2 (en) Image processing apparatus, image processing method, program, and storage medium
US20090219578A1 (en) Apparatus and method to revise halftone image, and image forming apparatus using the same
JP4179177B2 (en) Image processing apparatus and image processing method
US20070104349A1 (en) Tally image generating method and device, tally image generating program, and confidential image decoding method
JP2005210622A (en) Image processing apparatus and image processing method
JP2007299098A (en) Qr code reader
JP4635814B2 (en) Image processing apparatus, image processing method, and image processing program
JP2002027245A (en) Image processor, image processing method, and storage medium
US7889884B2 (en) Image processing apparatus and method
JP2005101768A (en) Image processing apparatus
JP4892729B2 (en) Information embedding method and information reading method in texture image, information embedding device and information reading device in texture image
JP2006080722A (en) Coded image generator
JP2005101767A (en) Image processing apparatus
US20240098208A1 (en) Image processing apparatus, control method therefor, and storage medium storing control program therefor