JP2005210622A - Image processing apparatus and image processing method - Google Patents
Image processing apparatus and image processing method Download PDFInfo
- Publication number
- JP2005210622A JP2005210622A JP2004017408A JP2004017408A JP2005210622A JP 2005210622 A JP2005210622 A JP 2005210622A JP 2004017408 A JP2004017408 A JP 2004017408A JP 2004017408 A JP2004017408 A JP 2004017408A JP 2005210622 A JP2005210622 A JP 2005210622A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- additional information
- additional
- encoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Television Systems (AREA)
- Editing Of Facsimile Originals (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Error Detection And Correction (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、多階調で表現された画像内に情報を埋め込む装置とその方法、及び、画像内に埋め込まれた情報を検出する装置とその方法に関するものである。 The present invention relates to an apparatus and method for embedding information in an image expressed in multiple gradations, and an apparatus and method for detecting information embedded in an image.
近年、付加的な情報を、視覚的には容易に識別できない態様で画像データ(処理対象の画像データ)に合成するといった、いわゆる電子すかし技術が研究され、実用化されている。こうした電子すかしを合成した画像データは、後に読み取って復号され、文書の認証など、所定の処理に供されている。 In recent years, so-called electronic watermark technology has been studied and put into practical use, such as synthesizing additional information with image data (image data to be processed) in a manner that cannot be easily visually identified. Image data obtained by combining such electronic watermarks is read and decoded later, and is subjected to predetermined processing such as document authentication.
しかしながら、紙媒体に形成した画像データには、プリントおよびスキャンによるD/A,A/D変換、色変換、スクリーンによる2値化処理、プリンタおよびスキャナの解像度の違いによって生じる解像度変換、スキャン時のスキュー(傾き)に加えてノイズや、プリンタおよびスキャナの機械的動作に伴う画素位置のずれ(面内むら)、入力機器としてデジタルカメラを用いる場合の収差など、種々の画質劣化要因があり、合成された情報を安定して読み取ることができない。 However, image data formed on a paper medium includes D / A, A / D conversion by printing and scanning, color conversion, binarization processing by a screen, resolution conversion caused by a difference in resolution between a printer and a scanner, and scanning In addition to skew (tilt), there are various image quality degradation factors such as noise, pixel position shift (in-plane unevenness) due to mechanical operation of printers and scanners, and aberrations when using a digital camera as an input device. Information cannot be read stably.
そこで、情報を「0」又は「1」の二進数で符号化する場合に、「0」,「1」の各符号について、図10に示すような2種類のパターン画像の各々を対応づけておき、符号化して得た符号列について、それに含まれる各符号に対応するパターン画像を順次選択して所定順序に配列し、付加画像を得て、これを合成すると、上記紙媒体などにおける画質劣化に対する耐性を獲得できる。 Therefore, when the information is encoded with a binary number of “0” or “1”, each of the two types of pattern images as shown in FIG. 10 is associated with each of the codes “0” and “1”. In addition, for the code string obtained by encoding, pattern images corresponding to the respective codes included in the code string are sequentially selected and arranged in a predetermined order to obtain an additional image. You can gain resistance to.
すなわち、図10に示したパターン画像は、図11に示すように、符号「1」を意味する基本パターン(A)と、符号「0」を意味する基本パターン(B)とを定義しておき、これらの各要素の値(画素値)に図11(C)に示す(1)式または(2)式のような式(これらの式においてCは埋め込み強度、αは減衰率であり、利用者等によって予め指定されているとする)によって定義される値を乗じて得たものである。なお、(1)、(2)式でX,Yは、パターン画像の中心を(X,Y)=(0,0)としたときの各画素の座標(X,Y)の値である。 That is, the pattern image shown in FIG. 10 defines a basic pattern (A) meaning “1” and a basic pattern (B) meaning “0” as shown in FIG. The values (pixel values) of these elements are represented by equations (1) or (2) shown in FIG. 11C (in these equations, C is the embedding strength, α is the attenuation factor, and It is obtained by multiplying the value defined by the user). In the equations (1) and (2), X and Y are the values of the coordinates (X, Y) of each pixel when the center of the pattern image is (X, Y) = (0, 0).
この乗算の結果、図11(A),(B)のそれぞれに基づいて、図10に示した各パターン画像が生成される。なお、図10では、図示の都合上、濃度の違いをハッチングの違いによって示している。これらのパターン画像は、
(1)双方のパターン画像の対応する画素同士を加算した結果は、いずれも同じ所定値(例えば「0」)になる、
(2)各々のパターン画像中の全画素を加算した結果は、いずれも同じ所定値(例えば「0」)になる、
(3)各々のパターン画像は、画像の中心部を通り、その方向が異なる、画素値の2つの不連続線(エッジと呼ぶ)を有する。図10の例では、縦横に直交してエッジが形成されている、
(4)各々のパターン画像の持つ画素値の絶対値は中心でもっとも大きく、中心から離れるほど小さくなる、
という特徴を有している。このように面積を持ったパターンによって符号を表現することで各画質劣化要因に対する耐性を獲得する一方、合成後に画像の濃度が大きく変化することが防止され((1),(2)の特徴による)、パターン画像の検出が容易で復号処理が簡便となり((2),(3)の特徴による)、かつパターン間でのエッジの発生が防止されて((4)の特徴による)、その存在が視覚的に目立たないようになる。
As a result of this multiplication, each pattern image shown in FIG. 10 is generated based on each of FIGS. 11 (A) and 11 (B). In FIG. 10, for the sake of illustration, the difference in density is indicated by the difference in hatching. These pattern images
(1) The result of adding the corresponding pixels of both pattern images is the same predetermined value (for example, “0”).
(2) The result of adding all the pixels in each pattern image is the same predetermined value (for example, “0”).
(3) Each pattern image has two discontinuous lines (called edges) of pixel values that pass through the center of the image and have different directions. In the example of FIG. 10, edges are formed orthogonally in the vertical and horizontal directions.
(4) The absolute value of the pixel value of each pattern image is the largest at the center and decreases as the distance from the center increases.
It has the characteristics. In this way, by expressing the code by a pattern having an area, the resistance to each image quality deterioration factor is acquired, while the density of the image is prevented from changing greatly after composition (by the characteristics of (1) and (2)). ) The pattern image can be easily detected and the decoding process is simplified (by the features (2) and (3)), and the occurrence of an edge between patterns is prevented (by the feature (4)). Becomes visually inconspicuous.
このパターン画像を合成した画像を、復号する際は、パターン画像内のエッジによって仕切られた各象限に相当する合成後の画素値の和(第1から第4象限についてR1からR4)を算出し、例えば、R1>R2かつR1>R4かつR3>R2かつR3>R4の場合に符号「1」であると判定する。すなわち、各象限ごとの画素値群の和の比較によって復号を行うことができる。 When decoding an image obtained by synthesizing this pattern image, a sum of pixel values after synthesis corresponding to each quadrant divided by edges in the pattern image (R1 to R4 for the first to fourth quadrants) is calculated. For example, when R1> R2 and R1> R4 and R3> R2 and R3> R4, it is determined that the code is “1”. That is, decoding can be performed by comparing the sum of pixel value groups for each quadrant.
ところが、このようなパターン画像を用いたときには、合成の対象となる画像データの内容によっては、合成の結果の画像から、各パターン画像の読み取りが困難になる場合がある。すなわち、合成先の画像データに高周波成分を含む部分があり、例えば画素値が図12に示すように、合成されるパターン画像のエッジ部分を境界として、第1象限(右上側のブロック)から第4象限(右下側のブロック)へ(角度方向に)順に、平均的にその輝度が「低」、「高」、「高」、「高」となっている場合、ここに符号「1」に対応するパターン画像を合成した結果は、R1からR4の値がいずれも「高」となって、R1からR4の値の間に有意な差ができず、「1」であるとの判定が事実上困難になる。 However, when such a pattern image is used, depending on the content of the image data to be combined, it may be difficult to read each pattern image from the combined image. That is, there is a portion including high-frequency components in the image data to be combined. For example, as shown in FIG. 12, the pixel value has a boundary from the edge portion of the pattern image to be combined as a boundary from the first quadrant (the upper right block). If the brightness is “low”, “high”, “high”, “high” on average in order (in the angular direction) to the four quadrants (lower right block), the symbol “1” is used here. As a result of synthesizing the pattern image corresponding to, the values of R1 to R4 are all “high”, there is no significant difference between the values of R1 to R4, and it is determined that the value is “1”. It becomes practically difficult.
従って、上記のような埋め込み手法および復号手法を用いた場合は、画像の平坦部に埋め込んだ信号は検出が容易で、そうでない部分、つまりエッジ部分や複雑な絵柄部分などでは埋め込んだ信号の検出が難しくなる。 Therefore, when the embedding method and decoding method as described above are used, it is easy to detect the signal embedded in the flat part of the image, and detection of the signal embedded in the other part, that is, the edge part or the complicated pattern part. Becomes difficult.
このような場合に、埋め込み対象画像の特徴を考慮せずに一様な強度で付加画像データを生成して合成すると、安定した復号ができなかったり、あるいは必要以上に画像を劣化させてしまう。 In such a case, if additional image data is generated and synthesized with a uniform intensity without considering the characteristics of the embedding target image, stable decoding cannot be performed, or the image is deteriorated more than necessary.
このような問題を部分的に解決する例として、発明者はすでにブロック状の付加画像パターン(以降セルと呼ぶ)の強度Cを、合成先のブロック画像から求めた特徴量に応じて制御する手法を報告している。しかし、所定の画像サイズに所定の情報量の付加情報を埋め込む場合には、必ずしも全てのセルに対して、特徴量に応じた埋め込み強度を適用する必要はなく、画質改善の余地がある。 As an example for partially solving such a problem, the inventor has already controlled the intensity C of a block-shaped additional image pattern (hereinafter referred to as a cell) according to the feature amount obtained from the block image at the synthesis destination. Has been reported. However, when embedding additional information with a predetermined information amount in a predetermined image size, it is not always necessary to apply the embedding strength according to the feature amount to all cells, and there is room for improvement in image quality.
すなわち、所定の画像サイズに所定の情報量の付加情報を符号化して画像内に付加情報を合成する場合には、符号化方法として採用した誤り訂正符号に依存する訂正能力が存在するため、すべてのセルから正しい埋め込み情報を識別する必要はなく、そのため、識別が難しいと予測されるセルに対しては、周辺のセルの状況に応じて、その識別を容易化させるためにより強めの強度で作成した付加画像データを合成する必要はない。 That is, when additional information of a predetermined amount of information is encoded into a predetermined image size and the additional information is synthesized in the image, since there is a correction capability depending on the error correction code adopted as the encoding method, all It is not necessary to identify the correct embedded information from other cells, so for cells that are expected to be difficult to identify, create a stronger strength to facilitate identification depending on the situation of surrounding cells There is no need to synthesize the added image data.
誤り訂正を効果的に用いて、読み取りの安定化を向上させる試みはいくつか存在する。例えば、下記特許文献1に記載されている技術は、埋め込まれる情報側の性質に応じて誤り訂正符号の能力を決定することで、最大限の情報を埋め込み可能にする技術を開示している。
There are several attempts to use error correction effectively to improve reading stability. For example, the technique described in
また、下記特許文献2に記載されている技術では、印刷に用いる紙の種類(たとえば、普通紙、光沢紙など)の違いにより用いる誤り訂正符号を変更することにより使用する紙に対して最大限の埋め込み情報量を得るという技術を開示している。
しかし、上記従来の技術においては、合成を受ける側の画像データ(処理対象となった画像データ)の性質や付加情報の符号化に用いられる符号の特性などを考慮した埋め込みは行っておらず、画像劣化の抑制及び正確な復号の点で十分な効果を得られていないという問題があった。 However, in the above conventional technique, embedding is not performed in consideration of the characteristics of the image data on the side to be combined (image data to be processed) and the characteristics of the code used for encoding the additional information. There is a problem that sufficient effects cannot be obtained in terms of suppression of image degradation and accurate decoding.
本発明は、上述した事情に鑑みてなされたものであり、紙上に画像を印刷した場合でも、画質劣化を最小限に抑えた上で最大限の付加情報を画像内に多重化でき、かつ安定な付加情報の復元が可能となる画像処理装置および画像処理方法を提供することを、その目的の一つとする。 The present invention has been made in view of the above-described circumstances. Even when an image is printed on paper, the maximum additional information can be multiplexed in the image while minimizing image quality degradation, and is stable. An object of the present invention is to provide an image processing apparatus and an image processing method that can restore additional information.
上記目的を達成するために、本発明は、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理装置であって、前記画像データを入力する画像入力手段と、前記付加情報を入力する付加情報手段と、前記付加情報を符号化する付加情報符号化手段と、前記入力された画像データから所定の特徴量を演算する特徴量演算手段と、前記所定の特徴量と、前記付加情報符号化手段で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する付加画像生成手段と、を備えることを特徴とする。 In order to achieve the above object, the present invention provides an image processing apparatus that synthesizes additional image data based on additional information to be embedded with image data to be processed and generates combined image data. An image input means for inputting the image data, an additional information means for inputting the additional information, an additional information encoding means for encoding the additional information, and a predetermined feature amount from the input image data Characteristic amount calculating means for calculating the additional image data based on the predetermined characteristic amount and the error correction capability of the encoding method used in the additional information encoding means. It is characterized by that.
ここで、前記所定の特徴量は、所定の部分画像データの画素値の分散または所定の部分画像データを等分割して求めた所定の画素値の差分に基づいて決定される量であることを特徴とする。また、前記付加画像生成手段は、前記所定の特徴量に応じて、前記付加画像データの強度を変更することを特徴とする。 Here, the predetermined feature amount is an amount determined based on a dispersion of pixel values of predetermined partial image data or a difference between predetermined pixel values obtained by equally dividing the predetermined partial image data. Features. Further, the additional image generation means changes the intensity of the additional image data in accordance with the predetermined feature amount.
また、本発明は、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理装置であって、前記画像データを入力する画像入力手段と、前記入力された画像データを補正する画像補正手段と、前記付加情報を入力する付加情報手段と、前記付加情報を符号化する付加情報符号化手段と、前記補正された画像データから所定の特徴量を演算する特徴量演算手段と、前記所定の特徴量と、前記付加情報符号化手段で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する付加画像生成手段とを備えることを特徴とする。 In addition, the present invention is an image processing apparatus that synthesizes additional image data based on additional information to be embedded with image data to be processed, and generates combined image data, the image data Image input means for inputting the image data, image correction means for correcting the input image data, additional information means for inputting the additional information, additional information encoding means for encoding the additional information, and the corrected Additional image data is generated based on the feature amount calculating means for calculating a predetermined feature amount from the obtained image data, the predetermined feature amount, and the error correction capability of the encoding method used in the additional information encoding means. And an additional image generating means.
ここで、前記画像補正手段は、前記付加画像生成手段で生成した付加画像データの画素値が所定の範囲内に収まるように前記画像データを補正することを特徴とする。また、前記所定の特徴量は、前記補正画像の部分画像データの画素値の分散または前記補正画像の部分画像データを等分割して求めた所定の画素値の差分に基づいて決定される量であることを特徴とする。また、前記付加画像生成手段は、前記所定の特徴量に応じて、前記付加画像データの強度を変更することを特徴とする。 Here, the image correction unit corrects the image data so that the pixel value of the additional image data generated by the additional image generation unit falls within a predetermined range. The predetermined feature amount is an amount determined based on a variance of pixel values of the partial image data of the corrected image or a difference between predetermined pixel values obtained by equally dividing the partial image data of the corrected image. It is characterized by being. Further, the additional image generation means changes the intensity of the additional image data in accordance with the predetermined feature amount.
また、本発明は、コンピュータに、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成させる画像処理方法であって、前記画像データを入力する工程と、前記付加情報を入力する工程と、前記付加情報を符号化する工程と、前記入力された画像データから所定の特徴量を演算する工程と、前記所定の特徴量と、前記付加情報を符号化する際に用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する工程と、を有することを特徴とする。 Further, the present invention is an image processing method for causing a computer to synthesize additional image data based on additional information to be embedded with image data to be processed, and to generate combined image data, A step of inputting the image data; a step of inputting the additional information; a step of encoding the additional information; a step of calculating a predetermined feature amount from the input image data; and the predetermined feature amount And generating additional image data based on the error correction capability of the encoding method used when encoding the additional information.
さらに、本発明は、コンピュータを用いて、処理対象となった画像データに対して、埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する画像処理プログラムであって、前記コンピュータに、前記画像データを入力する手順と、前記付加情報を入力する手順と、前記付加情報を符号化する手順と、前記入力された画像データから所定の特徴量を演算する手順と、前記所定の特徴量と、前記付加情報を符号化する際に用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する手順と、を実行させることを特徴とする。 Furthermore, the present invention is an image processing program that uses a computer to synthesize additional image data based on additional information to be embedded with image data to be processed to generate composite image data. A procedure for inputting the image data to the computer; a procedure for inputting the additional information; a procedure for encoding the additional information; and a procedure for calculating a predetermined feature amount from the input image data; And a procedure for generating additional image data based on the predetermined feature amount and an error correction capability of an encoding method used when encoding the additional information.
以下、本発明を実施するための最良の形態(以下、実施形態という)を、図面に従って説明する。 Hereinafter, the best mode for carrying out the present invention (hereinafter referred to as an embodiment) will be described with reference to the drawings.
本実施の形態に係る画像処理装置は、図1に示すように、制御部11と記憶部12と操作部13と表示部14と入出力部15とを含んで構成されている。制御部11は、記憶部12に格納された画像処理プログラムに従って動作しており、処理対象となった画像データに対して埋め込みの対象となった付加情報に基づく付加画像データを合成し、合成画像データを生成する処理を行う。この処理の具体的内容については、後に詳しく述べる。
As shown in FIG. 1, the image processing apparatus according to the present embodiment includes a
記憶部12は、制御部11によって実行されるプログラムを保持する、コンピュータ可読な記録媒体を含む。また、この記憶部12は、制御部11による画像処理の過程で生じる種々のデータを格納するワークメモリとしても動作する。
The
操作部13は、キーボードやマウス等であり、利用者の操作を受けて、その操作内容を制御部11に出力する。表示部14は、制御部11から入力される指示に従って、利用者に対して情報を提示する。
The
入出力部15は、外部から入力されるデータを制御部11に出力する。また、この入出力部15は、制御部11から入力される指示に従ってデータをプリンタ等の外部の装置に出力する。
The input /
ここで、制御部11の処理の具体的な内容について述べる。制御部11は、処理対象となった画像データを記憶部12に格納し、以下に説明するプログラムに従って、この画像データに付加画像データを合成する。
Here, specific contents of the processing of the
制御部11によって実行されるプログラムは、機能的には図2に示すように、画像データ解析部21と、付加情報符号化部22と、付加画像生成部23と、合成部24とを含んで構成されている。
Functionally, the program executed by the
画像データ解析部21は、埋め込みの対象(処理対象)となる画像を合成されるパターン画像と同じサイズのセルに分割し、そのセル毎に画像を解析してある特徴量Aを算出し、その特徴量Aが予め定めてある閾値を超えている場合はその値を、そうでない場合は0(ゼロ)をテーブルなどの各要素に記憶する。具体的には、図4に示したように、画像内に配置できるセル数と同じ要素数の2次元配列をテーブルとして用いれば、各要素の値すなわち2次元配列の各要素に記憶された値によりセルの位置とそのセルの特徴量Aとの関係を記憶できる。
The image
次に、前記2次元配列をラスタスキャン順(左から右へ走査して得たラインを、上から下へ走査する順)にスキャンし、後述する付加情報符号化部22で用いられている誤り訂正符号の符号長と同数の要素の値を取り出してくる。その取り出された要素の値が0(ゼロ)でないセルの数が誤り訂正符号の誤り訂正可能ビット数以下であった場合には、それらの要素の値も0(ゼロ)に書き換える。また、上記要素の値が0(ゼロ)でないセルの数が誤り訂正符号の訂正可能ビット数を超えていた場合は、要素の値が0(ゼロ)以外でかつ要素の値が小さいセルから順に、要素の値が0(ゼロ)以外のセルの数から訂正可能なビット数を差し引いた数だけのセルについて要素の値の記憶を残し、それ以外のセルについて要素の値をすべて0(ゼロ)に書き換える。
Next, the two-dimensional array is scanned in the raster scan order (the order obtained by scanning the lines obtained by scanning from the left to the right from the top to the bottom), and an error used in the additional
具体的には、符号化方法として、BCH符号(パラメータnは符号長、パラメータkは情報ビット数、パラメータtは訂正可能なビット数)を用いたとすると、2次元配列の要素をラスタスキャン順にn個ずつ取り出し、その中に要素の値が0(ゼロ)でないセルがt個以下であれば、そこに記憶されている値をすべて0(ゼロ)にし、逆に、要素の値が0(ゼロ)でないセルがt1個(t1>t)であれば、要素の値が0(ゼロ)以外でかつ小さいほうからt1−t個だけの要素の値のみを残し、その他の要素の値はすべて0(ゼロ)に書き換える。なお、前記特徴量Aは付加情報の埋め込み難易度、あるいは読み取り時の識別(復号)の難しさを表す尺度であり、その算出については後に詳しく述べる。 Specifically, if a BCH code (parameter n is the code length, parameter k is the number of information bits, and parameter t is the number of bits that can be corrected) is used as the encoding method, the elements of the two-dimensional array are n in the raster scan order. If there are t cells whose element value is not 0 (zero), the values stored there are all 0 (zero), and conversely, the element value is 0 (zero). ) If there are t1 cells (t1> t), the element value is other than 0 (zero) and only the t1-t element values from the smallest are left, and the other element values are all 0 Rewrite to (zero). The feature amount A is a scale representing the difficulty of embedding additional information or the difficulty of identification (decoding) at the time of reading, and the calculation thereof will be described in detail later.
付加情報符号化部22は、予め定めれらた符号化方法に基づいて付加情報を符号化する。なお、上述の説明では、符号化方法の例としてBCH符号を取り上げたが、符号化方法はこれに限定されるものではない。
The additional
付加画像生成部23は、付加情報符号化部22が符号化した付加情報の符号化列と、画像データ解析部21が記憶した2次元配列を元に付加画像データを生成する。具体的に、この付加画像生成部23は、図3に示したように、各符号に対応する複数のパターン画像を作成するパターン画像作成部31と、当該符号列を構成する各符号に対応するパターン画像を選択しつつ出力するパターン選択部32と、選択されたパターン画像を配列するパターン配列部33とを含んでいる。
The additional
パターン画像作成部31は、図10に示したような、符号「0」と「1」とのそれぞれに対応するパターン画像を作成するが、その強度(大きさ)は画像データ解析部21が作成した2次元配列を参照して決定する。具体的に、図10のような画像パターンが図11(C)の(1)式や(2)式により生成されるとすると、図5に示したような予め作成されている所定特徴量Aとそれに対応する埋め込み強度Cおよび減衰率αに関するテーブルと前記2次元配列とを参照し、2次元配列の各要素の値を図5の所定特徴量Aとして、これに応じて埋め込み強度Cおよび減衰率αで画像パターンを順次作成する。なお図5に示したようなテーブルは、後述する識別法により識別が容易となる強度や減衰率を予め実験して求めておけばよい。
The pattern
パターン選択部32は、付加情報の符号化結果である符号列を参照しながら、パターン画像作成部31が出力する複数のパターン画像のうち、符号列に含まれる各符号に対応するパターン画像を順次(符号列の順に)選択して出力する。
The
パターン配列部33は、画像データのサイズを(X,Y)、画像パターンのサイズを(W,H)とした場合、パターン選択部32が出力したパターン画像を、INT(X/W)×INT(Y/H)個のマトリクス状にパターン画像を配列する。ここで配列の順序は、ラスタスキャンと同じ順である。
When the size of the image data is (X, Y) and the size of the image pattern is (W, H), the
以上のようにして、画像データの特徴量と、付加情報符号化部22で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成することができる。
As described above, the additional image data can be generated based on the feature amount of the image data and the error correction capability of the encoding method used in the additional
合成部24は、付加画像生成部23が生成した付加画像を、処理対象となった画像データ上の対応するマクロブロック領域に相当する範囲に合成する。すなわち、合成部24は、記憶部12に格納されている処理対象の画像データの対応する画素値に、付加画像の画素値を加算して出力する。ここで加算値が画素値の最大値(例えば255)を超えたときには、その値を最大値に設定し、加算値が画素値の最小値(例えば0)を下回ったときには、その値を最小値に設定する。
The synthesizing
次に、こうして付加画像を合成した後の画像データは制御部11の処理により、入出力部15を介してプリンタに出力され、プリンタが、当該画像データの入力を受けて、画像データによって表される画像を、用紙等の媒体上に形成することとなる。
Next, the image data after combining the additional images in this way is output to the printer via the input /
[復号の処理]
次に、こうして媒体上に形成された画像から付加情報を復号する方法について説明する。なお、付加情報を復号する装置も、図1に示した画像処理装置を用いて実現できる。すなわち、図示しないスキャナで、媒体上に形成された画像を読み取って画像データを得、この画像データを制御部11において処理して復号を行えばよい。以下、図1に示した画像処理装置を用いて復号の処理を行う場合を例として説明する。
[Decryption process]
Next, a method for decoding additional information from the image thus formed on the medium will be described. An apparatus for decoding the additional information can also be realized using the image processing apparatus shown in FIG. That is, a scanner (not shown) may read an image formed on the medium to obtain image data, and the image data may be processed and decoded by the
この復号の処理を行うための制御部11のプログラムは、機能的に図6に示すように、画像データ保持部41と、傾き補正部42と、セルサイズ推定部43と、セル位置検出部44と、付加情報識別部45と、付加情報復号部46とを含む。
As shown in FIG. 6, the program of the
図示しないスキャナにて読み取られた画像データは、画像データ保持部41によって記憶部12内に保持される。なお、ここでスキャナ等から入力される画像データに圧縮が行われているときには、当該圧縮された画像データを、元の画像データ(ビットマップのデータ)に伸長ないし復元する。傾き補正部42は、広く知られた方法によって、画像データ保持部41が保持している画像データの傾きを補正する。
Image data read by a scanner (not shown) is held in the
セルサイズ推定部43は、傾き補正後の画像データから付加画像の単位であるセルのサイズを推定する。具体的に、付加画像が図10に示したようなエッジを含むものである場合、このエッジを検出することにより、エッジ間隔に基づいてセルサイズを推定する。すなわち、画素値が急激に変化する高周波成分のみを抽出したエッジ抽出画像を生成し、このエッジ抽出画像に関する自己相関関数のピーク位置からセルサイズを推定する。この処理により、印刷から読み取りまでの過程で画像データのサイズが変化し、セルのサイズが変化しても、復号処理を遂行できるようになっている。
The cell
セル位置検出部44は、推定されたセルサイズに基づき、画像データから付加画像を表す各パターンの位置(すなわちセルの位置)を検出する。このセル位置の検出は、例えば、図10、図11に示した各符号を表すパターン画像のうち、いずれか一方のパターン画像における極性情報(図11(A)又は(B)を参照)に対応して、例えば「−1」を黒、「1」を白とした2値パターンを生成し、これをマスクとしてセルサイズに従ってマトリクス状に配列したマスク画像データを生成する。そしてマスク画像データと、画像データ保持部41で保持している画像データとの間で相関演算を行い、当該相関演算の結果が極大又は極小となる点を抽出し、それらを画像データの水平、垂直方向に投影する。すると、図10に示したようにパターン画像中央部に2つのエッジの交点がある場合、略中央部に相関演算結果の極大、極小が現れるので、当該極大極小位置の投影位置を中心として、推定して得たセルサイズの±1/2だけ水平又は垂直方向に移動した位置がセル間の境界位置として画定できることとなる。
The cell
なお、ここでいずれか一方のパターン画像に対応するマスク画像を生成しているだけなのは、図11のパターン画像は、その極性が互いに逆となっているからである。 Here, the reason why only the mask image corresponding to one of the pattern images is generated is that the polarities of the pattern images in FIG. 11 are opposite to each other.
付加情報識別部45は、後述する付加情報復号部46によって制御され、セルサイズ推定部43とセル位置検出部44とによって、その位置及び大きさが推定されたセルに埋め込まれている付加画像を識別する。具体的に、この付加画像の識別は次のように、パターンに含まれるエッジに沿った線で分割された、4つの領域の画素値の総和の大小関係に基づいて行う。
The additional
図10のパターン画像は、その中心部を通過し、水平・垂直の各方向に直交するエッジによって4つの領域に分割されているので、これに対応して付加情報識別部45は、セルサイズ推定部43及びセル位置検出部44によって画定された各セルに含まれるセル画像のそれぞれを、図7(A)に示すような領域R1からR4に分割し、各領域R1からR4内のそれぞれの画素値の合計(SP1からSP4)を算出する。なお、セルの幅や高さが奇数である場合は、図7(B)に示すように、セルの中心を通り、高さ方向(幅が奇数の場合)並びに幅方向(高さが奇数の場合)に延びる画素を除いて、上述の領域R1からR4に分割すればよい。
Since the pattern image of FIG. 10 passes through the center and is divided into four regions by edges orthogonal to the horizontal and vertical directions, the additional
そして、このSP1からSP4の大小関係からそのセルに合成されているパターン画像が表す符号が「1」であるか「0」であるか(又は判別不能となっているか)を判定する。具体的には、
(1)((SP1>SP2) &&(SP1>SP4) && (SP3>SP2) &&(SP3>SP4))であれば、符号は「1」である。なお、「&&」は、AND条件、すなわち前後の条件を「且つ」で結んだ条件を意味する。
(2)(1)でなく、((SP2>SP1) &&(SP3>SP2) && (SP4>SP1) &&(SP4>SP3))であれば、符号は「0」である。
といったように、複数の条件を適合することによってセル内に合成されているパターン画像が表す符号の判定が行われる。
Then, based on the magnitude relationship from SP1 to SP4, it is determined whether the code represented by the pattern image synthesized in the cell is “1” or “0” (or cannot be discriminated). In particular,
(1) If ((SP1> SP2) &&(SP1> SP4) &&(SP3> SP2) &&(SP3> SP4)), the code is “1”. “&&” means an AND condition, that is, a condition in which the preceding and following conditions are connected by “and”.
(2) If ((SP2> SP1) &&(SP3> SP2) &&(SP4> SP1) &&(SP4> SP3)) instead of (1), the code is “0”.
As described above, the code represented by the pattern image synthesized in the cell is determined by satisfying a plurality of conditions.
図8は、付加情報識別部45におけるパターン画像の識別処理の一例を表す説明図である。この図8では、比較的値の小さい側にハッチングを施している。パターン画像の合成前のセル内の画素がどこも略同じ値(いわば画像が平坦)など、一定の値の範囲にあるのであれば、符号「1」を表すパターン画像を合成した場合には、R1とR3との部分での画素値が大きくなり、R2とR4との部分での画素値が小さくなるので、印刷やスキャンを経た後でも((SP1>SP2) && (SP1>SP4) &&(SP3>SP2) && (SP3>SP4))の条件が成立している蓋然性が高く、上記の条件による判断が可能となっているのである。
FIG. 8 is an explanatory diagram illustrating an example of pattern image identification processing in the additional
なお、処理対象画像データに高周波成分が含まれ、これがいずれかのセル内にある場合、このセルでは、付加画像の合成後の画素値が、上記条件を満足しているとは限らないことになる。そこで、例えば図9に示すように、セル上部の画素値が比較的小さい値であり、セル下部の画素値が比較的大きい値であったような場合に対応して、上記条件(1)でも(2)でもなく、((SP1>SP4) && (SP3>SP2) &&(SP3>SP4))が成り立っている場合、そのセル内のパターン画像は符号「1」を表すものであると判定してもよい。同様に、セル上部の画素値が比較的大きい値であり、セル下部の画素値が比較的小さい値であったような場合や、セルの左右で画素値の高低が変化する場合等に対応して、それぞれ条件を定めてもよい。 If the processing target image data includes a high-frequency component and this is in one of the cells, the pixel value after synthesis of the additional image does not necessarily satisfy the above condition in this cell. Become. Therefore, for example, as shown in FIG. 9, the above condition (1) also corresponds to the case where the pixel value in the upper part of the cell is a relatively small value and the pixel value in the lower part of the cell is a relatively large value. If ((SP1> SP4) && (SP3> SP2) && (SP3> SP4)) is satisfied instead of (2), it is determined that the pattern image in the cell represents the code “1”. May be. Similarly, it corresponds to the case where the pixel value in the upper part of the cell is a relatively large value and the pixel value in the lower part of the cell is relatively small, or when the pixel value changes between right and left of the cell. Each condition may be determined.
付加情報識別部45は、こうして各セルを順次ラスタスキャンの順に識別し、対応する符号を順次出力していく。なお、付加情報の埋め込み時に、強度の大きい付加画像パターンを合成しておけば、上記条件(1)または(2)が成立しやすくなることはいうまでもない。
In this way, the additional
付加情報復号部46は、付加情報識別部45が順次出力する符号の列を予め定められている符号化方式に基づいて復号することにより付加情報を得る。
The additional
[所定特徴量Aの演算]
次に、符号化の際の制御部11の処理における画像データ解析部21の所定特徴量Aの演算の例について説明する。この所定特徴量Aは、上記復号の方法に関連づけて定義されるものである。例えば、復号において、上述のように、セル内のR1からR4の各領域に含まれる画素値の総和を利用して各パターン画像が表す符号を識別している場合、上述のように、処理対象画像データのセルに相当する部分に予めエッジがある場合に識別が困難になり、識別不能な状態が発生し得る。それに対して、あらかじめ付加画像パターンの合成時に強めの強度でパターン画像を作成しておけば、識別不能なセルの数は減るが必要以上に元画像を劣化させることになる。また、識別の困難度に応じて、セル毎に強度を変える方式は、より多くの付加情報を埋め込むことを目的とした場合には良いが、付加情報量が一定の場合は、画質劣化の観点から好ましくない。
[Calculation of predetermined feature A]
Next, an example of calculation of the predetermined feature amount A of the image
従ってこの場合、標準のパターン強度では識別が困難となるセルを予測し、その予測結果とあらかじめ符号化方式として採用されている誤り訂正符号の訂正能力とを考慮して、必要最低分のセルのみ標準よりやや大きな強度のパターン画像を合成することが、画質および読み取り安定性の面で好ましい。つまり、上述のような復号を行う場合には、画像内の平坦度、すなわち、エッジの少なさを、所定特徴量として演算する。具体的には、画像をセルサイズに分割し、各セル内での画素値の分散(これが大きいほど、平坦でない)を求め、それを所定特徴量とする。また、分散は大きくとも、セルを上述の領域R1からR4に分割したとき、画素値の差分|SP1+SP3-(SP2+SP4)|(|・|は絶対値を表す)が所定しきい値より小さい場合には識別は容易である。そこで、|SP1+SP3-(SP2+SP4)|の値を所定特徴量としてもよい。すなわち、この値は識別の難しさを示しており、この値が大きくて識別が困難なセルの識別を容易化せしめるためには、より強度の大きいパターン画像を合成する必要がある。 Therefore, in this case, cells that are difficult to identify with the standard pattern strength are predicted, and only the minimum necessary number of cells are taken into account, taking into account the prediction results and the correction capability of the error correction code that has been previously adopted as the encoding method. It is preferable in terms of image quality and reading stability to synthesize a pattern image having a slightly higher intensity than the standard. That is, when decoding as described above is performed, the flatness in the image, that is, the small number of edges is calculated as the predetermined feature amount. Specifically, the image is divided into cell sizes, and the dispersion of pixel values within each cell (the larger the value, the less flat) is determined and used as a predetermined feature amount. Even if the variance is large, when the cell is divided into the above-described regions R1 to R4, the difference of pixel values | SP1 + SP3- (SP2 + SP4) | (| · | represents an absolute value) is a predetermined threshold value. If it is smaller, identification is easy. Therefore, the value of | SP1 + SP3- (SP2 + SP4) | may be set as the predetermined feature amount. That is, this value indicates the difficulty of identification. In order to facilitate the identification of cells that are large and difficult to identify, it is necessary to synthesize a pattern image with a higher intensity.
また、上記所定特徴量の変わりに、画像内の全セルに対して、各セルの分散値が所定の閾値以上であるセル数の割合や、画像内の全セルに対して、各セルの|SP1+SP3-(SP2+SP4)|の値が所定の閾値以上であるセル数の割合を所定特徴量とし、それと符号化方式として採用した誤り訂正符号が復号可能なBER(Bit Error Rate : ビット誤り率)とを考慮してパターン画像を合成することができる。 Further, instead of the predetermined feature amount, the ratio of the number of cells in which the variance value of each cell is equal to or greater than a predetermined threshold with respect to all the cells in the image, or | SP1 + SP3- (SP2 + SP4) | The ratio of the number of cells whose value is equal to or greater than a predetermined threshold is defined as a predetermined feature amount, and the BER (Bit Error Rate: bit) that can be decoded by the error correction code used as the encoding method The pattern image can be synthesized in consideration of the error rate.
なお、ここまでで説明したパターン画像とは異なるパターン画像を用いたり、復号方法が異なる場合は、所定特徴量をそれに合わせて設定することも好ましい。 In addition, when a pattern image different from the pattern image demonstrated so far is used, or when a decoding method differs, it is also preferable to set a predetermined feature amount according to it.
[動作]
本実施の形態の画像処理装置は、上述のように構成されており、従って、合成を受ける側の画像データについて、その画像データの性質と符号化方式として使用される誤り訂正符号の訂正能力とに基づいて、最低限のセルのみに対して通常よりも強めのパターン画像を作成し、それを画像に合成する動作を行う。これにより、画像の画質劣化を抑えた上でかつ、復号を容易にすることができるようになる。
[Operation]
The image processing apparatus according to the present embodiment is configured as described above. Therefore, with respect to the image data to be subjected to synthesis, the nature of the image data and the correction capability of the error correction code used as the encoding method are described. Based on the above, a pattern image that is stronger than usual is created for only the minimum number of cells, and an operation for synthesizing it with the image is performed. As a result, it is possible to facilitate decoding while suppressing image quality deterioration of the image.
[その他の変形例]
図2に示した機能ブロックの代わりに、図13に示したような機能ブロックを用いても良い。図13では、図2に示した機能ブロックに加えて、画像調整部25が加わっている。画像調整部25は、付加パターン合成時に加算値が画素値の最大値(たとえば255)を超えたり、あるいは減算時に画素値の最小値(たとえば0)を下回らないようにあらかじめダイナミックレンジを下げておくものである。
[Other variations]
Instead of the functional block shown in FIG. 2, a functional block as shown in FIG. 13 may be used. In FIG. 13, an
また、画像データ解析部21の説明では、採用する誤り訂正符号の誤り訂正可能ビット数tをn個のセル中で所定の値を超える特徴量を持つセルの数と比較したが、プリント時にはレーザービーム・プリンタであればトナーの飛び散りや感光体の傷の影響、さらにプリント後のよごれやかすれ、なども考慮し、tよりも小さな値t0を比較の対象としてもよい。
In the description of the image
さらに、付加画像の生成に用いるパターンも図10に示したものだけに限られず、例えば少なくとも2方向にエッジを有するパターンであれば、いかなるものであってもよい。 Furthermore, the pattern used for generating the additional image is not limited to that shown in FIG. 10, and may be any pattern as long as it has edges in at least two directions.
11 制御部、12 記憶部、13 操作部、14 表示部、15 入出力部、21 画像データ解析部、22 付加情報符号化部、23 付加画像生成部、24 合成部、25 画像調整部、 31 パターン画像作成部、32 パターン選択部、33 パターン配列部、41 画像データ保持部、42 傾き補正部、43 セルサイズ推定部、44 セル位置検出部、45 付加情報識別部、46 付加情報復号部。
DESCRIPTION OF
Claims (9)
前記画像データを入力する画像入力手段と、
前記付加情報を入力する付加情報入力手段と、
前記付加情報を符号化する付加情報符号化手段と、
前記入力された画像データから所定の特徴量を演算する特徴量演算手段と、
前記所定の特徴量と、前記付加情報符号化手段で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する付加画像生成手段と、を備えることを特徴とする画像処理装置。 An image processing device that synthesizes additional image data based on additional information to be embedded with image data to be processed, and generates combined image data,
Image input means for inputting the image data;
Additional information input means for inputting the additional information;
Additional information encoding means for encoding the additional information;
Feature quantity computing means for computing a predetermined feature quantity from the input image data;
An image processing apparatus comprising: an additional image generation unit configured to generate additional image data based on the predetermined feature amount and an error correction capability of an encoding method used in the additional information encoding unit.
前記画像データを入力する画像入力手段と、
前記入力された画像データを補正する画像補正手段と、
前記付加情報を入力する付加情報入力手段と、
前記付加情報を符号化する付加情報符号化手段と、
前記補正された画像データから所定の特徴量を演算する特徴量演算手段と、
前記所定の特徴量と、前記付加情報符号化手段で用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する付加画像生成手段とを備えることを特徴とする画像処理装置。 An image processing device that synthesizes additional image data based on additional information to be embedded with image data to be processed, and generates combined image data,
Image input means for inputting the image data;
Image correcting means for correcting the input image data;
Additional information input means for inputting the additional information;
Additional information encoding means for encoding the additional information;
Feature amount calculating means for calculating a predetermined feature amount from the corrected image data;
An image processing apparatus comprising: an additional image generation unit configured to generate additional image data based on the predetermined feature amount and an error correction capability of an encoding method used by the additional information encoding unit.
前記画像データを入力する工程と、
前記付加情報を入力する工程と、
前記付加情報を符号化する工程と、
前記入力された画像データから所定の特徴量を演算する工程と、
前記所定の特徴量と、前記付加情報を符号化する際に用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する工程と、を有することを特徴とする画像処理方法。 An image processing method for synthesizing additional image data based on additional information to be embedded with image data to be processed, and generating combined image data,
Inputting the image data;
Inputting the additional information;
Encoding the additional information;
Calculating a predetermined feature amount from the input image data;
An image processing method comprising: generating additional image data based on the predetermined feature amount and an error correction capability of an encoding method used when encoding the additional information.
前記画像データを入力する手順と、
前記付加情報を入力する手順と、
前記付加情報を符号化する手順と、
前記入力された画像データから所定の特徴量を演算する手順と、
前記所定の特徴量と、前記付加情報を符号化する際に用いた符号化方法の誤り訂正能力とに基づいて付加画像データを生成する手順と、
を実行させることを特徴とする画像処理プログラム。
An image processing program for synthesizing additional image data based on additional information to be embedded with respect to image data to be processed using a computer, and generating combined image data.
A procedure for inputting the image data;
A procedure for inputting the additional information;
A procedure for encoding the additional information;
A procedure for calculating a predetermined feature amount from the input image data;
A procedure for generating additional image data based on the predetermined feature amount and an error correction capability of an encoding method used when encoding the additional information;
An image processing program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004017408A JP2005210622A (en) | 2004-01-26 | 2004-01-26 | Image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004017408A JP2005210622A (en) | 2004-01-26 | 2004-01-26 | Image processing apparatus and image processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005210622A true JP2005210622A (en) | 2005-08-04 |
Family
ID=34902243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004017408A Pending JP2005210622A (en) | 2004-01-26 | 2004-01-26 | Image processing apparatus and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005210622A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008205892A (en) * | 2007-02-21 | 2008-09-04 | Fuji Xerox Co Ltd | Image processor, image processing system and image processing program |
-
2004
- 2004-01-26 JP JP2004017408A patent/JP2005210622A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008205892A (en) * | 2007-02-21 | 2008-09-04 | Fuji Xerox Co Ltd | Image processor, image processing system and image processing program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4000316B2 (en) | Generation of figure codes by halftoning using embedded figure coding | |
JP4035717B2 (en) | Image processing apparatus and image processing method | |
JP4591211B2 (en) | Image processing apparatus, image processing method, medium, code reading apparatus, and program | |
JP2010103681A (en) | Image processing device and method | |
JP2006295606A (en) | Image processor, its processing method, program, and storage medium | |
JP2006050551A (en) | Image processing apparatus, image processing method, program and storage medium | |
US10992837B2 (en) | Information processing apparatus, control method thereof, and storage medium | |
US7840027B2 (en) | Data embedding apparatus and printed material | |
US20070110273A1 (en) | Image processing method and image processing program product | |
JP5145833B2 (en) | Two-dimensional code reading device, two-dimensional code reading method, two-dimensional code reading program, and recording medium | |
JP4140519B2 (en) | Image processing apparatus, program, and recording medium | |
US7616837B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
US20090219578A1 (en) | Apparatus and method to revise halftone image, and image forming apparatus using the same | |
JP4179177B2 (en) | Image processing apparatus and image processing method | |
US20070104349A1 (en) | Tally image generating method and device, tally image generating program, and confidential image decoding method | |
JP2005210622A (en) | Image processing apparatus and image processing method | |
JP2007299098A (en) | Qr code reader | |
JP4635814B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2002027245A (en) | Image processor, image processing method, and storage medium | |
US7889884B2 (en) | Image processing apparatus and method | |
JP2005101768A (en) | Image processing apparatus | |
JP4892729B2 (en) | Information embedding method and information reading method in texture image, information embedding device and information reading device in texture image | |
JP2006080722A (en) | Coded image generator | |
JP2005101767A (en) | Image processing apparatus | |
US20240098208A1 (en) | Image processing apparatus, control method therefor, and storage medium storing control program therefor |