JP2000165640A - Image processing unit - Google Patents

Image processing unit

Info

Publication number
JP2000165640A
JP2000165640A JP10332171A JP33217198A JP2000165640A JP 2000165640 A JP2000165640 A JP 2000165640A JP 10332171 A JP10332171 A JP 10332171A JP 33217198 A JP33217198 A JP 33217198A JP 2000165640 A JP2000165640 A JP 2000165640A
Authority
JP
Japan
Prior art keywords
additional data
pattern
image data
image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10332171A
Other languages
Japanese (ja)
Inventor
Junichi Matsunoshita
純一 松野下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP10332171A priority Critical patent/JP2000165640A/en
Publication of JP2000165640A publication Critical patent/JP2000165640A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing unit that can imbed additional data to a printed-out image in a way being visually unremarkable and also in a way that the additional data can be detected without failure from the read image data. SOLUTION: The image processing unit that superimposes additional data denoting additional information to image data is provided with an additional data imbed section 14. The additional data imbed section 14 uses a selector 145 that selects either of two kinds of patterns S0, S1. On the other hand, a maximum value calculation section 142 obtains a maximum value of the pixel values (densities) of an MCK component for each pixel of the input image data. Furthermore, a modulation quantity calculation section 143 calculates the modulation amount of the selected pattern, and multiplies the calculated modulation amount with each coefficient of the pattern selected by the selector 145 so as to change an amplitude of the pattern and to add it to the image data for imbedding the additional data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、デジタル画像デー
タを処理する画像処理装置に関し、特にデジタル画像デ
ータの中に付加情報を重畳して埋め込む処理を行うとと
もに、埋め込まれた付加情報を検出する処理を行う画像
処理装置に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus for processing digital image data, and more particularly to a process for superimposing and embedding additional information in digital image data and detecting the embedded additional information. The present invention relates to an image processing apparatus that performs

【0002】[0002]

【従来の技術】デジタル画像データの中に、付加情報を
重畳して埋め込む付加データ埋め込み技術がある。近
年、この付加データ埋め込み技術を、静止画像データ等
のデジタル著作物の著作権保護、あるいは不正コピー防
止に利用する動きが活発になっている。また、付加デー
タ埋め込み技術を、特定の電子画像データとこれに関連
のある別のデジタル画像データとを一体化する目的や秘
匿通信として利用する動きもある。
2. Description of the Related Art There is an additional data embedding technique for embedding additional information in digital image data in a superimposed manner. In recent years, the use of this additional data embedding technology for protecting the copyright of digital works such as still image data or preventing unauthorized copying has been active. There is also a movement to use the additional data embedding technology for the purpose of integrating specific electronic image data with another related digital image data or as confidential communication.

【0003】以上のような目的で付加データ埋め込み技
術を利用する場合、著作権IDやユーザーID、あるい
は任意の識別データなどの付加データを、視覚的に目立
たないように画像データに埋め込んで流通させることに
なる。そのような付加データ埋め込み技術として、例え
ば、画像データに付加データを表わすノイズ信号を重畳
することによって付加データを埋め込む技術(特表平9
−50979号公報参照)、画像データをフーリエ変換
し、周波数空間上で同一周波数を示す同心円状の領域の
変換係数を操作して付加データを埋め込む技術(特開平
10−1650号公報参照)などが知られている。
When the additional data embedding technique is used for the above purpose, additional data such as a copyright ID, a user ID, or arbitrary identification data is embedded in image data so as to be inconspicuous and distributed. Will be. As such an additional data embedding technique, for example, a technique of embedding additional data by superimposing a noise signal representing the additional data on image data (Japanese Patent Application Laid-Open No. Hei 9 (1990) -197).
Japanese Patent Application Laid-Open No. 10-1650), and a technique of embedding additional data by performing Fourier transform of image data and manipulating conversion coefficients of concentric regions indicating the same frequency in a frequency space. Are known.

【0004】[0004]

【発明が解決しようとする課題】これらの付加データ埋
め込み技術は、主に電子画像データの電子的な不正コピ
ーや不正利用を防止する目的で使用されるものであるこ
とから、その電子画像データに基づく画像をディスプレ
イ装置に表示した際に画質劣化を生じないように画像デ
ータ中に付加データを埋め込むことになる。そのため、
電子画像データを一旦プリンタで印刷してしまうと、印
刷後の用紙上の形成画像からは画像データに埋め込んだ
付加データを読み出すのは困難である。
Since these additional data embedding technologies are used mainly for the purpose of preventing electronic illegal copying and unauthorized use of electronic image data, these additional image embedding techniques are not used for such electronic image data. The additional data is embedded in the image data so that the image quality does not deteriorate when the based image is displayed on the display device. for that reason,
Once the electronic image data is printed by the printer, it is difficult to read out the additional data embedded in the image data from the formed image on the paper after printing.

【0005】したがって、付加データが埋め込まれた電
子画像データであっても、プリントアウトした画像から
は付加データを認識できないことから、このプリントア
ウト後の画像が複写されて流通されることにより、結果
として、電子画像データの作成者の著作権が侵害されて
しまうことになる。プリントアウト後の画像から付加デ
ータを読み出せるようにするためには、流通させる電子
画像データに対して、埋め込み強度を強くして付加デー
タを埋め込んでおくことが考えられるが、その場合、電
子画像データをディスプレイ装置で表示させた際の画質
劣化も大きくなってしまうという課題がある。
Therefore, even if the electronic image data has the additional data embedded therein, the additional data cannot be recognized from the printed out image. As a result, the copyright of the creator of the electronic image data is infringed. In order to be able to read the additional data from the printed image, it is conceivable that the embedding strength is increased and the additional data is embedded in the electronic image data to be distributed. There is a problem that image quality degradation when data is displayed on a display device also increases.

【0006】一方、プリントアウト後の画像中に付加デ
ータを埋め込む従来技術として、イエローのインクで正
負の振幅を持つパターンを画像に重畳させることで、印
刷出力後の画像中に付加データを埋め込む技術がある
(特開平6−113107号公報参照)。しかし、この
従来技術では、埋め込む付加データとして全てのビット
が値“0”である場合にはパターンが埋め込まれないの
で、付加データが埋められていないのか、全てのビット
が値“0”である付加データが埋め込まれているのか判
断がつきにくいという課題がある。
On the other hand, as a conventional technique for embedding additional data in an image after printout, a technique of embedding additional data in an image after print output by superimposing a pattern having positive and negative amplitudes with yellow ink on the image. (See JP-A-6-113107). However, according to this conventional technique, if all the bits are “0” as additional data to be embedded, the pattern is not embedded, so that the additional data is not embedded or all the bits are “0”. There is a problem that it is difficult to determine whether the additional data is embedded.

【0007】また、印刷された画像中に付加データを埋
め込む他の従来技術として、2種類の微小な傾斜パター
ンを付加データのビット“0”または“1”に対応させ
たコードパターンによって付加データを埋め込み、スキ
ャナで読み込まれた画像中からこのコードパターンを検
出する技術がある(特開平4−233677号公報参
照)。しかし、この従来技術では、コードパターンを画
像中の白地領域に黒色で埋め込むことを前提としている
ため、埋め込んだ付加データが目に見えてしまうという
課題がある。
Further, as another conventional technique for embedding additional data in a printed image, two types of minute inclined patterns are formed by adding a code pattern corresponding to bits "0" or "1" of the additional data. There is a technology for detecting this code pattern from an image embedded and read by a scanner (see Japanese Patent Application Laid-Open No. 4-233677). However, in this prior art, since it is assumed that the code pattern is embedded in black in a white background area in the image, there is a problem that the embedded additional data becomes visible.

【0008】本発明は、上記課題に鑑みてなされたもの
であり、その目的とするところは、プリントアウトされ
た画像に視覚上目立たないように、また画像に埋め込ん
だ付加データを、読み取った画像データ中から確実に検
出できるように付加データを埋め込むことが可能な画像
処理装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems, and has as its object to provide a printed image in which additional data embedded in the image is read so as to be visually inconspicuous. It is an object of the present invention to provide an image processing apparatus capable of embedding additional data so that it can be reliably detected from data.

【0009】[0009]

【課題を解決するための手段】本発明による画像処理装
置は、付加情報を表わす付加データを重畳する色成分に
おける画像データの濃度値を検出する濃度検出手段と、
この濃度検出手段によって検出された濃度値が所定の値
未満の場合は画像データの濃度値を高くして付加データ
を重畳し、所定の値以上の場合は画像データの濃度値を
低くして付加データを重畳する付加データ重畳手段とを
備える構成となっている。
An image processing apparatus according to the present invention comprises a density detecting means for detecting a density value of image data in a color component on which additional data representing additional information is superimposed;
If the density value detected by the density detecting means is less than a predetermined value, the density value of the image data is increased and additional data is superimposed. If the density value is more than the predetermined value, the density value of the image data is lowered and added. An additional data superimposing means for superimposing data is provided.

【0010】上記構成の画像処理装置において、濃度検
出手段による検出濃度値が所定の値未満の場合は、プリ
ントアウト後の画像の濃度が比較的薄くなり、付加デー
タが目立ち易くなることから、付加データ重畳手段は画
像データの濃度値を高くして付加データを重畳する。ま
た、検出濃度値が所定の値以上の場合は、プリンアウト
後の画像の濃度が比較的濃くなり、付加データを検出し
にくくなることから、付加データ重畳手段は画像データ
の濃度値を低くして付加データを重畳する。
In the image processing apparatus having the above configuration, if the density value detected by the density detecting means is less than a predetermined value, the density of the printed image becomes relatively low, and the additional data becomes more conspicuous. The data superimposing means superimposes the additional data by increasing the density value of the image data. If the detected density value is equal to or higher than the predetermined value, the density of the image after printing out becomes relatively high, making it difficult to detect additional data. Therefore, the additional data superimposing means lowers the density value of the image data. To superimpose the additional data.

【0011】本発明による他の画像処理装置は、付加情
報を表わす付加データを重畳する位置の画像データの濃
度値を検出する濃度検出手段と、この濃度検出手段によ
って検出された濃度値が大きいほど、重畳する付加デー
タの振幅量を大きくして付加データを重畳する付加デー
タ重畳手段とを備える構成となっている。
Another image processing apparatus according to the present invention comprises a density detecting means for detecting a density value of image data at a position where additional data representing additional information is superimposed, and a density value detected by the density detecting means being larger. And additional data superimposing means for superimposing the additional data by increasing the amplitude of the additional data to be superimposed.

【0012】上記構成の他の画像処理装置において、濃
度検出手段による検出濃度値が大きい場合には、プリン
トアウト後の画像における付加データの埋め込み位置の
濃度が比較的濃くなり、付加データが目立ちにくくなる
ことから、付加データ重畳手段は重畳する付加データの
振幅量を大きくする。また、検出濃度値が小さい場合に
は、プリントアウト後の画像における付加データの埋め
込み位置の濃度が比較的薄くなり、付加データが目立ち
易くなることから、付加データ重畳手段は重畳する付加
データの振幅量を小さくする。
In another image processing apparatus having the above structure, when the density value detected by the density detecting means is large, the density of the additional data embedding position in the printed image is relatively high, making the additional data less noticeable. Therefore, the additional data superimposing means increases the amplitude of the additional data to be superimposed. When the detected density value is small, the density of the additional data embedding position in the printed image becomes relatively low, and the additional data becomes more conspicuous. Reduce the volume.

【0013】本発明によるさらに他の画像処理装置は、
付加的な情報を表わすパターンが埋め込まれた画像デー
タを入力する画像データ入力手段と、この入力手段から
入力された画像データの所定の色成分のエッジを抽出
し、そのエッジ画像を作成するエッジ画像作成手段と、
このエッジ画像作成手段によって作成されたエッジ画像
の主走査方向、副走査方向における少なくとも一方の投
影分布からパターンの位置を求めるパターン位置決定手
段と、このパターン位置決定手段によって求められたパ
ターン位置でパターン認識を行うパターン認識手段と、
このパターン認識手段によって認識されたパターンに応
じた付加データを出力する付加データ出力手段とを備え
る構成となっている。
[0013] Still another image processing apparatus according to the present invention includes:
Image data input means for inputting image data in which a pattern representing additional information is embedded, and an edge image for extracting an edge of a predetermined color component of the image data input from the input means and creating the edge image Creation means,
A pattern position determining means for obtaining a pattern position from at least one of the projection distributions in the main scanning direction and the sub-scanning direction of the edge image created by the edge image creating means; and a pattern position determined by the pattern position determining means. Pattern recognition means for performing recognition;
Additional data output means for outputting additional data according to the pattern recognized by the pattern recognition means is provided.

【0014】上記構成のさらに他の画像処理装置におい
て、画像データ入力手段から付加的な情報を表わすパタ
ーンが埋め込まれた画像データが入力されると、エッジ
画像作成手段は、その画像データの所定の色成分のエッ
ジ画像を作成し、これをパターン位置決定手段に与え
る。すると、パターン位置決定手段は、この作成された
エッジ画像の主走査方向、副走査方向における少なくと
も一方の投影分布からパターンの位置を求め、そのパタ
ーン位置をパターン認識手段に与える。これを受けて、
パターン認識手段は、そのパターン位置でパターン認識
を行う。そして、付加データ出力手段は、そのパターン
に応じた付加データを出力する。
In still another image processing apparatus having the above-described configuration, when image data in which a pattern representing additional information is embedded is input from the image data input means, the edge image generating means determines a predetermined value of the image data. An edge image of the color component is created and supplied to the pattern position determining means. Then, the pattern position determining means obtains the position of the pattern from at least one of the projected distributions of the created edge image in the main scanning direction and the sub-scanning direction, and provides the pattern position to the pattern recognition means. In response,
The pattern recognition means performs pattern recognition at the pattern position. Then, the additional data output means outputs additional data according to the pattern.

【0015】[0015]

【発明の実施の形態】以下、本発明の実施の形態につい
て図面を参照して詳細に説明する。図1は、本発明の一
実施形態に係る画像処理装置の構成を示すブロック図で
ある。
Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

【0016】本実施形態に係る画像処理装置10は、画
像データの入出力を行う入出力部11と、画像データ中
から埋め込まれた付加データを検出する付加データ検出
部12と、画像データおよび付加データを格納するメモ
リ13と、付加データを画像データに埋め込む付加デー
タ埋め込み部14と、画像データから付加データを削除
する付加データ削除部15と、装置全体の制御を行う制
御部16とを有し、これらがバスライン17を介して相
互に接続された構成となっている。
The image processing apparatus 10 according to the present embodiment includes an input / output unit 11 for inputting / outputting image data, an additional data detecting unit 12 for detecting additional data embedded in image data, an image data It has a memory 13 for storing data, an additional data embedding section 14 for embedding the additional data in the image data, an additional data deleting section 15 for deleting the additional data from the image data, and a control section 16 for controlling the entire apparatus. Are connected to each other via a bus line 17.

【0017】ここで、画像データに付加する付加データ
が表わす付加的な情報としては、任意の情報で構わない
が、例えば、画像データの蓄積場所を示すネットワーク
上のアドレス情報や、その画像データまたは画像の著作
権者を特定するID情報などが一例として挙げられる。
Here, the additional information represented by the additional data added to the image data may be any information. For example, address information on a network indicating a storage location of the image data, the image data or One example is ID information for identifying a copyright holder of an image.

【0018】この画像処理装置10を用いたシステム全
体の構成を図2に示す。本システムは、ネットワークに
接続されたパーソナルコンピュータ21と、このパーソ
ナルコンピュータ21に接続されたディスプレイ装置2
2と、パーソナルコンピュータ21から画像データが与
えられる画像処理装置10と、原稿を読み取ってその画
像データを画像処理装置10を経由してパーソナルコン
ピュータ21に与えるスキャナ23と、画像処理装置1
0から出力される画像データを印刷するプリンタ24と
を備えている。
FIG. 2 shows the configuration of the entire system using the image processing apparatus 10. The system includes a personal computer 21 connected to a network, and a display device 2 connected to the personal computer 21.
2, an image processing apparatus 10 to which image data is provided from a personal computer 21, a scanner 23 for reading a document and providing the image data to the personal computer 21 via the image processing apparatus 10, and an image processing apparatus 1
And a printer 24 for printing the image data output from the printer.

【0019】上記構成のシステムにおいて、ユーザーは
ネットワークを経由して画像データを受信してパーソナ
ルコンピュータ21の内部に蓄積し、その画像データを
ディスプイ装置22に表示させ、その表示画像を見て必
要があればその画像データを画像処理装置10を経由し
てプリンタ24に送信し、紙に印刷するようにする。そ
の際、画像処理装置10は、送信されてきた画像データ
にプリンタ24の印刷に適した付加データ埋め込み方式
で付加データを埋め込む処理を行う。
In the system having the above configuration, the user needs to receive image data via the network, store the image data in the personal computer 21, display the image data on the display device 22, and look at the displayed image. If there is, the image data is transmitted to the printer 24 via the image processing device 10 and printed on paper. At this time, the image processing apparatus 10 performs a process of embedding the additional data in the transmitted image data using an additional data embedding method suitable for printing by the printer 24.

【0020】ここで、プリンタ24の印刷に適した付加
データ埋め込み方式とは、付加データの各ビットを微小
な傾斜エッジのパターンに変換し、その傾斜エッジパタ
ーンデータを画像データに加算重畳することによって埋
め込む方式である。この傾斜エッジパターンの埋め込み
に際しては、視覚的に目立ちにくいイエロー成分のみに
埋め込み、各パターンを間隔をあけて粗く配置すること
で、印刷される画像の画質劣化を抑えることができ、か
つその画像をスキャナ23で読み取った際に、付加デー
タの検出を容易にすることができる。
Here, the additional data embedding method suitable for printing by the printer 24 is performed by converting each bit of the additional data into a pattern of minute inclined edges, and adding and superimposing the inclined edge pattern data on the image data. This is a method of embedding. When embedding this inclined edge pattern, embedding is performed only in the yellow component that is hardly noticeable visually, and by arranging each pattern roughly at intervals, it is possible to suppress deterioration of the image quality of the printed image, and When the data is read by the scanner 23, it is possible to easily detect the additional data.

【0021】次に、画像処理装置10の動作および要部
の具体的な構成について説明する。図2のパーソナルコ
ンピュータ21から送信されてきた画像データは、入出
力部11から入力されてメモリ13に格納される。画像
データの入力が終了すると、制御部16は付加データ埋
め込み部14に対して付加データの埋め込み処理を行う
ように制御する。
Next, the operation of the image processing apparatus 10 and the specific configuration of the main part will be described. Image data transmitted from the personal computer 21 in FIG. 2 is input from the input / output unit 11 and stored in the memory 13. When the input of the image data is completed, the control unit 16 controls the additional data embedding unit 14 to perform the additional data embedding process.

【0022】図3に、付加データ埋め込み部14の構成
の第1具体例を示す。この第1具体例に係る付加データ
埋め込み部14は、色変換部141、最大値算出部14
2、変調量算出部143、乗算部144およびセレクタ
145を有する構成となっている。そして、この付加デ
ータ埋め込み部14には、メモリ13からブロック単位
で読み出された画像データが入力される。
FIG. 3 shows a first specific example of the configuration of the additional data embedding section 14. The additional data embedding unit 14 according to the first specific example includes a color conversion unit 141, a maximum value calculation unit 14
2, a configuration including a modulation amount calculation unit 143, a multiplication unit 144, and a selector 145. The additional data embedding unit 14 receives image data read from the memory 13 in block units.

【0023】上記構成の付加データ埋め込み部14にお
いて、入力されたRGBの画像データは、色変換部14
1においてRGB色空間からプリンタ24の色空間であ
るYMCK色空間に変換され、かつY成分とMCK成分
に分離されて出力される。MCK成分の画像データは最
大値算出部142に入力され、この最大値算出部142
において各画素毎に各成分の画素値(濃度値)の最大値
が求められる。この求められた最大値は、変調量算出部
143に供給される。
In the additional data embedding section 14 having the above structure, the input RGB image data is
In step 1, the RGB color space is converted into a YMCK color space, which is the color space of the printer 24, and is output after being separated into a Y component and an MCK component. The image data of the MCK component is input to the maximum value calculation unit 142, and the maximum value calculation unit 142
In, the maximum value of the pixel value (density value) of each component is obtained for each pixel. The obtained maximum value is supplied to the modulation amount calculation unit 143.

【0024】変調量算出部143は、各パターンの埋め
込み位置におけるMCK成分の最大値に応じてパターン
の変調量を算出する。この変調量算出部143では、パ
ターンを埋め込む位置のMCK成分の最大値が大きいほ
どパターンの変調量が大きくなり、MCK成分の最大値
が小さいほどパターンの変調量が小さくなるように、パ
ターンの変調量の算出処理が行われる。
The modulation amount calculation section 143 calculates the modulation amount of the pattern according to the maximum value of the MCK component at the embedding position of each pattern. The modulation amount calculator 143 modulates the pattern so that the larger the maximum value of the MCK component at the position where the pattern is embedded, the larger the modulation amount of the pattern, and the smaller the maximum value of the MCK component, the smaller the modulation amount of the pattern. An amount calculation process is performed.

【0025】この算出された変調量は乗算部144に供
給される。1ブロック分の変調量が算出された後、メモ
リ13上の付加データ格納領域から付加データビットが
1ビット読み出され、セレクト情報としてセレクタ14
5に与えられる。この付加データビットが与えられる
と、セレクタ145は、そのビット情報に応じて2種類
のパターンS0,S1のいずれか一方を選択して乗算器
144に供給する。
The calculated amount of modulation is supplied to a multiplier 144. After the amount of modulation for one block is calculated, one additional data bit is read from the additional data storage area on the memory 13 and the selector 14 reads the additional data bit as select information.
5 given. When the additional data bit is provided, the selector 145 selects one of the two types of patterns S0 and S1 according to the bit information and supplies it to the multiplier 144.

【0026】乗算部144は、セレクタ145によって
選択されたパターンの各係数値に対して、変調量算出部
143で求められた同一画素位置の変調量を乗算し、さ
らに色変換部141から供給される同一画素位置のY成
分の画像データの各画素に加算する。これにより、乗算
部144では、MCK成分の濃度値が高いほどパターン
の振幅量が大きくなり、MCK成分の濃度値が低いほど
パターンの振幅量が小さくなるような処理が行われる。
The multiplication unit 144 multiplies each coefficient value of the pattern selected by the selector 145 by the modulation amount at the same pixel position obtained by the modulation amount calculation unit 143, and is further supplied from the color conversion unit 141. Is added to each pixel of the Y component image data at the same pixel position. As a result, the multiplying unit 144 performs processing such that the higher the density value of the MCK component, the larger the amplitude of the pattern, and the lower the density value of the MCK component, the smaller the amplitude of the pattern.

【0027】このように、Y成分の画像データに対して
MCK成分の濃度値に応じた振幅量にてパターン(付加
データ)を重畳することにより、プリンタ24によるプ
リントアウト後の画像において、MCK成分の濃度が濃
い場合であってもY成分に埋め込まれた傾斜エッジパタ
ーンを確実に検出できるようにし、またMCK成分の濃
度が薄い場合には当該傾斜エッジパターンが目立ち過ぎ
ないようにして、画質の劣化を抑えることができる。
As described above, by superimposing the pattern (additional data) on the Y component image data with an amplitude corresponding to the density value of the MCK component, the MCK component in the image printed out by the printer 24 is obtained. Even if the density of the MCK component is high, it is possible to reliably detect the inclined edge pattern embedded in the Y component. Deterioration can be suppressed.

【0028】以上のようにして、付加データ埋め込み部
14において、MCK成分の濃度値に応じた振幅量にて
パターン(付加データ)が埋め込まれたY成分の画像デ
ータは、乗算器144の後段でMCK成分の画像データ
と合成される。そして、その合成された画像データは付
加データ埋め込み部14から出力され、メモリ13に格
納される。以上の処理を全てのブロックについて繰り返
す。
As described above, in the additional data embedding unit 14, the Y component image data in which the pattern (additional data) is embedded with an amplitude corresponding to the density value of the MCK component is output at the subsequent stage of the multiplier 144. It is combined with the MCK component image data. Then, the combined image data is output from the additional data embedding unit 14 and stored in the memory 13. The above processing is repeated for all blocks.

【0029】図4に、付加データの埋め込み処理の際に
使用する2種類のパターンS0,S1の一例を示す。図
4において、(a)がパターンS0、(b)がパターン
S1である。パターンの大きさは、画像データのブロッ
クのサイズと同じ16×16である。ブロックのサイズ
に比べて、斜めに配置されたプラスまたはマイナスの係
数値を持つ部分を小さくしてある。これは、視覚的に目
立たないようにするためである。また、画像の白地や低
濃度領域が黄色っぽくなるのを抑え、かつ高濃度領域で
は埋め込まれているパターンの検出を容易にするため
に、プラスの係数値bを比較的小さくし、マイナスの係
数値aを比較的大きく設定してある。
FIG. 4 shows an example of two types of patterns S0 and S1 used in the process of embedding additional data. 4A shows a pattern S0, and FIG. 4B shows a pattern S1. The size of the pattern is 16 × 16, which is the same as the size of the block of the image data. Compared with the size of the block, a portion having a plus or minus coefficient value that is arranged diagonally is made smaller. This is to make it visually inconspicuous. Further, in order to suppress yellowing of a white background or a low-density area of an image and to facilitate detection of an embedded pattern in a high-density area, a positive coefficient value b is set relatively small, and a negative coefficient The numerical value a is set relatively large.

【0030】図5は、付加データ埋め込み部14におけ
る埋め込み処理で画像データへ埋め込むパターンの説明
図である。図5において、(a)はパターンを埋め込む
前の画像データであり、(b)はパターン埋め込み後の
画像データである。画像データの濃度が薄い場合には、
Y成分に比較的小さいエッジが埋められ、Y成分濃度が
濃くなるに連れて大きな振幅のエッジが埋められてい
く。また、MCK成分の濃度が大きくなるに連れてエッ
ジの振幅が大きくなる。
FIG. 5 is an explanatory diagram of a pattern to be embedded in image data by the embedding process in the additional data embedding section 14. 5A shows image data before embedding a pattern, and FIG. 5B shows image data after embedding a pattern. If the density of the image data is low,
A relatively small edge is embedded in the Y component, and an edge having a large amplitude is embedded as the Y component density increases. Also, the amplitude of the edge increases as the density of the MCK component increases.

【0031】以上により、付加データ埋め込み部14で
のパターンデータ(付加データ)の埋め込み処理が終了
する。パターンデータの埋め込み処理が終了すると、制
御部16はメモリ13に格納された埋め込み後の画像デ
ータを読み出して、入出力部11からプリンタ24へ出
力し、紙への印刷を行わせる。
Thus, the embedding process of the pattern data (additional data) in the additional data embedding section 14 is completed. When the embedding process of the pattern data is completed, the control unit 16 reads out the embedded image data stored in the memory 13, outputs the image data from the input / output unit 11 to the printer 24, and prints on paper.

【0032】次に、紙の上に印刷された画像をスキャナ
23で読み取る場合の画像処理装置10の動作について
説明する。先ず、スキャナ23によって読み取られた画
像に基づく画像データは、入出力部11から入力されて
メモリ13に格納される。画像データのメモリ13への
格納が終了すると、制御部16は付加データ検出部12
に対して付加データの検出処理を行うように制御する。
Next, the operation of the image processing apparatus 10 when an image printed on paper is read by the scanner 23 will be described. First, image data based on an image read by the scanner 23 is input from the input / output unit 11 and stored in the memory 13. When the storage of the image data in the memory 13 is completed, the control unit 16
Is controlled to perform additional data detection processing.

【0033】図6に、付加データ検出部12の具体的な
構成の一例を示す。付加データ検出部12は、マルチプ
レクサ(MUX)121、色変換部122、白画素カウ
ント部123、エッジ検出部124m,124c,12
4y、最大値検出部125、傾斜パターン強調部12
6、2値化処理部127、パターン位置決定部128、
座標値バッファ129およびパターンマッチング部13
0を有する構成となっている。そして、この付加データ
検出部12には、メモリ13に格納されている画像デー
タが入力される。
FIG. 6 shows an example of a specific configuration of the additional data detection unit 12. The additional data detection unit 12 includes a multiplexer (MUX) 121, a color conversion unit 122, a white pixel counting unit 123, and edge detection units 124m, 124c, and 12
4y, maximum value detection unit 125, inclined pattern emphasis unit 12
6, binarization processing section 127, pattern position determination section 128,
Coordinate value buffer 129 and pattern matching unit 13
0 is provided. Then, the image data stored in the memory 13 is input to the additional data detection unit 12.

【0034】上記構成の付加データ検出部12におい
て、入力された画像データは、マルチプレクサ121を
経由して色変換部122および白画素カウント部123
に入力される。色変換部122に入力された画像データ
は、当該色変換部122においてRGB色空間からYM
C色空間に変換され、かつY成分とMC成分に分離され
て出力される。
In the additional data detecting section 12 having the above structure, the input image data is passed through a multiplexer 121 to a color converting section 122 and a white pixel counting section 123.
Is input to The image data input to the color conversion unit 122 is converted from the RGB color space into a YM
It is converted into a C color space, separated into a Y component and an MC component, and output.

【0035】そして、Y成分はエッジ検出部124yに
供給されてエッジ検出フィルタ処理が行われ、しかる後
斜線パターン強調部126において斜線パターンを強調
する強調フィルタ処理が行われてエッジ画像Yedge
が作成され、2値化処理部127に供給される。一方、
MC成分の画像データは、2つのエッジ検出部124
m,124cによってエッジ検出フィルタ処理が並列に
行われ、最大値検出部125によっていずれか大きい方
の画素値を選択することによってエッジ画像データMC
edgeが作成され、2値化処理部127に供給され
る。
Then, the Y component is supplied to an edge detecting section 124y, where an edge detecting filter process is performed. Thereafter, an oblique line pattern emphasizing section 126 performs an emphasis filter process for emphasizing an oblique line pattern, thereby performing an edge image Yedge.
Is generated and supplied to the binarization processing unit 127. on the other hand,
The image data of the MC component is input to two edge detectors 124
m and 124c, the edge detection filter processing is performed in parallel, and the maximum value detection unit 125 selects the larger one of the pixel values, thereby obtaining edge image data MC.
An edge is created and supplied to the binarization processing unit 127.

【0036】2値化処理部127においては、入力され
た2つのエッジ画像データYedge,MCedgeお
よび予め設定されている2つのしきい値TH1,TH2
によって次のような2値化処理が行われる。すなわち、
エッジ画像データYedgeがしきい値TH1よりも大
きく、かつエッジ画像データMCedgeがしきい値T
H2よりも小さい場合は画素値“1”を、そうでない場
合は画素値“0”を出力する。
In the binarization processing section 127, two inputted edge image data Yedge and MCedge and two preset threshold values TH1 and TH2 are set.
Performs the following binarization processing. That is,
The edge image data Yedge is larger than the threshold value TH1 and the edge image data MCedge is
If smaller than H2, the pixel value "1" is output; otherwise, the pixel value "0" is output.

【0037】このようにして作成された2値画像データ
は、Y成分の斜線エッジのみが抽出された斜線パターン
画像データとなっている。この斜線パターン画像データ
は付加データ検出部12から出力され、一旦メモリ13
に格納される。また、上記処理と並行して、白画素カウ
ント部123は、入力された画像データの各画素値をし
きい値と比較することによって白画素か否かを判定し、
白画素の個数をカウントしてそのカウント値を制御部1
6へ出力する。
The binary image data created in this manner is oblique line pattern image data in which only the oblique edge of the Y component is extracted. The oblique line pattern image data is output from the additional data detection unit 12 and temporarily stored in the memory 13.
Is stored in In parallel with the above processing, the white pixel counting unit 123 determines whether each pixel value of the input image data is a white pixel by comparing each pixel value with a threshold value,
Control unit 1 counts the number of white pixels and counts the count value.
Output to 6.

【0038】次に、メモリ13に格納されている斜線パ
ターン画像データは、付加データ検出部12に入力され
る。この斜線パターン画像データは、マルチプレクサ1
21を経由してパターン位置検出部128に入力され、
次のようなパターン位置の算出処理が行われる。
Next, the oblique line pattern image data stored in the memory 13 is input to the additional data detection unit 12. The hatched pattern image data is supplied to the multiplexer 1
21 and input to the pattern position detection unit 128 via
The following pattern position calculation processing is performed.

【0039】先ず、入力された2値の斜線パターン画像
データP(i,j) の主走査方向の投影分布Tx(i) 、副走
査方向の投影分布Ty(j) を次式によってそれぞれ求め
る。 Tx(i) =Σj(P(i,j) ) Ty(j) =Σi(P(i,j) )
First, the projection distribution Tx (i) in the main scanning direction and the projection distribution Ty (j) in the sub-scanning direction of the input binary diagonal pattern image data P (i, j) are obtained by the following equations. Tx (i) = Σj (P (i, j)) Ty (j) = Σi (P (i, j))

【0040】その後、求めた投影分布をブロックサイズ
と同じ画素間隔である16間隔で足し込んだ畳み込み投
影分布Ux(n) 、Uy(m) を求める。 Ux(n) =Σk(Tx(n+16*k)) n=1,2,……16 Uy(m) =Σk(Ty(m+16*k)) n=1,2,……16
Thereafter, convolution projection distributions Ux (n) and Uy (m) are obtained by adding the obtained projection distribution at 16 intervals, which is the same pixel interval as the block size. Ux (n) = Σk (Tx (n + 16 * k)) n = 1, 2,... 16 Uy (m) = Σk (Ty (m + 16 * k)) n = 1, 2,.

【0041】この求めた主走査方向、副走査方向の畳み
込み投影分布の最大値がそれぞれ、主走査方向、副走査
方向のパターン位置の開始座標となり、その座標から1
6画素間隔ずつ離れた位置が、各パターン位置座標とな
る。求まった座標値は、座標値バッファ129へ格納さ
れると同時に、付加データ検出部35から出力され、メ
モリ13上の座標格納領域へ格納される。
The maximum values of the convolution projection distributions in the main scanning direction and the sub-scanning direction are the starting coordinates of the pattern position in the main scanning direction and the sub-scanning direction, respectively.
Positions separated by 6 pixel intervals are each pattern position coordinate. The obtained coordinate values are stored in the coordinate value buffer 129, output from the additional data detection unit 35, and stored in the coordinate storage area on the memory 13 at the same time.

【0042】ここで、スキャナ23から入力された画像
データが、付加データが埋め込まれている画像データな
らば、求めた投影分布は、図7(a)に示すように、
山、谷が一定間隔、即ち16画素間隔で連続して繰り返
す周期的な分布となる。また、畳み込み分布は、図7
(b)に示すように、1つの山型の分布になり、その最
大値はパターン位置と一致する。この座標を開始点とし
て、主走査方向、副走査方向に16ずつ加算していけ
ば、図7(c)に示すように、他のパターンの座標値が
求まる。
Here, if the image data input from the scanner 23 is image data in which additional data is embedded, the obtained projection distribution is as shown in FIG.
The peaks and valleys have a periodic distribution that repeats at regular intervals, that is, at intervals of 16 pixels. The convolution distribution is shown in FIG.
As shown in (b), there is one mountain-shaped distribution, and the maximum value coincides with the pattern position. If the coordinates are used as a starting point and 16 are added in the main scanning direction and the sub-scanning direction, coordinate values of other patterns are obtained as shown in FIG. 7C.

【0043】その後、メモリ13上に格納されている斜
線パターン画像データが付加データ検出部12へ入力さ
れる。そして、求めた各パターン位置座標において、パ
ターンマッチング部130でのパターンマッチング処理
によって付加データの検出処理が行われる。
Thereafter, the oblique line pattern image data stored in the memory 13 is input to the additional data detection unit 12. Then, for each of the obtained pattern position coordinates, the additional data detection process is performed by the pattern matching process in the pattern matching unit 130.

【0044】パターンマッチング部130は、座標値バ
ッファ129からパターン位置座標を読み出し、メモリ
13に格納されている斜線パターン画像データのその座
標を中心とした1ブロック分の斜線パターン画像データ
(2値画像)Bを読み出す。そして、読み出した1ブロ
ック分の画像データBに対して、次式によって2つのパ
ターンのマッチング値M0,M1を算出する。使用する
パターンS0,S1を図8に示す。また、次式のAND
は論理積を表わす。 M0=Σij(AND(B(i,j) ,S0(i,j) ) M1=Σij(AND(B(i,j) ,S1(i,j) )
The pattern matching unit 130 reads out the pattern position coordinates from the coordinate value buffer 129, and stores one block of oblique line pattern image data (binary image image data) centered on the coordinates of the oblique line pattern image data stored in the memory 13. ) Read B. Then, for the read image data B for one block, matching values M0 and M1 of two patterns are calculated by the following equation. FIG. 8 shows patterns S0 and S1 to be used. In addition, AND of the following equation
Represents a logical product. M0 = Σij (AND (B (i, j), S0 (i, j)) M1 = Σij (AND (B (i, j), S1 (i, j))

【0045】上式で求めたマッチング値M0,M1およ
び予め設定されているしきい値TH3を比較し、マッチ
ング値M0がマッチング値M1およびしきい値TH3よ
りも大きい場合は、付加データビットとして値“0”を
出力し、そうでない場合は、付加データビットとして値
“1”を出力し、これらをメモリ34上の付加データ格
納領域へ格納する。以上のパターンマッチング処理を全
てのパターン位置座標について実施し、付加データの検
出処理を終了する。
The matching values M0 and M1 obtained by the above equation are compared with a preset threshold value TH3. If the matching value M0 is larger than the matching value M1 and the threshold value TH3, the value is added as an additional data bit. "0" is output, otherwise, "1" is output as additional data bits, and these are stored in the additional data storage area on the memory 34. The above pattern matching processing is performed for all pattern position coordinates, and the detection processing of the additional data is completed.

【0046】付加データ検出部12による付加データの
検出処理の終了後、制御部16は、付加データ検出部1
2によってカウントされた白画素のカウント値を調べ、
白画素の個数が予め設定されているしきい値以上である
場合、スキャナ43から入力された画像データ(以下、
スキャンインされた画像データと称す)に含まれる白地
背景部が多いため、この画像をディスプレイ装置22で
表示した場合に、白地背景部に存在するイエローの斜線
パターンが見え易くなると判断し、付加データ削除部1
5に対して、スキャンインされた画像データから付加デ
ータ、即ち斜線エッジパターンを削除する処理を行うよ
うに制御する。
After the additional data detection process by the additional data detection unit 12 is completed, the control unit 16
Check the count value of the white pixel counted by 2;
If the number of white pixels is equal to or greater than a preset threshold, the image data input from the scanner 43
(Referred to as “scan-in image data”), there are many white background portions included in the image data. Therefore, when this image is displayed on the display device 22, it is determined that the yellow oblique line pattern existing in the white background background portion is easy to see. Deletion unit 1
5 is controlled to perform processing for deleting additional data, that is, oblique line edge patterns, from the scanned-in image data.

【0047】一方、白画素の個数が予め設定されている
しきい値未満である場合は、制御部16はメモリ13に
格納されている画像データと付加データを、入出力部1
1からパーソナルコンピュータ21へ転送するように制
御する。
On the other hand, if the number of white pixels is less than the preset threshold value, the control unit 16 transmits the image data and the additional data stored in the memory 13 to the input / output unit 1.
1 to the personal computer 21.

【0048】付加データ削除部15の具体的な構成の一
例を図9に示す。付加データ削除部15は、色変換部1
51、平滑化部152、合成部153、セレクタ154
および色変換部155を有する構成となっている。そし
て、この付加データ削除部15は、メモリ13上の座標
格納領域から先程求めた各パターンの位置座標を読み出
し、メモリ13内に格納されているスキャンインされた
画像データの当該座標値を中心とする1ブロック分の画
像データを読み出す。
FIG. 9 shows an example of a specific configuration of the additional data deleting section 15. The additional data deletion unit 15 includes the color conversion unit 1
51, smoothing unit 152, combining unit 153, selector 154
And a color conversion unit 155. Then, the additional data deletion unit 15 reads out the position coordinates of each pattern previously obtained from the coordinate storage area on the memory 13 and sets the coordinate values of the scanned-in image data stored in the memory 13 as the center. 1 block of image data to be read.

【0049】上記構成の付加データ削除部15におい
て、読み出された1ブロック分の画像データは、色変換
部151においてRGB色空間からYMC色空間に変換
され、かつY成分とMC成分に分離される。そして、Y
成分は直接合成部153に供給されるとともに、平滑化
処理部152において平滑化フィルタ処理をかけられて
合成部153に供給される。
In the additional data deletion unit 15 having the above structure, the image data for one block read out is converted from the RGB color space into the YMC color space by the color conversion unit 151 and is separated into the Y component and the MC component. You. And Y
The components are directly supplied to the synthesizing unit 153, and are also subjected to smoothing filter processing in the smoothing processing unit 152 and are supplied to the synthesizing unit 153.

【0050】合成部153には、メモリ13から読み出
された付加データビットに基づいてセレクタ154によ
って選択されたパターンS0,S1のいずれか一方が入
力される。合成部153は、パターン内の“0”でない
係数に対応する読み出した1ブロック分の画像データの
画素を、平滑化フィルタ処理をかけた後の画像データの
画素と置き換えて出力する。図8(a)にパターンS0
を、同図(b)にパターンS1をそれぞれ示す。
One of the patterns S0 and S1 selected by the selector 154 based on the additional data bits read from the memory 13 is input to the synthesizing unit 153. The synthesizing unit 153 replaces the pixels of the read image data of one block corresponding to the coefficients other than “0” in the pattern with the pixels of the image data that has been subjected to the smoothing filter processing, and outputs the result. FIG. 8A shows the pattern S0.
FIG. 2B shows the pattern S1.

【0051】その後、色変換部155において再度色変
換処理を行うことによって元のRGB空間の画像データ
に変換して出力する。この出力された画像データは、メ
モリ13に格納される。以上の処理を全てのブロックに
ついて繰り返し、メモリ13内に格納されているスキャ
ンインされた画像データから斜めエッジパターンを削除
する処理が行われる。
After that, the color conversion section 155 performs the color conversion processing again to convert the image data into the original image data in the RGB space and output it. The output image data is stored in the memory 13. The above process is repeated for all blocks, and a process of deleting the oblique edge pattern from the scanned-in image data stored in the memory 13 is performed.

【0052】斜線エッジパターンを削除する処理が終了
後、制御部16はメモリ13に格納された画像データと
付加データを、入出力部11からパーソナルコンピュー
タ21へ転送するように制御する。
After the process of deleting the oblique line edge pattern is completed, the control unit 16 controls the image data and the additional data stored in the memory 13 to be transferred from the input / output unit 11 to the personal computer 21.

【0053】図10に、付加データ埋め込み部14の構
成の第2具体例を示す。この第2具体例に係る付加デー
タ埋め込み部14′は、色変換部141、最大値算出部
142、変調量算出部143、乗算部144、セレクタ
145および平均値算出部146を有し、画像データの
パターン埋め込み位置の濃度に応じてパターンの振幅を
反転させる構成となっている。そして、この付加データ
埋め込み部14′には、メモリ13からブロック単位で
読み出された画像データが入力される。
FIG. 10 shows a second specific example of the configuration of the additional data embedding section 14. The additional data embedding unit 14 ′ according to the second specific example has a color conversion unit 141, a maximum value calculation unit 142, a modulation amount calculation unit 143, a multiplication unit 144, a selector 145, and an average value calculation unit 146. The amplitude of the pattern is inverted according to the density of the pattern embedding position. Then, the image data read out from the memory 13 in block units is input to the additional data embedding unit 14 '.

【0054】上記構成の付加データ埋め込み部14′に
おいて、入力されたRGBの画像データは、色変換部1
41においてRGB色空間からプリンタ24の色空間で
あるYMCK色空間に変換され、かつY成分とMCK成
分に分離されて出力される。MCK成分の画像データは
最大値算出部142に入力され、この最大値算出部14
2において各画素毎に各成分の画素値(濃度)の最大値
が求められる。この求められた最大値は、変調量算出部
143に供給される。
In the additional data embedding section 14 'having the above structure, the input RGB image data is converted into the color conversion section 1'.
At 41, the RGB color space is converted into a YMCK color space, which is the color space of the printer 24, and is separated into a Y component and an MCK component and output. The image data of the MCK component is input to the maximum value calculation unit 142, and the maximum value calculation unit 14
In 2, the maximum value of the pixel value (density) of each component is obtained for each pixel. The obtained maximum value is supplied to the modulation amount calculation unit 143.

【0055】変調量算出部143は、各パターンの埋め
込み位置におけるMCK成分の最大値に応じてパターン
の変調量を算出する。この変調量算出部143では、パ
ターンを埋め込む位置のMCK成分の最大値が大きいほ
どパターンの変調量が大きくなり、MCK成分の最大値
が小さいほどパターンの変調量が小さくなるように、パ
ターンの変調量の算出処理が行われる。
The modulation amount calculator 143 calculates the modulation amount of the pattern according to the maximum value of the MCK component at the embedding position of each pattern. The modulation amount calculator 143 modulates the pattern so that the larger the maximum value of the MCK component at the position where the pattern is embedded, the larger the modulation amount of the pattern, and the smaller the maximum value of the MCK component, the smaller the modulation amount of the pattern. An amount calculation process is performed.

【0056】この算出された変調量は乗算部144に供
給される。1ブロック分の変調量が算出された後、メモ
リ13上の付加データ格納領域から付加データビットが
1ビット読み出され、セレクト情報としてセレクタ14
5に与えられる。この付加データビットが与えられる
と、セレクタ145は、そのビット情報に応じて2種類
のパターンS0,S1のいずれか一方を選択して乗算器
144に供給する。
The calculated amount of modulation is supplied to the multiplier 144. After the amount of modulation for one block is calculated, one additional data bit is read from the additional data storage area on the memory 13 and the selector 14 reads the additional data bit as select information.
5 given. When the additional data bit is provided, the selector 145 selects one of the two types of patterns S0 and S1 according to the bit information and supplies it to the multiplier 144.

【0057】一方、Y成分の画像データは、乗算器14
4および平均値算出部146に供給される。平均値算出
部146では、Y成分の画像データの画素値(濃度値)
の最大値について1ブロック分の平均値の算出処理が行
われる。この算出された平均値は、乗算器144に供給
される。
On the other hand, the image data of the Y component is
4 and the average value calculation unit 146. In the average value calculation unit 146, the pixel value (density value) of the Y component image data
Is calculated for one block with respect to the maximum value of. The calculated average value is supplied to the multiplier 144.

【0058】乗算部144は先ず、変調量算出部143
で求められた同一画素位置の変調量を、セレクタ145
によって選択されたパターンの各係数値に乗算する処理
を行う。これにより、乗算部144では、MCK成分の
濃度値が高いほどパターンの振幅量が大きくなり、MC
K成分の濃度値が低いほどパターンの振幅量が小さくな
るような処理が行われる。
The multiplying unit 144 first includes a modulation amount calculating unit 143
The amount of modulation at the same pixel position obtained by
A process of multiplying each coefficient value of the pattern selected by the above is performed. As a result, in the multiplying unit 144, the higher the density value of the MCK component, the larger the amplitude of the pattern becomes.
Processing is performed such that the lower the density value of the K component, the smaller the amplitude of the pattern.

【0059】乗算器144はさらに、平均値算出部14
6から入力された、そのブロックのY成分の最大値の平
均値に応じて、変調されたパターンの各係数値をY成分
の画像データの画素値に対して加減算する処理を行う。
具体的には、Y成分の最大値の平均値が例えば128未
満であれば、変調されたパターンの各係数値をY成分の
画像データの画素値に加算して出力し、Y成分の最大値
の平均値が128以上であれば、変調されたパターンの
各係数値をY成分の画像データの画素値から減算して出
力する。
The multiplier 144 further includes an average value calculator 14
According to the average value of the maximum value of the Y component of the block inputted from 6, the processing of adding / subtracting each coefficient value of the modulated pattern with respect to the pixel value of the image data of the Y component is performed.
Specifically, if the average value of the maximum value of the Y component is less than 128, for example, each coefficient value of the modulated pattern is added to the pixel value of the image data of the Y component and output, and the maximum value of the Y component is output. If the average value is 128 or more, each coefficient value of the modulated pattern is subtracted from the pixel value of the Y component image data and output.

【0060】これにより、乗算器144では、Y成分に
おける画像データの濃度値が所定の値(本例では、12
8)未満の場合はY成分の画像データの濃度値を高くし
てパターンを重畳し、所定の値以上の場合はY成分の画
像データの濃度値を低くしてパターンを重畳するような
処理が行われる。
Thus, in the multiplier 144, the density value of the image data in the Y component is set to a predetermined value (in this example, 12
8) If the value is less than the predetermined value, the density value of the Y component image data is increased to superimpose the pattern, and if the value is equal to or more than the predetermined value, the density value of the Y component image data is reduced to superimpose the pattern. Done.

【0061】このように、Y成分の画像データに対して
MCK成分の濃度値に応じた振幅量にてパターン(付加
データ)を重畳するとともに、Y成分の最大値の平均値
が所定の値に対して低い場合には高く、高い場合には低
くなるようにY成分の画像データの濃度値を制御するこ
とにより、第1具体例における効果に加え、プリンタ2
4によるプリントアウト後の画像において、Y成分の濃
度が濃い/薄いに関わらず傾斜エッジパターンを確実に
検出できることになる。
As described above, the pattern (additional data) is superimposed on the image data of the Y component with an amplitude corresponding to the density value of the MCK component, and the average value of the maximum value of the Y component becomes a predetermined value. On the other hand, by controlling the density value of the Y component image data so as to be high when it is low and low when it is high, the printer 2
4, the inclined edge pattern can be reliably detected regardless of whether the density of the Y component is high or low.

【0062】以上のようにして、付加データ埋め込み部
14′において、MCK成分の濃度値に応じた振幅量に
てパターン(付加データ)が埋められ、かつ所定の値に
対して濃度値の平均値が低い場合には高く、高い場合に
は低くなるように濃度値が制御されたY成分の画像デー
タは、乗算器144の後段でMCK成分の画像データと
合成される。そして、その合成された画像データは付加
データ埋め込み部14から出力され、メモリ13に格納
される。以上の処理を全てのブロックについて繰り返
す。
As described above, in the additional data embedding section 14 ', the pattern (additional data) is embedded with the amplitude amount corresponding to the density value of the MCK component, and the average value of the density value is obtained with respect to a predetermined value. The image data of the Y component whose density value is controlled to be high when the value is low and low when the value is high is combined with the image data of the MCK component in a stage subsequent to the multiplier 144. Then, the combined image data is output from the additional data embedding unit 14 and stored in the memory 13. The above processing is repeated for all blocks.

【0063】図11に、上記構成の付加データ埋め込み
部14′での埋め込み処理の際に使用する2種類のパタ
ーンS0,S1の他の例を示す。図11において、
(a)がパターンS0,(b)がパターンS1である。
この第2具体例に係るパターンS0,S1も傾斜形状の
パターンであるが、図4に示す第1具体例に係るパター
ンS0,S1とは異なり、正方向のみに振幅aを持つパ
ターンとなっている。
FIG. 11 shows another example of the two types of patterns S0 and S1 used in the embedding process in the additional data embedding section 14 'having the above configuration. In FIG.
(A) is the pattern S0, and (b) is the pattern S1.
The patterns S0 and S1 according to the second specific example are also inclined patterns. However, unlike the patterns S0 and S1 according to the first specific example shown in FIG. 4, the patterns have an amplitude a only in the positive direction. I have.

【0064】図12は、付加データ埋め込み部14′に
おける埋め込み処理で画像データへ埋め込むパターンの
説明図である。図12において、(a)はパターンを埋
め込む前の画像データであり、(b)はパターン埋め込
み後の画像データである。画像データの濃度が薄い場合
には、Y成分に正方向の振幅のパターンが埋められ、Y
成分濃度が濃くなるに連れて負方向の振幅のパターンが
埋められていく。
FIG. 12 is an explanatory diagram of a pattern to be embedded in image data by the embedding process in the additional data embedding section 14 '. In FIG. 12, (a) shows the image data before the pattern is embedded, and (b) shows the image data after the pattern is embedded. When the density of the image data is low, the pattern of the amplitude in the positive direction is embedded in the Y component,
As the component concentration increases, the pattern of the amplitude in the negative direction is filled.

【0065】以上により、付加データ埋め込み部14′
でのパターンデータ(付加データ)の埋め込み処理が終
了する。パターンデータの埋め込み処理が終了すると、
制御部16はメモリ13に格納された埋め込み後の画像
データを読み出して、入出力部11からプリンタ24へ
出力し、紙への印刷を行わせる。
As described above, the additional data embedding section 14 '
The embedding process of the pattern data (additional data) is completed. When the pattern data embedding process is completed,
The control unit 16 reads out the embedded image data stored in the memory 13, outputs the image data from the input / output unit 11 to the printer 24, and performs printing on paper.

【0066】なお、上記実施形態では、パターンとし
て、斜線エッジパターンを使用する例について説明した
が、これに限られるものではなく、紙に印刷された画像
上において見た目に目立たず、かつ検出し易いような他
のパターン、例えば、斜めに配置したドットの集合で構
成したパターン、微小な縦線、横線パターン等であって
も構わない。また、埋め込む情報として、上記実施形態
で説明した情報だけでなく、他の任意の情報を埋め込む
ようにしても構わない。
In the above-described embodiment, an example in which a diagonal edge pattern is used as a pattern has been described. However, the present invention is not limited to this example. Such other patterns, for example, a pattern formed by a set of dots arranged diagonally, a fine vertical line, a horizontal line pattern, or the like may be used. Further, as the information to be embedded, not only the information described in the above embodiment but also other arbitrary information may be embedded.

【0067】また、上記実施形態においては、付加デー
タの検出、埋め込み処理を独立した画像処理装置10で
行う構成の場合について説明したが、本発明はこれに限
定されるものではなく、パーソナルコンピュータ内部の
ソフトウェアで処理する構成であっても良く、またプリ
ンタ内部に一体的に組み込んだ構成とすることも可能で
ある。
Further, in the above embodiment, the case where the detection and embedding processing of the additional data is performed by the independent image processing apparatus 10 has been described. However, the present invention is not limited to this, and the present invention is not limited to this. The processing may be performed by the software described above, or may be integrated into the printer.

【0068】[0068]

【発明の効果】以上説明したように、本発明によれば、
画像データに対して付加情報を表わす付加データを重畳
する画像処理装置において、付加データを重畳する色成
分における画像データの濃度値を検出し、その濃度値が
所定の値未満の場合は画像データの濃度値を高くして付
加データを重畳し、所定の値以上の場合は画像データの
濃度値を低くして付加データを重畳するようにしたこと
により、プリントアウト後の画像において、その濃度が
濃い場合であっても検出し易いように、逆に薄い場合に
は目立ち過ぎないようにして付加データを埋め込むこと
ができる。
As described above, according to the present invention,
In an image processing apparatus for superimposing additional data representing additional information on image data, a density value of the image data in a color component on which the additional data is superimposed is detected, and when the density value is less than a predetermined value, the image data When the density value is increased and the additional data is superimposed, and when the density value is equal to or higher than the predetermined value, the density value of the image data is lowered and the additional data is superimposed. Even in the case, the additional data can be embedded so as not to be too conspicuous when it is thin, so that it is easy to detect.

【0069】また、画像データに対して付加情報を表わ
す付加データを重畳する画像処理装置において、付加情
報を表わす付加データを重畳する位置の画像データの濃
度値を検出し、その濃度値が大きいほど重畳する付加デ
ータの振幅量を大きくして付加データを重畳するように
したことにより、プリントアウト後の画像において、そ
の濃度が濃い/薄いに関わらず確実に検出できるように
付加データを埋め込むことができる。
In an image processing apparatus for superimposing additional data representing additional information on image data, a density value of image data at a position where the additional data representing additional information is superimposed is detected. By increasing the amplitude of the additional data to be superimposed and superimposing the additional data, it is possible to embed the additional data in the printed image so that it can be reliably detected regardless of whether the density is high or low. it can.

【0070】さらに、画像データに付加的な情報を表わ
す付加データとして埋め込まれたパターンを検出する画
像処理装置において、入力画像データの所定の色成分の
エッジ画像を作成し、このエッジ画像からパターンの位
置を求め、そのパターン位置でパターン認識を行うとと
もに、そのパターンに応じた付加データを出力するよう
にしたことにより、画像に視覚上目立たないように埋め
込んだ付加データを、読み取った画像データ中から確実
に検出することができる。
Further, in an image processing apparatus for detecting a pattern embedded as additional data representing additional information in image data, an edge image of a predetermined color component of the input image data is created, and a pattern of the pattern is formed from the edge image. The position is obtained, the pattern is recognized at the pattern position, and the additional data corresponding to the pattern is output, so that the additional data embedded in the image so as to be visually inconspicuous can be obtained from the read image data. It can be detected reliably.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態に係る画像処理装置の構
成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】 一実施形態に係る画像処理装置を用いたシス
テム全体の構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an entire system using the image processing apparatus according to the embodiment.

【図3】 付加データ埋め込み部の構成の第1具体例を
示すブロック図である。
FIG. 3 is a block diagram illustrating a first specific example of a configuration of an additional data embedding unit.

【図4】 第1具体例に係る付加データ埋め込み処理の
際に使用する2種類のパターンS0,S1の一例を示す
図である。
FIG. 4 is a diagram showing an example of two types of patterns S0 and S1 used at the time of additional data embedding processing according to a first specific example.

【図5】 第1具体例に係る付加データ埋め込み処理で
画像データへ埋め込むパターンの説明図である。
FIG. 5 is an explanatory diagram of a pattern to be embedded in image data in an additional data embedding process according to a first specific example.

【図6】 付加データ検出部の具体的な構成例を示すブ
ロック図である。
FIG. 6 is a block diagram illustrating a specific configuration example of an additional data detection unit.

【図7】 付加データ検出部での検出動作の説明図であ
る。
FIG. 7 is an explanatory diagram of a detection operation in an additional data detection unit.

【図8】 パターンマッチングの際に使用するパターン
S0,S1の一例を示す図である。
FIG. 8 is a diagram showing an example of patterns S0 and S1 used for pattern matching.

【図9】 付加データ削除部の具体的な構成例を示すブ
ロック図である。
FIG. 9 is a block diagram illustrating a specific configuration example of an additional data deletion unit.

【図10】 付加データ埋め込み部の構成の第2具体例
を示すブロック図である。
FIG. 10 is a block diagram showing a second specific example of the configuration of the additional data embedding unit.

【図11】 第2具体例に係る付加データ埋め込み処理
の際に使用する2種類のパターンS0,S1の一例を示
す図である。
FIG. 11 is a diagram showing an example of two types of patterns S0 and S1 used in additional data embedding processing according to a second specific example.

【図12】 第2具体例に係る付加データ埋め込み処理
で画像データへ埋め込むパターンの説明図である。
FIG. 12 is an explanatory diagram of a pattern to be embedded in image data in additional data embedding processing according to a second specific example.

【符号の説明】[Explanation of symbols]

10…画像処理装置、12…付加データ検出部、13…
メモリ、14,14′…付加データ埋め込み部、15…
付加データ削除部、16…制御部、21…パーソナルコ
ンピュータ、22…ディスプレイ装置、23…スキャ
ナ、24…プリンタ
10 image processing device, 12 additional data detection unit, 13
Memory, 14, 14 '... additional data embedding unit, 15 ...
Additional data deletion unit, 16 control unit, 21 personal computer, 22 display device, 23 scanner, 24 printer

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B057 AA11 BA28 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC03 CE08 CE11 DA07 DB02 DB06 DB09 DC16 DC22 5C076 AA13 AA14 BA06 5C077 LL14 MP07 MP08 PP10 PP23 PP32 PP33 PP38 PP42 PP45 PP46 PP47 PP55 PP58 PQ08 PQ20  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) PP58 PQ08 PQ20

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 付加情報を表わす付加データを重畳する
色成分における画像データの濃度値を検出する濃度検出
手段と、 前記濃度検出手段によって検出された濃度値が所定の値
未満の場合は画像データの濃度値を高くして付加データ
を重畳し、所定の値以上の場合は画像データの濃度値を
低くして付加データを重畳する付加データ重畳手段とを
備えることを特徴とする画像処理装置。
1. A density detecting means for detecting a density value of image data in a color component on which additional data representing additional information is superimposed, and an image data when the density value detected by the density detecting means is less than a predetermined value. And an additional data superimposing means for superimposing the additional data by increasing the density value of the image data and superimposing the additional data by lowering the density value of the image data when the density value exceeds a predetermined value.
【請求項2】 前記所定の値は、付加データを重畳する
色成分の濃度値の平均値であることを特徴とする請求項
1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the predetermined value is an average value of density values of color components on which additional data is superimposed.
【請求項3】 付加情報を表わす付加データを重畳する
位置の画像データの濃度値を検出する濃度検出手段と、 前記濃度検出手段によって検出された濃度値が大きいほ
ど、重畳する付加データの振幅量を大きくして付加デー
タを重畳する付加データ重畳手段とを備えることを特徴
とする画像処理装置。
3. A density detecting means for detecting a density value of image data at a position where the additional data representing the additional information is superimposed, and an amplitude of the additional data to be superimposed as the density value detected by the density detecting means increases. And an additional data superimposing means for superimposing the additional data by increasing.
【請求項4】 前記濃度検出手段は、付加データを重畳
する色成分以外の色成分の濃度値を検出することを特徴
とする請求項3記載の画像処理装置。
4. An image processing apparatus according to claim 3, wherein said density detecting means detects a density value of a color component other than a color component on which the additional data is superimposed.
【請求項5】 付加的な情報を表わすパターンが埋め込
まれた画像データを入力する画像データ入力手段と、 前記画像データ入力手段から入力された画像データの所
定の色成分のエッジを抽出し、そのエッジ画像を作成す
るエッジ画像作成手段と、 前記エッジ画像作成手段によって作成されたエッジ画像
の主走査方向、副走査方向における少なくとも一方の投
影分布から前記パターンの位置を求めるパターン位置決
定手段と、 前記パターン位置決定手段によって求められたパターン
位置でパターン認識を行うパターン認識手段と、 前記パターン認識手段によって認識されたパターンに応
じた付加データを出力する付加データ出力手段とを備え
ることを特徴とする画像処理装置。
5. An image data input unit for inputting image data in which a pattern representing additional information is embedded, and an edge of a predetermined color component of the image data input from the image data input unit is extracted. An edge image creating unit that creates an edge image; a pattern position determining unit that determines a position of the pattern from at least one projection distribution in a main scanning direction and a sub-scanning direction of the edge image created by the edge image creating unit; An image, comprising: pattern recognition means for performing pattern recognition at a pattern position determined by pattern position determination means; and additional data output means for outputting additional data according to the pattern recognized by the pattern recognition means. Processing equipment.
【請求項6】 前記所定の色成分はイエロー成分である
ことを特徴とする請求項5記載の画像処理装置。
6. The image processing apparatus according to claim 5, wherein said predetermined color component is a yellow component.
JP10332171A 1998-11-24 1998-11-24 Image processing unit Pending JP2000165640A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10332171A JP2000165640A (en) 1998-11-24 1998-11-24 Image processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10332171A JP2000165640A (en) 1998-11-24 1998-11-24 Image processing unit

Publications (1)

Publication Number Publication Date
JP2000165640A true JP2000165640A (en) 2000-06-16

Family

ID=18251961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10332171A Pending JP2000165640A (en) 1998-11-24 1998-11-24 Image processing unit

Country Status (1)

Country Link
JP (1) JP2000165640A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1536629A1 (en) * 2003-11-28 2005-06-01 Fujitsu Limited Method and apparatus for processing image data and computer program
US7283261B2 (en) 2002-09-20 2007-10-16 Fuji Xerox Co., Ltd. Image processing method, manipulation detection method, image processing device, manipulation detection device, image processing program, manipulation detection program, and image formation medium
US7420713B2 (en) 2003-07-18 2008-09-02 Ricoh Company, Ltd. Color printing apparatus configured to superpose specified pattern on image

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7283261B2 (en) 2002-09-20 2007-10-16 Fuji Xerox Co., Ltd. Image processing method, manipulation detection method, image processing device, manipulation detection device, image processing program, manipulation detection program, and image formation medium
US7420713B2 (en) 2003-07-18 2008-09-02 Ricoh Company, Ltd. Color printing apparatus configured to superpose specified pattern on image
EP1536629A1 (en) * 2003-11-28 2005-06-01 Fujitsu Limited Method and apparatus for processing image data and computer program
KR100563506B1 (en) * 2003-11-28 2006-03-23 후지쯔 가부시끼가이샤 Method and apparatus for processing image data and computer program
US7952766B2 (en) 2003-11-28 2011-05-31 Fujitsu Limited Method and apparatus for processing image data and computer program

Similar Documents

Publication Publication Date Title
US7536026B2 (en) Image processing apparatus and method
JP3102417B2 (en) Image processing apparatus and image processing method
US6862362B2 (en) Parity-grid steganographic method and apparatus
US5016118A (en) Image determining method and apparatus
JP5015540B2 (en) Digital watermark embedding device and detection device
US7499565B2 (en) Method of watermarking for binary images
CN111680273B (en) Watermark embedding method, watermark embedding device, electronic equipment and readable storage medium
US6826291B2 (en) Method and system for embedding information into contents
JP2003281526A (en) Image processor, image processing program and storage medium storing program
US6912069B1 (en) Image processing apparatus
JP5085349B2 (en) System and method for embedding a distributed microsecurity mark
WO2007049340A1 (en) Digital watermarking pad and detection
JP3599621B2 (en) Image processing apparatus, image processing method, and storage medium
JP4595014B2 (en) Digital watermark embedding device and detection device
JP2002199206A (en) Method and device for imbedding and extracting data for document, and medium
JP4441300B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium storing the program
JP2000165640A (en) Image processing unit
JP4928998B2 (en) Image forming apparatus and image forming method
JP4167372B2 (en) Digital watermark embedding method, extraction method, invisibility method, visualization method, and embedding device
JP3822879B2 (en) Document with falsification verification data and image thereof, document output device and method, and document input device and method
JP2002027245A (en) Image processor, image processing method, and storage medium
JP3233986B2 (en) Image processing apparatus and method
JP2003046768A (en) Image processor and image processing method and information recording medium with the same method recorded
JP2853140B2 (en) Image area identification device
JP2000040153A (en) Image processing method, medium recording image processing program and image processor