JP2007142619A - Image processing apparatus, image adjustment method, embedding strength adjustment method, and program - Google Patents

Image processing apparatus, image adjustment method, embedding strength adjustment method, and program Download PDF

Info

Publication number
JP2007142619A
JP2007142619A JP2005331043A JP2005331043A JP2007142619A JP 2007142619 A JP2007142619 A JP 2007142619A JP 2005331043 A JP2005331043 A JP 2005331043A JP 2005331043 A JP2005331043 A JP 2005331043A JP 2007142619 A JP2007142619 A JP 2007142619A
Authority
JP
Japan
Prior art keywords
image
pixel value
information
gradation
embedded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005331043A
Other languages
Japanese (ja)
Inventor
Kenji Ebiya
賢治 蛯谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005331043A priority Critical patent/JP2007142619A/en
Publication of JP2007142619A publication Critical patent/JP2007142619A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Record Information Processing For Printing (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably restore information embedded to a photo and a picture or the like at all times. <P>SOLUTION: A pattern generating section 14 generates an embedded pattern on the basis of a pattern size from a size entry section 11, a pattern attenuation rate from an attenuation rate entry section 12, and the embedding strength from a strength entry section 13. On the other hand, an image input section 15 stores an image to an image storage section 16. Further, an embedded information coding section 18 codes information from an embedded information entry section 17, a pattern selection section 20 selects an embedded pattern corresponding to the coded information, a pattern superimposing section 21 superimposes the embedded pattern to a position of an image in the image storage section 16 designated by an embedded position control section 19, and an image output section 22 outputs the image after the superimposition. In this case, an image adjustment section 25 adjusts the image on the basis of the gradation characteristic of an output apparatus received by a gradation characteristic input section 23 and a density distribution of an image generated by a density distribution generating section 24. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、多階調で表現された画像内に情報を埋め込む画像処理装置等に関し、より詳しくは、画像内の画素値を変更することによって情報を埋め込む画像処理装置等に関する。   The present invention relates to an image processing apparatus that embeds information in an image expressed in multiple gradations, and more particularly to an image processing apparatus that embeds information by changing pixel values in the image.

近年、商品等に対し、その販売や管理の効率化のため、商品情報をバーコードやQRコードで付加することが広く行われている。ところが、商品等のパッケージには元々、写真や絵等を用いて綺麗にデザインされた商品ラベルが貼られていることも多い。そこで、商品ラベルとは別にバーコード等を貼り付ける場合、幾つかの不都合が生じる。
まず、元々商品ラベルが貼られているにも関わらず、これに加えてバーコード等を貼り付けるのは余計な手間であり、これがコストアップにつながってしまうという点である。また、商品ラベルの上からバーコード等を貼ってしまうことにより、商品ラベルの価値が低下し、これが売り上げにも影響しかねないという点もある。
In recent years, it has been widely practiced to add product information with barcodes or QR codes to increase the efficiency of sales and management of products. However, in many cases, a product label originally designed neatly using a photograph or a picture is attached to a package of the product. Therefore, when a barcode or the like is attached separately from the product label, some inconvenience occurs.
First, in spite of the fact that the product label is originally attached, attaching a barcode or the like in addition to this is an extra effort, which leads to an increase in cost. In addition, sticking a barcode or the like on the product label lowers the value of the product label, which may affect sales.

こうした事情から、商品ラベルのような写真や絵等に対し、それを高画質に保ったまま情報を埋め込むための技術として、MIG(Micro Gradation)の検討が進められてきた(例えば、特許文献1、2参照)。この特許文献1、2では、正方形のブロックを4等分し、対角どうしの濃度の差で情報を記録している。また、ブロックの中心値にピークが出るような濃度勾配をつけることで、高密度に情報を埋め込めるようにしている。   Under such circumstances, MIG (Micro Gradation) has been studied as a technique for embedding information in a photo or picture such as a product label while keeping the image quality high (for example, Patent Document 1). 2). In Patent Documents 1 and 2, square blocks are divided into four equal parts, and information is recorded by the difference in density between diagonals. In addition, information is embedded at a high density by providing a density gradient such that a peak appears at the center value of the block.

特開2004−140764号公報(第9、10頁、第1、2図)Japanese Unexamined Patent Publication No. 2004-140764 (9th, 10th pages, FIGS. 1 and 2) 特開2004−147253号公報(第10、11頁、第1、2図)JP 2004-147253 A (pages 10, 11 and 1, 2)

このように、特許文献1、2では、正方形のブロックの領域間に濃度の差を設けることで情報を埋め込んでいる。従って、情報を復元する際には、印刷された紙上でこの濃度の差が認識できるようになっていることが必要である。ところが、画像の所謂ハイライト部やシャドウ部では、出力装置の階調特性が線形ではないため、画像信号の差がそのまま出力画像の濃度の差とならないのが普通である。そして、このような階調特性も個々の出力装置で異なるので、写真や絵等に埋め込んだ情報を安定に復元するには、出力装置の階調特性を考慮して、画像の濃度を調整したり、情報の埋め込み方法を調整したりすることが必要になってくる。
しかしながら、特許文献1、2では、出力装置の階調特性を考慮していないため、埋め込んだ情報を安定に復元できない場合があるという問題点があった。
As described above, in Patent Documents 1 and 2, information is embedded by providing a difference in density between square block regions. Therefore, when restoring the information, it is necessary to be able to recognize this difference in density on the printed paper. However, in the so-called highlight portion and shadow portion of an image, since the gradation characteristics of the output device are not linear, it is normal that the difference between the image signals does not directly become the difference in the density of the output image. Since such gradation characteristics are also different for each output device, in order to stably restore information embedded in photos and pictures, the image density is adjusted in consideration of the gradation characteristics of the output device. Or adjusting the information embedding method.
However, Patent Documents 1 and 2 have a problem in that the embedded information cannot be stably restored because the gradation characteristics of the output device are not taken into consideration.

本発明は、以上のような技術的課題を解決するためになされたものであって、その目的は、写真や絵等に対して埋め込んだ情報を、常に安定に復元できるようにすることにある。
本発明の他の目的は、情報を埋め込んだ画像を如何なる階調特性の出力装置で出力したとしても、その情報を安定に復元できるようにすることにある。
The present invention has been made to solve the technical problems as described above, and an object thereof is to make it possible to always stably restore information embedded in photos, pictures, and the like. .
Another object of the present invention is to make it possible to restore the information stably even if the image in which the information is embedded is output by an output device having any gradation characteristic.

かかる目的のもと、本発明では、出力装置の階調特性に応じて、画像又はその画像に埋め込む情報の埋め込み強度を調整するようにした。即ち、本発明の画像処理装置は、画像への情報の埋め込みを、その画像における画素値をその情報に応じて変更することにより行うものであり、情報が埋め込まれた画像を出力する装置の階調特性を取得する取得手段と、この取得手段により取得された階調特性に基づいて、画像における画素値又はその画素値の変更の度合(埋め込み強度)を調整する調整手段とを備えている。
ここで、画素値の調整としては、階調特性を解析することにより、画素値の変更を機械的に認識困難な階調範囲(例えば、ハイライト部やシャドウ部)を求め、画像における各画素値がその階調範囲に含まれなくなるように、画像のダイナミックレンジを狭めることが考えられる。
また、画素値の変更の度合の調整としては、階調特性を解析することにより、画素値の変更を機械的に認識困難な階調範囲(例えば、ハイライト部やシャドウ部)を求め、情報が埋め込まれた画像における各画素値がその階調範囲に含まれなくなるように、画素値の変更の度合を大きくすることが考えられえる。
For this purpose, in the present invention, the embedding strength of the image or information embedded in the image is adjusted according to the gradation characteristics of the output device. In other words, the image processing apparatus of the present invention performs information embedding in an image by changing the pixel value in the image according to the information, and the level of the apparatus that outputs the image in which the information is embedded. An acquisition unit that acquires a tone characteristic, and an adjustment unit that adjusts a pixel value in the image or a degree of change of the pixel value (embedding intensity) based on the gradation characteristic acquired by the acquisition unit.
Here, as the adjustment of the pixel value, by analyzing the gradation characteristics, a gradation range (for example, a highlight portion or a shadow portion) in which the change of the pixel value is difficult to be recognized is obtained, and each pixel in the image is determined. It is conceivable to reduce the dynamic range of the image so that the value is not included in the gradation range.
In addition, as an adjustment of the degree of change of the pixel value, by analyzing the gradation characteristics, a gradation range where the change of the pixel value is difficult to recognize mechanically (for example, a highlight part or a shadow part) is obtained and information is obtained. It is conceivable that the degree of change of the pixel value is increased so that each pixel value in the image in which is embedded is not included in the gradation range.

また、本発明は、画像を調整するための方法として捉えることもできる。その場合、本発明の画像調整方法は、画像への情報の埋め込みを、その画像における画素値をその情報に応じて変更することにより行うに当たり、その画像を調整するものであり、情報が埋め込まれた画像を出力する装置の階調特性に基づいて、その画像における画素値の変更を機械的に認識可能な階調範囲(例えば、ハイライト部やシャドウ部以外の部分)を求めるステップと、画像における所定の画素値が、階調範囲に含まれていない場合に、その所定の画素値がその階調範囲に含まれるよう、画像のダイナミックレンジを変更するステップとを含んでいる。   The present invention can also be understood as a method for adjusting an image. In that case, the image adjustment method of the present invention adjusts the image when the information is embedded in the image by changing the pixel value in the image according to the information, and the information is embedded. Determining a gradation range (for example, a portion other than a highlight part or a shadow part) that can mechanically recognize a change in pixel value in the image based on the gradation characteristics of the device that outputs the image; And changing the dynamic range of the image so that the predetermined pixel value is included in the gradation range when the predetermined pixel value is not included in the gradation range.

更に、本発明は、埋め込み強度を調整するための方法として捉えることもできる。その場合、本発明の埋め込み強度調整方法は、画像への情報の埋め込みを、その画像における画素値をその情報に応じて変更することにより行うに当たり、その画素値の変更の度合である埋め込み強度を調整するものであり、情報が埋め込まれた画像を出力する装置の階調特性に基づいて、その画像における画素値の変更を機械的に認識可能な階調範囲(例えば、ハイライト部やシャドウ部以外の部分)を求めるステップと、画像における所定の画素値の変更後の値が、階調範囲に含まれていない場合に、その変更後の値がその階調範囲に含まれるよう、埋め込み強度を変更するステップとを含んでいる。   Furthermore, the present invention can be understood as a method for adjusting the embedding strength. In that case, the embedding strength adjustment method of the present invention performs embedding of information in an image by changing the pixel value in the image according to the information, and the embedding strength that is the degree of change of the pixel value is set. Based on the gradation characteristics of the device that outputs the image in which the information is embedded, the gradation range in which the change in the pixel value in the image can be recognized mechanically (for example, the highlight portion or the shadow portion) If the value after changing the specified pixel value in the image is not included in the gradation range, the embedding strength is set so that the changed value is included in the gradation range. And changing steps.

一方、本発明は、コンピュータに画像調整処理を実行させるプログラムとして捉えることもできる。その場合、本発明のプログラムは、画像への情報の埋め込みを、その画像における画素値をその情報に応じて変更することにより行うに当たり、その画像を調整する機能をコンピュータに実現させるものであり、コンピュータに、情報が埋め込まれた画像を出力する装置の階調特性に基づいて、その画像における画素値の変更を機械的に認識可能な階調範囲(例えば、ハイライト部やシャドウ部以外の部分)を求める機能と、画像における所定の画素値が、階調範囲に含まれていない場合に、その所定の画素値がその階調範囲に含まれるよう、画像のダイナミックレンジを変更する機能とを実現させるものである。   On the other hand, the present invention can also be understood as a program that causes a computer to execute image adjustment processing. In that case, the program of the present invention causes the computer to realize a function of adjusting the image when the information is embedded in the image by changing the pixel value in the image according to the information. Based on the gradation characteristics of the device that outputs the image with the information embedded in the computer, the gradation range in which the change of the pixel value in the image can be recognized mechanically (for example, the part other than the highlight part and the shadow part) ) And a function of changing the dynamic range of the image so that the predetermined pixel value is included in the gradation range when the predetermined pixel value in the image is not included in the gradation range. It is what is realized.

また、本発明は、コンピュータに埋め込み強度調整処理を実行させるプログラムとして捉えることもできる。その場合、本発明のプログラムは、画像への情報の埋め込みを、その画像における画素値をその情報に応じて変更することにより行うに当たり、その画素値の変更の度合である埋め込み強度を調整する機能をコンピュータに実現させるものであり、コンピュータに、情報が埋め込まれた画像を出力する装置の階調特性に基づいて、その画像における画素値の変更を機械的に認識可能な階調範囲(例えば、ハイライト部やシャドウ部以外の部分)を求める機能と、画像における所定の画素値の変更後の値が、階調範囲に含まれていない場合に、その変更後の値がその階調範囲に含まれるよう、埋め込み強度を変更する機能とを実現させるものである。   The present invention can also be understood as a program that causes a computer to execute an embedding strength adjustment process. In that case, the program of the present invention has a function of adjusting the embedding strength which is the degree of change of the pixel value when embedding information in the image by changing the pixel value in the image according to the information. Is realized by a computer, and based on the gradation characteristics of a device that outputs an image in which information is embedded in a computer, a gradation range in which a change in pixel value in the image can be mechanically recognized (for example, If the value after changing the specified pixel value in the image is not included in the gradation range, the value after the change is included in the gradation range. The function to change the embedding strength is included so as to be included.

本発明によれば、写真や絵等に対して埋め込んだ情報を、常に安定に復元することが可能となる。   According to the present invention, it is possible to always stably restore information embedded in a photograph or picture.

以下、添付図面を参照して、本発明を実施するための最良の形態(以下、「実施の形態」という)について詳細に説明する。
[第1の実施の形態]
図1は、本発明の第1の実施の形態における画像処理装置の構成例を示した図である。
図示するように、本実施の形態における画像処理装置は、サイズ入力部11と、減衰率入力部12と、強度入力部13と、パターン作成部14と、画像入力部15と、画像格納部16と、埋込情報入力部17と、埋込情報符号化部18と、埋込位置制御部19と、パターン選択部20と、パターン重畳部21と、画像出力部22と、階調特性入力部23と、濃度分布生成部24と、画像調整部25とを含んでいる。
The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below in detail with reference to the accompanying drawings.
[First Embodiment]
FIG. 1 is a diagram showing a configuration example of an image processing apparatus according to the first embodiment of the present invention.
As illustrated, the image processing apparatus according to the present embodiment includes a size input unit 11, an attenuation rate input unit 12, an intensity input unit 13, a pattern creation unit 14, an image input unit 15, and an image storage unit 16. An embedded information input unit 17, an embedded information encoding unit 18, an embedded position control unit 19, a pattern selection unit 20, a pattern superposition unit 21, an image output unit 22, and a gradation characteristic input unit. 23, a density distribution generation unit 24, and an image adjustment unit 25.

サイズ入力部11は、図示しないPC(Personal Computer)や操作パネル等から、ユーザが指示するパターンサイズを入力する。減衰率入力部12は、図示しないPCや操作パネル等から、ユーザが指示するパターン減衰率を入力する。強度入力部13は、図示しないPCや操作パネル等から、ユーザが指示する埋め込み強度を入力する。尚、パターンサイズ、パターン減衰率、埋め込み強度については、後で詳しく述べる。また、これらの情報として予め設定されている値を用いる場合は、各入力部を設けない構成でもよい。
パターン作成部14は、入力されたパターンサイズ、パターン減衰率、埋め込み強度に基づいて、2つのパターンを作成する。尚、パターン作成部14の詳細については後述する。
The size input unit 11 inputs a pattern size designated by the user from a not-shown PC (Personal Computer), an operation panel, or the like. The attenuation factor input unit 12 inputs a pattern attenuation factor instructed by the user from a PC or an operation panel (not shown). The strength input unit 13 inputs an embedding strength instructed by the user from a PC or an operation panel (not shown). The pattern size, pattern attenuation rate, and embedding strength will be described later in detail. Moreover, when using the preset value as such information, the structure which does not provide each input part may be sufficient.
The pattern creating unit 14 creates two patterns based on the input pattern size, pattern attenuation rate, and embedding strength. Details of the pattern creating unit 14 will be described later.

画像入力部15は、情報を埋め込む対象となる画像を入力する。ここでの画像の入力方法としては、外部の装置から通信回線を介して入力する形態、自装置にて動作するアプリケーションプログラムから入力する形態、ユーザが指定したファイルを開いて入力する形態等が考えられる。入力された画像は、多階調で表現された画像であり、図示しないPCにより作成された画像であってもよいし、デジタルカメラやスキャナにより入力された自然画像やCG(Computer Graphics)等であってもよい。
画像格納部16は、入力された画像を格納するメモリである。また、この画像に重畳するパターンの画像を格納する場合もある。
The image input unit 15 inputs an image to be embedded with information. As an image input method here, a mode in which an image is input from an external device via a communication line, a mode in which an image is input from an application program operating on the own device, a mode in which a file specified by the user is opened and input is considered. It is done. The input image is an image expressed in multiple gradations, and may be an image created by a PC (not shown), or a natural image or CG (Computer Graphics) input by a digital camera or scanner. There may be.
The image storage unit 16 is a memory that stores an input image. In some cases, an image of a pattern to be superimposed on this image is stored.

埋込情報入力部17は、図示しないPC、操作パネル、アプリケーションプログラム等から、画像に埋め込む情報を入力する。ここで、画像に埋め込む情報としては、文字列、数字、画像データ等、様々なものが考えられる。
埋込情報符号化部18は、埋込情報入力部17により入力された情報を、所定の符号化フォーマットに変換し、実際に画像に埋め込む符号化情報を作成する。尚、符号化せずに埋め込むようにしてもよい。
埋込位置制御部19は、予め決められている埋め込みフォーマットに従って、画像格納部16に格納された画像における符号化情報の埋め込み位置を指定する。
The embedded information input unit 17 inputs information to be embedded in an image from a PC, an operation panel, an application program, etc. (not shown). Here, various information such as a character string, a number, and image data can be considered as information to be embedded in the image.
The embedded information encoding unit 18 converts the information input by the embedded information input unit 17 into a predetermined encoding format, and creates encoded information that is actually embedded in an image. Note that it may be embedded without encoding.
The embedding position control unit 19 designates the embedding position of the encoded information in the image stored in the image storage unit 16 according to a predetermined embedding format.

パターン選択部20は、埋込情報符号化部18により作成された符号化情報に基づいて、パターン作成部14が作成した2つのパターンのうちの一方を選択する。
パターン重畳部21は、埋込位置制御部19が指定した画像格納部16のアドレスに存在する画像ブロックに対して、パターン選択部20が選択したパターンを例えば加算して重畳し、パターンを画像中に埋め込む。尚、加算後の値が最大値(例えば255)を超えるときは、値を最大値(255)にし、加算後の値が負の値になるときは、値を0にする。
画像出力部22は、情報が埋め込まれた画像を、プリンタ等の出力装置に対して出力する。
The pattern selection unit 20 selects one of the two patterns created by the pattern creation unit 14 based on the coding information created by the embedded information coding unit 18.
The pattern superimposing unit 21 adds, for example, the pattern selected by the pattern selecting unit 20 to the image block existing at the address of the image storage unit 16 designated by the embedding position control unit 19 and superimposes the pattern in the image. Embed in. When the value after addition exceeds the maximum value (for example, 255), the value is set to the maximum value (255), and when the value after addition becomes a negative value, the value is set to 0.
The image output unit 22 outputs an image in which information is embedded to an output device such as a printer.

階調特性入力部23は、情報が埋め込まれた画像を出力する出力装置(プリンタ)の階調特性を取得する。ここで、階調特性入力部23は、階調特性を取得するという観点から、取得手段として把握することもできる。尚、階調特性入力部23の詳細については後述する。
濃度分布生成部24は、画像格納部16に格納された画像を解析して濃度分布を生成する。尚、濃度分布生成部24の詳細についても後述する。
画像調整部25は、階調特性入力部23から入力された階調特性と、濃度分布生成部24により生成された濃度分布と、埋め込み強度とに基づいて、画像格納部16に格納された画像を調整する。ここで、画像調整部25は、画像を調整するという観点から、調整手段として把握することもできる。これについても後で詳細な動作を説明するが、例えば、画像のダイナミックレンジの変更を行う。
The gradation characteristic input unit 23 acquires gradation characteristics of an output device (printer) that outputs an image in which information is embedded. Here, the gradation characteristic input unit 23 can be grasped as an acquisition unit from the viewpoint of acquiring gradation characteristics. Details of the gradation characteristic input unit 23 will be described later.
The density distribution generation unit 24 analyzes the image stored in the image storage unit 16 and generates a density distribution. Details of the density distribution generation unit 24 will be described later.
The image adjustment unit 25 stores the image stored in the image storage unit 16 based on the gradation characteristics input from the gradation characteristic input unit 23, the density distribution generated by the density distribution generation unit 24, and the embedding strength. Adjust. Here, the image adjusting unit 25 can be grasped as an adjusting unit from the viewpoint of adjusting an image. The detailed operation will be described later, but for example, the dynamic range of the image is changed.

尚、これらの機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、画像処理装置の図示しないCPUが、サイズ入力部11、減衰率入力部12、強度入力部13、パターン作成部14、画像入力部15、埋込情報入力部17、埋込情報符号化部18、埋込位置制御部19、パターン選択部20、パターン重畳部21、画像出力部22、階調特性入力部23、濃度分布生成部24、画像調整部25の各機能を実現するプログラムを、例えばハードディスク等の外部記憶装置からメインメモリに読み込んで、画像処理装置内にこれらの各機能を実現する。
以上、本実施の形態における画像処理装置の構成例について説明した。次に、この構成例のうちの主要な構成要素について、更に詳述する。
These functions are realized by cooperation between software and hardware resources. That is, a CPU (not shown) of the image processing apparatus includes a size input unit 11, an attenuation rate input unit 12, an intensity input unit 13, a pattern creation unit 14, an image input unit 15, an embedded information input unit 17, and an embedded information encoding unit. 18, a program that realizes the functions of the embedding position control unit 19, the pattern selection unit 20, the pattern superposition unit 21, the image output unit 22, the gradation characteristic input unit 23, the density distribution generation unit 24, and the image adjustment unit 25. For example, these functions are realized in the image processing apparatus by reading into the main memory from an external storage device such as a hard disk.
The configuration example of the image processing apparatus in the present embodiment has been described above. Next, the main components of this configuration example will be described in more detail.

まず、パターン作成部14について詳述する。パターン作成部14は、サイズ入力部11、減衰率入力部12、強度入力部13により入力された値に基づいて、2つのパターンを作成する。この2つのパターンは以下のような特徴を持つ。
・2つのパターンの対応する画素値どうしを加算すると、全ての画素で値が0になる。
・各々のパターンにおいて、全ての画素値を加算すると0になる。
・各々のパターンは、中心部を通り方向が異なる2本以上のエッジと呼ばれる不連続な画素値を備える。エッジの方向は、例えば垂直線と水平線に沿った方向とすることができる。
更に、
・各々のパターンの持つ画素値の絶対値は中心で最も大きく、中心から離れるほど小さくなる。
という特徴を有しているとよい。
First, the pattern creation unit 14 will be described in detail. The pattern creation unit 14 creates two patterns based on the values input by the size input unit 11, the attenuation rate input unit 12, and the intensity input unit 13. These two patterns have the following characteristics.
When the pixel values corresponding to the two patterns are added, the value is 0 for all the pixels.
In each pattern, 0 is obtained when all pixel values are added.
Each pattern has discontinuous pixel values called two or more edges that pass through the center and have different directions. The direction of the edge can be, for example, a direction along a vertical line and a horizontal line.
Furthermore,
The absolute value of the pixel value of each pattern is the largest at the center and decreases as the distance from the center increases.
It is good to have the characteristics.

図2は、埋め込むパターンの一例の説明図である。上述のような特徴を有するパターンとしては、例えば図2に示したようなものがある。ここで、図2(a)は、ビット値「1」を意味する基本パターン、図2(b)は、ビット値「0」を意味する基本パターンであり、これら双方の全要素に図2(c)又は(d)に示す式が乗ぜられる。これによって、例えば図2(e),(f)に示すようなパターンが生成される。尚、図2(e),(f)では、図示の都合上、濃度の違いをハッチングの違いによって示している。   FIG. 2 is an explanatory diagram of an example of a pattern to be embedded. An example of the pattern having the above-described features is as shown in FIG. Here, FIG. 2 (a) is a basic pattern meaning a bit value “1”, and FIG. 2 (b) is a basic pattern meaning a bit value “0”. The formula shown in c) or (d) is multiplied. As a result, for example, patterns as shown in FIGS. 2E and 2F are generated. In FIGS. 2 (e) and 2 (f), for the sake of illustration, the difference in density is indicated by the difference in hatching.

ここで、基本パターンのサイズは、サイズ入力部11で設定される。図2は、パターンサイズが8×8の例を示している。また、図2(c),(d)において、「C」は、強度入力部13により入力された埋め込み強度(単に「強度」ともいう)、「α」は、減衰率入力部12により入力されたパターン減衰率である。更に、「x」は、パターンの中心を原点とした場合の横方向の座標値であり、「y」は、同じくパターンの中心を原点とした場合の縦方向の座標値である。   Here, the size of the basic pattern is set by the size input unit 11. FIG. 2 shows an example in which the pattern size is 8 × 8. 2C and 2D, “C” is the embedding strength (also simply referred to as “strength”) input by the strength input unit 13, and “α” is input by the attenuation rate input unit 12. Pattern attenuation rate. Furthermore, “x” is a coordinate value in the horizontal direction when the center of the pattern is the origin, and “y” is a coordinate value in the vertical direction when the center of the pattern is also the origin.

これらのパターンの特徴は、画質への影響をできる限り抑えながら、かつ、その検出を容易にするためのものである。
但し、本実施の形態で用いるパターンは図2に示した例に限られるものではなく、例えば図2(c),(d)に示した式の代わりに他の関数を用いてもよい。また、これらの式中の指数関数部分を省略したり、これらの式を用いずに図2(a),(b)に示すパターンをそのまま用いたりしてもよい。更に、図2に示した例ではエッジ方向を垂直・水平方向としたが、情報を検出する際のエッジ方向と合致している限り、例えば45度及び135度方向のエッジ等、様々な方向をエッジ方向とすることができる。
The features of these patterns are for facilitating the detection while suppressing the influence on the image quality as much as possible.
However, the pattern used in the present embodiment is not limited to the example shown in FIG. 2, and other functions may be used instead of the equations shown in FIGS. 2 (c) and 2 (d), for example. Further, the exponential function portion in these equations may be omitted, or the patterns shown in FIGS. 2A and 2B may be used as they are without using these equations. Furthermore, in the example shown in FIG. 2, the edge direction is set to the vertical / horizontal direction. However, as long as the edge direction coincides with the edge direction at the time of detecting information, various directions such as 45 degree and 135 degree edges can be used. It can be the edge direction.

次に、階調特性入力部23について詳述する。
まず、階調特性の求め方としては、出力装置でグラデーションパッチを出力し、それを入力装置で読み取り、階調特性を計測することが考えられる。また、出力装置の階調特性が既に分かっている場合や、プロセスコントローラにて定期的に階調特性を取得しているような場合は、その階調特性を用いるようにしてもよい。
Next, the gradation characteristic input unit 23 will be described in detail.
First, as a method of obtaining gradation characteristics, it is conceivable to output gradation patches with an output device, read them with an input device, and measure the gradation characteristics. Further, when the gradation characteristic of the output device is already known, or when the gradation characteristic is regularly acquired by the process controller, the gradation characteristic may be used.

図3は、階調特性の一例の説明図である。図において、横軸は、出力装置に伝えられた画像信号を示している。また、縦軸は、この画像信号に基づいて出力装置で実際に印刷した画像の濃度を数値化したものである。尚、図3は、画像信号の1つの色成分、例えば、R、G、BのうちのRに着目した場合の階調特性を示している。この図からも分かる通り、画像信号「0」の付近と、画像信号「255」の付近では、画像信号と濃度の関係は線形になっておらず、画像信号の差が、濃度の差に対応していない状態になっている。
具体的には、濃度の値が「Dh」より大きい部分と、濃度の値が「Ds」より小さい部分において、濃度の差が画像信号の差を反映したものとはなっていない。これを画像信号の側から見ると、画像信号が「H」より大きい部分(ハイライト部)と、画像信号が「S」より小さい部分(シャドウ部)において、画像信号の差の通りの濃度差が再現できていない。
そこで、本実施の形態では、情報を埋め込む部分における画素値がハイライト部やシャドウ部に存在しない状態になるよう、画像のダイナミックレンジを狭める処理を行う。
FIG. 3 is an explanatory diagram of an example of gradation characteristics. In the figure, the horizontal axis indicates the image signal transmitted to the output device. The vertical axis represents the density of the image actually printed by the output device based on this image signal. FIG. 3 shows gradation characteristics when attention is paid to one of the color components of the image signal, for example, R of R, G, and B. As can be seen from this figure, the relationship between the image signal and the density is not linear between the vicinity of the image signal “0” and the vicinity of the image signal “255”, and the difference between the image signals corresponds to the difference in density. It is not in a state.
Specifically, the density difference does not reflect the image signal difference in the portion where the density value is larger than “Dh” and the portion where the density value is smaller than “Ds”. When this is viewed from the image signal side, the density difference as the difference between the image signals in the portion where the image signal is larger than “H” (highlight portion) and the portion where the image signal is smaller than “S” (shadow portion). Has not been reproduced.
Therefore, in the present embodiment, processing for narrowing the dynamic range of the image is performed so that the pixel value in the portion where information is embedded does not exist in the highlight portion or the shadow portion.

そのために、本実施の形態では、濃度分布生成部24が濃度分布を生成するので、これについて説明しておく。
図4は、濃度分布生成部24で生成される濃度分布の一例を示した図である。これは、一般的なヒストグラム機能を用いて求めることができるものであり、R、G、B各々について、最大値Rmax、Gmax、Bmax、及び、最小値Rmin、Gmin、Bminを求めることができる。
Therefore, in the present embodiment, the concentration distribution generation unit 24 generates a concentration distribution, which will be described.
FIG. 4 is a diagram showing an example of the density distribution generated by the density distribution generating unit 24. As shown in FIG. This can be obtained using a general histogram function, and the maximum values Rmax, Gmax, Bmax and the minimum values Rmin, Gmin, Bmin can be obtained for each of R, G, B.

その後、画像調整部25が、画像のダイナミックレンジを狭める処理を行う。
図5は、このときの画像調整部25の動作を示したフローチャートである。尚、図5は、R、G、Bの画像信号のうち、Rについての処理を示しているが、G、Bについても同様の処理が行われる。
まず、画像調整部25は、階調特性入力部23から階調特性を受け取り、ハイライトの境界値Hと、シャドウの境界値Sとを求める(ステップ101)。ここで、各境界値は、図3に示した階調特性を解析することによって求めることができる。その解析方法としては、如何なる方法を採用してもよいが、例えば、画像信号と濃度の比が画像信号の値に伴ってどのように変化するかを評価し、変化のしかたが線形とみなせるかどうかをもとに判定することが考えられる。
Thereafter, the image adjustment unit 25 performs a process of narrowing the dynamic range of the image.
FIG. 5 is a flowchart showing the operation of the image adjustment unit 25 at this time. Note that FIG. 5 shows processing for R among R, G, and B image signals, but similar processing is performed for G and B as well.
First, the image adjustment unit 25 receives the gradation characteristic from the gradation characteristic input unit 23, and obtains the boundary value H of the highlight and the boundary value S of the shadow (Step 101). Here, each boundary value can be obtained by analyzing the gradation characteristics shown in FIG. As an analysis method, any method may be adopted. For example, it is evaluated how the ratio of the image signal and the density changes according to the value of the image signal, and how the change can be regarded as linear. Judgment based on whether or not.

次に、画像調整部25は、濃度分布生成部24から濃度分布を受け取り、色成分Rについて、最大値Rmaxと、最小値Rminとを求める(ステップ102)。
また、画像調整部25は、強度Cも取得する(ステップ103)。尚、ここでは、単に「強度C」と表記するが、図2を用いて説明したように、パターンの中心と周辺部とで強度が異なる場合は、強度Cは、画素の位置の関数として考えるものとする。即ち、パターン選択部20が選択したパターンの画像(埋め込み位置の情報も含む)が、パターン重畳部21を介して画像格納部16に格納されるので、画像調整部25は、このパターンの画像を取得することで、画素の位置に応じた強度を把握することができる。
Next, the image adjustment unit 25 receives the density distribution from the density distribution generation unit 24, and obtains the maximum value Rmax and the minimum value Rmin for the color component R (step 102).
The image adjustment unit 25 also acquires the intensity C (step 103). Here, although simply expressed as “intensity C”, as described with reference to FIG. 2, when the intensity differs between the center and the peripheral portion of the pattern, the intensity C is considered as a function of the pixel position. Shall. That is, the image of the pattern selected by the pattern selection unit 20 (including information on the embedding position) is stored in the image storage unit 16 via the pattern superimposing unit 21, so that the image adjustment unit 25 stores the image of this pattern. By acquiring, the intensity according to the position of the pixel can be grasped.

その後、画像調整部25は、埋め込み対象の画像における各画素について以下の処理を行う。
即ち、まず、ある画素に着目し、そのR成分の画素値Rを取得する(ステップ104)。そして、画素値Rがハイライト部に含まれて画素が強度Cを減算する位置にあるか(図5では、「ハイライト(−)」と記す。)、画素値Rがシャドウ部に含まれて画素が強度Cを加算する位置にあるか(図5では、「シャドウ(+)」と記す。)、これらのいずれでもないか、を判定する(ステップ105)。画素値Rがハイライト部に含まれる場合は、原則として画像のダイナミックレンジを狭める必要があるが、着目する画素が図2(a)の左上又は右下の領域、図2(b)の右上又は左下の領域にある場合は、強度Cを減算した後の画素値(R−C)がハイライト部に含まれなくなる可能性があるため、「ハイライト(−)」かどうか判定している。また、画素値Rがシャドウ部に含まれる場合も、同様に、原則として画像のダイナミックレンジを狭める必要があるが、着目する画素が図2(a)の右上又は左下の領域、図2(b)の左上又は右下の領域にある場合は、強度Cを加算した後の画素値(R+C)がシャドウ部に含まれなくなる可能性があるため、「シャドウ(+)」かどうか判定している。
Thereafter, the image adjustment unit 25 performs the following processing for each pixel in the image to be embedded.
That is, first, paying attention to a certain pixel, the pixel value R of the R component is acquired (step 104). Then, whether the pixel value R is included in the highlight portion and the pixel is at a position where the intensity C is subtracted (in FIG. 5, “highlight (−)”), the pixel value R is included in the shadow portion. Then, it is determined whether the pixel is at a position where the intensity C is added (in FIG. 5, “shadow (+)”) or none of them (step 105). When the pixel value R is included in the highlight portion, the dynamic range of the image needs to be narrowed in principle, but the pixel of interest is the upper left or lower right region of FIG. 2A and the upper right portion of FIG. Alternatively, if it is in the lower left region, the pixel value (RC) after subtracting the intensity C may not be included in the highlight portion, so it is determined whether or not it is “highlight (−)”. . Similarly, when the pixel value R is included in the shadow portion, it is necessary to narrow the dynamic range of the image in principle, but the pixel of interest is the upper right or lower left region of FIG. 2A, FIG. ) In the upper left or lower right region, the pixel value (R + C) after adding the intensity C may not be included in the shadow part, so it is determined whether or not it is “shadow (+)”. .

その結果、いずれにも該当しないと判定された場合は、何も処理を行わずに、他に画素があるかどうかの判定(ステップ108)に移行する。
一方、「ハイライト(−)」であると判定された場合は、画素値の変更後の値(R−C)がハイライト境界値Hを下回るかどうかを判定し(ステップ106)、下回った場合は、強度Cで情報を埋め込むことで濃度に差が出るものとして、他に画素があるかどうかの判定(ステップ108)に移行する。尚、上述したように、強度Cは、画素の位置の関数であるので、ここでも画素の位置に応じた強度Cを引くものとする。
また、「シャドウ(+)」であると判定された場合は、画素値の変更後の値(R+C)がシャドウ境界値Sを上回るかどうかを判定し(ステップ107)、上回った場合は、強度Cで情報を埋め込むことで濃度に差が出るものとして、他に画素があるかどうかの判定(ステップ108)に移行する。尚、この場合も、強度Cは、画素の位置の関数であるので、画素の位置に応じた強度Cを足すものとする。
As a result, if it is determined that none of them is applicable, no processing is performed and the process proceeds to determination of whether there is another pixel (step 108).
On the other hand, if it is determined that it is “highlight (−)”, it is determined whether or not the value (RC) after the change of the pixel value is lower than the highlight boundary value H (step 106). In this case, it is assumed that there is a difference in density by embedding information with intensity C, and the process proceeds to determination of whether there is another pixel (step 108). As described above, since the intensity C is a function of the pixel position, the intensity C corresponding to the pixel position is also subtracted here.
If it is determined that the value is “shadow (+)”, it is determined whether the value (R + C) after the change of the pixel value exceeds the shadow boundary value S (step 107). Assuming that there is a difference in density by embedding information in C, the process proceeds to determination of whether there is another pixel (step 108). In this case as well, since the intensity C is a function of the pixel position, the intensity C corresponding to the pixel position is added.

これに対し、いずれかの画素値について、ステップ106における判定が「No」となった場合、又は、ステップ107における判定が「No」となった場合は、強度Cで情報を埋め込むことにより濃度の差が出ないので、画像調整部25は、画像のダイナミックレンジを変更する(ステップ109)。具体的には、ハイライト部で濃度の差が出ない場合は、画素値Rの最大値Rmaxがハイライト境界値Hに変換されるようにダイナミックレンジを変更し、シャドウ部で濃度の差が出ない場合は、画素値Rの最小値Rminがシャドウ境界値Sに変換されるようにダイナミックレンジを変更する。尚、ここでのダイナミックレンジの変更は、画像入力部15から入力された画像全体について行ってもよいし、その画像のうちの情報を埋め込む部分についてのみ行ってもよい。
そして、画像調整部25は、他に画素がなくなるまでステップ104〜107の処理を繰り返し、他に画素がなくなれば(ステップ108で「No」)、処理を終了する。
On the other hand, for any pixel value, if the determination in step 106 is “No”, or if the determination in step 107 is “No”, the density is determined by embedding information with intensity C. Since there is no difference, the image adjustment unit 25 changes the dynamic range of the image (step 109). Specifically, when there is no difference in density in the highlight portion, the dynamic range is changed so that the maximum value Rmax of the pixel value R is converted to the highlight boundary value H, and the difference in density is detected in the shadow portion. If not, the dynamic range is changed so that the minimum value Rmin of the pixel value R is converted into the shadow boundary value S. Note that the change of the dynamic range here may be performed for the entire image input from the image input unit 15, or may be performed only for a portion of the image in which information is embedded.
Then, the image adjustment unit 25 repeats the processing in steps 104 to 107 until there are no more pixels, and when there are no more pixels (“No” in step 108), the processing ends.

尚、以上の動作例では、ステップ106にて、強度Cを減算したときにハイライト部を外れるかを判定し、ステップ107にて、強度Cを加算したときにシャドウ部を外れるかを判定するようにした。しかしながら、これらの判定ステップを設けず、画像の埋め込み対象の部分にハイライト部又はシャドウ部に含まれる画素値があれば、ダイナミックレンジを変更して、その画素値がハイライト部又はシャドウ部に含まれなくなるようにしてもよい。   In the above operation example, it is determined in step 106 whether the highlight portion is removed when the intensity C is subtracted, and in step 107, it is determined whether the shadow portion is removed when the intensity C is added. I did it. However, these determination steps are not provided, and if there is a pixel value included in the highlight part or shadow part in the part to be embedded in the image, the dynamic range is changed and the pixel value is changed to the highlight part or shadow part. It may be excluded.

[第2の実施の形態]
図6は、本発明の第2の実施の形態における画像処理装置の構成例を示す図である。
図示するように、本実施の形態における画像処理装置は、サイズ入力部11と、減衰率入力部12と、強度入力部13と、パターン作成部14と、画像入力部15と、画像格納部16と、埋込情報入力部17と、埋込情報符号化部18と、埋込位置制御部19と、パターン選択部20と、パターン重畳部21と、画像出力部22と、階調特性入力部23と、強度調整部26とを含んでいる。
このうち、サイズ入力部11、減衰率入力部12、強度入力部13、パターン作成部14、画像入力部15、画像格納部16、埋込情報入力部17、埋込情報符号化部18、埋込位置制御部19、パターン選択部20、パターン重畳部21、画像出力部22は、第1の実施の形態で述べたものと同様であるので、詳しい説明を省略する。
[Second Embodiment]
FIG. 6 is a diagram illustrating a configuration example of an image processing apparatus according to the second embodiment of the present invention.
As illustrated, the image processing apparatus according to the present embodiment includes a size input unit 11, an attenuation rate input unit 12, an intensity input unit 13, a pattern creation unit 14, an image input unit 15, and an image storage unit 16. An embedded information input unit 17, an embedded information encoding unit 18, an embedded position control unit 19, a pattern selection unit 20, a pattern superposition unit 21, an image output unit 22, and a gradation characteristic input unit. 23 and an intensity adjusting unit 26.
Among these, the size input unit 11, the attenuation rate input unit 12, the intensity input unit 13, the pattern creation unit 14, the image input unit 15, the image storage unit 16, the embedded information input unit 17, the embedded information encoding unit 18, Since the insertion position control unit 19, the pattern selection unit 20, the pattern superimposing unit 21, and the image output unit 22 are the same as those described in the first embodiment, detailed description thereof is omitted.

階調特性入力部23は、情報が埋め込まれた画像を出力する出力装置(プリンタ)の階調特性を取得する。
強度調整部26は、階調特性入力部23から入力された階調特性に基づいて、強度入力部13で入力する埋め込み強度を調整する。ここで、強度調整部26は、埋め込み強度を調整するという観点から、調整手段として把握することもできる。これについては後で詳細な動作を説明するが、例えば、埋め込み強度を可能な限り最大化する。
尚、本実施の形態では、画像のダイナミックレンジの変更は行わないので、濃度分布生成部24は設けていない。
The gradation characteristic input unit 23 acquires gradation characteristics of an output device (printer) that outputs an image in which information is embedded.
The intensity adjustment unit 26 adjusts the embedding strength input by the intensity input unit 13 based on the gradation characteristics input from the gradation characteristic input unit 23. Here, the strength adjusting unit 26 can be grasped as an adjusting unit from the viewpoint of adjusting the embedding strength. The detailed operation will be described later. For example, the embedding strength is maximized as much as possible.
In this embodiment, since the dynamic range of the image is not changed, the density distribution generation unit 24 is not provided.

尚、これらの機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。即ち、画像処理装置の図示しないCPUが、サイズ入力部11、減衰率入力部12、強度入力部13、パターン作成部14、画像入力部15、埋込情報入力部17、埋込情報符号化部18、埋込位置制御部19、パターン選択部20、パターン重畳部21、画像出力部22、階調特性入力部23、強度調整部26の各機能を実現するプログラムを、例えばハードディスク等の外部記憶装置からメインメモリに読み込んで、画像処理装置内にこれらの各機能を実現する。
以上、本実施の形態における画像処理装置の構成例について説明した。次に、この構成例のうちの主要な構成要素について、更に説明を加えておく。
These functions are realized by cooperation between software and hardware resources. That is, a CPU (not shown) of the image processing apparatus includes a size input unit 11, an attenuation rate input unit 12, an intensity input unit 13, a pattern creation unit 14, an image input unit 15, an embedded information input unit 17, and an embedded information encoding unit. 18, programs for realizing the functions of the embedding position control unit 19, the pattern selection unit 20, the pattern superposition unit 21, the image output unit 22, the gradation characteristic input unit 23, and the intensity adjustment unit 26 are stored in an external storage such as a hard disk, for example. These functions are realized in the image processing apparatus by reading into the main memory from the apparatus.
The configuration example of the image processing apparatus in the present embodiment has been described above. Next, further explanation will be given on the main components in this configuration example.

まず、パターン作成部14は、本実施の形態においても、サイズ入力部11、減衰率入力部12、強度入力部13により入力された値に基づいて、2つのパターンを作成する。この2つのパターンは、第1の実施の形態で述べたような特徴を持ち、例えば、図2に示したようなパターンが例示される。
また、階調特性入力部23は、出力装置の階調特性を計測し、本実施の形態においても、図3に示したような階調特性を取得する。ここで、画像信号が「H」より大きい部分(ハイライト部)と、画像信号が「S」より小さい部分(シャドウ部)において、画像信号の差の通りの濃度差が再現できないので、本実施の形態では、情報を埋め込み後の画素値がハイライト部やシャドウ部に存在しない状態になるよう、埋め込み強度を大きくする処理を行う。
First, also in the present embodiment, the pattern creating unit 14 creates two patterns based on values input by the size input unit 11, the attenuation rate input unit 12, and the intensity input unit 13. These two patterns have the characteristics described in the first embodiment, and for example, the patterns shown in FIG. 2 are exemplified.
Further, the gradation characteristic input unit 23 measures the gradation characteristic of the output device, and also acquires the gradation characteristic as shown in FIG. 3 in the present embodiment. Here, since the density difference as the difference of the image signal cannot be reproduced in the portion where the image signal is larger than “H” (highlight portion) and the portion where the image signal is smaller than “S” (shadow portion), this embodiment is performed. In this mode, processing for increasing the embedding strength is performed so that the pixel value after embedding information does not exist in the highlight portion or the shadow portion.

図7は、このときの強度調整部26の動作を示したフローチャートである。尚、図7は、R、G、Bの画像信号のうち、Rについての処理を示しているが、G、Bについても同様の処理が行われる。
まず、強度調整部26は、階調特性入力部23から階調特性を受け取り、ハイライトの境界値Hと、シャドウの境界値Sとを求める(ステップ201)。ここで、各境界値は、図3に示した階調特性を解析することによって求めることができる。その解析方法としては、如何なる方法を採用してもよいが、例えば、画像信号と濃度の比が画像信号の値に伴ってどのように変化するかを評価し、変化のしかたが線形とみなせるかどうかをもとに判定することが考えられる。
FIG. 7 is a flowchart showing the operation of the intensity adjusting unit 26 at this time. FIG. 7 shows processing for R among R, G, and B image signals, but similar processing is performed for G and B as well.
First, the intensity adjustment unit 26 receives the gradation characteristic from the gradation characteristic input unit 23, and obtains a highlight boundary value H and a shadow boundary value S (step 201). Here, each boundary value can be obtained by analyzing the gradation characteristics shown in FIG. As an analysis method, any method may be adopted. For example, it is evaluated how the ratio of the image signal and the density changes according to the value of the image signal, and how the change can be regarded as linear. Judgment based on whether or not.

次に、強度調整部26は、強度Cを取得する(ステップ202)。尚、ここでは、単に「強度C」と表記するが、図2を用いて説明したように、パターンの中心と周辺部とで強度が異なる場合は、強度Cは、画素の位置の関数として考えるものとする。即ち、パターン選択部20が選択したパターンの画像(埋め込み位置の情報も含む)が、パターン重畳部21を介して画像格納部16に格納されるので、画像調整部25は、このパターンの画像を取得することで、画素の位置に応じた強度を把握することができる。   Next, the strength adjusting unit 26 acquires the strength C (step 202). Here, although simply expressed as “intensity C”, as described with reference to FIG. 2, when the intensity differs between the center and the peripheral portion of the pattern, the intensity C is considered as a function of the pixel position. Shall. That is, the image of the pattern selected by the pattern selection unit 20 (including information on the embedding position) is stored in the image storage unit 16 via the pattern superimposing unit 21, so that the image adjustment unit 25 stores the image of this pattern. By acquiring, the intensity according to the position of the pixel can be grasped.

その後、強度調整部26は、埋め込み対象の画像における各画素について以下の処理を行う。
即ち、まず、ある画素に着目し、そのR成分の画素値Rを取得する(ステップ203)。そして、画素値Rがハイライト部に含まれて画素が強度Cを減算する位置にあるか(図7では、「ハイライト(−)」と記す。)、画素値Rがシャドウ部に含まれて画素が強度Cを加算する位置にあるか(図7では、「シャドウ(+)」と記す。)、これらのいずれでもないか、を判定する(ステップ204)。画素値Rがハイライト部に含まれる場合は、原則として強度Cを大きくする必要があるが、着目する画素が図2(a)の左上又は右下の領域、図2(b)の右上又は左下の領域にある場合は、強度Cを減算した後の画素値(R−C)がハイライト部に含まれなくなる可能性があるため、「ハイライト(−)」かどうか判定している。また、画素値Rがシャドウ部に含まれる場合も、同様に、原則として強度Cを大きくする必要があるが、着目する画素が図2(a)の右上又は左下の領域、図2(b)の左上又は右下の領域にある場合は、強度Cを加算した後の画素値(R+C)がシャドウ部に含まれなくなる可能性があるため、「シャドウ(+)」かどうか判定している。
Thereafter, the intensity adjustment unit 26 performs the following processing for each pixel in the image to be embedded.
That is, first, paying attention to a certain pixel, the pixel value R of the R component is acquired (step 203). Then, whether the pixel value R is included in the highlight portion and the pixel is in a position where the intensity C is subtracted (in FIG. 7, “highlight (−)”), the pixel value R is included in the shadow portion. Whether the pixel is at a position where the intensity C is added (denoted as “shadow (+)” in FIG. 7) or not is determined (step 204). When the pixel value R is included in the highlight portion, it is necessary to increase the intensity C in principle, but the pixel of interest is the upper left or lower right region of FIG. 2A, the upper right or the lower portion of FIG. If it is in the lower left region, the pixel value (R−C) after subtracting the intensity C may not be included in the highlight portion, so it is determined whether it is “highlight (−)”. Similarly, when the pixel value R is included in the shadow portion, it is necessary to increase the intensity C in principle, but the pixel of interest is the upper right or lower left region of FIG. 2A, FIG. 2B. In the upper left or lower right region, the pixel value (R + C) after the addition of the intensity C may not be included in the shadow part, so it is determined whether or not it is “shadow (+)”.

その結果、いずれにも該当しないと判定された場合は、何も処理を行わずに、他に画素があるかどうかの判定(ステップ209)に移行する。
一方、「ハイライト(−)」であると判定された場合は、画素値の変更後の値(R−C)がハイライト境界値Hを下回るかどうかを判定し(ステップ205)、下回らない場合は、強度Cの加算後の画素値と、強度Cの減算後の画素値とで濃度に差が出るよう、強度Cを大きめにする。ここでは、一例として、強度Cを(R−H)以上の任意の値に変更している(ステップ206)。また、下回った場合は、強度Cで情報を埋め込むことで濃度に差が出るものとして、他に画素があるかどうかの判定(ステップ209)に移行する。尚、上述したように、強度Cは、画素の位置の関数であるので、ここでも画素の位置に応じた強度Cを引くものとする。
As a result, if it is determined that none of them is applicable, no processing is performed and the process proceeds to determination of whether there is another pixel (step 209).
On the other hand, if it is determined that it is “highlight (−)”, it is determined whether the value (RC) after the change of the pixel value is lower than the highlight boundary value H (step 205), and not lower. In this case, the intensity C is increased so that there is a difference in density between the pixel value after the addition of the intensity C and the pixel value after the subtraction of the intensity C. Here, as an example, the intensity C is changed to an arbitrary value equal to or greater than (R−H) (step 206). On the other hand, if the value is lower, it is determined that there is a difference in density by embedding information with intensity C, and the process proceeds to determination of whether there is another pixel (step 209). As described above, since the intensity C is a function of the pixel position, the intensity C corresponding to the pixel position is also subtracted here.

また、「シャドウ(+)」であると判定された場合は、画素値の変更後の値(R+C)がシャドウ境界値Sを上回るかどうかを判定し(ステップ207)、上回らない場合は、強度Cの加算後の画素値と、強度Cの減算後の画素値とで濃度に差が出るよう、強度Cを大きめにする。ここでは、一例として、強度Cを(S−R)以上の任意の値に変更している(ステップ208)。また、上回った場合は、強度Cで情報を埋め込むことで濃度に差が出るものとして、他に画素があるかどうかの判定(ステップ209)に移行する。尚、この場合も、強度Cは、画素の位置の関数であるので、画素の位置に応じた強度Cを足すものとする。
そして、強度調整部26は、他に画素がなくなるまでステップ203〜208の処理を繰り返し、他に画素がなくなれば(ステップ209で「No」)、処理を終了する。
If it is determined that the value is “shadow (+)”, it is determined whether the value (R + C) after the change of the pixel value exceeds the shadow boundary value S (step 207). The intensity C is increased so that there is a difference in density between the pixel value after addition of C and the pixel value after subtraction of intensity C. Here, as an example, the strength C is changed to an arbitrary value equal to or greater than (S−R) (step 208). On the other hand, if it exceeds, it is determined that there is a difference in density by embedding information with intensity C, and the process proceeds to determination of whether there is another pixel (step 209). In this case as well, since the intensity C is a function of the pixel position, the intensity C corresponding to the pixel position is added.
Then, the intensity adjustment unit 26 repeats the processing in steps 203 to 208 until there are no more pixels, and ends when there are no more pixels (“No” in step 209).

尚、以上の動作例では、個々の画素について強度Cを設定したが、画像入力部15から入力された画像のうち少なくとも情報を埋め込む部分について共通の強度Cを設定するようにしてもよい。   In the above operation example, the intensity C is set for each pixel. However, a common intensity C may be set for at least a portion where information is embedded in the image input from the image input unit 15.

以上述べたように、本実施の形態では、出力装置の階調特性に応じて、画像のダイナミックレンジを狭くしたり、情報の埋め込み強度を大きくしたりするようにした。これにより、画像への情報の埋め込みを、その画像における画素値を変更することにより行う場合に、埋め込まれた情報の復元を安定に行うことができるようになった。   As described above, in this embodiment, the dynamic range of the image is narrowed or the information embedding strength is increased in accordance with the gradation characteristics of the output device. Thereby, when embedding information in an image is performed by changing a pixel value in the image, it is possible to stably restore the embedded information.

本発明の第1の実施の形態における画像処理装置の構成例を示したブロック図である。1 is a block diagram illustrating a configuration example of an image processing device according to a first embodiment of the present invention. 本発明の第1及び第2の実施の形態で用いる埋め込みパターンの一例を示した図である。It is the figure which showed an example of the embedding pattern used in the 1st and 2nd embodiment of this invention. 本発明の第1及び第2の実施の形態で取得する階調特性の一例を示した図である。It is the figure which showed an example of the gradation characteristic acquired in the 1st and 2nd embodiment of this invention. 本発明の第1の実施の形態で取得する濃度分布の一例を示した図である。It is the figure which showed an example of the density distribution acquired in the 1st Embodiment of this invention. 本発明の第1の実施の形態の画像処理装置における画像調整部の動作を示したフローチャートである。3 is a flowchart illustrating an operation of an image adjustment unit in the image processing apparatus according to the first embodiment of the present invention. 本発明の第2の実施の形態における画像処理装置の構成例を示したブロック図である。It is the block diagram which showed the structural example of the image processing apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態の画像処理装置における強度調整部の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the intensity | strength adjustment part in the image processing apparatus of the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

11…サイズ入力部、12…減衰率入力部、13…強度入力部、14…パターン作成部、15…画像入力部、16…画像格納部、17…埋込情報入力部、18…埋込情報符号化部、19…埋込位置制御部、20…パターン選択部、21…パターン重畳部、22…画像出力部、23…階調特性入力部、24…濃度分布生成部、25…画像調整部、26…強度調整部 DESCRIPTION OF SYMBOLS 11 ... Size input part, 12 ... Attenuation rate input part, 13 ... Intensity input part, 14 ... Pattern creation part, 15 ... Image input part, 16 ... Image storage part, 17 ... Embedded information input part, 18 ... Embedded information Encoding unit, 19 ... Embedded position control unit, 20 ... Pattern selection unit, 21 ... Pattern superposition unit, 22 ... Image output unit, 23 ... Tone characteristic input unit, 24 ... Density distribution generation unit, 25 ... Image adjustment unit , 26 ... Strength adjusting section

Claims (10)

画像への情報の埋め込みを、当該画像における画素値を当該情報に応じて変更することにより行う画像処理装置であって、
前記情報が埋め込まれた前記画像を出力する装置の階調特性を取得する取得手段と、
前記取得手段により取得された前記階調特性に基づいて、前記画像における画素値又は当該画素値の変更の度合を調整する調整手段と
を備えたことを特徴とする画像処理装置。
An image processing apparatus for embedding information in an image by changing a pixel value in the image according to the information,
Acquisition means for acquiring a gradation characteristic of a device that outputs the image in which the information is embedded;
An image processing apparatus comprising: an adjustment unit that adjusts a pixel value in the image or a degree of change of the pixel value based on the gradation characteristic acquired by the acquisition unit.
前記調整手段は、前記階調特性を解析することにより、前記画素値の変更を機械的に認識困難な階調範囲を求め、前記画像における各画素値が当該階調範囲に含まれなくなるように、当該画像のダイナミックレンジを狭めることを特徴とする請求項1記載の画像処理装置。   The adjusting means analyzes the gradation characteristics to obtain a gradation range in which the change of the pixel value is difficult to recognize mechanically, so that each pixel value in the image is not included in the gradation range. The image processing apparatus according to claim 1, wherein the dynamic range of the image is narrowed. 前記調整手段は、前記階調特性を解析することにより、前記画素値の変更を機械的に認識困難な階調範囲を求め、前記情報が埋め込まれた前記画像における各画素値が当該階調範囲に含まれなくなるように、当該画像のダイナミックレンジを狭めることを特徴とする請求項1記載の画像処理装置。   The adjusting means analyzes the gradation characteristics to obtain a gradation range in which the change of the pixel value is difficult to recognize mechanically, and each pixel value in the image in which the information is embedded is represented by the gradation range. The image processing apparatus according to claim 1, wherein the dynamic range of the image is narrowed so as not to be included in the image. 前記調整手段は、前記階調特性を解析することにより、前記画素値の変更を機械的に認識困難な階調範囲を求め、前記情報が埋め込まれた前記画像における各画素値が当該階調範囲に含まれなくなるように、前記画素値の変更の度合を大きくすることを特徴とする請求項1記載の画像処理装置。   The adjusting unit analyzes the gradation characteristics to obtain a gradation range in which it is difficult to mechanically recognize the change in the pixel value, and each pixel value in the image in which the information is embedded corresponds to the gradation range. The image processing apparatus according to claim 1, wherein the degree of change of the pixel value is increased so as not to be included in the image. 画像への情報の埋め込みを、当該画像における画素値を当該情報に応じて変更することにより行うに当たり、当該画像を調整する画像調整方法であって、
前記情報が埋め込まれた前記画像を出力する装置の階調特性に基づいて、当該画像における画素値の変更を機械的に認識可能な階調範囲を求めるステップと、
前記画像における所定の画素値が、前記階調範囲に含まれていない場合に、当該所定の画素値が当該階調範囲に含まれるよう、当該画像のダイナミックレンジを変更するステップと
を含むことを特徴とする画像調整方法。
An image adjustment method for adjusting an image when embedding information in the image by changing a pixel value in the image according to the information,
Obtaining a gradation range capable of mechanically recognizing a change in a pixel value in the image based on gradation characteristics of a device that outputs the image in which the information is embedded;
Changing the dynamic range of the image so that the predetermined pixel value is included in the gradation range when the predetermined pixel value in the image is not included in the gradation range. A characteristic image adjustment method.
前記変更するステップでは、前記所定の画素値の変更後の値が前記階調範囲に含まれている場合に、前記画像のダイナミックレンジを変更しないことを特徴とする請求項5記載の画像調整方法。   6. The image adjustment method according to claim 5, wherein, in the step of changing, the dynamic range of the image is not changed when the value after the change of the predetermined pixel value is included in the gradation range. . 画像への情報の埋め込みを、当該画像における画素値を当該情報に応じて変更することにより行うに当たり、当該画素値の変更の度合である埋め込み強度を調整する埋め込み強度調整方法であって、
前記情報が埋め込まれた前記画像を出力する装置の階調特性に基づいて、当該画像における画素値の変更を機械的に認識可能な階調範囲を求めるステップと、
前記画像における所定の画素値の変更後の値が、前記階調範囲に含まれていない場合に、当該変更後の値が当該階調範囲に含まれるよう、前記埋め込み強度を変更するステップと
を含むことを特徴とする埋め込み強度調整方法。
In embedding information in an image by changing the pixel value in the image according to the information, an embedding strength adjustment method for adjusting the embedding strength, which is the degree of change of the pixel value,
Obtaining a gradation range capable of mechanically recognizing a change in a pixel value in the image based on gradation characteristics of a device that outputs the image in which the information is embedded;
A step of changing the embedding strength so that the changed value is included in the gradation range when the changed value of the predetermined pixel value in the image is not included in the gradation range; A method for adjusting embedding strength, comprising:
画像への情報の埋め込みを、当該画像における画素値を当該情報に応じて変更することにより行うに当たり、当該画像を調整する機能をコンピュータに実現させるプログラムであって、
前記コンピュータに、
前記情報が埋め込まれた前記画像を出力する装置の階調特性に基づいて、当該画像における画素値の変更を機械的に認識可能な階調範囲を求める機能と、
前記画像における所定の画素値が、前記階調範囲に含まれていない場合に、当該所定の画素値が当該階調範囲に含まれるよう、当該画像のダイナミックレンジを変更する機能と
を実現させるプログラム。
A program for causing a computer to realize a function of adjusting the image when embedding information in the image by changing a pixel value in the image according to the information,
In the computer,
A function for obtaining a gradation range capable of mechanically recognizing a change in a pixel value in the image based on a gradation characteristic of a device that outputs the image in which the information is embedded;
A program for realizing a function of changing a dynamic range of an image so that the predetermined pixel value is included in the gradation range when the predetermined pixel value in the image is not included in the gradation range. .
前記変更する機能では、前記所定の画素値の変更後の値が前記階調範囲に含まれている場合に、前記画像のダイナミックレンジを変更しないことを特徴とする請求項8記載のプログラム。   9. The program according to claim 8, wherein the changing function does not change the dynamic range of the image when the value after the change of the predetermined pixel value is included in the gradation range. 画像への情報の埋め込みを、当該画像における画素値を当該情報に応じて変更することにより行うに当たり、当該画素値の変更の度合である埋め込み強度を調整する機能をコンピュータに実現させるプログラムであって、
前記コンピュータに、
前記情報が埋め込まれた前記画像を出力する装置の階調特性に基づいて、当該画像における画素値の変更を機械的に認識可能な階調範囲を求める機能と、
前記画像における所定の画素値の変更後の値が、前記階調範囲に含まれていない場合に、当該変更後の値が当該階調範囲に含まれるよう、前記埋め込み強度を変更する機能と
を実現させるプログラム。
A program for causing a computer to implement a function of adjusting the embedding strength, which is the degree of change of the pixel value, when embedding information in the image by changing the pixel value in the image according to the information. ,
In the computer,
A function for obtaining a gradation range capable of mechanically recognizing a change in a pixel value in the image based on a gradation characteristic of a device that outputs the image in which the information is embedded;
A function of changing the embedding strength so that a value after the change of a predetermined pixel value in the image is not included in the gradation range so that the value after the change is included in the gradation range; Program to be realized.
JP2005331043A 2005-11-16 2005-11-16 Image processing apparatus, image adjustment method, embedding strength adjustment method, and program Pending JP2007142619A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005331043A JP2007142619A (en) 2005-11-16 2005-11-16 Image processing apparatus, image adjustment method, embedding strength adjustment method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005331043A JP2007142619A (en) 2005-11-16 2005-11-16 Image processing apparatus, image adjustment method, embedding strength adjustment method, and program

Publications (1)

Publication Number Publication Date
JP2007142619A true JP2007142619A (en) 2007-06-07

Family

ID=38204989

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005331043A Pending JP2007142619A (en) 2005-11-16 2005-11-16 Image processing apparatus, image adjustment method, embedding strength adjustment method, and program

Country Status (1)

Country Link
JP (1) JP2007142619A (en)

Similar Documents

Publication Publication Date Title
JP4819723B2 (en) Information extraction apparatus, information extraction method, information extraction program, and recording medium
JP2007300602A (en) Method and device for authenticating printed copy
US9648198B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium that embed additional information in an image having a plurality of pixels and image information
JP5085349B2 (en) System and method for embedding a distributed microsecurity mark
JP2008085920A (en) Electronic watermark embedment apparatus and electronic watermark detection apparatus
US10992837B2 (en) Information processing apparatus, control method thereof, and storage medium
US10715697B2 (en) Image processing method that determines a number of blocks for embedding information based on a size of an image to be printed, image processing apparatus, and storage medium
US11790477B2 (en) Digital watermark analysis apparatus and digital watermark analysis method
EP3050289B1 (en) Digital watermarks
US11341597B2 (en) Image processing method, image processing apparatus, and storage medium
JP2011124999A (en) Improvement of anti-tamper using barcode degradation
JP2008154106A (en) Concealing method, image processor and image forming apparatus
JPWO2018155331A1 (en) Digital watermark embedding device, digital watermark detection device, digital watermark embedding method, digital watermark detection method, and program
JP5178490B2 (en) Image processing apparatus, image processing method, and computer program
US11265441B2 (en) Information processing apparatus to process captured image data, information processing method, and storage medium
JP4469301B2 (en) Information embedding device, printing medium, and information reading device
JP2007142619A (en) Image processing apparatus, image adjustment method, embedding strength adjustment method, and program
US7889884B2 (en) Image processing apparatus and method
US20080144052A1 (en) Image processing apparatus and image processing method
JP4179177B2 (en) Image processing apparatus and image processing method
JP2021103854A (en) Program, image processing apparatus, and image processing method
JP4922852B2 (en) Information adding apparatus, information adding method, image forming apparatus, information adding program, and recording medium storing the program
JP2009303153A (en) Image processing unit, image processing method, program, and recording medium
JP2010278710A (en) Image processing apparatus and image processing program
JP2007311888A (en) Image forming apparatus