JP2008172758A - Image processing method, image processing device and image processing program - Google Patents
Image processing method, image processing device and image processing program Download PDFInfo
- Publication number
- JP2008172758A JP2008172758A JP2007262266A JP2007262266A JP2008172758A JP 2008172758 A JP2008172758 A JP 2008172758A JP 2007262266 A JP2007262266 A JP 2007262266A JP 2007262266 A JP2007262266 A JP 2007262266A JP 2008172758 A JP2008172758 A JP 2008172758A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- embedding
- identification information
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、画像処理方法、画像処理装置及び画像処理プログラムに関し、特に画像に対する情報の埋め込み又は抽出を実行する画像処理方法、画像処理装置及び画像処理プログラムに関する。 The present invention relates to an image processing method, an image processing apparatus, and an image processing program, and more particularly to an image processing method, an image processing apparatus, and an image processing program that execute embedding or extraction of information with respect to an image.
近年、画像処理技術及び画像形成技術等の向上によって、デジタルカラー複写機を用いて紙幣や有価証券等を複写した場合、その複写物と原本である本物とが容易に区別できないほど忠実な複写が可能となってきている。このため、紙幣や有価証券等のような特殊原稿については、複写を全く行なうことができないようにするか、あるいは、正しく複写を行なうことができないようにする措置をとることが必要である。 In recent years, due to improvements in image processing technology and image forming technology, when copying banknotes and securities using a digital color copier, the copy is faithful enough that the original copy cannot be easily distinguished from the original copy. It has become possible. For this reason, it is necessary to take measures so that special manuscripts such as banknotes and securities cannot be copied at all or cannot be copied correctly.
また、例えば、企業においては、紙幣や証券など特殊原稿以外の一般文書の場合にあっても、文書内容の機密保持の観点から、複写等の出力が禁止されている機密文書が多数存在する。このような機密文書についても、複写を全く行なうことができないようにするか、あるいは、正しく複写を行なうことができないようにする措置をとることが必要である。 Further, for example, even in the case of general documents other than special manuscripts such as banknotes and securities, there are many confidential documents that are prohibited from being output such as copying from the viewpoint of maintaining confidentiality of the document contents. It is necessary to take measures to prevent such confidential documents from being copied at all, or from being copied correctly.
このようなことから、従来、特殊原稿や機密文書等を複写することに規制力を及ぼすことを目的とする種々の発明がなされている。例えば、特許文献1には、スキャナで読み取られた画像から所定のドットパターンが検知された場合は、出力を禁止する技術が提案されている。したがって、コピーを禁止する機密文書等に予め所定のドットパターンを埋め込んでおくことにより、その再現処理を効果的に防止することができる。
For this reason, various inventions have been made in the past that aim to exert restrictions on copying special manuscripts and confidential documents. For example,
但し、特許文献1に記載された発明によれば、機密文書の複写を効果的に防止することはできるが、文書に対して埋め込める情報量は、機密文書であるか無いか、すなわち1ビット分である。しかし、例えばユーザ認証と組み合わせて、ユーザの役職に応じて複写の許否を切り替えたるといったような柔軟性の高い情報セキュリティ機能を実現するためには少なくとも数ビット程度の情報量が必要とされる。また、複写時に出力禁止を制御するだけでなく、上記のドットパターン等の出力禁止データの検出機能のない複写機で複写されたものが流出した場合に流出元を特定できるような追跡情報を埋め込むためには100ビット程度以上の情報量が必要とされる。
However, according to the invention described in
そこで、本出願人は、100ビット程度の情報の抽出を可能とする背景ドットパターンによる情報埋め込み方法を既に提案している(例えば、特許文献2)。また、100ビット程度の情報が抽出できる情報埋め込み方法は、他にも様々なものが存在しており、それぞれに一長一短がある。例えば、背景ドットパターンによる方法は、原稿の背景部にドットパターンを繰り返し埋め込むため、原稿の読み易さはある程度低下してしまうが隠蔽には強い。一方、一般的なバーコードや2次元バーコード等、特定領域にコード画像を埋め込む方法は、汎用性には富むが、複写禁止制御用途では、複写時に容易に隠されてしまうという問題がある。また文書画像であれば、文字間隔を変化させる方法(例えば、非特許文献1)や、文字輪郭部の変形させる方法(例えば、非特許文献2)によれば、ほとんど人間によっては視認されないように情報を埋め込むことができる。 Therefore, the present applicant has already proposed an information embedding method using a background dot pattern that enables extraction of information of about 100 bits (for example, Patent Document 2). There are various other information embedding methods that can extract information of about 100 bits, and each has advantages and disadvantages. For example, the method using the background dot pattern repeatedly embeds the dot pattern in the background portion of the document, so the readability of the document is reduced to some extent, but it is strong against concealment. On the other hand, a method of embedding a code image in a specific area, such as a general bar code or a two-dimensional bar code, is rich in versatility, but has a problem that it is easily hidden during copying in a copy prohibition control application. Further, in the case of a document image, according to a method for changing the character spacing (for example, Non-Patent Document 1) and a method for deforming the character outline (for example, Non-Patent Document 2), it is hardly seen by humans. Information can be embedded.
従って、各種の方式から用途に応じて一つ又は複数の埋め込み方式を選択して情報を埋め込むことができれば利便性の向上が期待される。
しかしながら、多数ビット情報の埋め込み方式を複数の埋め込み方式の中から任意に選択可能とすると、情報の抽出時にはどの方式で埋め込まれているかが特定できない。したがって、可能性のある全ての埋め込み方式について情報抽出処理を行う必要があり、情報抽出処理の性能が劣化してしまうという問題がある。 However, if the multi-bit information embedding method can be arbitrarily selected from a plurality of embedding methods, it is not possible to specify which method is embedded when extracting information. Therefore, it is necessary to perform information extraction processing for all possible embedding methods, and there is a problem that the performance of the information extraction processing deteriorates.
また、そもそも多数ビット情報が埋め込まれていない一般文書についても情報抽出処理が実行されてしまい、複写制御等をする必要のない一般文書の複写処理まで性能が劣化してしまうという問題がある。 In addition, information extraction processing is also executed for general documents in which a large number of bit information is not embedded in the first place, and there is a problem that the performance deteriorates to copy processing of general documents that do not require copy control or the like.
一般的に、一定の面積の原稿に埋め込む情報量を増加させればさせるほど、その抽出処理にはより大きなメモリ、処理量が必要となる。したがって、上記の多ビット情報の埋め込み方式によって埋め込まれた情報を、複写機で複写時にリアルタイムに抽出する(すなわち画像をラインセンサでライン単位にスキャンしながら並行して情報抽出処理を行う)ことは非常に困難である。したがって、斯かる情報を複写時において抽出するためには、フレームメモリに画像全体または情報抽出に必要な分の画像情報が取り込まれるまで出力処理を止めておく必要があり、上記した複写処理の性能の劣化は無視できない程大きなものとなってしまいかねない。 In general, the larger the amount of information embedded in a document of a certain area, the larger the memory and processing amount required for the extraction process. Therefore, it is possible to extract information embedded by the above-described multi-bit information embedding method in real time at the time of copying with a copying machine (that is, to perform information extraction processing in parallel while scanning an image line by line with a line sensor). It is very difficult. Therefore, in order to extract such information at the time of copying, it is necessary to stop the output processing until the entire image or image information necessary for information extraction is captured in the frame memory. Degradation of the material can become so great that it cannot be ignored.
本発明は、上記の点に鑑みてなされたものであって、画像に対し複数種類の方式によって情報を埋め込む場合に、その情報の抽出処理の効率的に行うことができる画像処理方法、画像処理装置、及び画像処理プログラムの提供を目的とする。 The present invention has been made in view of the above points, and in the case where information is embedded in an image by a plurality of types of methods, an image processing method and image processing capable of efficiently performing the information extraction processing An object is to provide an apparatus and an image processing program.
そこで上記課題を解決するため、本発明は、画像処理装置が画像に対して情報を埋め込む画像処理方法であって、前記画像に対して情報を埋め込む複数の方式の中から選択された一つ以上の方式を用いて前記情報を埋め込む情報埋め込み手順と、前記選択された一つ以上の方式を識別するための方式識別情報を前記画像に対して埋め込む方式識別情報埋め込み手順とを有し、前記方式識別情報埋め込み手順は、前記情報埋め込み手順により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記方式識別情報を埋め込むことを特徴とする。 Accordingly, in order to solve the above-described problem, the present invention provides an image processing method in which an image processing apparatus embeds information in an image, and one or more selected from a plurality of methods for embedding information in the image An information embedding procedure for embedding the information by using the method, and a method identification information embedding procedure for embedding method identification information for identifying the one or more selected methods in the image. In the identification information embedding procedure, the method identification information is embedded by a method that embeds less information than any method used in the information embedding procedure.
このような画像処理方法では、画像に対し複数種類の方式によって情報を埋め込む場合に、その情報の抽出処理の効率的に行うことができる。 In such an image processing method, when information is embedded in an image by a plurality of types of methods, the information extraction process can be performed efficiently.
また、上記課題を解決するため、本発明は、上記画像処理方法を実行する画像処理装置、又は上記画像処理方法をコンピュータに実行させるための画像処理プログラムとしてもよい。 In order to solve the above problem, the present invention may be an image processing apparatus that executes the image processing method or an image processing program that causes a computer to execute the image processing method.
本発明によれば、画像に対し複数種類の方式によって情報を埋め込む場合に、その情報の抽出処理の効率的に行うことができる画像処理方法、画像処理装置、及び画像処理プログラムを提供することができる。 According to the present invention, it is possible to provide an image processing method, an image processing apparatus, and an image processing program capable of efficiently performing information extraction processing when information is embedded in an image by a plurality of types of methods. it can.
まず、本実施の形態の概要について説明する。本実施の形態では、画像に対して三種類の方式によって情報が埋め込まれる可能性がある場合について説明する。ここで、「画像」とは、紙等の媒体に記録(印刷)されているものや、電子データとして電磁的に記録媒体にされるもの等、その状態を問わず、人間の視覚によって認識可能な情報、又はその情報を表現するデータ全般をいう。 First, an outline of the present embodiment will be described. In this embodiment, a case will be described in which information may be embedded in an image by three types of methods. Here, “image” can be recognized by human vision regardless of the state, such as what is recorded (printed) on a medium such as paper, or electromagnetically recorded as electronic data. Information, or general data that represents the information.
本実施の形態において、画像の状態は、大きく次の4つの状態に分類される。
(1)三種類のうちのいずれか一つの方式によって情報が埋め込まれている状態。
(2)三種類のうちのいずれか二つの方式によって情報が埋め込まれている状態。
(3)三種類の全ての方式によって情報が埋め込まれている状態。
(4)いずれの方式によっても情報が埋め込まれていない状態。
In the present embodiment, the state of an image is roughly classified into the following four states.
(1) A state in which information is embedded by any one of three methods.
(2) A state in which information is embedded by any two of the three methods.
(3) A state in which information is embedded by all three methods.
(4) A state in which information is not embedded by any method.
そこで、本実施の形態では、いずれの方式によって情報が埋め込まれているのかを識別するための情報(すなわち、上記(1)〜(4)の状態を識別するための情報。以下「埋め込み方式識別情報」という。)を当該画像に対して埋め込む。三種類のいずれかの方式によって埋め込まれている情報(以下「埋め込み情報」という。)を抽出する際は、まず、埋め込み方式識別情報を抽出することで、上記(1)〜(4)の状態を判別する。続いて、判別された状態に対応した抽出処理によって埋め込み情報を抽出する。したがって、上記(1)、(2)、及び(4)の場合において余計な処理の実行が抑止され、効率的な埋め込み情報の抽出処理が可能となる。 Therefore, in the present embodiment, information for identifying by which method the information is embedded (that is, information for identifying the states (1) to (4) above. Hereinafter, “embedding method identification”. Information ”) is embedded in the image. When extracting information embedded by any of the three methods (hereinafter referred to as “embedded information”), first, the above-described states (1) to (4) are obtained by extracting the embedded method identification information. Is determined. Subsequently, the embedded information is extracted by an extraction process corresponding to the determined state. Therefore, in the above cases (1), (2), and (4), execution of unnecessary processing is suppressed, and efficient embedded information extraction processing becomes possible.
なお、埋め込み情報を埋め込むために用いられる方式は、数十〜数百ビットの情報量の埋め込みが可能であるものである。このような方式は、一般的に、情報の抽出時に「非リアルタイムな処理」が必要とされる。「非リアルタイムな処理」とは、例えば、情報が埋め込まれた画像が印刷された原稿を複写する場合、フレームメモリに画像全体または情報の抽出に必要な分の画像情報が取り込まれるまで出力処理が止められる処理のことをいう。情報の抽出時に「非リアルタイムな処理」が必要とされる情報の埋め込み方式を本実施の形態では「非リアルタイム方式」という。一般的に、数十〜数百ビットの情報量の埋め込みが可能な方式は、非リアルタイム方式に相当する。 Note that the method used to embed the embedded information can embed an information amount of several tens to several hundreds of bits. Such a method generally requires “non-real-time processing” when extracting information. “Non-real-time processing” means, for example, when copying a document on which an image with embedded information is printed, output processing is performed until the entire image or the amount of image information necessary for information extraction is captured in the frame memory. The process that can be stopped. An information embedding method that requires “non-real-time processing” when extracting information is referred to as a “non-real-time method” in the present embodiment. In general, a method capable of embedding information amount of several tens to several hundreds of bits corresponds to a non-real time method.
本実施の形態における三種類の方式についても、いずれも非リアルタイム方式に相当する。但し、本実施の形態における三種類の方式はあくまでも例示であり、他の方式によって埋め込み情報が埋め込まれてもよい。また、二種類又は四種類以上の方式によって埋め込み情報が埋め込まれても良い。また、各方式によって同時に埋め込み情報が埋め込まれる場合(すなわち、上記(2)又は(3)の状態)、各埋め込み情報は同一の情報であってもよいし、異なる情報であってもよい。 All of the three types of methods in the present embodiment correspond to non-real time methods. However, the three types of methods in the present embodiment are merely examples, and the embedded information may be embedded by other methods. Further, the embedded information may be embedded by two types or four or more types. Further, when embedded information is embedded simultaneously by each method (that is, the state of (2) or (3) above), the embedded information may be the same information or different information.
一方、埋め込み方式識別情報を埋め込むための方式は、埋め込み方式の種類を識別できる程度のビット数(数ビット程度)の情報量を埋め込めることができればよい。埋め込み可能な情報量と、当該情報量の情報の抽出処理の性能との間にはある程度の相関関係が認められる。すなわち、埋め込め可能な情報量が少ない程、情報の抽出処理は単純となり、「非リアルタイムな処理」は不要となる。言い換えれば、画像をラインセンサでライン単位にスキャンしながら並行して情報抽出処理を行うことが可能となる。したがって、本実施の形態では、上記3種類のいずれの方式よりも埋め込める情報量の少ない方式によって、すなわち、非リアルタイムな処理は必要とされない方式によって埋め込み方式識別情報を埋め込む。なお、「非リアルタイムな処理」が必要とされない方式を、本実施の形態では「リアルタイム方式」という。 On the other hand, the method for embedding the embedding method identification information only needs to be able to embed the information amount of the number of bits (about several bits) that can identify the type of embedding method. There is a certain degree of correlation between the amount of information that can be embedded and the performance of information extraction processing for the information amount. That is, the smaller the amount of information that can be embedded, the simpler the information extraction process, and the “non-real-time process” becomes unnecessary. In other words, information extraction processing can be performed in parallel while scanning an image line by line with a line sensor. Therefore, in the present embodiment, the embedding method identification information is embedded by a method that embeds less information than any of the above three methods, that is, by a method that does not require non-real-time processing. A method that does not require “non-real time processing” is referred to as “real time method” in the present embodiment.
すなわち、本実施の形態では、複数の非リアルタイム方式で埋め込み情報を埋め込み、埋め込み情報の埋め込みに利用された方式を識別するための情報を、複数の非リアルタイム方式のいずれの方式よりも埋め込める情報量が少ないリアルタイム方式で埋め込むことにより、埋め込み情報の抽出処理を効率化するも。 That is, in the present embodiment, information for embedding embedded information in a plurality of non-real-time methods and identifying information used for embedding embedded information can be embedded more than any of the plurality of non-real-time methods. The embedding information extraction process is made more efficient by embedding it in a small amount in real time.
以下、図面に基づいて本発明の実施の形態を説明する。埋め込み方式識別情報を埋め込むための方式について説明する。本実施の形態では、複数のドットより構成されるパターン(以下「ドットパターン」という。)を画像の背景に合成する(重畳させる)ことにより、埋め込み方式識別情報を当該画像に埋め込む。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. A method for embedding embedding method identification information will be described. In the present embodiment, the embedding method identification information is embedded in the image by synthesizing (superimposing) a pattern composed of a plurality of dots (hereinafter referred to as “dot pattern”) on the background of the image.
例えば、ドットパターンとしては次のようなものが用いられる。図1は、本発明の実施の形態において用いられるドットパターンの例を示す図である。図1において、ドットパターンaは、それぞれ相対的な位置関係が規定された3つのドットより構成される。なお、本発明の実施にあたり、一つのドットパターンを構成するドットの数は3つ以上であってもよい。また、必ずしもドットによって構成されるパターンでなくてもよい。例えば、線分又は線分とドットとの組み合わせによって構成されるパターンであってもよい。 For example, the following dot patterns are used. FIG. 1 is a diagram showing an example of a dot pattern used in the embodiment of the present invention. In FIG. 1, a dot pattern a is composed of three dots each having a relative positional relationship. In implementing the present invention, the number of dots constituting one dot pattern may be three or more. Further, the pattern is not necessarily formed by dots. For example, a pattern constituted by a line segment or a combination of a line segment and a dot may be used.
図2は、ドットパターンが合成された画像の例を示す図である。図2では、画像500に対してドットパターンaが繰り返し合成されている例が示されている。なお、図中では、視認し易いようにドットパターンaが拡大されて示されているが、実際には、より微小なパターンとして構成される。
FIG. 2 is a diagram illustrating an example of an image in which dot patterns are combined. FIG. 2 shows an example in which the dot pattern a is repeatedly combined with the
ドットパターンaを画像に対して合成することにより、少なくとも1ビットの情報を画像500に対して埋め込むことができる。すなわち、ドットパターンaが合成されている状態と合成されていない状態である。但し、上記(1)〜(4)の状態を識別するためには、1ビットでは足りない。厳密には(1)の状態は、いずれか一つの方式として採用されている方式を区別すれば、更に3通りの状態に分類される。同様に(2)の状態は、いずれか二つの方式として採用されている方式を区別すれば、更に3通りの状態に分類される。したがって、合計8通りの状態を区別する必要があり、そのためには埋め込み方式識別情報として少なくとも3ビットの情報量が必要とされる。
By synthesizing the dot pattern a with the image, at least one bit of information can be embedded in the
そこで、本実施の形態では、ドットパターンa同士の相対的な角度差に対して意味を持たせる。すなわち、ドットパターンa又はドットパターンaを任意の角度回転させたパターン(以下「基本パターン」という。)と、基本パターンを所定の角度回転させたドットパターン(以下「追加パターン」という。)との相対的な角度によって埋め込み方式識別情報を表現する。ここで、ドットパターンaを回転させる際の回転中心は特定の位置に限定されないが、情報を抽出する際における回転の中心と整合性が図られている必要がある。本実施の形態では、図17において後述されるパターン辞書を用いて情報の抽出が行われる。図17のパターン辞書では、ドットパターンaを含む矩形領域における中心座標に位置する画素(当該矩形領域の幅をW、高さをHとした場合、(W/2、H/2)に位置する画素)が回転の中心とされている。したがって、本実施の形態において、情報を埋め込む際の回転の中心も、ドットパターンaを含む矩形領域において中心座標に位置する画素となる。 Therefore, in the present embodiment, a meaning is given to the relative angle difference between the dot patterns a. That is, a dot pattern a or a pattern obtained by rotating the dot pattern a by an arbitrary angle (hereinafter referred to as “basic pattern”) and a dot pattern obtained by rotating the basic pattern by a predetermined angle (hereinafter referred to as “additional pattern”). The embedding method identification information is expressed by a relative angle. Here, the center of rotation when rotating the dot pattern a is not limited to a specific position, but it is necessary to be consistent with the center of rotation when extracting information. In the present embodiment, information is extracted using a pattern dictionary described later in FIG. In the pattern dictionary of FIG. 17, a pixel located at the center coordinate in a rectangular area including the dot pattern a (when the width of the rectangular area is W and the height is H, it is located at (W / 2, H / 2). Pixel) is the center of rotation. Therefore, in the present embodiment, the center of rotation when embedding information is also a pixel located at the center coordinate in the rectangular region including the dot pattern a.
図3は、基本パターンと追加パターンとの例を示す図である。図3では、基本パターンaと追加パターンbとが相対的に45度の角度を有している例が示されている。すなわち、図中における追加パターンbは、基本パターンaを時計回りに45度回転させてものである。 FIG. 3 is a diagram illustrating examples of basic patterns and additional patterns. FIG. 3 shows an example in which the basic pattern a and the additional pattern b have an angle of 45 degrees relatively. That is, the additional pattern b in the figure is obtained by rotating the basic pattern a 45 degrees clockwise.
図4は、基本パターン及び追加パターンの相対角度によって情報が埋め込まれた画像の例を示す図である。図4において画像500の描画要素(家の絵)は便宜上省略されている。また、図中における矢印は、それぞれのドットパターンの向き(角度)を示すためのものであり、画像上の描画要素ではない。図4では、二つの基本パターンaと、基本パターンaを時計回りに45度回転させた追加パターンbとがそれぞれ複数合成されている例が示されている。図4では、便宜上二つずつしか合成されていないが、実用性を考慮すると、後述されるようにより多数のドットパターンが合成されることが望ましい。また、基本パターンaの数及び追加パターンbの数は、検出精度の観点より、同数又はほぼ同数であることが好ましい。なお、この方式では、基本パターンaと追加パターンbとの絶対的又は相対的な配置位置は問われない。
FIG. 4 is a diagram illustrating an example of an image in which information is embedded according to the relative angle of the basic pattern and the additional pattern. In FIG. 4, the drawing elements (the house picture) of the
また、相対的な角度が問題とされるため、埋め込み方式識別情報の埋め込み処理及び抽出処理においては、いずれが基本パターンで、いずれが追加パターンであるかは問われない。すなわち、この方式において、基本パターン及び追加パターンという呼び名は便宜的なものに過ぎない。 Since the relative angle is a problem, it does not matter which is the basic pattern and which is the additional pattern in the embedding method identification information embedding process and extraction process. That is, in this method, the names of the basic pattern and the additional pattern are merely convenient.
二つのドットパターンの相対的な角度によって情報を埋め込む方式によれば、両パターンの相対的な角度を変化させることで、数ビット程度の情報の埋め込みが可能となる。基本パターンa及び追加パターンbの相対的な角度の最大値は180度であるから、例えば、22.5度ずつ8段階に量子化すれば、3ビットの情報の埋め込みが可能となる。なお、本実施の形態では、埋め込み情報を埋め込むための三種類の方式のうち、ドットパターンを利用して埋め込み情報を埋め込むための方式(詳細については後述される。)の成立性を考慮して、相対角度が0度という状態は埋め込み方式識別情報の埋め込みに利用しない。したがって、22.5度ずつに量子化する場合、相対角度として取り得る値は、22.5×n(1≦n≦8)となる。 According to the method of embedding information according to the relative angle of the two dot patterns, it is possible to embed information of about several bits by changing the relative angle of both patterns. Since the maximum value of the relative angle between the basic pattern a and the additional pattern b is 180 degrees, for example, if quantization is performed in 8 steps by 22.5 degrees, 3-bit information can be embedded. In this embodiment, among the three types of methods for embedding embedded information, consideration is given to the feasibility of a method for embedding embedded information using a dot pattern (details will be described later). The state where the relative angle is 0 degrees is not used for embedding the embedding method identification information. Accordingly, when quantization is performed in increments of 22.5 degrees, the value that can be taken as the relative angle is 22.5 × n (1 ≦ n ≦ 8).
本実施の形態では、22.5度ずつに量子化されたそれぞれの相対角度に対して、図5に示されるように埋め込み方式識別情報を割り当てる。 In the present embodiment, embedding method identification information is assigned to each relative angle quantized by 22.5 degrees as shown in FIG.
図5は、埋め込み方式識別情報と相対角度との対応を示す図である。図5に示される表では、相対角度22.5×n(1≦n≦8)に対して、nの値に応じて000、001、010、011、100、101、110、111の値が割り当てられている。この値によって、画像に対する埋め込み情報の埋め込み方式(いずれの方式によって埋め込み情報が埋め込まれているのか)が識別される。なお、二つのドットパターンの相対角度に対して情報を埋め込む方式が、リアルタイム方式に相当する理由については後述する。 FIG. 5 is a diagram illustrating the correspondence between the embedding method identification information and the relative angle. In the table shown in FIG. 5, the values of 000, 001, 010, 011, 100, 101, 110, and 111 are set according to the value of n for a relative angle of 22.5 × n (1 ≦ n ≦ 8). Assigned. By this value, the embedding method of embedding information in the image (which method is used to embed the embedding information) is identified. The reason why the method of embedding information with respect to the relative angle between the two dot patterns corresponds to the real-time method will be described later.
次に、埋め込み情報を埋め込むための三種類の非リアルタイム方式について説明する。本実施の形態では、バーコード方式、文字輪郭部形状変形による情報埋め込み方式、角度の異なるドットパターンの配置情報による情報埋め込み方式が、埋め込み情報を埋め込むための方式の候補として予定される場合を例とする。 Next, three types of non-real time methods for embedding embedded information will be described. In this embodiment, an example in which a barcode method, an information embedding method based on character outline shape deformation, and an information embedding method based on arrangement information of dot patterns with different angles are planned as candidates for embedding information is exemplified. And
バーコード方式は、埋め込み情報を表現するバーコード画像を画像の一部(例えば、四隅のうちの一箇所)に対して合成することにより情報を埋め込む方式である。バーコードは、2次元バーコードであってもよい。以下、バーコード方式を「非リアルタイム第一方式」ともいう。 The barcode method is a method of embedding information by combining a barcode image representing embedded information with a part of an image (for example, one of four corners). The barcode may be a two-dimensional barcode. Hereinafter, the barcode method is also referred to as “non-real-time first method”.
文字輪郭部形状変形による情報埋め込み方式は、描画要素として文字が含まれる画像に対して有効な方式であり、文字の輪郭部を変形させることにより情報を埋め込む方式である。この方式については、「文字形状を利用したレタリングへの電子透かし法」(1999年11月25日、辻合秀一、上辻雅義著、(社)電子情報通信学会発行、2175頁〜2177頁)に詳しい。以下、文字輪郭部形状変形による情報埋め込み方式を「非リアルタイム第二方式」ともいう。 The information embedding method by deforming the shape of the character outline is an effective method for an image including characters as drawing elements, and is a method of embedding information by deforming the outline of the character. For this method, “Digital Watermarking Method for Lettering Using Character Shape” (November 25, 1999, Shuichi Sugoi, Masayoshi Kamijo, published by The Institute of Electronics, Information and Communication Engineers, pages 2175-2177) Be familiar with. Hereinafter, the information embedding method by deforming the character outline portion is also referred to as “non-real-time second method”.
角度の異なるドットパターンの配置情報による情報埋め込み方式について説明する。当該方式は、埋め込み方式識別情報を埋め込むために用いる方式(すなわち、二つのドットパターンの相対角度に対して情報を埋め込む方式)における基本パターンaと追加パターンbとの相対的な配置情報(言い換えれば、基本パターンaと追加パターンbとによって構成される配列)に対して情報を埋め込む方式である。以下、この方式を「非リアルタイム第三方式」ともいう。 An information embedding method based on arrangement information of dot patterns having different angles will be described. In this method, the relative arrangement information (in other words, the basic pattern a and the additional pattern b) in the method used for embedding the embedding method identification information (that is, the method of embedding information with respect to the relative angle of two dot patterns). This is a method of embedding information in an array composed of a basic pattern a and an additional pattern b. Hereinafter, this method is also referred to as “non-real-time third method”.
図6は、基本パターン及び追加パターンの配列によって情報が埋め込まれた画像の例を示す図である。図6では、配列長が4の場合が例とされており、左から右、上から下の順で配列を走査すると、基本パターンa、追加パターンb、基本パターンa、追加パターンbの順で、ドットパターンが配置されている。例えば、基本パターンaに「0」、追加パターンbに「1」を割り当てたとすると、図6の画像500には、「0110」という値が埋め込まれていることになる。したがって、この方式の場合、基本パターンaと追加パターンbとは明確に区別される。但し、この方式では、基本パターンaと追加パターンbとの相対角度については問われない。両ドットパターンとの間に判別可能な角度差があればよく、その角度差が何度であれ、埋め込まれる情報には影響しない。
FIG. 6 is a diagram illustrating an example of an image in which information is embedded by an arrangement of basic patterns and additional patterns. FIG. 6 shows an example in which the array length is 4, and when the array is scanned in order from left to right and from top to bottom, the basic pattern a, the additional pattern b, the basic pattern a, and the additional pattern b are sequentially displayed. A dot pattern is arranged. For example, if “0” is assigned to the basic pattern a and “1” is assigned to the additional pattern b, the value “0110” is embedded in the
この方式においても、情報の抽出精度を考慮すると、基本パターンaと追加パターンbとは、一つの配列中に同数ずつ埋め込まれることが望ましい。そうすると、図6のように配列長が「4」の場合、この方式によって埋め込める埋め込み情報は、図7のようになる。 Also in this method, in consideration of information extraction accuracy, it is desirable that the same number of basic patterns a and additional patterns b are embedded in one array. Then, when the array length is “4” as shown in FIG. 6, the embedding information that can be embedded by this method is as shown in FIG.
図7は、配列長が4の場合の配列と埋め込み情報との対応を示す図である。図7に示されるように、配列長が4の場合、基本パターンaと追加パターンbとが同数ずつという制限の下では、6通りの埋め込み情報を埋め込めることができる。したがって、2ビット強の情報量を埋め込めることになる。但し、図6には、理解を容易にするためドットパターンを拡大して示した関係上、配列長が極端に小さくなってしまっている例が示されている。実際にはより微小なドットパターンが画像全面に多数埋め込まれ得るため、配列長も長くなる。したがって、100ビット程度の情報を埋め込むことができる。なお、図7では、埋め込み情報の値が単なる数値(0〜5)とされているが、各配列にどのような情報を割り当てるかは任意である。100ビット程度であれば、当該画像の文書IDを割り当てることも可能である。 FIG. 7 is a diagram illustrating a correspondence between an array and embedded information when the array length is 4. As shown in FIG. 7, when the arrangement length is 4, under the restriction that the same number of basic patterns a and additional patterns b are provided, six types of embedding information can be embedded. Therefore, an information amount of more than 2 bits can be embedded. However, FIG. 6 shows an example in which the arrangement length has become extremely small due to the enlarged dot pattern for easy understanding. In practice, since a lot of finer dot patterns can be embedded on the entire surface of the image, the arrangement length also becomes longer. Therefore, information of about 100 bits can be embedded. In FIG. 7, the value of the embedded information is simply a numerical value (0 to 5), but what information is assigned to each array is arbitrary. If it is about 100 bits, the document ID of the image can be assigned.
ところで、本実施の形態において、埋め込み方式識別情報を埋め込むため方式は、ドットパターンを画像の背景全体に合成するものである。したがって、埋め込み情報を埋め込むための方式との間で干渉(すなわち、バーコードや文字と、ドットパターンが重なってしまう状況)が生じ、埋め込み情報の抽出に支障が生じる可能性がある。斯かる干渉を回避するため、バーコード領域や文字周辺部に対しては、ドットパターンを合成しないようにするとよい。 By the way, in the present embodiment, a method for embedding embedding method identification information is to synthesize a dot pattern with the entire background of an image. Therefore, interference with a method for embedding embedded information (that is, a situation in which a barcode or a character overlaps with a dot pattern) may occur, which may hinder extraction of embedded information. In order to avoid such interference, it is preferable not to synthesize a dot pattern for the barcode area or the character peripheral area.
図8は、バーコード領域又は文字周辺部とドットパターンとの干渉を回避した第一の例を示す図である。図8の例では、バーコードb1の周辺や文字c1の周辺にはドットパターンが合成されていない。こうすることにより、バーコードや文字の輪郭とドットパターンとの干渉が回避され、バーコードや文字の輪郭から情報を抽出する際の抽出誤りを防止することができる。なお、斯かる技術については、特開2006−229924号公報に詳しい。 FIG. 8 is a diagram illustrating a first example in which interference between the barcode area or the character peripheral portion and the dot pattern is avoided. In the example of FIG. 8, no dot pattern is synthesized around the barcode b1 or the character c1. By doing so, interference between the barcode or character outline and the dot pattern is avoided, and an extraction error when extracting information from the barcode or character outline can be prevented. Such a technique is described in detail in JP-A-2006-229924.
また、図9に示されるようにドットパターンを合成するようにしてもよい。図9は、バーコード領域又は文字周辺部とドットパターンとの干渉を回避した第二の例を示す図である。図9には、画像の周辺部(印刷された際の余白部)のみにドットパターンが合成された例が示されている。このような形態によっても、ドットパターンによる干渉を効果的に回避することができる。 Further, a dot pattern may be synthesized as shown in FIG. FIG. 9 is a diagram illustrating a second example in which interference between the barcode area or the character peripheral portion and the dot pattern is avoided. FIG. 9 shows an example in which a dot pattern is synthesized only in the peripheral portion of the image (the blank portion when printed). Even with such a configuration, it is possible to effectively avoid interference due to the dot pattern.
なお、ドットパターンの配列によって情報を埋め込む方式に関しては、ドットパターンの相対角度によって埋め込む方式と同じドットパターンを用いるようにすればよい。そうすることにより、同じドットパターンによって二重に情報を埋め込むことができ、両方式による干渉を回避することができる。例えば、図5と図7とに基づいて説明すると、基本パターンa及び追加パターンbの相対角度によって「001」という埋め込み方式識別情報を埋め込む必要があり、両パターンの配列によって「1」と埋め込み情報を埋め込む必要がある場合は、基本パターンaと追加パターンbとの相対角度を45度とし、基本パターンaと追加パターンbとを図6に示されるような順番で配置すればよい。そうすることにより、情報の抽出時には、基本パターンaと追加パターンbとの相対角度は45度と検出され、また両パターンの配列は、図6に示されるように検出される。したがって、いずれの方式からも適切に情報が抽出される。これは、ドットパターンの配列に情報を埋め込む方式では両ドットパターンの相対角度については問われず、ドットパターンの相対角度に対して情報を埋め込む方式では両ドットパターンの配置位置については問われず、両方式は双方向に互換性を有していることによる。 As for the method for embedding information by the dot pattern arrangement, the same dot pattern as that for embedding by the relative angle of the dot pattern may be used. By doing so, information can be embedded twice by the same dot pattern, and interference by both methods can be avoided. For example, referring to FIGS. 5 and 7, it is necessary to embed embedding method identification information “001” according to the relative angle between the basic pattern a and the additional pattern b, and “1” is embedded according to the arrangement of both patterns. If it is necessary to embed the pattern, the relative angle between the basic pattern a and the additional pattern b may be 45 degrees, and the basic pattern a and the additional pattern b may be arranged in the order shown in FIG. By doing so, when extracting information, the relative angle between the basic pattern a and the additional pattern b is detected as 45 degrees, and the arrangement of both patterns is detected as shown in FIG. Therefore, information is appropriately extracted from any method. In the method of embedding information in the dot pattern arrangement, the relative angle of both dot patterns is not questioned. In the method of embedding information with respect to the relative angle of the dot pattern, the arrangement position of both dot patterns is not questioned. This is because of compatibility in both directions.
以上に説明した三種類の非リアルタイム方式が埋め込み情報を埋め込むための方式の候補として予定されている本実施の形態では、埋め込み方式識別情報と、画像に対する埋め込み情報の埋め込み状態とを次のように対応付ける。 In the present embodiment in which the three types of non-real-time methods described above are scheduled as candidates for the method for embedding embedded information, the embedding method identification information and the embedded state of the embedded information in the image are as follows: Associate.
図10は、埋め込み方式識別情報と埋め込み情報の埋め込み状態との対応表を示す図である。図10では、3ビットの埋め込み方式識別情報の上位ビットから順に、非リアルタイム第一方式、非リアルタイム第二方式、非リアルタイム第三方式が割り当てられている。ビット値が「1」のときは、当該ビットに対応する方式によって埋め込み情報が埋め込まれていることを示す。ビット値が「0」のときは、当該ビットに対応する方式によっては埋め込み情報は埋め込まれていないことを示す。したがって、例えば、埋め込み方式識別情報の値が「000」のときは、いずれの方式によっても埋め込み情報が埋め込まれていないことを示す。埋め込み方式識別情報の値が「100」のときは、非リアルタイム第一方式のみによって埋め込み情報が埋め込まれていることを示す。埋め込み方式識別情報の値が「111」のときは、三種類の全ての非リアルタイム方式によって埋め込み情報が埋め込まれていることを示す。 FIG. 10 is a diagram showing a correspondence table between the embedding method identification information and the embedding state of embedding information. In FIG. 10, a non-real-time first method, a non-real-time second method, and a non-real-time third method are allocated in order from the upper bit of the 3-bit embedding method identification information. When the bit value is “1”, it indicates that the embedded information is embedded by a method corresponding to the bit. When the bit value is “0”, it indicates that the embedded information is not embedded depending on the method corresponding to the bit. Therefore, for example, when the value of the embedding method identification information is “000”, it indicates that the embedding information is not embedded by any method. When the value of the embedding method identification information is “100”, it indicates that the embedding information is embedded only by the non-real-time first method. When the value of the embedding method identification information is “111”, it indicates that the embedding information is embedded by all three types of non-real time methods.
以下、上記において説明した方法を実現するための装置等について説明する。 Hereinafter, an apparatus and the like for realizing the method described above will be described.
図11は、情報の埋め込み処理を実行する画像処理装置の構成例を示す図である。画像処理装置10は、例えば、汎用的なコンピュータや、アプリケーションを実装可能なプリンタ若しくは複合機等によって構築され得る。図11において、画像処理装置10は、画像データ取得部101、情報入力部102、第一ドットパターン生成部103、第二ドットパターン生成部104、バーコード生成部105、文字輪郭変形部106、情報埋め込み制御部107、セレクタ108、合成処理部109、及び印刷部110等より構成される。
FIG. 11 is a diagram illustrating a configuration example of an image processing apparatus that executes an information embedding process. The image processing apparatus 10 can be constructed by, for example, a general-purpose computer, a printer or a multi-function machine capable of mounting an application. In FIG. 11, the image processing apparatus 10 includes an image
画像データ取得部101は、情報の埋め込み対象となる画像(以下「対象画像」という。)を含むデータ(対象画像データ)を取得又は生成する。例えば、画像データ取得部101は、文書データを生成するワープロソフトと、当該ワープロソフトによって生成された文書データを画像データに変換するプログラム等によって構成されていてもよいし、予め保存されている画像データの読み込む処理を実行するものであってもよい。情報入力部102は、対象画像に対して埋め込む情報(埋め込み情報)と、非リアルタイム第一〜第三方式のいずれの方式を選択して埋め込み情報を埋め込むのかを示す情報(以下「埋め込み方式選択情報」という。)との入力を受け付ける。
The image
第一ドットパターン生成部103は、埋め込み方式選択情報を入力情報として受け付ける。第一ドットパターン生成部103は、埋め込み方式選択情報に応じて埋め込み方式識別情報の値を判定し、その値を表現する相対角度を有する二つのドットパターン(基本パターンa及び追加パターンa)の画像データ(ドットパターンデータ)を生成し、出力する。埋め込み方式選択情報に応じた埋め込み方式識別情報の値を判定は、例えば、埋め込み方式選択情報と埋め込み方式識別情報との対応表を画像処理装置10の記憶装置に登録しておき、当該対応表に基づいて行えばよい。
The first dot
第二ドットパターン生成部104は、埋め込み方式選択情報と埋め込み情報とを入力情報として受け付ける。第二ドットパターン生成部104は、埋め込み方式選択情報に応じて埋め込み方式識別情報の値を判定し、その値を表現する相対角度を判定する。第二ドットパターン生成部104は、また、埋め込み情報を表現するドットパターンの配列を判定する。第二ドットパターン生成部104は、更に、判定された相対角度を有する基本パターンaと追加パターンbとが、判定された配列を形成するようにドットパターンデータを生成し、出力する。
The second dot
バーコード生成部105は、埋め込み情報を入力情報として受け付ける。バーコード生成部105は、埋め込み情報に応じたバーコードの画像データ(バーコードデータ)を生成し、出力する。
The
文字輪郭変形部106は、対象画像データと埋め込み情報とを入力情報として受け付ける。文字輪郭変形部106は、対象画像に含まれている文字の輪郭を、埋め込み情報に応じて変形する。文字輪郭変形部106は、文字輪郭が変形された対象画像データを出力する。
The character
情報埋め込み制御部107は、情報入力部102によって受け付けられた埋め込み方式選択情報に応じて、セレクタ108を制御することにより、埋め込み情報の埋め込み方式を選択する。すなわち、情報埋め込み制御部107及びセレクタ108によって、第一ドットパターン生成部103、第二ドットパターン生成部104、バーコード生成部105、又は文字輪郭変形部106より出力されるデータの取捨選択が行われる。
The information embedding
合成処理部109は、セレクタ108によって選択されたデータを対象画像に合成等することにより、埋め込み情報が埋め込まれた画像データを生成する。印刷部110は、合成処理部109よって生成さされる画像データの紙媒体(印刷用紙)への印刷を制御する。
The
なお、上記各部は、ハードウェア(回路)によって構成されていてもよいし、ソフトウェアによって構成されていてもよい。ハードウェアによって構成される場合、例えば、埋め込み情報及び埋め込み方式選択情報の入力に応じて、第一ドットパターン生成部103、第二ドットパターン生成部104、バーコード生成部105、及び文字輪郭変形部106による処理は、並列的に実行される。これら各部から出力されるデータを、埋め込み方式選択情報に基づく情報埋め込み制御部107の制御によって、セレクタ108が取捨選択し、合成処理部109に出力する。
In addition, each said part may be comprised by hardware (circuit), and may be comprised by software. In the case of being configured by hardware, for example, the first dot
例えば、埋め込方式選択情報において、非リアルタイム第一方式が指定されている場合は、バーコード生成部105からのバーコードデータと、第一ドットパターン生成部103からのドットパターンデータが合成処理部109に出力される。合成処理部109は、当該バーコードデータと当該ドットパターンデータとを対象画像データに合成する。
For example, when the non-real-time first method is specified in the embedding method selection information, the barcode data from the
非リアルタイム第二方式が指定されている場合は、文字輪郭変形部106からの対象画像データと、第一ドットパターン生成部103からのドットパターンデータが合成処理部109に出力される。合成処理部109は、文字輪郭変形部106からの対象画像データに対して当該ドットパターンデータを合成する。すなわち、非リアルタイム第二方式が指定されている場合は、文字輪郭変形部106より出力される対象画像が、バーコード、ドットパターン等の合成対象とされる。
When the non-real-time second method is designated, the target image data from the character
非リアルタイム第三方式が指定されている場合は、第二ドットパターン生成部104からのドットパターンデータが合成処理部109に出力される。合成処理部109は、当該ドットパターンを対象画像データに合成する。
When the non-real-time third method is designated, the dot pattern data from the second dot
また、いずれの方式によっても埋め込み情報が埋め込まれないことが指定されている場合は、第一ドットパターン生成部103からのドットパターンデータが合成処理部109に出力される。
If it is specified that no embedding information is embedded by any of the methods, the dot pattern data from the first dot
一方、ソウトウェアによって図11の各部を実現する場合は、当該ソフトウェアに係るプログラムは、当該コンピュータ等のCPUに図12に示されるような処理を実行させる。なお当該プログラムはあらかじめ当該装置のROM等に記録されていてもよいし、ネットワークを介してダウンロードされてもよい。また、CD−ROM等の記録媒体600よりインストールされてもよい。
On the other hand, when each part of FIG. 11 is implement | achieved by software, the program concerning the said software makes CPU, such as the said computer, perform the process as shown in FIG. The program may be recorded in advance in the ROM of the device, or may be downloaded via a network. Further, it may be installed from a
図12は、画像処理装置による情報の埋め込み処理を説明するためのフローチャートである。 FIG. 12 is a flowchart for explaining information embedding processing by the image processing apparatus.
ステップS101において、画像データ取得部101は、情報の埋め込み対象とする画像(対象画像)を取得し、対象画像を画像処理装置10のメモリ上に展開する。続いて、情報入力部102は、埋め込み情報及び埋め込み方式選択情報の入力を受け付ける(S102)。埋め込み情報等は、例えば、表示装置に入力画面を表示させ、当該入力画面において入力させてもよい。埋め込み情報が入力されなかった場合(S103でNo)、第一ドットパターン生成部103は、埋め込み方式識別情報の値は「000」であると判定し、「000」に対応する相対角度(22.5度)を有する基本パターンa及び追加パターンbのドットパターンデータ(第一ドットパターン)を生成する(S104)。続いて、合成処理部18は、当該ドットパターンデータを対象画像に合成する(S105)。印刷部110は、当該対象画像をプリンタに印刷させる(S114)。
In step S <b> 101, the image
一方、埋め込み情報が入力された場合(S103でYes)、埋め込み情報制御部107は、埋め込み方式選択情報に基づいて非リアルタイム第一方式が選択されているか否かを判定する(S106)。非リアルタイム第一方式が選択されている場合(S106でYes)、バーコード生成部105は、埋め込み情報に応じたバーコードデータを生成する(S107)。合成処理部109は、当該バーコードデータを対象画像に合成する(S108)。なお、非リアルタイム第一方式が選択されていない場合(S106でNo)、ステップS107及びS108は実行されない。
On the other hand, when the embedded information is input (Yes in S103), the embedded
続いて、埋め込み情報制御部107は、埋め込み方式選択情報に基づいて非リアルタイム第二方式が選択されているか否かを判定する(S109)。非リアルタイム第二方式が選択されている場合(S109でYes)、文字輪郭変形部106は、埋め込み情報に応じて対象画像中の文字の輪郭を変形する(S110)。なお、非リアルタイム第二方式が選択されていない場合(S109でNo)、ステップS110は実行されない。
Subsequently, the embedded
続いて、埋め込み情報制御部107は、埋め込み方式選択情報に基づいて非リアルタイム第三方式が選択されているか否かを判定する(S111)。非リアルタイム第三方式が選択されている場合(S111でYes)、第二ドットパターン生成部104は、埋め込み情報と埋め込み方式選択情報とに応じたドットパターンデータ(第二ドットパターン)を生成する(S112)。合成処理部109は、当該ドットパターンデータを対象画像に合成する(S113)。続いて、印刷部110は、当該対象画像をプリンタに印刷させる(S114)。なお、非リアルタイム第三方式が選択されていない場合(S111でNo)、ステップS112及びS113の代わりにステップS104及びS105が実行される。第二ドットパターン生成部104によって生成されるドットパターンには、埋め込み方式識別情報も含まれているところ、第二ドットパターン生成部104によって生成されるドットパターンが合成されない場合は、第一ドットパターン生成部103によって生成されるドットパターンを合成しなければ、対象画像に埋め込み方式識別情報が埋め込まれないからである。
Subsequently, the embedding
なお、情報の埋め込み処理において、いずれの非リアルタイム方式によっても情報が埋め込まれない場合は、埋め込み方式識別情報を示すドットパターンも対象画像に合成しないようにしてもよい。 In the information embedding process, if information is not embedded by any non-real time method, the dot pattern indicating the embedding method identification information may not be combined with the target image.
次に、情報の抽出について説明する。図13は、情報の抽出処理を実行する画像処理装置のハードウェア構成例を示す図である。図13において、画像処理装置20は、スキャナ21、RAM22、DSP(Digital Signal Processor)23、プロッタ24、埋め込み方式判別部25、コントローラ26、HDD(Hard Disk Drive)27、及び操作パネル28等を有する。
Next, information extraction will be described. FIG. 13 is a diagram illustrating a hardware configuration example of an image processing apparatus that executes information extraction processing. 13, the
スキャナ21は、原稿700より画像を読み取る。読み取られた画像データはRAM22に入力される。RAM22は、入力される画像データをFIFO方式で出力するラインメモリとして用いられるメモリ領域を実現する。ラインメモリは、画像処理の高速化及び画像処理装置10のコストの抑制の観点より、例えば、数十ライン程度のライン数を格納可能な容量を有している。すなわち、ラインメモリには、画像データの一部しか格納(展開)することはできない。DSP23は、画像データに対して、各種の画像処理(例えば、地肌除去、ガンマ補正、階調変換等)を実行するプロセッサである。埋め込み方式判別部25は、画像データよりドットパターンを検出し、当該ドットパターンの相対的な角度差に基づいて埋め込み方式識別情報を抽出する回路である。但し、埋め込み方式判別部25は、ソフトウェアによって構成されてもよい。この場合、当該ソフトウェアに係るプログラムがRAM22にロードされ、DSP23によって処理されることにより、埋め込み方式判別部25の機能が実現される。
The
コントローラ26は、CPU261、RAM262、及びROM263等によって構成され、メモリ消費量や処理の複雑さ又は煩雑さ等によりRAM22及びDSP23等では処理できない(処理させるのは適切ではない)画像処理(情報抽出処理も含む。)や、画像処理装置20の他の機能を制御するための処理を実行する。ROM263には、当該処理を実行するためのプログラム等が記録されている。RAM262には、当該プログラムが実行時にロードされる。RAM262は、また、コントローラ26において実行される画像処理のために画像データを格納するためのフレームメモリとして用いられる。フレームメモリの容量は、少なくとも当該画像処理に必要な分の画像データが格納可能である程度、例えば、原稿700より読み取られる画像全体を格納可能である程度のものである必要がある。そのために、フレームメモリの容量は、少なくともRAM22におけるラインメモリの容量よりも大きい。
The
CPU261は、RAM262にロードされたプログラムを実行することにより、当該処理を実行する。HDD27には、例えば、文書管理情報が登録されている。ここで、文書管理情報とは、文書ごとに文書IDや属性情報等によって構成される情報をいう。操作パネル28は、液晶パネルやボタン等によって構成され、ユーザによる操作を受け付ける。
The
なお、原稿700は、画像処理装置10によって印刷された原稿である。
The
ところで、画像処理装置20の構成要素を、本実施の形態でいうところの「非リアルタイムな処理」を実行する部分とそうでない部分とで区別し、前者を「非リアルタイム処理部」といい、後者を「リアルタイム処理部」と便宜上言うこととすると、スキャナ21、RAM22、DSP23、プロッタ24、及び埋め込み情報判別部25は、リアルタイム処理部に含まれる。一方、コントローラ26及びHDD27は、非リアルタイム処理部に含まれる。
By the way, the components of the
CPU261に埋め込み情報の抽出機能(情報抽出機能)を実行させるためのプログラムによって実現されるソフトウェアについて説明する。図14は、情報抽出機能のソフトウェア構成例を示す図である。図14において、CPU261によって実行される情報抽出機能は、バーコード情報抽出部261a、文字輪郭情報抽出部261b、ドットパターン情報抽出部261c、及び抽出情報処理部261dより構成される。
Software implemented by a program for causing the
バーコード情報抽出部261aは、非リアルタイム第一方式によって埋め込まれた情報を画像より抽出する。すなわち、バーコード情報抽出部261aは、画像に合成されたバーコードを検出し、当該バーコードより埋め込み情報を抽出する。文字輪郭情報抽出部261bは、非リアルタイム第二方式によって埋め込まれた情報を画像より抽出する。すなわち、文字輪郭情報抽出部261bは、画像に含まれている文字の輪郭より埋め込み情報を抽出する。ドットパターン情報抽出部261cは、非リアルタイム第三方式によって埋め込まれた情報を画像より抽出する。すなわち、ドットパターン情報抽出部261cは、画像に合成されたドットパターンを検出し、当該ドットパターンの配列より埋め込み情報を抽出する。抽出情報処理部261dは、抽出された埋め込み情報の値に応じた処理制御を実行する。
The barcode
以下、図13の画像処理装置20の処理手順について説明する。図15は、画像処理装置による情報の抽出処理を説明するためのフローチャートである。なお、図15では、原稿700に対する埋め込み情報が文書IDであり、文書IDに基づいて原稿700の複写制御を行う例を説明する。ここで、文書IDとは、原稿700に印刷された画像データのコンピュータシステム(例えば、文書管理システム)上における文書IDをいう。当該コンピュータシステムでは、文書ごとにアクセス制御情報(コピーの可否等)が管理されていることとする。
Hereinafter, the processing procedure of the
操作パネル28より原稿700のコピーの実行指示が入力されると、画像処理装置20のスキャナ21は、原稿700の画像(以下「対象画像」という。)を読み取る(S201)。対象画像は、読み取られたライン分随時RAM22のラインメモリとRAM262のフレームメモリに書き込まれる(格納される)(S202、S203)。
When an instruction to copy the original 700 is input from the
ラインメモリのライン数分の対象画像がラインメモリに書き込まれると、埋め込み方式判別部25は、ラインメモリに読み込まれた対象画像よりドットパターン(基本パターンa及び追加パターンb)を検出し、基本パターンaと追加パターンbとの相対角度を判定することにより埋め込み方式識別情報を抽出する(S204)。また、リアルタイム処理部では、リルタイム方式判別部25による処理と前後して、DSP23による画像処理がラインメモリ内の対象画像に対して実行される。
When the target images for the number of lines in the line memory are written into the line memory, the embedding
ところで、ラインメモリ内の画像は、新たなラインが入力されると、最も古いラインは出力されるといったように、一ライン又は数ラインずつその内容が変化していく。リアルタイム処理部の処理は、ラインメモリの内容の変化に応じて随時リアルタイムに実行される。検出精度の観点より、埋め込み方式判別部25によるドットパターンの検出は、ラインメモリの内容が変化するたびに行われることが望ましい。但し、後述されるように、埋め込み方式識別情報の抽出は、原稿700の画像の全ラインの読み取りが完了する前に抽出され得る。
By the way, the contents of the image in the line memory change by one line or several lines so that when a new line is input, the oldest line is output. The processing of the real-time processing unit is executed in real time as needed according to changes in the contents of the line memory. From the viewpoint of detection accuracy, it is desirable that the detection of the dot pattern by the embedding
埋め込み方式識別情報が抽出された場合(S205でYes)、埋め込み方式判別部25は、埋め込み方式識別情報の値に基づいて対象画像に埋め込み情報が埋め込まれているか否かを判定する(S206)。この判定は、図10に示される表に基づいて行われる。なお、図10に示される表に相当する情報は、画像処理装置20の記憶装置に記録されている。
When the embedding method identification information is extracted (Yes in S205), the embedding
埋め込み方式識別情報の値が「000」の以外の場合(S206でYes)、埋め込み方式判別部25は、プロッタ24に対して出力処理の待機を指示する(S207)。リアルタイム処理部では、原稿700の画像の全ラインが読み取られていなくても、DSP23による画像処理の完了に応じてプロッタ24による出力処理が開始され得るところ、埋め込み情報として埋め込まれている文書IDに係る文書については、複写(コピー)が禁止されているかもしれないからである。続いて、埋め込み方式判別部25は、埋め込み方式識別情報の値に応じた方式による埋め込み情報の抽出をコントローラ26の情報抽出機能(バーコード情報抽出部261a、文字輪郭情報抽出部261b、及びドットパターン情報抽出部261cの少なくともいずれか一つ)に対して指示する。
If the value of the embedding method identification information is other than “000” (Yes in S206), the embedding
埋め込み情報の抽出指示を受けたコントローラ26では、埋め込み情報の抽出に十分なライン数分の対象画像がRAM262のフレームメモリに書き込まれるまで処理を待機する。バーコード、文字輪郭、及びドットパターンの配列のいずれについても、対象画像が読み取られる方向に影響されるところ、原稿700がセットされる向きがユーザの任意に応じて変化することを考慮すれば、基本的に対象画像のほぼ全ライン分がフレームメモリに書き込まれるまで待機する。
Receiving the embedded information extraction instruction, the
フレームメモリに十分なライン数分の対象画像が格納されると、バーコード情報抽出部261a、文字輪郭情報抽出部261b、及びドットパターン情報抽出部261cのうち埋め込み情報の抽出を指示された抽出部は、それぞれの方式に基づいて埋め込み情報(文書ID)を抽出する(S209)。続いて、抽出情報処理部261dは、抽出された文書IDに基づいて原稿700の複写の許否を判定する(S210)。例えば、抽出情報処理部261dは、当該文書IDに対するセキュリティ情報を、HDD27又はネットワークを介して接続するコンピュータ等に構築されている文書管理システムより取得し、当該セキュリティ情報に基づいて複写の可否を判定する(S211)。
When the target images for a sufficient number of lines are stored in the frame memory, the barcode
複写が許可される場合(S211でYes)、抽出情報処理部261dは、プロッタ24における出力の待機を解除する。これによって、原稿700のコピーがプロッタ24によって印刷用紙に印刷される(出力される)(S212)。一方、複写が禁止される場合(S211でNo)、抽出情報処理部261dは、プロッタ24に対し出力の中止を指示する(S213)。これによって原稿700の複写は中止される。また、抽出情報処理部261dは、DSP23に対して出力画像を塗りつぶす等の画像処理の実行を指示してもよい。その上でプロッタ24の出力待機を解除すれば、原稿700の画像に対して塗りつぶしが実行された画像が印刷用紙に出力され、実質的に複写の実行は回避される。
When copying is permitted (Yes in S211), the extraction
ところで、原稿700の画像から埋め込み方式識別情報が抽出されなかった場合(S205でNo)、又は埋め込み方式識別情報の値が「000」であった場合(S206でNo)、埋め込み方式判別部25は、プロッタ24に対する出力の待機指示や、コントローラ26に対して埋め込み情報の抽出指示は行わない。したがって、この場合、プロッタ24は、埋め込み情報の抽出を待機することなく画像を出力する。よって、通常の複写時と同様の性能で、プロッタ24より原稿700のコピーが印刷用紙に印刷される(S212)。ここで、通常の複写時とは、埋め込み情報の抽出機能を無効とした場合の複写時をいう。通常の複写時と同様の性能で複写が実行され得るのは、複写処理に対する埋め込み方式判別部25による埋め込み方式識別情報の抽出処理の影響が小さいことによる。
By the way, when the embedding method identification information is not extracted from the image of the document 700 (No in S205) or when the value of the embedding method identification information is “000” (No in S206), the embedding
埋め込み方式識別情報の抽出処理について説明する。図16は、埋め込み方式判別部による埋め込み方式識別情報の抽出処理を説明するためのフローチャートである。 The process of extracting embedding method identification information will be described. FIG. 16 is a flowchart for explaining the process of extracting embedding method identification information by the embedding method discrimination unit.
まず、ラインメモリよりドットパターンを検出する(S2041)。ドットパターンの検出は、例えば、画像処理装置10の記憶装置に登録されているパターン辞書を用いたパターンマッチングにより行われる。 First, a dot pattern is detected from the line memory (S2041). The dot pattern is detected by, for example, pattern matching using a pattern dictionary registered in the storage device of the image processing apparatus 10.
図17は、パターン辞書の例を示す図である。図17では、ドットパターンaを22.5度ずつ回転させた16個のパターンより構成されるパターン辞書の例が示されている。以下、パターン辞書を構成する各パターンを「マスタパターン」という。なお、図17では、ドットパターンaを含む矩形領域の中心座標が回転の中心とされた例が示されている。 FIG. 17 is a diagram illustrating an example of a pattern dictionary. FIG. 17 shows an example of a pattern dictionary composed of 16 patterns obtained by rotating the dot pattern a by 22.5 degrees. Hereinafter, each pattern constituting the pattern dictionary is referred to as a “master pattern”. Note that FIG. 17 shows an example in which the center coordinates of the rectangular area including the dot pattern a is the center of rotation.
一方、ラインメモリ中には、例えば、以下のように対象画像の数ライン分が格納されている。図18は、ラインメモリのイメージ図である。図18には、ラインメモリ22L内に、ドットパターンが二つ含まれている。パターンマッチングは、このようなラインメモリ22L中の画像に対して行われる。したがって、ラインメモリ22Lのライン数は、少なくとも、検出対象とされるドットパターンの縦方向及び横方向のドット数以上である必要がある。図17では、15×15ドットの例が示されているから、この場合、ラインメモリ22Lは15ライン以上の容量が必要とされる。 On the other hand, for example, several lines of the target image are stored in the line memory as follows. FIG. 18 is an image diagram of a line memory. In FIG. 18, two line patterns are included in the line memory 22L. Pattern matching is performed on such an image in the line memory 22L. Therefore, the number of lines in the line memory 22L needs to be at least the number of dots in the vertical and horizontal directions of the dot pattern to be detected. FIG. 17 shows an example of 15 × 15 dots. In this case, the line memory 22L needs a capacity of 15 lines or more.
パターンマッチングは、パターン辞書に含まれている各ドットパターンについて、ラインメモリ22L中を一画素ずつずらしながら行われる。パターンがマッチングするたびに(ドットパターンが検出されるたびに)、検出数の総数と、ドットパターンの角度ごとの検出数がインクリメントされる(S2042)。ドットパターンの角度は、パターン検出時のマスタパターンの角度によって判別される。このようなパターンマッチングは、ラインメモリ22Lの内容が更新されるたびに、検出数の総数が予め設定されている閾値を上回るまで実行される(S2042でNo)。なお、閾値を設けるのは、パターンがたまたまマッチしたことによる誤判定を防止するためである。 Pattern matching is performed for each dot pattern included in the pattern dictionary while shifting the line memory 22L pixel by pixel. Each time a pattern is matched (a dot pattern is detected), the total number of detections and the number of detections for each angle of the dot pattern are incremented (S2042). The angle of the dot pattern is determined by the angle of the master pattern at the time of pattern detection. Such pattern matching is executed every time the contents of the line memory 22L are updated until the total number of detections exceeds a preset threshold (No in S2042). Note that the threshold is provided in order to prevent erroneous determination due to a pattern that happens to match.
検出数の総数が閾値を上回った時点でドットパターンaの検出は終了し(S2042でYes)、角度ごとの検出数について、二つのピークの検出を試みる(S2043)。換言すれば、検出数の多い上位二つの角度を判定する(S2045)。二つのピークが検出された場合(S2046でYes)、二つのピークに係る角度の差に基づいて埋め込み方式識別情報の値を判定する(S2047)。すなわち、当該角度差が、基本パターンaと追加パターンbとの相対的な角度に相当する。埋め込み方式識別情報の値の判定は、図5に示される表に基づいて行われる。すなわち、当該角度差に対応する値を図5に示される表より検索する。なお、図5に示される表に相当する情報は、例えば、画像処理装置10の記憶装置に予め登録されている。 When the total number of detections exceeds the threshold, the detection of the dot pattern a ends (Yes in S2042), and two peaks are detected for the number of detections for each angle (S2043). In other words, the top two angles with the largest number of detections are determined (S2045). When two peaks are detected (Yes in S2046), the value of the embedding method identification information is determined based on the angle difference between the two peaks (S2047). That is, the angle difference corresponds to a relative angle between the basic pattern a and the additional pattern b. The value of the embedding method identification information is determined based on the table shown in FIG. That is, a value corresponding to the angle difference is retrieved from the table shown in FIG. Note that information corresponding to the table shown in FIG. 5 is registered in advance in the storage device of the image processing apparatus 10, for example.
ドットパターンの検出は、所定ライン数分行っても閾値を超えない場合は中止される(S2044でYes)。この場合、埋め込み方式識別情報は埋め込まれていないと判定される(S2048)。当該所定ラインは、リアルタイム処理に支障が生じない程度の値に設定しておくとよい。 The dot pattern detection is stopped if the threshold value is not exceeded even after a predetermined number of lines have been detected (Yes in S2044). In this case, it is determined that the embedding method identification information is not embedded (S2048). The predetermined line may be set to a value that does not hinder real-time processing.
ドットパターンaは、原稿700の画像の背景(画像の全面、又は少なくとも周囲の余白部分)に合成されている。したがって、図16に示される処理によれば、原稿700がセットされる方向に影響されることなく、埋め込み方式識別情報を抽出することができる。だからこそ、埋め込み方式識別情報の抽出は、ラインメモリで十分足りるのである。また、埋め込み方式識別情報の抽出処理は、ラインメモリ内の画像に基づいて実行される処理であるため、複写処理全体の性能に対する影響を小さく抑えることができる。よって、複写処理が行われる過程において(すなわち、リアルタイムに)埋め込み方式識別情報は抽出され得る。
The dot pattern a is combined with the background of the image of the original 700 (the entire surface of the image, or at least the surrounding margin). Therefore, according to the processing shown in FIG. 16, the embedding method identification information can be extracted without being influenced by the direction in which the
なお、管理者に関しては、非リアルタイム方式による埋め込み情報が埋め込まれているか否かに拘わらず、いかなる文書でも複写可能としたい場合は、画像処理装置20における情報抽出機能を無効とするように設定可能としてもよい。
Note that the administrator can set the information extraction function in the
ところで、本実施の形態では、埋め込み情報として文書IDが埋め込まれている例を説明した。これは一般的に印刷者、印刷機器、印刷日時等の文書管理情報を100bit程度の情報量に埋め込むのは困難であるためである。但し、斯かる事情は、環境に応じて異なるものと考えられる。例えば、小規模なオフィス等であれば、管理されている文書の量も少なく、印刷者や印刷機器や印刷日時などの情報を直接埋め込んでおくことも可能である。その場合は、文書管理システム等を用意するためおのコストを削減することができる。なお、「印刷日時」は、例えば、印刷された日時から3ヶ月以内は複写禁止にする等の制御に用いることができる。 By the way, in this embodiment, the example in which the document ID is embedded as the embedded information has been described. This is because it is generally difficult to embed document management information such as a printer, a printing device, and a printing date and time in an information amount of about 100 bits. However, such circumstances are considered to differ depending on the environment. For example, in a small office or the like, the amount of managed documents is small, and it is possible to directly embed information such as a printer, a printing device, and a printing date and time. In that case, the cost for preparing a document management system or the like can be reduced. The “print date / time” can be used, for example, for the control of prohibiting copying within three months from the date / time of printing.
また、本実施の形態では、複数の非リアルタイム方式が、それぞれ異なる方式である場合について説明した。しかし、一つの埋め込み方式のみが利用され、その埋め込み方式によって埋め込まれる情報の構成が複数種類許容される場合に、その情報の構成を識別するための情報として、本実施の形態における埋め込み方式識別情報を用いるようにしてもよい。 In the present embodiment, a case has been described in which a plurality of non-real time systems are different systems. However, when only one embedding method is used and a plurality of types of configurations of information embedded by the embedding method are allowed, the embedding method identification information in the present embodiment is used as information for identifying the configuration of the information. May be used.
例えば、誤り訂正符号化を埋め込み情報に対して行う場合に、組み合わせる誤り訂正符号化の誤り訂正能力の強度のパラメタ(又は、埋め込み可能な情報量)を複数の候補の中から選択可能とする場合が一例として挙げられる。この場合、誤り訂正能力の強度のパラメタが異なるごとに情報の構成が異なり、それぞれを異なる埋め込み方式とみなすことができる。 For example, when error correction coding is performed on embedded information, the error correction capability strength parameter (or the amount of information that can be embedded) can be selected from a plurality of candidates. Is given as an example. In this case, each time the error correction strength parameter is different, the information structure is different, and each can be regarded as a different embedding method.
実際、文書画像にドットパターンで情報埋め込む場合は、文字や図、写真等のコンテンツと重なる部分には情報を埋め込めない。また、文字輪郭形状に情報を埋め込むような場合でも印刷時のノイズの混入等の影響により、必ずしも100%の精度で埋め込み情報を抽出できるとは限らない。斯かる事情に鑑みても、埋め込み情報の誤り訂正符号化は有効である。そして、誤り訂正の強度の妥当な程度は、文書画像の内容等によっても異なるため、その強度を選択可能とすることにも意義がある。なお、この場合、パラメタ(本実施の形態における埋め込み方式)は、一つしか選択できない。情報抽出時にはこのパラメタの値に従って誤り訂正符号の情報抽出処理を行うことになる。 Actually, when information is embedded in a document image with a dot pattern, information cannot be embedded in a portion overlapping with content such as characters, figures, and photographs. Further, even when information is embedded in a character outline shape, the embedded information cannot always be extracted with 100% accuracy due to the influence of noise mixing during printing. Even in view of such circumstances, error correction coding of embedded information is effective. The appropriate level of error correction strength varies depending on the contents of the document image and the like, and it is also meaningful to be able to select the strength. In this case, only one parameter (embedding method in the present embodiment) can be selected. At the time of information extraction, an error correction code information extraction process is performed according to the value of this parameter.
具体的には、(7,K)のReed−Solomon符号を誤り訂正に用いる場合、Kの値を1,3,5の中から1つ選択可能としておくといった使用方法が可能である。Kは誤り訂正用も含む全シンボル7のうち、幾つのシンボルを本来の情報用のシンボルに割り当てるかを示すパラメタである。K=3の場合、誤り訂正をしないときの全体の埋め込み可能な情報量の1−(3/7)が誤り訂正用に割り当てられる。また、誤り訂正をしないときの全体の埋め込み可能な情報量の3/7が本来の情報用のシンボルに割り当てられる。したがって、埋め込み可能な情報量は、誤り訂正をしない場合の3/7になる。 Specifically, when the (7, K) Reed-Solomon code is used for error correction, it is possible to use such that one of K values can be selected from 1, 3, and 5. K is a parameter indicating how many symbols among all symbols 7 including those for error correction are allocated to symbols for original information. When K = 3, 1- (3/7) of the total embeddable information amount when error correction is not performed is allocated for error correction. Further, 3/7 of the total embeddable information amount when error correction is not performed is assigned to the original information symbol. Therefore, the amount of information that can be embedded is 3/7 of the case where error correction is not performed.
上述したように、本実施の形態によれば、複数の非リアルタイム方式の中から一つ又は複数の方式を選択して紙等の媒体上の画像(文書画像も含む。)に情報の埋め込みを行う場合に、どの方式で埋め込んだのかを示すID情報(埋め込み方式識別情報)をリアルタイムに情報の抽出が能な方式によって当該画像に埋め込んでおく。したがって、埋め込み情報の抽出時において、不要な非リアルタイムの情報抽出処理の実行を回避することができ、情報抽出処理の性能の低下を防止することができる。 As described above, according to the present embodiment, information is embedded in an image (including a document image) on a medium such as paper by selecting one or a plurality of methods from a plurality of non-real time methods. When performing, ID information (embedding method identification information) indicating which method is embedded is embedded in the image by a method capable of extracting information in real time. Therefore, when the embedded information is extracted, it is possible to avoid unnecessary non-real time information extraction processing, and it is possible to prevent the performance of the information extraction processing from being deteriorated.
したがって、文書IDを埋め込み情報として埋め込んでおき、当該文書IDに基づいて複写制御(複写の許否の制御)を行う場合等に、文書IDの抽出処理の性能の低下が防止される。反射的な効果として、複写禁止制御の必要のない文書についても、リアルタイムな情報抽出処理により文書IDが埋め込まれていないことが判別されるため、不要な非リアルタイム方式による情報抽出処理の実行を回避することができる。したがって、通常の複写処理を中断してユーザを待たせるといった状況の発生が回避され、通常の複写処理の生産性の低下が防止される。 Therefore, when the document ID is embedded as the embedded information and copy control (copy permission / denial control) is performed based on the document ID, it is possible to prevent the performance of the document ID extraction process from being deteriorated. As a reflective effect, even for documents that do not require copy prohibition control, it is determined that the document ID is not embedded by real-time information extraction processing, so unnecessary execution of information extraction processing by a non-real-time method is avoided. can do. Therefore, the occurrence of a situation in which the normal copying process is interrupted and the user is kept waiting is avoided, and a decrease in productivity of the normal copying process is prevented.
以上、本発明の実施例について詳述したが、本発明は斯かる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 As mentioned above, although the Example of this invention was explained in full detail, this invention is not limited to such specific embodiment, In the range of the summary of this invention described in the claim, various deformation | transformation・ Change is possible.
10、20 画像処理装置
21 スキャナ
22 RAM
23 DSP
24 プロッタ
25 埋め込み方式判別部
26 コントローラ26
27 HDD
28 操作パネル
101 画像データ取得部101
102 情報入力部
103 第一ドットパターン生成部
104 第二ドットパターン生成部
105 バーコード生成部
106 文字輪郭変形部
107 情報埋め込み制御部
108 セレクタ
109 合成処理部
110 印刷部
261 CPU
261a バーコード情報抽出部
261b 文字輪郭情報抽出部
261c ドットパターン情報抽出部
261d 抽出情報処理部
262 RAM
263 ROM
600 記録媒体
700 原稿
10, 20
23 DSP
24
27 HDD
28
102
261a Barcode
263 ROM
600 Recording medium 700 Original
Claims (22)
前記画像に対して情報を埋め込む複数の方式の中から選択された一つ以上の方式を用いて前記情報を埋め込む情報埋め込み手順と、
前記選択された一つ以上の方式を識別するための方式識別情報を前記画像に対して埋め込む方式識別情報埋め込み手順とを有し、
前記方式識別情報埋め込み手順は、前記情報埋め込み手順により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記方式識別情報を埋め込むことを特徴とする画像処理方法。 An image processing method in which an image processing apparatus embeds information in an image,
An information embedding procedure for embedding the information using one or more methods selected from among a plurality of methods for embedding information in the image;
A method identification information embedding procedure for embedding method identification information for identifying the one or more selected methods in the image;
The method identification information embedding procedure includes embedding the method identification information by a method that embeds less information than any method used in the information embedding procedure.
情報の埋め込みに利用されている方式を識別するための方式識別情報を前記画像より抽出する方式識別情報抽出手順と、
前記方式識別情報によって識別される一つ以上の方式を用いて前記画像に埋め込まれている情報を抽出する情報抽出手順とを有し、
前記方式識別情報は、前記情報抽出手順により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記画像に埋め込まれていることを特徴とする画像処理方法。 An image processing method in which an image processing apparatus extracts information from an image in which information may be embedded by a plurality of methods,
A method identification information extraction procedure for extracting method identification information for identifying a method used for embedding information from the image;
An information extraction procedure for extracting information embedded in the image using one or more methods identified by the method identification information;
The image processing method, wherein the method identification information is embedded in the image by a method that embeds less information than any method used in the information extraction procedure.
前記画像を媒体より読み取る画像読み取り手順と、
読み取られた前記画像を前記第一の記憶装置と前記第二の記憶装置とに格納する格納手順とを有し
前記方式識別情報抽出手順は、前記第一の記憶装置に格納された画像より前記方式識別情報を抽出し、
前記情報抽出手順は、前記第二の記憶装置に格納された画像より前記情報を抽出することを特徴とする請求項5記載の画像処理方法。 The image processing apparatus includes a first storage device capable of storing a part of the image, and a second storage device capable of storing the entire image.
An image reading procedure for reading the image from a medium;
A storage procedure for storing the read image in the first storage device and the second storage device, wherein the method identification information extraction procedure is performed from the image stored in the first storage device; Extract method identification information,
The image processing method according to claim 5, wherein the information extraction procedure extracts the information from an image stored in the second storage device.
前記画像に対して情報を埋め込む複数の方式の中から選択された一つ以上の方式を用いて前記情報を埋め込む情報埋め込み手段と、
前記選択された一つ以上の方式を識別するための方式識別情報を前記画像に対して埋め込む方式識別情報埋め込み手段とを有し、
前記方式識別情報埋め込み手段は、前記情報埋め込み手段により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記方式識別情報を埋め込むことを特徴とする画像処理装置。 An image processing apparatus for embedding information in an image,
Information embedding means for embedding the information using one or more methods selected from a plurality of methods for embedding information in the image;
A method identification information embedding unit for embedding method identification information for identifying the one or more selected methods in the image;
The image processing apparatus according to claim 1, wherein the method identification information embedding unit embeds the method identification information by a method that embeds less information than any of the methods used by the information embedding unit.
情報の埋め込みに利用されている方式を識別するための方式識別情報を前記画像より抽出する方式識別情報抽出手段と、
前記方式識別情報によって識別される一つ以上の方式を用いて前記画像に埋め込まれている情報を抽出する情報抽出手段とを有し、
前記方式識別情報は、前記情報抽出手段により用いられたいずれの方式よりも埋め込める情報量が少ない方式によって前記画像に埋め込まれていることを特徴とする画像処理装置。 An image processing apparatus that extracts information from an image in which information may be embedded by a plurality of methods,
Method identification information extracting means for extracting method identification information for identifying a method used for embedding information from the image;
Information extracting means for extracting information embedded in the image using one or more methods identified by the method identification information;
The image processing apparatus according to claim 1, wherein the method identification information is embedded in the image by a method that embeds less information than any method used by the information extraction unit.
前記画像の全部を格納可能は第二の記憶手段と、
前記画像を媒体より読み取る画像読み取り手段と、
読み取られた前記画像を前記第一の記憶手段と前記第二の記憶手段とに格納する格納手段とを有し
前記方式識別情報抽出手段は、前記第一の記憶手段に格納された画像より前記方式識別情報を抽出し、
前記情報抽出手段は、前記第二の記憶手段に格納された画像より前記情報を抽出することを特徴とする請求項15記載の画像処理装置。 First storage means capable of storing a part of the image;
A second storage means capable of storing all of the image;
Image reading means for reading the image from a medium;
Storage means for storing the read image in the first storage means and the second storage means, wherein the method identification information extraction means is the above-described image stored in the first storage means Extract method identification information,
The image processing apparatus according to claim 15, wherein the information extraction unit extracts the information from an image stored in the second storage unit.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007262266A JP5005490B2 (en) | 2006-12-15 | 2007-10-05 | Image processing method, image processing apparatus, and image processing program |
US12/000,642 US8238599B2 (en) | 2006-12-15 | 2007-12-14 | Image processing device and image processing method for identifying a selected one or more embedding methods used for embedding target information |
CN2007101988579A CN101207680B (en) | 2006-12-15 | 2007-12-14 | Image processing device and image processing method |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006338559 | 2006-12-15 | ||
JP2006338559 | 2006-12-15 | ||
JP2007262266A JP5005490B2 (en) | 2006-12-15 | 2007-10-05 | Image processing method, image processing apparatus, and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008172758A true JP2008172758A (en) | 2008-07-24 |
JP5005490B2 JP5005490B2 (en) | 2012-08-22 |
Family
ID=39567527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007262266A Expired - Fee Related JP5005490B2 (en) | 2006-12-15 | 2007-10-05 | Image processing method, image processing apparatus, and image processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP5005490B2 (en) |
CN (1) | CN101207680B (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010093774A (en) * | 2008-09-09 | 2010-04-22 | Canon Inc | Image processing apparatus, image processing method, program, and storage medium |
JP2011061710A (en) * | 2009-09-14 | 2011-03-24 | Fuji Xerox Co Ltd | Image processing apparatus and program |
JP2011146758A (en) * | 2010-01-12 | 2011-07-28 | Canon Inc | Transmission apparatus which can handle code, control method of the same, and program |
JP2011254397A (en) * | 2010-06-03 | 2011-12-15 | Konica Minolta Business Technologies Inc | Background pattern image composition device, background pattern image composition method, and program |
CN112560530A (en) * | 2020-12-07 | 2021-03-26 | 北京三快在线科技有限公司 | Two-dimensional code processing method, device, medium and electronic device |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
HK1165184A2 (en) * | 2011-08-10 | 2012-09-28 | Easy Printing Network Ltd | A method for retrieving associated information using an image |
KR101860569B1 (en) * | 2011-09-08 | 2018-07-03 | 삼성전자주식회사 | Recognition device for text and barcode reconizing text and barcode simultaneously |
JP5586705B2 (en) * | 2012-07-05 | 2014-09-10 | 株式会社東芝 | Apparatus and method for embedding data in object, and apparatus and method for extracting embedded data |
JP2019008745A (en) * | 2017-06-28 | 2019-01-17 | キヤノン株式会社 | Image processing device, image processing method, and program |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1127518A (en) * | 1997-07-04 | 1999-01-29 | Canon Inc | Image-processing apparatus and image-processing method |
JPH1141445A (en) * | 1997-07-15 | 1999-02-12 | Canon Inc | Device and method for processing image and storage medium |
JP2000287067A (en) * | 1999-03-31 | 2000-10-13 | Canon Inc | Image processing system, information processing unit and computer-readable storage medium |
JP2002354232A (en) * | 2002-03-20 | 2002-12-06 | Canon Inc | Information processing system, information processor, information processing method, and storage medium storing program to be read by computer for implementing such system, processor and method |
JP2002354231A (en) * | 2002-03-20 | 2002-12-06 | Canon Inc | Information processing system, information processor, information processing method, and storage medium storing program to be read by computer for implementing such system, processor and method |
JP2002359737A (en) * | 2002-03-20 | 2002-12-13 | Canon Inc | Information processing system, information processing unit, medium, information processing method, and computer-readable storage medium for storing program to perform them |
JP2005057797A (en) * | 2004-09-21 | 2005-03-03 | Canon Inc | Image processing apparatus and method, and storage medium |
JP2006287902A (en) * | 2005-03-10 | 2006-10-19 | Ricoh Co Ltd | Apparatus, method, and program for image processing, and recording medium |
JP2006325219A (en) * | 2006-05-18 | 2006-11-30 | Canon Inc | Information monitoring system, information monitoring method and storage medium |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7720290B2 (en) * | 2003-11-06 | 2010-05-18 | Ricoh Company, Ltd. | Method, program, and apparatus for detecting specific information included in image data of original image, and computer-readable storing medium storing the program |
JP2006155241A (en) * | 2004-11-29 | 2006-06-15 | Ricoh Co Ltd | Device for generating document with visible sign, method for generating document with visible sign, program for generating document with visible sign, and computer-readable storage medium |
JP4343820B2 (en) * | 2004-12-13 | 2009-10-14 | 株式会社リコー | Image processing device |
JP4490335B2 (en) * | 2005-06-10 | 2010-06-23 | 株式会社リコー | Pattern superimposing apparatus, pattern superimposing method, pattern superimposing program, and recording medium on which pattern superimposing program is recorded |
-
2007
- 2007-10-05 JP JP2007262266A patent/JP5005490B2/en not_active Expired - Fee Related
- 2007-12-14 CN CN2007101988579A patent/CN101207680B/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1127518A (en) * | 1997-07-04 | 1999-01-29 | Canon Inc | Image-processing apparatus and image-processing method |
JPH1141445A (en) * | 1997-07-15 | 1999-02-12 | Canon Inc | Device and method for processing image and storage medium |
JP2000287067A (en) * | 1999-03-31 | 2000-10-13 | Canon Inc | Image processing system, information processing unit and computer-readable storage medium |
JP2002354232A (en) * | 2002-03-20 | 2002-12-06 | Canon Inc | Information processing system, information processor, information processing method, and storage medium storing program to be read by computer for implementing such system, processor and method |
JP2002354231A (en) * | 2002-03-20 | 2002-12-06 | Canon Inc | Information processing system, information processor, information processing method, and storage medium storing program to be read by computer for implementing such system, processor and method |
JP2002359737A (en) * | 2002-03-20 | 2002-12-13 | Canon Inc | Information processing system, information processing unit, medium, information processing method, and computer-readable storage medium for storing program to perform them |
JP2005057797A (en) * | 2004-09-21 | 2005-03-03 | Canon Inc | Image processing apparatus and method, and storage medium |
JP2006287902A (en) * | 2005-03-10 | 2006-10-19 | Ricoh Co Ltd | Apparatus, method, and program for image processing, and recording medium |
JP2006325219A (en) * | 2006-05-18 | 2006-11-30 | Canon Inc | Information monitoring system, information monitoring method and storage medium |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010093774A (en) * | 2008-09-09 | 2010-04-22 | Canon Inc | Image processing apparatus, image processing method, program, and storage medium |
JP2011061710A (en) * | 2009-09-14 | 2011-03-24 | Fuji Xerox Co Ltd | Image processing apparatus and program |
JP2011146758A (en) * | 2010-01-12 | 2011-07-28 | Canon Inc | Transmission apparatus which can handle code, control method of the same, and program |
JP2011254397A (en) * | 2010-06-03 | 2011-12-15 | Konica Minolta Business Technologies Inc | Background pattern image composition device, background pattern image composition method, and program |
US9085191B2 (en) | 2010-06-03 | 2015-07-21 | Konica Minolta, Inc. | Background pattern image combining apparatus, background pattern image combining method, and computer-readable storage medium for computer program |
CN112560530A (en) * | 2020-12-07 | 2021-03-26 | 北京三快在线科技有限公司 | Two-dimensional code processing method, device, medium and electronic device |
CN112560530B (en) * | 2020-12-07 | 2024-02-23 | 北京三快在线科技有限公司 | Two-dimensional code processing method, device, medium and electronic device |
Also Published As
Publication number | Publication date |
---|---|
CN101207680A (en) | 2008-06-25 |
JP5005490B2 (en) | 2012-08-22 |
CN101207680B (en) | 2010-12-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5005490B2 (en) | Image processing method, image processing apparatus, and image processing program | |
JP5015540B2 (en) | Digital watermark embedding device and detection device | |
US20070279672A1 (en) | Image processing apparatus and image processing method | |
JP4552754B2 (en) | Information embedding device, method, program, and recording medium, and information detecting device, method, program, and computer-readable recording medium | |
US7411702B2 (en) | Method, apparatus, and computer program product for embedding digital watermark, and method, apparatus, and computer program product for extracting digital watermark | |
JP2007166221A (en) | Apparatus and method for processing image | |
JP2008154106A (en) | Concealing method, image processor and image forming apparatus | |
JP4673200B2 (en) | Print processing system and print processing method | |
US8238599B2 (en) | Image processing device and image processing method for identifying a selected one or more embedding methods used for embedding target information | |
US8493629B2 (en) | Image processing apparatus, method, and computer program | |
JP2013059111A (en) | Device, method, system and program of handling code | |
JP4393074B2 (en) | Background pattern image generating apparatus, background pattern image generating method, additional information reading apparatus, and additional information reading method | |
JP2004228896A (en) | Image processing method | |
US8325970B2 (en) | Apparatus, method, and computer product for image processing | |
US8660357B2 (en) | Image processing apparatus, method, and computer program | |
US8885224B2 (en) | Information embedding method, its program and information embedding device | |
JP4418826B2 (en) | Image output apparatus and control method thereof | |
JP4061143B2 (en) | Image processing apparatus and image processing method | |
JP4049169B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP2008205559A (en) | Image processing unit, and image processing method, and program thereof | |
JP2008131421A (en) | Information processor, program and computer readable recording medium | |
JP4757167B2 (en) | Image processing apparatus and image processing method | |
JP4379280B2 (en) | Information processing apparatus and information processing method | |
JP2008131420A (en) | Information processor, program and computer readable recording medium | |
JP2007122621A (en) | Information processor, information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100914 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111018 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120424 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120523 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150601 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5005490 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |