JP5028955B2 - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP5028955B2
JP5028955B2 JP2006293210A JP2006293210A JP5028955B2 JP 5028955 B2 JP5028955 B2 JP 5028955B2 JP 2006293210 A JP2006293210 A JP 2006293210A JP 2006293210 A JP2006293210 A JP 2006293210A JP 5028955 B2 JP5028955 B2 JP 5028955B2
Authority
JP
Japan
Prior art keywords
unit
value
image
information
code
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006293210A
Other languages
Japanese (ja)
Other versions
JP2008112218A (en
Inventor
隆志 園田
健司 大西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2006293210A priority Critical patent/JP5028955B2/en
Publication of JP2008112218A publication Critical patent/JP2008112218A/en
Application granted granted Critical
Publication of JP5028955B2 publication Critical patent/JP5028955B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、プログラムに関する。   The present invention relates to an image processing apparatus and a program.

表面上の複数の位置を符号化する位置コードを提供する方法は知られている(例えば、特許文献1参照)。この特許文献1では、循環数字列を表面に沿って複数回印刷する。その際、循環数字列の異なるローテーションを、隣り合う数字列間で所定のずれが起こるように使用し、表面を分割した複数のコードウィンドウが、少なくとも3つの循環数字列を備えると共に、隣り合うコードウィンドウの1つの数字列と重なり合う1つの数字列を有するものであり、また、コードウィンドウの位置を、そのコードウィンドウに属している循環数字列間のずれによって符号化している。   A method for providing a position code for encoding a plurality of positions on a surface is known (see, for example, Patent Document 1). In this patent document 1, a cyclic numeral sequence is printed a plurality of times along the surface. At that time, using different rotations of the cyclic numeral sequences so that a predetermined deviation occurs between the adjacent numeric strings, a plurality of code windows divided on the surface include at least three cyclic numeral sequences and adjacent codes. It has one numeric string that overlaps one numeric string of the window, and the position of the code window is encoded by a shift between the cyclic numeric strings belonging to the code window.

論理的に順位付けられたデジタル量子の機械読取り可能なエンコーディングを記録した記録媒体からのエンコーディングの空間的に非同期的な読取りを可能にする技術も知られている(例えば、特許文献2参照)。この特許文献2では、本質的に同一であるエンコーディングの多数のコピーを形成し、機械認識可能な空間同期指標をエンコーディングのコピーの各々の中のプリント位置に組み合わせて、エンコーディングの空間的に同期可能な多数の事例を提供し、それらの事例をレイアウト規則に従って記録媒体における空間的に周期的な中心の格子に書き込んでいる。   There is also known a technique that enables spatially asynchronous reading of encoding from a recording medium in which logically ranked digital quantum machine-readable encoding is recorded (see, for example, Patent Document 2). In this document, multiple copies of an encoding that are essentially identical can be formed, and a machine-recognizable spatial synchronization index can be combined with the print position within each of the copies of the encoding to allow spatial synchronization of the encoding. A large number of cases are provided, and these cases are written in a spatially periodic center grid in the recording medium according to the layout rules.

取り込まれた画像の位置をより大きい画像から決定するためのシステム及び方法も知られている(例えば、特許文献3参照)。この特許文献3では、非反復的な系列を、所定のサイズのサブウィンドウ毎に固有とされた非反復的な配列に折り畳み、その取り込まれた位置を非反復的な配列内のサブウィンドウ毎に決定することによって、取り込まれた画像の位置を、より大きいサブウィンドウの画像から決定している。   Systems and methods for determining the position of captured images from larger images are also known (see, for example, Patent Document 3). In this Patent Document 3, a non-repetitive sequence is folded into a non-repetitive sequence unique to each sub-window of a predetermined size, and the captured position is determined for each sub-window in the non-repetitive sequence. Thus, the position of the captured image is determined from the image of the larger subwindow.

光学的に読み取り可能に記録されるマルチメディア情報の長時間記録及び繰り返し再生を可能とする技術も知られている(例えば、特許文献4参照)。この特許文献4において、記録装置は、プリンタシステムや印刷用製版システムにより、オーディオ情報、映像情報、ディジタルコードデータ等を含めた所謂マルチメディア情報を光学的に読み取り可能なドットコードとして、画像や文字と一緒に紙等の媒体上に記録する。ペン型の情報再生装置は、ドットコードの手動走査に応じてそのドットコードを順次取り込んで、元のオーディオ情報を音声出力器にて、元の映像情報を表示装置にて、元のディジタルコードデータをページプリンタ等にて出力する。   A technique that enables long-time recording and repeated reproduction of multimedia information that is optically readable is also known (see, for example, Patent Document 4). In this patent document 4, a recording apparatus uses a printer system or a printing plate making system as a dot code that can optically read so-called multimedia information including audio information, video information, digital code data, etc. And record on a medium such as paper. The pen-type information reproducing device sequentially captures the dot code according to the manual scanning of the dot code, and the original audio information is output by the audio output device, the original video information is displayed by the display device, and the original digital code data Is output by a page printer or the like.

タブレットを使用せずに、媒体上の座標を精緻に検出できるようにする技術も知られている(例えば、特許文献5参照)。この特許文献5において、ペン型の座標入力装置は、媒体上に形成されその媒体上の座標を示すコードシンボルを光学的に読み取り、この読み取ったコードシンボルをデコードし、読み取った画像中におけるコードシンボルの位置、向き及び歪み量を検出する。そして、デコード後の情報と、コードシンボルの位置、向き及び歪み量とにより、先端部の媒体上での位置の座標を検出する。   There is also known a technique that makes it possible to precisely detect coordinates on a medium without using a tablet (see, for example, Patent Document 5). In this patent document 5, a pen-type coordinate input device optically reads a code symbol formed on a medium and indicating the coordinates on the medium, decodes the read code symbol, and reads the code symbol in the read image. The position, orientation, and amount of distortion are detected. Then, the coordinates of the position of the tip on the medium are detected based on the decoded information and the position, orientation, and distortion amount of the code symbol.

特表2003−511762号公報JP-T-2003-511762 特開平9−185669号公報JP-A-9-185669 特開2004−152273号公報JP 2004-152273 A 特開平6−231466号公報JP-A-6-231466 特開2000−293303号公報JP 2000-293303 A

ここで、m(m≧3)箇所からn(1≦n<m)箇所を選択することによって情報を表現する場合に、m及び/又はnの値が与えられていないと、情報を取得することができないという課題があった。
本発明の目的は、m(m≧3)箇所からn(1≦n<m)箇所を選択することによって情報を表現する場合に、m及び/又はnの値が与えられていなくても情報を取得できるようにすることにある。
Here, when information is expressed by selecting n (1 ≦ n <m) locations from m (m ≧ 3) locations, information is acquired if values of m and / or n are not given. There was a problem that it was not possible.
An object of the present invention is to express information by selecting n (1 ≦ n <m) locations from m (m ≧ 3) locations, even if the values of m and / or n are not given. There is to be able to get.

請求項1に記載の発明は、
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得する画像取得手段と、
前記画像取得手段により取得された前記単位画像の前記複数の領域における密度を算出する算出手段と、
前記算出手段により算出された前記密度に基づいて、前記m及び前記nの値を決定する決定手段と、
前記決定手段により決定された値を用いて前記情報を取得する情報取得手段と
を備えたことを特徴とする画像処理装置である。
請求項2に記載の発明は、
前記決定手段は、m箇所から選択したn箇所に単位画像を形成した場合の当該単位画像の密度を当該m及び当該nの値に関連付けた密度情報を参照して、当該m及び当該nの値を決定することを特徴とする請求項1記載の画像処理装置である。
請求項3に記載の発明は、
前記決定手段は、前記mの値が1つに定まらなかった場合に、前記複数の領域を区切る複数の枠であって、各枠内の前記単位画像の個数が前記nの値に関する所定の条件を満たすものを検出し、当該複数の枠における各枠の大きさに基づいて当該mの値を決定することを特徴とする請求項1記載の画像処理装置である。
請求項4に記載の発明は、
前記決定手段は、前記nの値が1つに定まらなかった場合に、前記複数の領域を区切る複数の枠であって、各枠が前記mの値に応じた大きさを有し、かつ、各枠内の前記単位画像の個数のばらつきが所定の条件を満たすものを検出し、当該複数の枠における各枠内の当該単位画像の個数の平均値に基づいて当該nの値を決定することを特徴とする請求項1記載の画像処理装置である。
請求項5に記載の発明は、
前記単位画像は、赤外領域に吸収波長を持つ不可視の画像形成材料を用いて形成され、
前記画像取得手段は、前記記録媒体に赤外光を照射することにより前記単位画像を取得することを特徴とする請求項1記載の画像処理装置である。
請求項6に記載の発明は、
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得する画像取得手段と、
前記nの値を取得する値取得手段と、
前記複数の領域を区切る複数の枠であって、各枠内の前記単位画像の個数が前記nの値に関する所定の条件を満たすものを検出する検出手段と、
前記検出手段により検出された前記複数の枠における各枠の大きさに基づいて前記mの値を決定する決定手段と、
前記決定手段により決定された前記mの値と、前記値取得手段により取得された前記nの値とを用いて、前記情報を取得する情報取得手段と
を備えたことを特徴とする画像処理装置である。
請求項7に記載の発明は、
前記決定手段は、前記複数の枠における各枠の形状に基づいて前記m箇所の配置を更に決定し、
前記情報取得手段は、前記決定手段により決定された前記m箇所の配置を更に用いて前記情報を取得することを特徴とする請求項6記載の画像処理装置である。
請求項8に記載の発明は、
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得
する画像取得手段と、
前記mの値を取得する値取得手段と、
前記複数の領域を区切る複数の枠であって、各枠が前記mの値に応じた大きさを有し、かつ、各枠内の前記単位画像の個数のばらつきが所定の条件を満たすものを検出する検出手段と、
前記検出手段により検出された前記複数の枠における各枠内の前記単位画像の個数の平均値に基づいて前記nの値を決定する決定手段と、
前記値取得手段により取得された前記mの値と、前記決定手段により決定された前記nの値とを用いて、前記情報を取得する情報取得手段と
を備えたことを特徴とする画像処理装置である。
請求項9に記載の発明は、
コンピュータに、
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得する機能と、
取得された前記単位画像の前記複数の領域における密度を算出する機能と、
算出された前記密度に基づいて、前記m及び前記nの値を決定する機能と、
決定された値を用いて前記情報を取得する機能と
を実現させるためのプログラムである。
請求項10に記載の発明は、
コンピュータに、
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得する機能と、
前記複数の領域を区切る複数の枠であって、各枠内の前記単位画像の個数が所定の条件を満たすものを検出する機能と、
検出された前記複数の枠における各枠の大きさ又は各枠内の前記単位画像の個数の平均値に基づいて、前記m及び前記nの少なくとも一方の値を決定する機能と、
決定された値を用いて前記情報を取得する機能と
を実現させるためのプログラムである。
The invention described in claim 1
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). Image acquisition means for acquiring;
Calculation means for calculating the density in the plurality of regions of the unit image acquired by the image acquisition means;
Determining means for determining the values of m and n based on the density calculated by the calculating means;
An image processing apparatus comprising: an information acquisition unit that acquires the information using a value determined by the determination unit.
The invention described in claim 2
The determining means refers to density information relating the density of the unit image when the unit image is formed at n locations selected from m locations to the value of m and the value of n . The image processing apparatus according to claim 1, wherein:
The invention according to claim 3
The determination means is a plurality of frames that divide the plurality of regions when the value of m is not determined to be one, and the number of unit images in each frame is a predetermined condition relating to the value of n The image processing apparatus according to claim 1, wherein an image processing device that satisfies the above condition is detected and the value of the m is determined based on the size of each of the plurality of frames.
The invention according to claim 4
The determining means is a plurality of frames that divide the plurality of regions when the value of n is not fixed to one, each frame having a size corresponding to the value of m, and Detecting a variation in the number of unit images in each frame that satisfies a predetermined condition, and determining the value of n based on an average value of the number of unit images in each frame in the plurality of frames. The image processing apparatus according to claim 1.
The invention described in claim 5
The unit image is formed using an invisible image forming material having an absorption wavelength in the infrared region,
The image processing apparatus according to claim 1, wherein the image acquisition unit acquires the unit image by irradiating the recording medium with infrared light.
The invention described in claim 6
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). Image acquisition means for acquiring;
Value acquisition means for acquiring the value of n;
Detecting means for detecting a plurality of frames that divide the plurality of regions, wherein the number of unit images in each frame satisfies a predetermined condition relating to the value of n;
Determining means for determining the value of m based on the size of each of the plurality of frames detected by the detecting means;
An image processing apparatus comprising: an information acquisition unit that acquires the information using the value of m determined by the determination unit and the value of n acquired by the value acquisition unit. It is.
The invention described in claim 7
The determining means further determines the arrangement of the m locations based on the shape of each frame in the plurality of frames,
The image processing apparatus according to claim 6, wherein the information acquisition unit acquires the information by further using the arrangement of the m locations determined by the determination unit.
The invention according to claim 8 provides:
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). Image acquisition means for acquiring;
Value acquisition means for acquiring the value of m;
A plurality of frames that divide the plurality of regions, each frame having a size corresponding to the value of m, and variation in the number of unit images in each frame satisfying a predetermined condition Detecting means for detecting;
Determining means for determining the value of n based on an average value of the number of unit images in each of the plurality of frames detected by the detecting means;
An image processing apparatus comprising: an information acquisition unit configured to acquire the information using the value of m acquired by the value acquisition unit and the value of n determined by the determination unit. It is.
The invention according to claim 9 is:
On the computer,
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). The ability to get and
A function of calculating the density in the plurality of regions of the acquired unit image;
A function of determining the values of m and n based on the calculated density;
A program for realizing a function of acquiring the information using a determined value.
The invention according to claim 10 is:
On the computer,
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). The ability to get and
A function of detecting a plurality of frames that divide the plurality of regions, wherein the number of unit images in each frame satisfies a predetermined condition;
A function of determining at least one value of the m and the n based on the size of each of the detected plurality of frames or the average value of the number of the unit images in each frame;
A program for realizing a function of acquiring the information using a determined value.

請求項1の発明は、m(m≧3)箇所からn(1≦n<m)箇所を選択することによって情報を表現する場合に、m及び/又はnの値が与えられていなくても情報を取得できるようになるという効果を有する。
請求項2の発明は、本構成を有していない場合に比較して、簡単な処理でm及びnの少なくとも一方の値を決定できるようになるという効果を有する。
請求項3の発明は、本構成を有していない場合に比較して、mの値の決定の精度が高まるという効果を有する。
請求項4の発明は、本構成を有していない場合に比較して、nの値の決定の精度が高まるという効果を有する。
請求項5の発明は、記録媒体に形成された画像に影響を与えることなく埋め込まれた情報を取得できるようになるという効果を有する。
請求項6の発明は、m(m≧3)箇所からn(1≦n<m)箇所を選択することによって情報を表現する場合に、mの値が与えられていなくても情報を取得できるようになるという効果を有する。
請求項7の発明は、m箇所が正方形を構成していなくても情報を取得できるようになるという効果を有する。
請求項8の発明は、m(m≧3)箇所からn(1≦n<m)箇所を選択することによって情報を表現する場合に、nの値が与えられていなくても情報を取得できるようになるという効果を有する。
請求項9の発明は、m(m≧3)箇所からn(1≦n<m)箇所を選択することによって情報を表現する場合に、m及び/又はnの値が与えられていなくても情報を取得できるようになるという効果を有する。
請求項10の発明は、m(m≧3)箇所からn(1≦n<m)箇所を選択することによって情報を表現する場合に、m及び/又はnの値が与えられていなくても情報を取得できるようになるという効果を有する。
In the invention of claim 1, when information is expressed by selecting n (1 ≦ n <m) locations from m (m ≧ 3) locations, the values of m and / or n are not given. The effect is that information can be acquired.
The invention according to claim 2 has an effect that at least one value of m and n can be determined by a simple process as compared with the case where the present configuration is not provided.
The invention of claim 3 has the effect that the accuracy of determining the value of m is increased as compared with the case where this configuration is not provided.
The invention of claim 4 has the effect that the accuracy of determination of the value of n is increased as compared with the case where this configuration is not provided.
The invention of claim 5 has the effect that the embedded information can be acquired without affecting the image formed on the recording medium.
In the invention of claim 6, when information is expressed by selecting n (1 ≦ n <m) from m (m ≧ 3), information can be acquired even if the value of m is not given. It has the effect of becoming
The invention of claim 7 has an effect that information can be acquired even if m places do not constitute a square.
In the invention of claim 8, when information is expressed by selecting n (1 ≦ n <m) locations from m (m ≧ 3) locations, the information can be acquired even if the value of n is not given. It has the effect of becoming
In the invention of claim 9, when information is expressed by selecting n (1 ≦ n <m) locations from m (m ≧ 3) locations, the values of m and / or n are not given. The effect is that information can be acquired.
In the invention of claim 10, when information is expressed by selecting n (1 ≦ n <m) locations from m (m ≧ 3) locations, the values of m and / or n are not given. The effect is that information can be acquired.

以下、添付図面を参照して、本発明を実施するための最良の形態(以下、「実施の形態」という)について詳細に説明する。
本実施の形態では、m(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を配置してなるパターン画像(以下、「単位符号パターン」という)によってmCn(=m!/{(m−n)!×n!})通りの情報を表現する。つまり、1つの単位画像を情報に対応させるのではなく、複数の単位画像を情報に対応させている。仮に1つの単位画像を情報に対応させたとすると、単位画像が欠損したり、ノイズが加わったりした場合に、誤った情報を表現してしまうという欠点がある。これに対して、例えば2つの単位画像を情報に対応させたとすると、単位画像が1つであったり3つであったりした場合に、容易に誤りであることが分かる。このようなことから、本実施の形態では、上記のような符号化方式を採用している。以下では、このような符号化方式をmCn方式と称する。
ここで、単位画像としては、如何なる形状のものを用いてもよい。本実施の形態では、単位画像の一例としてドット画像(以下、単に「ドット」という)を用いるが、例えば、斜線パターン等、他の形状の画像であってもよい。
The best mode for carrying out the present invention (hereinafter referred to as “embodiment”) will be described below in detail with reference to the accompanying drawings.
In the present embodiment, mCn (= m) is obtained by a pattern image (hereinafter referred to as “unit code pattern”) in which unit images are arranged at n (1 ≦ n <m) locations selected from m (m ≧ 3) locations. ! / {(Mn)! × n!}) Express information. That is, instead of associating one unit image with information, a plurality of unit images are associated with information. Assuming that one unit image is associated with information, there is a drawback in that erroneous information is expressed when the unit image is lost or noise is added. On the other hand, for example, if two unit images are associated with information, it can be easily understood that there is an error when the number of unit images is one or three. For this reason, the present embodiment employs the above encoding method. Hereinafter, such an encoding method is referred to as an mCn method.
Here, a unit image having any shape may be used. In the present embodiment, a dot image (hereinafter simply referred to as “dot”) is used as an example of the unit image, but an image having another shape such as a hatched pattern may be used.

図1〜図2−2に、mCn方式における単位符号パターンの例を示す。
図1は、縦3ドット、横3ドットの合計9ドットを配置可能な領域を設けた例を示している。このうち、図1(a)は、9ドットを配置可能な領域に2ドットを配置する9C2方式における単位符号パターンであり、図1(b)は、9ドットを配置可能な領域に3ドットを配置する9C3方式における単位符号パターンである。
1-2 show examples of unit code patterns in the mCn system.
FIG. 1 shows an example in which an area in which a total of 9 dots of 3 vertical dots and 3 horizontal dots can be arranged is provided. Among these, FIG. 1A shows a unit code pattern in the 9C2 system in which 2 dots are arranged in an area where 9 dots can be arranged, and FIG. 1B shows 3 dots in an area where 9 dots can be arranged. It is a unit code pattern in the 9C3 system to be arranged.

図において、1つのドットのサイズ(黒い四角の大きさ)は、600dpiで2ピクセル×2ピクセルとしている。600dpiにおける1ピクセルの大きさは0.0423mmなので、この黒い四角の一辺は、84.6μm(=0.0423mm×2)である。単位符号パターンを構成するドットは、大きくなればなるほど目に付きやすくなるため、できるだけ小さいほうが好ましい。ところが、あまり小さくすると、プリンタで印刷できなくなってしまう。そこで、ドットの大きさとして、50μmより大きく100μmより小さい上記の値を採用している。従って、9Cn方式における単位符号パターンの大きさは、600dpiで12ピクセル×12ピクセル(0.5076mm×0.5076mm)となる。尚、上記のドットの大きさ84.6μmは、あくまで計算上の数値であり、実際に印刷されたトナー像では100μm程度になる。   In the figure, the size of one dot (the size of a black square) is 2 pixels × 2 pixels at 600 dpi. Since the size of one pixel at 600 dpi is 0.0423 mm, one side of the black square is 84.6 μm (= 0.0423 mm × 2). Since the dots constituting the unit code pattern become more noticeable as the size increases, it is preferable that the dots be as small as possible. However, if it is too small, printing with a printer becomes impossible. Therefore, the above value is adopted as the dot size, which is larger than 50 μm and smaller than 100 μm. Therefore, the size of the unit code pattern in the 9Cn system is 12 pixels × 12 pixels (0.5076 mm × 0.5076 mm) at 600 dpi. The dot size 84.6 μm is a numerical value to the last, and is about 100 μm in the actually printed toner image.

図2−1(a)は、4C1方式における単位符号パターンであり、図2−1(b)は、4C2方式における単位符号パターンである。また、図2−2(c)は、16C2方式における単位符号パターンであり、図2−2(d)は、16C3方式における単位符号パターンである。   FIG. 2A is a unit code pattern in the 4C1 system, and FIG. 2B is a unit code pattern in the 4C2 system. FIG. 2-2 (c) is a unit code pattern in the 16C2 system, and FIG. 2-2 (d) is a unit code pattern in the 16C3 system.

また、図3−1〜図4に、単位符号パターンの他の例を示す。尚、これらの図では、ドット間の空白を省略している。
図3−1(a)は、図1(a)に示した9C2方式における全ての単位符号パターンを示している。9C2方式では、これらの単位符号パターンを用いて、36(=)通りの情報を表現する。また、図3−1(b)は、図1(b)に示した9C3方式における全ての単位符号パターンを示している。9C3方式では、これらの単位符号パターンを用いて、84(=)通りの情報を表現する。更に、図3−2(c)は、その他の9Cn方式における単位符号パターンの例を示したものである。
図4は、16Cn方式における単位符号パターンの例を示している。
尚、単位符号パターンは、m=4,9,16の場合に限定されるものではなく、mの値としてこれら以外の値を採用してもよい。また、nの値も1≦n<mを満たしていれば如何なる値を採用してもよい。
In addition, FIGS. 3-1 to 4 show other examples of unit code patterns. In these figures, a space between dots is omitted.
FIG. 3-1 (a) shows all unit code patterns in the 9C2 system shown in FIG. 1 (a). In the 9C2 system, 36 (= 9 C 2 ) types of information are expressed using these unit code patterns. FIG. 3B shows all unit code patterns in the 9C3 system shown in FIG. In the 9C3 system, 84 (= 9 C 3 ) types of information are expressed using these unit code patterns. Furthermore, FIG. 3-2 (c) shows an example of the unit code pattern in the other 9Cn system.
FIG. 4 shows an example of a unit code pattern in the 16Cn system.
The unit code pattern is not limited to the case of m = 4, 9, 16, and values other than these may be adopted as the value of m. Also, any value may be adopted as long as n satisfies 1 ≦ n <m.

ところで、ここまでは、mの値として、平方数(整数の2乗)を採用したが、異なる2つの整数の積を採用してもよい。つまり、ドットを配置可能な領域は、3ドット×3ドットを配置する場合のような正方形の領域に限らず、3ドット×4ドットを配置する場合のような長方形の領域であってもよい。尚、本明細書において、長方形とは、隣り合う2辺の長さが等しくない矩形のことをいうものとする。   By the way, although the square number (integer square) has been adopted as the value of m so far, a product of two different integers may be adopted. That is, the area in which dots can be arranged is not limited to a square area as in the case of arranging 3 dots × 3 dots, but may be a rectangular area as in the case of arranging 3 dots × 4 dots. In this specification, the rectangle means a rectangle in which the lengths of two adjacent sides are not equal.

図5〜図6−2に、この場合の単位符号パターンの例を示す。
図5(a)は、6C2方式における単位符号パターンであり、図5(b)は、6C3方式における単位符号パターンである。
図6−1(a)は、12C2方式における単位符号パターンであり、図6−1(b)は、12C3方式における単位符号パターンである。また、図6−2(c)は、12C4方式における単位符号パターンであり、図6−2(d)は、12C5方式における単位符号パターンである。
5 to 6-2 show examples of unit code patterns in this case.
FIG. 5A shows a unit code pattern in the 6C2 system, and FIG. 5B shows a unit code pattern in the 6C3 system.
FIG. 6A shows a unit code pattern in the 12C2 system, and FIG. 6B shows a unit code pattern in the 12C3 system. FIG. 6-2 (c) shows a unit code pattern in the 12C4 system, and FIG. 6-2 (d) shows a unit code pattern in the 12C5 system.

また、図7〜図8−2に、単位符号パターンの他の例を示す。尚、これらの図でも、ドット間の空白を省略している。
図7(a)は、6C2方式における全ての単位符号パターンを示している。図7(b)は、6C3方式における全ての単位符号パターンを示している。
図8−1(a)は、図6−1(a)に示した12C2方式における全ての単位符号パターンを示している。12C2方式では、これらの単位符号パターンを用いて、66(=12)通りの情報を表現する。また、図8−2(b)は、12C3方式における全ての単位符号パターンを示している。12C3方式では、これらの単位符号パターンを用いて、220(=12)通りの情報を表現する。
尚、単位符号パターンは、m=6,12の場合に限定されるものではなく、mの値としてこれら以外の値を採用してもよい。また、nの値も1≦n<mを満たしていれば如何なる値を採用してもよい。
7 to 8-2 show other examples of unit code patterns. In these figures, a space between dots is omitted.
FIG. 7A shows all unit code patterns in the 6C2 system. FIG. 7B shows all unit code patterns in the 6C3 system.
FIG. 8-1 (a) shows all unit code patterns in the 12C2 system shown in FIG. 6-1 (a). In the 12C2 system, 66 (= 12 C 2 ) types of information are expressed using these unit code patterns. FIG. 8-2 (b) shows all unit code patterns in the 12C3 system. In the 12C3 system, 220 (= 12 C 3 ) information is expressed using these unit code patterns.
The unit code pattern is not limited to the case of m = 6, 12, and other values may be adopted as the value of m. Also, any value may be adopted as long as n satisfies 1 ≦ n <m.

このように、m箇所からn箇所を選択することでmCn種類の単位符号パターンを用意しているが、本実施の形態では、これらの単位符号パターンのうち、特定のパターンを情報パターンとして利用し、残りを同期パターンとして利用する。ここで、情報パターンとは、記録媒体に埋め込む情報を表現するパターンである。また、同期パターンとは、情報パターンから情報を取り出すために用いられるパターンである。例えば、情報の読出し位置を特定したり、画像の回転を検出したりするために用いられる。尚、記録媒体としては、画像を印刷することの可能な媒体であれば、如何なるものを用いてもよいが、紙やOHPシート等が例示される。   In this way, mCn types of unit code patterns are prepared by selecting n locations from m locations. In this embodiment, a specific pattern is used as an information pattern among these unit code patterns. The rest is used as a synchronization pattern. Here, the information pattern is a pattern expressing information to be embedded in the recording medium. The synchronization pattern is a pattern used for extracting information from the information pattern. For example, it is used to specify the information reading position or to detect image rotation. As the recording medium, any medium that can print an image may be used, but paper, an OHP sheet, and the like are exemplified.

図9に、同期パターンの例を示す。
図9(a)は、9C2方式における同期パターンの例である。このようにmCn方式におけるmが平方数である場合は、画像の回転の検出のために4種類の単位符号パターンを同期パターンとして用意する必要がある。ここでは、パターン値32の単位符号パターンを正立した同期パターンとしている。また、パターン値33の単位符号パターンを右に90度回転した同期パターン、パターン値34の単位符号パターンを右に180度回転した同期パターン、パターン値35の単位符号パターンを右に270度回転した同期パターンとしている。この場合、36種類の単位符号パターンからこの4種類の同期パターンを除いた残りを情報パターンとし、5ビットの情報を表現するとよい。但し、36種類の単位符号パターンの情報パターンと同期パターンへの振り分け方は、これには限らない。例えば、4種類で1組を構成する同期パターンの組を5つ用意し、残りの16種類の情報パターンで4ビットの情報を表現してもよい。このように同期パターンの組を複数用意した場合、同期パターンが属する組によって、例えば、情報パターンによる情報の表現方法が選択される。
FIG. 9 shows an example of the synchronization pattern.
FIG. 9A shows an example of a synchronization pattern in the 9C2 system. Thus, when m in the mCn system is a square number, it is necessary to prepare four types of unit code patterns as synchronization patterns in order to detect image rotation. Here, the unit code pattern of the pattern value 32 is an upright synchronization pattern. In addition, the unit code pattern of the pattern value 33 is rotated 90 degrees to the right, the synchronization pattern of the pattern value 34 is rotated 180 degrees to the right, and the unit code pattern of the pattern value 35 is rotated 270 degrees to the right. The synchronization pattern is used. In this case, 5-bit information may be expressed by using the remainder obtained by removing these four types of synchronization patterns from 36 types of unit code patterns as an information pattern. However, the method of assigning 36 types of unit code patterns to information patterns and synchronization patterns is not limited to this. For example, five sets of synchronization patterns that constitute one set of four types may be prepared, and the remaining 16 types of information patterns may represent 4-bit information. When a plurality of sets of synchronization patterns are prepared in this way, for example, a method of expressing information by an information pattern is selected depending on the group to which the synchronization pattern belongs.

また、図9(b)は、12C2方式における同期パターンの例である。このようにmCnにおけるmが異なる2つの整数の積である場合は、画像の回転の検出のために2種類の単位符号パターンを同期パターンとして用意すればよい。例えば、図のような縦3ドット×横4ドットを配置可能な領域が検出されるべきなのに、縦4ドット×横3ドットを配置可能な領域が検出された場合は、その時点で画像が90度又は270度回転していることが分かるからである。ここでは、パターン値64の単位符号パターンを正立した同期パターンとし、パターン値65の単位符号パターンを180度回転した同期パターンとしている。この場合、66種類の単位符号パターンからこの2種類の同期パターンを除いた残りを情報パターンとし、6ビットの情報を表現するとよい。但し、この場合も、情報パターンと同期パターンの配分には他の組み合わせを採用してもよい。例えば、34種類の単位符号パターンを17組の同期パターンとして使用し、残りの32種類の単位符号パターンを5ビットの情報を表現する情報パターンとして使用してもよい。   FIG. 9B is an example of a synchronization pattern in the 12C2 system. Thus, when m in mCn is a product of two different integers, two types of unit code patterns may be prepared as synchronization patterns in order to detect image rotation. For example, if an area where 3 dots vertical x 4 dots horizontal should be detected as shown in the figure but an area where 4 dots vertical x 3 dots horizontal can be arranged is detected, the image is 90% at that time. This is because it can be seen that the angle is rotated by 270 degrees or 270 degrees. Here, the unit code pattern of pattern value 64 is an upright synchronization pattern, and the unit code pattern of pattern value 65 is a synchronization pattern rotated 180 degrees. In this case, 6-bit information may be expressed by using the remainder obtained by removing these two types of synchronization patterns from 66 types of unit code patterns as information patterns. However, also in this case, other combinations may be adopted for the distribution of the information pattern and the synchronization pattern. For example, 34 types of unit code patterns may be used as 17 sets of synchronization patterns, and the remaining 32 types of unit code patterns may be used as information patterns representing 5-bit information.

次に、この単位符号パターンから構成される符号ブロックについて説明する。
図10は、符号ブロックの一例を示したものである。図では、9C2方式における単位符号パターンを使用していることも同時に示している。即ち、36種類の単位符号パターンを、例えば、同期パターンとして使用する4パターンと、情報パターンとして使用する32パターンとに分け、各パターンをレイアウトに従って配置する。
図では、レイアウトとして、3ドット×3ドットを配置可能な領域(以下、「ブロック」という)を5個×5個の25個並べたものを採用している。そして、この25個のブロックのうち、左上の1ブロックに同期パターンを配置している。また、同期パターンの右の4ブロックにX方向の位置情報を表す情報パターンを配置し、同期パターンの下の4ブロックにY方向の位置情報を表す情報パターンを配置している。更に、これらの位置情報を表す情報パターンで囲まれた16ブロックに、紙面又は紙面に印刷される文書の識別情報を表す情報パターンを配置している。
Next, a code block composed of this unit code pattern will be described.
FIG. 10 shows an example of a code block. In the figure, it is also shown that a unit code pattern in the 9C2 system is used. That is, 36 types of unit code patterns are divided into, for example, 4 patterns used as synchronization patterns and 32 patterns used as information patterns, and each pattern is arranged according to a layout.
In the figure, a layout in which 3 areas × 3 dots area (hereinafter referred to as “block”) 25 × 5 × 5 are arranged is used. Of the 25 blocks, a synchronization pattern is arranged in the upper left block. In addition, an information pattern representing position information in the X direction is arranged in the four blocks to the right of the synchronization pattern, and an information pattern representing position information in the Y direction is arranged in the four blocks below the synchronization pattern. Further, an information pattern representing identification information of a document printed on the paper surface or the paper surface is arranged in 16 blocks surrounded by the information pattern representing the position information.

また、本実施の形態では、このようなレイアウトを有する符号ブロックを基本単位とし、この符号ブロックを紙面全体に周期的に配置する。尚、位置情報は、後述するように、紙面の縦及び横に渡ってM系列で表現する。また、識別情報の符号化には、いくつかの方法が利用できるが、本実施の形態では、RS符号化が適している。RS符号は多値の符号法であり、この場合、ブロックの表現をRS符号の多値に対応させることができるからである。もちろん、他の符号化方法を利用することも可能である。   In this embodiment, a code block having such a layout is used as a basic unit, and this code block is periodically arranged on the entire sheet. Note that the position information is expressed in M series across the vertical and horizontal planes of the paper, as will be described later. In addition, although several methods can be used for encoding the identification information, RS encoding is suitable in the present embodiment. This is because the RS code is a multi-value coding method, and in this case, the block representation can correspond to the multi-value of the RS code. Of course, other encoding methods can be used.

次いで、このような画像を生成する画像生成装置10について説明する。
図11は、画像生成装置10の構成例を示したブロック図である。
図示するように、画像生成装置10は、識別符号生成部11と、位置符号生成部12と、ブロック合成部14と、パターン画像記憶部15と、符号画像生成部16とを備える。
Next, the image generation apparatus 10 that generates such an image will be described.
FIG. 11 is a block diagram illustrating a configuration example of the image generation apparatus 10.
As illustrated, the image generation device 10 includes an identification code generation unit 11, a position code generation unit 12, a block synthesis unit 14, a pattern image storage unit 15, and a code image generation unit 16.

識別符号生成部11は、紙面又は紙面に印刷された文書の識別情報を符号化した識別符号を生成する。この識別符号生成部11は、ブロック分割部11aと、RS符号化部11bとを含んでいる。
このうち、ブロック分割部11aは、識別情報を構成するビット列を、RS符号化を行うために複数のブロックに分割する。例えば、9C2方式で5ビットの情報を表現可能な情報パターンを用いる場合、60ビットの識別情報は、ブロック長が5ビットの12個のブロックに分割される。
また、RS符号化部11bは、分割されたブロックに対してRS符号化処理を行い、誤り訂正のための冗長ブロックを付加する。先の例において2ブロックの誤りを訂正可能なRS符号を採用したとすると、符号長は16ブロックとなる。
尚、本実施の形態において、この識別符号生成部11は、予め定められたm及びnに対応するmCn方式を用いて識別情報を符号化するものとする。
The identification code generation unit 11 generates an identification code obtained by encoding the identification information of the document printed on the sheet or the sheet. The identification code generation unit 11 includes a block division unit 11a and an RS encoding unit 11b.
Among these, the block dividing unit 11a divides the bit string constituting the identification information into a plurality of blocks in order to perform RS encoding. For example, when an information pattern capable of expressing 5-bit information in the 9C2 system is used, the 60-bit identification information is divided into 12 blocks having a block length of 5 bits.
Also, the RS encoder 11b performs RS encoding processing on the divided blocks and adds redundant blocks for error correction. If an RS code capable of correcting an error of 2 blocks is adopted in the previous example, the code length is 16 blocks.
In the present embodiment, the identification code generation unit 11 encodes identification information using an mCn method corresponding to predetermined m and n.

位置符号生成部12は、紙面上の座標位置を示す位置情報を符号化した位置符号を生成する。この位置符号生成部12は、M系列符号化部12aと、ブロック分割部12bとを含む。
このうち、M系列符号化部12aは、M系列を使用して位置情報を符号化する。例えば、符号化したい位置情報の長さから必要なM系列の次数を求め、M系列を動的に生成することで位置符号を生成する。但し、予め符号化したい位置情報の長さが分かっている場合には、M系列を画像生成装置10のメモリ等に格納しておき、画像生成時にそれを読み出す構成としてもよい。
また、ブロック分割部12bは、M系列を複数のブロックに分割する。例えば、情報パターンとして16種類の単位符号パターンを選択したとすると、符号ブロックにおける各ブロックには4ビットの情報が格納される。従って、図10のようなレイアウトを有する符号ブロックに対して、X方向の位置情報は、16ビット分格納される。ここで、12次のM系列を利用したとすると、M系列の系列長は4095(=212−1)となる。この系列を4ビットごとに切り出し、符号パターンで表現していくと、最後に3ビットあまることになる。この3ビットに、M系列の最初の1ビットを加えて4ビットとし符号パターンで表す。更に、M系列の2ビット目から4ビットごとに切り出し符号パターンで表す。これを繰り返すと、次の周期は、M系列の3ビット目から始まり、次は、4ビット目となる。更に、5周期目は、5ビット目からとなるが、これは最初の周期と一致する。従って、M系列の4周期を4ビットごとに切り出していくと、4095個の符号パターンで全てを尽くすことができる。M系列は12次であるので、3つの連続する符号パターンは、他のどの位置の連続する符号パターンとも一致することはない。そこで、読出し時には3つの符号パターンを読み出せば、復号が可能であるが、誤りを考慮し4ブロックで情報を表現している。
4周期のM系列は、4095個の符号ブロックに分割して格納される。1つの符号ブロックの一辺の長さは、2.538mm(=0.5076mm×5)なので、連続する4095個の符号ブロックの長さは10393.1mmである。つまり、10393.1mmの長さが符号化されることになる。
尚、本実施の形態において、この位置符号生成部12は、予め定められたm及びnに対応するmCn方式を用いて位置情報を符号化するものとする。
The position code generation unit 12 generates a position code obtained by encoding position information indicating a coordinate position on the paper surface. This position code generation unit 12 includes an M-sequence encoding unit 12a and a block dividing unit 12b.
Among these, the M sequence encoding unit 12a encodes position information using the M sequence. For example, a required M-sequence order is obtained from the length of position information to be encoded, and a position code is generated by dynamically generating the M-sequence. However, when the length of the position information to be encoded is known in advance, the M sequence may be stored in the memory of the image generation apparatus 10 and read out when generating the image.
Further, the block dividing unit 12b divides the M sequence into a plurality of blocks. For example, if 16 types of unit code patterns are selected as the information pattern, 4-bit information is stored in each block in the code block. Therefore, 16-bit position information in the X direction is stored for a code block having a layout as shown in FIG. Here, if a 12th-order M sequence is used, the sequence length of the M sequence is 4095 (= 2 12 −1). When this sequence is cut out every 4 bits and expressed by a code pattern, 3 bits are finally added. The first 1 bit of the M series is added to these 3 bits to form 4 bits, which are represented by a code pattern. Further, a cut-out code pattern is represented every 4 bits from the second bit of the M sequence. If this is repeated, the next cycle starts from the third bit of the M sequence, and the next is the fourth bit. Furthermore, the fifth cycle starts from the fifth bit, which coincides with the first cycle. Therefore, if 4 periods of M sequence are cut out every 4 bits, 4095 code patterns can be used up. Since the M sequence is twelfth, the three consecutive code patterns do not match the continuous code pattern at any other position. Therefore, at the time of reading, decoding is possible by reading three code patterns, but information is expressed by four blocks in consideration of errors.
The M sequence of 4 periods is divided and stored in 4095 code blocks. Since the length of one side of one code block is 2.538 mm (= 0.5076 mm × 5), the length of 4095 consecutive code blocks is 10393.1 mm. That is, a length of 10393.1 mm is encoded.
In the present embodiment, the position code generation unit 12 encodes position information using an mCn method corresponding to predetermined m and n.

ブロック合成部14は、識別符号生成部11にて生成された識別符号と、位置符号生成部12にて生成された位置符号と、識別符号及び位置符号の読出しを制御する同期符号とを2次元平面に配置して2次元の符号配列を生成する。ここで、同期符号とは、同期パターンに対応する符号である。
パターン画像記憶部15は、例えば図1〜図8に示したmCn方式における単位符号パターンを記憶する。ここで、単位符号パターンには、個々の単位符号パターンを一意に特定するパターン値が付されている。例えば、9C2方式における単位符号パターンに対しては、0〜35のパターン値が付されている。これは、ブロック合成部14が生成した2次元の符号配列における各符号値に対応している。即ち、各符号値から単位符号パターンが一意に特定され、選択されるようになっている。尚、本実施の形態において、このパターン画像記憶部15は、予め定められたm及びnに対応するmCn方式における単位符号パターンを少なくとも記憶していればよい。
符号画像生成部16は、ブロック合成部14が生成した2次元の符号配列を参照し、各符号値に対応した単位符号パターンを選択して符号画像を生成する。
The block synthesizing unit 14 two-dimensionally identifies the identification code generated by the identification code generation unit 11, the position code generated by the position code generation unit 12, and the synchronization code that controls reading of the identification code and the position code. A two-dimensional code array is generated by arranging in a plane. Here, the synchronization code is a code corresponding to the synchronization pattern.
The pattern image storage unit 15 stores, for example, unit code patterns in the mCn system shown in FIGS. Here, the unit code pattern is assigned a pattern value that uniquely identifies each unit code pattern. For example, pattern values of 0 to 35 are attached to unit code patterns in the 9C2 system. This corresponds to each code value in the two-dimensional code array generated by the block synthesis unit 14. That is, a unit code pattern is uniquely identified and selected from each code value. In the present embodiment, the pattern image storage unit 15 only needs to store at least unit code patterns in the mCn method corresponding to predetermined m and n.
The code image generation unit 16 refers to the two-dimensional code array generated by the block synthesis unit 14, selects a unit code pattern corresponding to each code value, and generates a code image.

そして、この符号画像は、図示しない画像形成部に渡され、画像形成部が紙面に符号画像を形成する。このとき、画像形成部は、電子文書の文書画像と符号画像とを重畳した重畳画像を紙面に形成するようにしてもよい。また、このように重畳画像を形成する場合において、電子文書上の位置と紙面上の位置とにずれが生じることが考えられる場合には、紙面に対する電子ペンによる筆記データが電子文書上の適切な位置に反映されるよう電子文書上の位置と紙面上の位置との対応関係を管理することが望ましい。   The code image is transferred to an image forming unit (not shown), and the image forming unit forms a code image on the sheet. At this time, the image forming unit may form a superimposed image in which the document image of the electronic document and the code image are superimposed on the paper surface. In addition, when forming a superimposed image in this way, if it is considered that there is a deviation between the position on the electronic document and the position on the paper, the writing data by the electronic pen on the paper is appropriate for the electronic document. It is desirable to manage the correspondence between the position on the electronic document and the position on the paper so that the position is reflected.

また、画像形成部は、符号画像を、例えば電子写真方式を用いて、Kトナー(カーボンを含む赤外光吸収トナー)、又は、特殊トナーにより形成する。
ここで、特殊トナーとしては、可視光領域(400nm〜700nm)における最大吸収率が7%以下であり、近赤外領域(800nm〜1000nm)における吸収率が30%以上の不可視トナーが例示される。ここで、「可視」及び「不可視」は、目視により認識できるかどうかとは関係しない。印刷された媒体に形成された画像が可視光領域における特定の波長の吸収に起因する発色性の有無により認識できるかどうかで「可視」と「不可視」とを区別している。また、可視光領域における特定の波長の吸収に起因する発色性が若干あるが、人間の目で認識し難いものも「不可視」に含める。
Further, the image forming unit forms the code image with K toner (infrared light absorbing toner containing carbon) or special toner using, for example, an electrophotographic method.
Here, as the special toner, an invisible toner having a maximum absorption rate of 7% or less in the visible light region (400 nm to 700 nm) and an absorption rate of 30% or more in the near infrared region (800 nm to 1000 nm) is exemplified. . Here, “visible” and “invisible” are not related to whether they can be recognized visually. “Visible” and “invisible” are distinguished depending on whether or not an image formed on a printed medium can be recognized by the presence or absence of color development due to absorption of a specific wavelength in the visible light region. Further, “invisible” includes those that have some color developability due to absorption of a specific wavelength in the visible light region but are difficult to recognize with human eyes.

尚、これらの機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。具体的には、画像生成装置10のCPU91(図24参照)が、ブロック分割部11a、RS符号化部11b、M系列符号化部12a、ブロック分割部12b、ブロック合成部14、重畳画像生成部16を実現するプログラムを、例えば、磁気ディスク装置93(図24参照)からメインメモリ92(図24参照)に読み込んで実行することにより、実現される。また、パターン画像記憶部15は、例えば、磁気ディスク装置93(図24参照)を用いて実現するとよい。更に、磁気ディスク装置93(図24参照)に記憶されるプログラムやデータは、CD等の記録媒体からロードしてもよいし、インターネット等の通信手段を介してダウンロードしてもよい。   These functions are realized by cooperation between software and hardware resources. Specifically, the CPU 91 (see FIG. 24) of the image generation device 10 includes a block division unit 11a, an RS encoding unit 11b, an M-sequence encoding unit 12a, a block division unit 12b, a block synthesis unit 14, and a superimposed image generation unit. 16 is implemented by, for example, reading the program from the magnetic disk device 93 (see FIG. 24) into the main memory 92 (see FIG. 24) and executing it. The pattern image storage unit 15 may be realized using, for example, a magnetic disk device 93 (see FIG. 24). Furthermore, the program and data stored in the magnetic disk device 93 (see FIG. 24) may be loaded from a recording medium such as a CD, or may be downloaded via communication means such as the Internet.

次に、紙面に形成された符号画像を読み取って処理する画像処理装置20について説明する。但し、本実施の形態では、符号画像を生成する際に用いたmCn方式におけるm及びnの値は分かっていないものとする。
図12は、画像処理装置20の構成例を示したブロック図である。
図示するように、画像処理装置20は、画像読取部21と、ノイズ除去部22と、ドット画像検出部23と、ドット配列生成部24と、ブロック検出部25と、同期符号検出部26と、識別情報取得部27と、位置情報取得部28とを備える。
Next, the image processing apparatus 20 that reads and processes the code image formed on the paper surface will be described. However, in the present embodiment, it is assumed that the values of m and n in the mCn method used when generating the code image are not known.
FIG. 12 is a block diagram illustrating a configuration example of the image processing apparatus 20.
As illustrated, the image processing apparatus 20 includes an image reading unit 21, a noise removal unit 22, a dot image detection unit 23, a dot array generation unit 24, a block detection unit 25, a synchronization code detection unit 26, An identification information acquisition unit 27 and a position information acquisition unit 28 are provided.

画像読取部21は、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子から紙面に印刷された符号画像を読み取る。尚、本実施の形態では、記録媒体から単位画像を取得する画像取得手段の一例として、画像読取部21を設けている。
ノイズ除去部22は、読み取った画像に含まれるノイズを除去するための処理を行う。ここで、ノイズには、例えば、撮像素子感度のばらつきや電子回路により発生するノイズがある。ノイズ除去の処理の種類は、撮像系の特性に合わせるべきだが、ぼかし処理やアンシャープマスキング等の先鋭化処理を適用するとよい。
ドット画像検出部23は、ノイズが除去された画像からドットを検出する。つまり、ドットが形成された位置を特定する。ここで、ドットの検出は、まず、2値化処理によりドット画像の部分と、その他の背景画像の部分とを切り分け、2値化された個々の画像位置からドットの位置を検出する。その際、2値化された画像にノイズ成分が多数含まれる場合があるため、2値化された画像の面積や形状によりドットの判定を行うフィルタ処理を組み合わせる必要がある。
The image reading unit 21 reads a code image printed on a paper surface from an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). In the present embodiment, the image reading unit 21 is provided as an example of an image acquisition unit that acquires a unit image from a recording medium.
The noise removal unit 22 performs processing for removing noise included in the read image. Here, the noise includes, for example, variations in image sensor sensitivity and noise generated by an electronic circuit. The type of noise removal processing should match the characteristics of the imaging system, but sharpening processing such as blurring processing and unsharp masking may be applied.
The dot image detection unit 23 detects dots from the image from which noise has been removed. That is, the position where the dot is formed is specified. Here, in the dot detection, first, the dot image portion and other background image portions are separated by binarization processing, and the dot position is detected from each binarized image position. At that time, since there are cases where a lot of noise components are included in the binarized image, it is necessary to combine filter processing for determining dots based on the area and shape of the binarized image.

ドット配列生成部24は、検出したドットの位置を参照して、ドット配列を生成する。即ち、2次元の配列上で、例えば、ドットがある位置に「1」を、ドットがない位置に「0」を記憶することにより、画像として検出したドットをデジタルデータに置き換える。そして、この2次元の配列をドット配列として出力する。
尚、本実施の形態において、このドット配列生成部24は、ドット配列の全要素と例えば「1」が記録されている要素との比に基づいて、符号化の際に使用したmCn方式におけるm及びnを決定する。即ち、単位画像の密度を算出する算出手段、及び、密度に基づいてm及びnの少なくとも一方の値を決定する決定手段の一例として、ドット配列生成部24を設けている。
The dot array generation unit 24 generates a dot array with reference to the detected dot positions. That is, on a two-dimensional array, for example, “1” is stored at a position where there is a dot and “0” is stored at a position where there is no dot, thereby replacing the dot detected as an image with digital data. Then, this two-dimensional array is output as a dot array.
In the present embodiment, the dot array generation unit 24 uses the mCn method m used in the encoding based on the ratio of all elements of the dot array to elements in which, for example, “1” is recorded. And n are determined. That is, the dot array generation unit 24 is provided as an example of a calculation unit that calculates the density of a unit image and a determination unit that determines at least one value of m and n based on the density.

ブロック検出部25は、ドット配列上で、符号ブロック内の単位符号パターンに対応するブロックを検出する。即ち、単位符号パターンと同じ大きさをもつ矩形のブロック区切りをドット配列上で適宜動かし、ブロック内のドット数が均等になる位置を正しいブロック区切り位置とし、各ブロック内のパターン値を格納した符号配列を生成する。
尚、本実施の形態において、このブロック検出部25は、ブロック内のドット数が均等になる場合のブロックの大きさ及びブロック内のドット数に基づいて、符号化の際に使用したmCn方式におけるm及びnを決定する。即ち、nの値を取得する値取得手段、各枠内の単位画像の個数がnの値に関する所定の条件を満たす複数の枠を検出する検出手段、及び、各枠の大きさに基づいてmの値を決定する決定手段の一例として、また、mの値を取得する値取得手段、各枠がmの値に応じた大きさを有しかつ各枠内の単位画像の個数のばらつきが所定の条件を満たす複数の枠を検出する検出手段、及び、各枠内の単位画像の個数の平均値に基づいてnの値を決定する決定手段の一例として、ブロック検出部25を設けている。
The block detection unit 25 detects a block corresponding to the unit code pattern in the code block on the dot array. In other words, a rectangular block delimiter having the same size as the unit code pattern is appropriately moved on the dot array, the position where the number of dots in the block is equal is the correct block delimiter position, and the code that stores the pattern value in each block Create an array.
In the present embodiment, the block detection unit 25 uses the mCn method used for encoding based on the size of the block and the number of dots in the block when the number of dots in the block is uniform. Determine m and n. That is, value acquisition means for acquiring the value of n, detection means for detecting a plurality of frames in which the number of unit images in each frame satisfies a predetermined condition regarding the value of n, and m based on the size of each frame As an example of a determining unit that determines the value of m, a value acquiring unit that acquires the value of m, and each frame has a size corresponding to the value of m, and the variation in the number of unit images in each frame is predetermined. As an example of a detection unit that detects a plurality of frames that satisfy the above condition and a determination unit that determines the value of n based on the average value of the number of unit images in each frame, a block detection unit 25 is provided.

同期符号検出部26は、ドット配列から検出された各単位符号パターンの種類を参照して、同期符号を検出する。単位符号パターンは、正方形をなしている場合、90度単位で回転している可能性がある。そこで、検出された同期符号が4種類の同期パターンのいずれに対応しているかによって、その向きを検出して補正する。また、単位符号パターンは、長方形をなしている場合、180度単位で回転している可能性がある。そこで、検出された同期符号が2種類の同期パターンのいずれに対応しているかによって、その向きを検出して補正する。   The synchronization code detector 26 detects the synchronization code with reference to the type of each unit code pattern detected from the dot array. If the unit code pattern has a square shape, it may be rotated by 90 degrees. Therefore, depending on which of the four types of synchronization patterns the detected synchronization code corresponds to, the direction is detected and corrected. Further, when the unit code pattern is a rectangle, there is a possibility that the unit code pattern is rotated by 180 degrees. Therefore, depending on which of the two types of synchronization patterns the detected synchronization code corresponds to, the direction is detected and corrected.

識別情報取得部27は、同期符号検出部26で検出された同期符号に基づいて符号配列から識別情報を取得する。この識別情報取得部27は、識別符号検出部27aと、識別符号復号部27bとを含んでいる。
このうち、識別符号検出部27aは、角度が補正された符号配列から、同期符号の位置を基準にして識別符号を検出する。
また、識別符号復号部27bは、図11で説明したRS符号の符号化処理で用いたパラメータ(ブロック数等)と同じパラメータを用いて識別符号を復号し、識別情報を出力する。
The identification information acquisition unit 27 acquires identification information from the code array based on the synchronization code detected by the synchronization code detection unit 26. The identification information acquisition unit 27 includes an identification code detection unit 27a and an identification code decoding unit 27b.
Among these, the identification code detection unit 27a detects the identification code from the code array whose angle is corrected with reference to the position of the synchronization code.
Also, the identification code decoding unit 27b decodes the identification code using the same parameters (such as the number of blocks) used in the RS code encoding process described with reference to FIG. 11, and outputs identification information.

位置情報取得部28は、同期符号検出部26で検出された同期符号に基づいて符号配列から位置情報を取得する。この位置情報取得部28は、位置符号検出部28aと、位置符号復号部28bとを含んでいる。
このうち、位置符号検出部28aは、角度が補正された符号配列から、同期符号の位置を基準にして位置符号を検出する。
また、位置符号復号部28bは、位置符号検出部28aにより検出された位置符号からM系列の部分系列を取り出し、画像生成に使用したM系列におけるこの部分系列の位置を参照し、この位置を同期符号によるオフセットで補正した値を位置情報として出力する。尚、このとき、オフセットで補正するのは、位置符号の間に同期符号が配置されているためである。
尚、本実施の形態では、決定された値を用いて情報を取得する情報取得手段の一例として、同期符号検出部26、識別情報取得部27、及び、位置情報取得部28を設けている。
The position information acquisition unit 28 acquires position information from the code array based on the synchronization code detected by the synchronization code detection unit 26. The position information acquisition unit 28 includes a position code detection unit 28a and a position code decoding unit 28b.
Among these, the position code detection unit 28a detects the position code from the code array whose angle is corrected with reference to the position of the synchronization code.
Also, the position code decoding unit 28b extracts the M series partial sequence from the position code detected by the position code detection unit 28a, refers to the position of this partial sequence in the M sequence used for image generation, and synchronizes this position. A value corrected by the offset by the code is output as position information. At this time, the reason for correcting with the offset is that a synchronization code is arranged between the position codes.
In the present embodiment, as an example of information acquisition means for acquiring information using the determined value, a synchronization code detection unit 26, an identification information acquisition unit 27, and a position information acquisition unit 28 are provided.

尚、これらの機能は、ソフトウェアとハードウェア資源とが協働することにより実現される。具体的には、画像処理装置20のCPU91(図24参照)が、ノイズ除去部22、ドット画像検出部23、ドット配列生成部24、ブロック検出部25、同期符号検出部26、識別符号検出部27a、識別符号復号部27b、位置符号検出部28a、位置符号復号部28bを実現するプログラムを、例えば、磁気ディスク装置93(図24参照)からメインメモリ92(図24参照)に読み込んで実行することにより、実現される。また、磁気ディスク装置93(図24参照)に記憶されるプログラムやデータは、CD等の記録媒体からロードしてもよいし、インターネット等の通信手段を介してダウンロードしてもよい。   These functions are realized by cooperation between software and hardware resources. Specifically, the CPU 91 (see FIG. 24) of the image processing apparatus 20 performs the noise removal unit 22, the dot image detection unit 23, the dot array generation unit 24, the block detection unit 25, the synchronization code detection unit 26, and the identification code detection unit. 27a, the identification code decoding unit 27b, the position code detection unit 28a, and the position code decoding unit 28b, for example, are read from the magnetic disk device 93 (see FIG. 24) into the main memory 92 (see FIG. 24) and executed. This is realized. The program and data stored in the magnetic disk device 93 (see FIG. 24) may be loaded from a recording medium such as a CD, or may be downloaded via a communication means such as the Internet.

次に、本実施の形態の動作について説明する。
本実施の形態では、符号化に用いたmCn方式におけるm及びnの値が不明であっても、符号化された画像を読み取る際にm及びnの値を特定する。このようなm及びnの値を特定する場合の類型としては、第一に、mの値は分かっているがnの値が分からない場合においてnの値を特定する場合がある。また、第二に、nの値は分かっているがmの値が分からない場合においてmの値を特定する場合がある。そして、第三に、m及びnのいずれの値も分からない場合において両方の値を特定する場合がある。
そこで、以下では、全ての場合に応用可能なように、m及びnのいずれの値も分からないことを前提として、符号化方式を判定する動作を説明する。
Next, the operation of the present embodiment will be described.
In the present embodiment, even when the values of m and n in the mCn method used for encoding are unknown, the values of m and n are specified when reading the encoded image. As a type for specifying the values of m and n, first, the value of n may be specified when the value of m is known but the value of n is unknown. Second, when the value of n is known but the value of m is unknown, the value of m may be specified. Thirdly, there are cases where both values are specified when neither m nor n is known.
Therefore, in the following, the operation for determining the encoding method will be described on the assumption that neither m nor n is known so that it can be applied to all cases.

この場合の符号化方式の判定方法には、ドット密度による判定方法と、ブロック区切りを用いた判定方法とがある。
そこで、まず、ドット密度による判定方法について説明する。
このドット密度による判定は、図12のドット配列生成部24によるドット配列の生成後の処理として行われる。即ち、処理の前提として、例えば、ドットがある位置に「1」、ドットがない位置に「0」を記憶したドット配列が生成されている。
In this case, the coding method determination method includes a determination method based on dot density and a determination method using block delimiters.
First, a determination method based on dot density will be described.
The determination based on the dot density is performed as a process after the dot array generation by the dot array generation unit 24 of FIG. That is, as a premise of processing, for example, a dot array is generated in which “1” is stored at a position where a dot is present and “0” is stored at a position where there is no dot.

また、この処理を行うに当たっては、図13に示すようなドット密度表が、ドット配列生成部24が参照可能なメモリに記憶されているものとする。
このドット密度表は、mCn方式で符号画像を形成した場合におけるドット密度を、mの値とnの値に対応するセル内に格納したものである。例えば、9C2方式を用いた場合のドット密度は「0.222」であり、9C3方式を用いた場合のドット密度は「0.33」であることを示している。以下では、このドット密度表において、上からG番目の行に格納されたmをm(G)と表記する。mについては、2つの整数の積であることが少なくとも必要であるため、G行目において必ずしもm=Gとなっていないからである。一方、nについては、1≦n<mを満たす全ての整数が考えられるため、左からH列目においてn=Hとなっている。また、G行H列のセルに格納されたドット密度をDTBL(G,H)と表記し、このドット密度表におけるmの最大値をmmaxと表記する。尚、本実施の形態では、m箇所から選択したn箇所に単位画像を形成した場合の単位画像の密度をm及びnの値に関連付けた密度情報の一例として、図13のドット密度表を採用している。
そして、ドット配列生成部24は、入力された画像におけるドット密度と、図13のドット密度表におけるドット密度とを比較し、mとnの値を推定する。
In performing this process, it is assumed that a dot density table as shown in FIG. 13 is stored in a memory that can be referred to by the dot array generation unit 24.
This dot density table stores the dot density when a code image is formed by the mCn method in cells corresponding to the values of m and n. For example, the dot density when the 9C2 method is used is “0.222”, and the dot density when the 9C3 method is used is “0.33”. Hereinafter, in this dot density table, m stored in the G-th row from the top is expressed as m (G). This is because m must be a product of two integers, and m is not necessarily G in the G-th row. On the other hand, for n, since all integers satisfying 1 ≦ n <m are conceivable, n = H in the H-th column from the left. Further, the dot density stored in the cell of G row and H column is expressed as DTBL (G, H), and the maximum value of m in this dot density table is expressed as mmax. In the present embodiment, the dot density table of FIG. 13 is adopted as an example of density information in which unit image densities are associated with the values of m and n when unit images are formed at n locations selected from m locations. is doing.
Then, the dot array generation unit 24 compares the dot density in the input image with the dot density in the dot density table of FIG. 13 and estimates the values of m and n.

以下、このときのドット配列生成部24の動作を具体的に説明する。
図14は、ドット配列生成部24による符号化方式の判定動作を示したフローチャートである。尚、ドット配列生成部24は、最も近接した2つのドット間の傾きに基づいて入力画像の傾き角度を検出し、その傾きを有しかつ格子間隔が最も近接したドット間隔と等しくなる格子を重ね合わせることで、ドット配列を生成する処理を行うが、この処理についてはフローチャートから除外してある。
Hereinafter, the operation of the dot array generation unit 24 at this time will be specifically described.
FIG. 14 is a flowchart showing an encoding method determination operation by the dot array generation unit 24. The dot array generation unit 24 detects the tilt angle of the input image based on the tilt between the two closest dots, and superimposes a grid having the tilt and having the grid spacing equal to the closest dot pitch. By combining them, processing for generating a dot array is performed, but this processing is excluded from the flowchart.

ドット配列生成部24は、まず、ドット配列における全要素数ADと、ドット配列においてドットがあることを示す例えば「1」が格納されている要素数NDとを数える。そして、ND/ADを計算することにより、画像全体に占めるドットの比率を算出する。そして、この比率を入力画像のドット密度としてDinに代入する(ステップ201)。
また、ドット配列生成部24は、ドット密度表の各セルを識別するためのカウンタG、Hに「1」を代入し、mCn方式におけるmとnの組み合わせの候補数をカウントするカウンタZに「0」を代入する(ステップ202)。
First, the dot array generation unit 24 counts the total number of elements AD in the dot array and the number of elements ND storing, for example, “1” indicating that there is a dot in the dot array. Then, the ratio of dots in the entire image is calculated by calculating ND / AD. This ratio is substituted for Din as the dot density of the input image (step 201).
In addition, the dot array generation unit 24 substitutes “1” into the counters G and H for identifying each cell of the dot density table, and sets “ “0” is substituted (step 202).

次に、ドット配列生成部24は、ドット密度表のG行H列のセルを参照し、そのセル内にあるドット密度DTBL(G,H)をDregに代入する(ステップ203)。そして、ステップ201で求めたDinと、ステップ204で求めたDregとの差が所定の閾値TDより小さいかどうかを判定する(ステップ204)。
ここで、DinとDregとの差が閾値TDよりも小さい場合、このときのm(G)とHの組み合わせが求めるべきmとnの組み合わせの候補であると考えられる。そこで、まず、Zに「1」を加算する。また、mの候補を格納する変数ms(Z)にm(G)を代入し、nの候補を格納する変数ns(Z)にHを代入する。更に、mとnの組み合わせの候補の数を格納する変数ZmaxにZを代入する(ステップ205)。そして、処理をステップ206へ進める。
一方、DinとDregとの差が閾値TDよりも小さくない場合は、何も処理を行わずにステップ206へ進む。
Next, the dot array generation unit 24 refers to the cell in the G row and H column of the dot density table, and substitutes the dot density DTBL (G, H) in the cell for Dreg (step 203). Then, it is determined whether or not the difference between Din obtained in step 201 and Dreg obtained in step 204 is smaller than a predetermined threshold TD (step 204).
Here, when the difference between Din and Dreg is smaller than the threshold value TD, it is considered that the combination of m (G) and H at this time is a candidate for the combination of m and n to be obtained. Therefore, first, “1” is added to Z. Also, m (G) is substituted for variable ms (Z) for storing m candidates, and H is substituted for variable ns (Z) for storing n candidates. Further, Z is substituted into a variable Zmax that stores the number of combinations of m and n (step 205). Then, the process proceeds to step 206.
On the other hand, if the difference between Din and Dreg is not smaller than the threshold value TD, the process proceeds to step 206 without performing any processing.

その後、ドット配列生成部24は、H=m(G)−1であるかどうかを判定する(ステップ206)。mCn方式にはn<mという条件があるので、G行目、つまり、m(G)について走査している場合、H<m(G)を満たすセルにしかドット密度の値が格納されていないからである。
ここで、H=m(G)−1でない場合には、Hに「1」を加算して(ステップ207)、ステップ203〜205の処理をH=m(G)−1となるまで繰り返し行う。また、H=m(G)−1となると、次に、m(G)=mmax−1であるかどうかを判定する(ステップ208)。m(G)=mmax−1でない場合には、Hに「1」を代入し、Gに「1」を加算して(ステップ209)、ステップ203〜207の処理をm(G)=mmax−1となるまで繰り返し行う。また、m(G)=mmax−1となると、ドット密度表の全てのセルを参照したことになるので、それまでに記録した結果を出力する。即ち、mとnの組み合わせの候補の数Zmaxと、その候補の数だけのmとnの値ms(Z),ns(Z)(Z=1,2,…,Zmax)を出力する(ステップ210)。
Thereafter, the dot array generation unit 24 determines whether or not H = m (G) −1 (step 206). Since the mCn method has a condition of n <m, when scanning for the G-th row, that is, m (G), the dot density value is stored only in the cell satisfying H <m (G). Because.
If H = m (G) −1 is not satisfied, “1” is added to H (step 207), and the processing of steps 203 to 205 is repeated until H = m (G) −1. . When H = m (G) −1, it is next determined whether m (G) = mmax−1 (step 208). If m (G) = mmax−1 is not satisfied, “1” is substituted for H, “1” is added to G (step 209), and the processing of steps 203 to 207 is performed as m (G) = mmax−. Repeat until 1. When m (G) = mmax−1, all the cells in the dot density table are referred to, so the results recorded so far are output. That is, the number Zmax of candidates for the combination of m and n, and the values m (Z), ns (Z) (Z = 1, 2,..., Zmax) of m and n corresponding to the number of candidates are output (step 210).

次に、ブロック区切りを用いた判定方法について説明する。
このブロック区切りによる判定は、図12のブロック検出部25によるブロックの検出と共に行われる。
以下、このときのブロック検出部25の動作を具体的に説明する。
図15は、ブロック検出部25による符号化方式の判定動作を示したフローチャートである。尚、ここでは、単位符号パターンにおけるm個のドットが横mx個×縦my個配置されているものとする。
Next, a determination method using block breaks will be described.
The determination based on the block delimiter is performed together with the block detection by the block detection unit 25 in FIG.
Hereinafter, the operation of the block detection unit 25 at this time will be specifically described.
FIG. 15 is a flowchart showing an encoding method determination operation by the block detection unit 25. Here, it is assumed that m dots in the unit code pattern are arranged in mx horizontal x my vertical.

ブロック検出部25は、まず、ドット配列生成部24が生成したドット配列に、mx×myの大きさのブロック区切りを重ね合わせる(ステップ221)。そして、カウンタI、Jに「0」を代入し、変数MinVにHVを代入する(ステップ222)。
ここで、I、Jは、ブロック区切りの初期位置からの移動量をカウントするものである。画像の1ラインごとにブロック区切りを移動させ、そのとき移動させたライン数をカウンタI、Jでカウントする。尚、データ上に重ね合わせるブロック区切り位置は、任意の位置でよい。読み込み位置がずれても、識別情報は繰り返し複製されているので、補間することで識別情報が取得されるからである。また、ブロック区切りの中には、X位置情報とY位置情報を表すブロックが必ず含まれている。
また、MinVは、ブロック内で検出されるドット数のブロック間での分散の最小値を格納するものであり、HVは、分散に対して十分に大きな値を意味している。
The block detection unit 25 first superimposes a block delimiter having a size of mx × my on the dot array generated by the dot array generation unit 24 (step 221). Then, “0” is substituted for the counters I and J, and HV is substituted for the variable MinV (step 222).
Here, I and J count the amount of movement from the initial position of the block break. The block break is moved for each line of the image, and the number of lines moved at that time is counted by counters I and J. It should be noted that the block break position superimposed on the data may be an arbitrary position. This is because even if the reading position is shifted, the identification information is repeatedly duplicated, so that the identification information is acquired by interpolation. Further, the block delimiter always includes blocks representing the X position information and the Y position information.
MinV stores a minimum value of dispersion between blocks of the number of dots detected in the block, and HV means a sufficiently large value for dispersion.

次に、ブロック検出部25は、ブロック区切りをX方向にI、Y方向にJ移動させる(ステップ223)。初期状態においてI、Jは「0」であるので、ブロック区切りは移動しない。そして、ブロック区切りの各ブロックに含まれるドット数をカウントして、全ブロック間でのドット数の分散をVar(I,J)に代入し、全ブロックにおけるドット数の平均をAve(I,J)に代入する(ステップ224)。
また、ブロック検出部25は、Var(I,J)とMinVとを比較する(ステップ225)。MinVの初期値はHVなので、最初の比較では、Var(I,J)はMinVよりも小さくなる。
ここで、Var(I,J)がMinVよりも小さい場合、MinVにVar(I,J)の値を代入する。また、ブロック区切りのX方向の変位を表す変数FXにIの値を代入し、ブロック区切りのY方向の変位を表す変数FYにJの値を代入する。更に、Ave(I,J)を四捨五入して整数にした値をnに代入する(ステップ226)。そして、ステップ227へ進む。
一方、Var(I,J)がMinVよりも小さくない場合、何も処理を行わずにステップ227へ進む。
Next, the block detection unit 25 moves the block delimiter by I in the X direction and J in the Y direction (step 223). Since I and J are “0” in the initial state, the block break does not move. Then, the number of dots included in each block of the block delimiter is counted, and the variance of the number of dots among all blocks is substituted into Var (I, J), and the average of the number of dots in all blocks is calculated as Ave (I, J (Step 224).
The block detection unit 25 compares Var (I, J) and MinV (step 225). Since the initial value of MinV is HV, Var (I, J) is smaller than MinV in the first comparison.
Here, when Var (I, J) is smaller than MinV, the value of Var (I, J) is substituted into MinV. Further, the value I is substituted into a variable FX representing the displacement in the X direction at the block break, and the value J is substituted into a variable FY representing the displacement in the Y direction at the block break. Further, a value obtained by rounding Ave (I, J) to an integer is substituted for n (step 226). Then, the process proceeds to Step 227.
On the other hand, if Var (I, J) is not smaller than MinV, the process proceeds to step 227 without performing any processing.

その後、ブロック検出部25は、I=mx−1であるかどうかを判定する(ステップ227)。
ここで、I=mx−1でない場合には、Iに「1」を加算する(ステップ228)。そして、ステップ223、224の処理を繰り返し行い、Var(I,J)とMinVとを比較していく(ステップ225)。Var(I,J)が前回までのVar(I,J)の最小値であるMinVよりも小さいと、MinVにVar(I,J)を代入し、そのときのIの値をFX、Jの値をFYとし、Ave(I,J)を四捨五入した整数値をnとする(ステップ226)。また、Var(I,J)がMinVよりも小さくない場合には、I=mx−1であるかどうかを判定する(ステップ227)。
Thereafter, the block detection unit 25 determines whether I = mx−1 (step 227).
If I = mx−1 is not satisfied, “1” is added to I (step 228). Then, the processes in steps 223 and 224 are repeated to compare Var (I, J) and MinV (step 225). If Var (I, J) is smaller than MinV which is the minimum value of Var (I, J) until the previous time, Var (I, J) is substituted into MinV, and the value of I at that time is set to FX, J The value is FY, and the integer value obtained by rounding Ave (I, J) is n (step 226). If Var (I, J) is not smaller than MinV, it is determined whether I = mx−1 (step 227).

一方、I=mx−1となると、次にJ=my−1であるかどうかを判定する(ステップ229)。J=my−1でない場合には、Iに「0」を代入し、Jに「1」を加算する(ステップ230)。このような手順を繰り返し行い、(I,J)が(0,0)から(mx−1,my−1)までで、Var(I,J)が最小のものを検出する。   On the other hand, when I = mx−1, it is next determined whether J = my−1 (step 229). If J is not my-1, “0” is substituted for I, and “1” is added to J (step 230). Such a procedure is repeated, and (I, J) is detected from (0, 0) to (mx-1, my-1) and Var (I, J) is minimum.

I=mx−1、J=my−1までの処理が終了すると、ブロック検出部25は、保存しているMinVと閾値TVとを比較する(ステップ231)。閾値TVは、各ブロック内のドット数の全ブロック間での分散が大きくなり過ぎるのを阻止するための閾値である。
ここで、MinVが閾値TVよりも小さい場合、ブロック区切りをFX、FYの位置に固定し、その位置で各ブロックの単位符号パターンを検出して、対応するパターン値に変換する。パターン値は、各ブロックを識別する変数X、Yと共にP(X,Y)としてメモリに記憶される。尚、検出した単位符号パターンを対応するパターン値に変換できない場合は、パターン値の代わりに「−1」を格納する(ステップ232)。
一方、MinVが閾値TVよりも小さくない場合は、画像のノイズが大きく復号は不可能と判定し、復号不能を出力する(ステップ233)。
When the processing up to I = mx−1 and J = my−1 is completed, the block detection unit 25 compares the stored MinV with the threshold TV (step 231). The threshold value TV is a threshold value for preventing the dispersion of the number of dots in each block from becoming too large among all the blocks.
Here, when MinV is smaller than the threshold TV, the block break is fixed at the positions of FX and FY, the unit code pattern of each block is detected at that position, and converted to the corresponding pattern value. The pattern value is stored in the memory as P (X, Y) together with variables X and Y for identifying each block. If the detected unit code pattern cannot be converted into the corresponding pattern value, “−1” is stored instead of the pattern value (step 232).
On the other hand, if MinV is not smaller than the threshold TV, it is determined that decoding is impossible due to large noise in the image, and decoding is impossible (step 233).

次いで、本実施の形態における符号化方式の判定について、具体例を用いて説明する。
図16は、m及びnの値が分かっている場合の例である。本実施の形態では、m及びnの少なくとも一方の値が分かっていないことが前提であるが、図14の処理により一定以上の確度でmとnの組み合わせが1つに定まった場合には、このような処理を行うことがある。ここでは、m=9、n=2であることが分かっているものとする。
Next, determination of the encoding method in the present embodiment will be described using a specific example.
FIG. 16 is an example when the values of m and n are known. In the present embodiment, it is assumed that at least one value of m and n is not known, but when the combination of m and n is determined to be one with a certain degree of accuracy by the processing of FIG. Such processing may be performed. Here, it is assumed that m = 9 and n = 2.

この場合、まず、ブロック検出部25は、ドット配列生成部24からドット配列を取得する。ここで取得するドット配列のサイズは予め設定されているが、画像の任意に選択された領域に対応しているので、ブロック区切りの位置は分からない。そこで、初めに、ドット配列の端を基準にブロック分割を行う。この例では、m=9なので、3ドット×3ドットの大きさのブロック区切りを重ねる。次に、各ブロック内のドットを数える。この例では、n=2なので、各ブロック内に2ドットずつ存在する場合のブロック区切りの位置が正しい区切り位置であるが、この位置ではドット数がばらついており、正しくないことが分かる。そこで、ブロック区切りをずらしてブロック内のドット数を数える。即ち、右方向への開始位置、1ドット分移動した位置、2ドット分移動した位置について同様の動作を行う。また、これらの位置のそれぞれに対し、下方向への開始位置、1ドット移動した位置、2ドット移動した位置についても同様の動作を行う。その結果、右方向に1ドット移動し、下方向に2ドット移動した位置において、全てのブロック内のドット数が「2」となり、ドット数の分散が「0」となる。従って、この位置を正しい区切り位置とする。   In this case, first, the block detection unit 25 acquires the dot arrangement from the dot arrangement generation unit 24. The size of the dot array acquired here is set in advance, but since it corresponds to an arbitrarily selected region of the image, the position of the block break is unknown. Therefore, first, block division is performed with reference to the end of the dot array. In this example, since m = 9, block delimiters having a size of 3 dots × 3 dots are overlapped. Next, the dots in each block are counted. In this example, since n = 2, the position of the block delimiter when there are two dots in each block is the correct delimiter position, but it can be seen that the number of dots varies at this position and is not correct. Therefore, the number of dots in the block is counted by shifting the block delimiter. That is, the same operation is performed for the start position in the right direction, the position moved by one dot, and the position moved by two dots. In addition, the same operation is performed for each of these positions with respect to the start position in the downward direction, the position moved by 1 dot, and the position moved by 2 dots. As a result, the number of dots in all the blocks is “2” and the variance of the number of dots is “0” at a position where the dot has moved 1 dot to the right and 2 dots have been moved downward. Therefore, this position is set as a correct separation position.

尚、このように、図14の処理でmとnの組み合わせが一定の確度で1つに定まったような場合には、図15のステップ224で、ブロック内のドット数がnであるブロックの数を変数IB(I,J)に代入し、ステップ225〜230で、IB(I,J)の最大値をMaxBNに代入し、ステップ231で、MaxBNが閾値TBよりも大きいかどうかを判定するようにしてもよい。   In this way, when the combination of m and n is determined to be one with a certain accuracy in the process of FIG. 14, in step 224 of FIG. 15, the number of dots in the block is n. The number is substituted into the variable IB (I, J), the maximum value of IB (I, J) is substituted into MaxBN in steps 225 to 230, and it is determined in step 231 whether MaxBN is larger than the threshold value TB. You may do it.

図17は、mの値は分かっているがnの値は分かっていない場合の例である。ここでは、m=9であることが分かっているものとする。そのため、正方形のブロック区切りを用いている。即ち、mx=3、my=3として図15の処理を行い、ブロック内のドット数のブロック間での分散が最小になるブロック区切りを探している。その結果、右方向に1ドット移動し、下方向に2ドット移動した位置において、全てのブロック内のドット数が「3」となり、ドット数の分散が「0」となる。従って、この位置を正しい区切り位置とする。   FIG. 17 shows an example in which the value of m is known but the value of n is unknown. Here, it is assumed that m = 9. Therefore, square block breaks are used. That is, the process shown in FIG. 15 is performed with mx = 3 and my = 3, and a block delimiter that minimizes the dispersion of the number of dots in the block between the blocks is searched. As a result, the number of dots in all the blocks is “3” and the variance of the number of dots is “0” at a position where the dot has moved 1 dot to the right and 2 dots have been moved downward. Therefore, this position is set as a correct separation position.

ところが、m及びnのいずれの値も共に不明な場合も考えられる。
この場合は、まず、図14の処理を行う。即ち、入力されたドット配列の全体の要素数と、実際に配置されているドット数の比を計算する。そして、この比に近いドット密度に対応するmとnの組み合わせを、図13のドット密度表から特定する。
このとき、mとnの組み合わせが異なっても、ドット密度が近い値になることがある。
一例として、9C2方式を用いた場合のドット密度と、12C3方式を用いた場合のドット密度とは近い値であり、閾値によっては、これらの符号化方式が求める符号化方式の候補となることが考えられる。
However, there is a case where both values of m and n are unknown.
In this case, first, the process of FIG. 14 is performed. That is, the ratio between the total number of elements of the input dot array and the number of dots actually arranged is calculated. And the combination of m and n corresponding to the dot density close | similar to this ratio is specified from the dot density table | surface of FIG.
At this time, even if the combination of m and n is different, the dot density may be close.
As an example, the dot density when the 9C2 method is used and the dot density when the 12C3 method is used are close to each other, and depending on the threshold value, the encoding method obtained by these encoding methods may be a candidate. Conceivable.

例えば、9C2方式で符号化したとする。
この場合、図16に示したように、mx=3、my=3として図15の処理を行うことにより、正しいブロック区切りが見つかる。
しかしながら、例えば、mx=4、my=3として図15の処理を行うと、正しいブロック区切りが得られない。図18に、このときの状態を示している。
For example, it is assumed that encoding is performed by the 9C2 system.
In this case, as shown in FIG. 16, the correct block delimiter is found by performing the process of FIG. 15 with mx = 3 and my = 3.
However, for example, if the process of FIG. 15 is performed with mx = 4 and my = 3, a correct block delimiter cannot be obtained. FIG. 18 shows a state at this time.

また、9C3方式を用いた場合のドット密度と、12C4方式を用いた場合のドット密度とは同じ値であり、実際のドット密度がこのいずれであるかをこの処理で特定することはできない。
例えば、9C3方式で符号化したとする。
この場合、図17に示したように、mx=3、my=3として図15の処理を行うことにより、正しいブロック区切りが見つかる。
しかしながら、例えば、mx=4、my=3として図15の処理を行うと、正しいブロック区切りが得られない。図19に、このときの状態を示している。
Further, the dot density when the 9C3 method is used and the dot density when the 12C4 method is used are the same value, and it cannot be specified by this processing which is the actual dot density.
For example, it is assumed that encoding is performed by the 9C3 system.
In this case, as shown in FIG. 17, the correct block delimiter is found by performing the processing of FIG. 15 with mx = 3 and my = 3.
However, for example, if the process of FIG. 15 is performed with mx = 4 and my = 3, a correct block delimiter cannot be obtained. FIG. 19 shows the state at this time.

一方、12C4方式で符号化したとする。
図20では、mx=4、my=3として図15の処理を行い、ブロック内のドット数のブロック間での分散が最小になるブロック区切りを探している。その結果、右方向に1ドット移動し、下方向に2ドット移動した位置において、全てのブロック内のドット数が「4」となり、ドット数の分散が「0」となる。従って、この位置を正しい区切り位置とする。
On the other hand, it is assumed that encoding is performed using the 12C4 method.
In FIG. 20, the process of FIG. 15 is performed with mx = 4 and my = 3, and the block delimiter that minimizes the dispersion of the number of dots in the block between the blocks is searched. As a result, the number of dots in all the blocks is “4” and the variance of the number of dots is “0” at a position where the dot has moved 1 dot to the right and 2 dots have moved downward. Therefore, this position is set as a correct separation position.

図21は、入力された画像の向きが90度回転している場合の例である。図の例では、入力された画像におけるブロックが縦4ドット×横3ドットである場合に、mx=4、my=3として図15の処理を行い、ブロック内のドット数のブロック間での分散が最小になるブロック区切りを探している。ところが、この場合に、全てのブロック内のドット数が同じになることはない。そこで、ドット配列を90度回転して検出処理を行うことになる。   FIG. 21 is an example when the orientation of the input image is rotated by 90 degrees. In the example shown in the figure, when the block in the input image is 4 dots long × 3 dots wide, the process of FIG. 15 is performed with mx = 4 and my = 3, and the number of dots in the block is distributed among the blocks. Looking for a block break that minimizes. However, in this case, the number of dots in all blocks is not the same. Therefore, the detection process is performed by rotating the dot array by 90 degrees.

図22では、mx=3、my=3として図15の処理を行い、ブロック内のドット数のブロック間での分散が最小になるブロック区切りを探している。ところが、この場合、全てのブロック内のドット数が同じになることはない。   In FIG. 22, the process of FIG. 15 is performed with mx = 3 and my = 3, and a block delimiter that minimizes the dispersion of the number of dots in the block between the blocks is searched. However, in this case, the number of dots in all blocks is not the same.

次に、このような画像処理装置20を適用可能な電子ペン60について説明する。
図23は、電子ペン60の機構を示した図である。
図示するように、電子ペン60は、ペン全体の動作を制御する制御回路61を備える。また、制御回路61は、入力画像から検出した符号画像を処理する画像処理部61aと、そこでの処理結果から識別情報及び位置情報を抽出するデータ処理部61bとを含む。
そして、制御回路61には、電子ペン60による筆記動作をペンチップ69に加わる圧力によって検出する圧力センサ62が接続されている。また、媒体上に赤外光を照射する赤外LED63と、画像を入力する赤外CMOS64も接続されている。更に、識別情報及び位置情報を記憶するための情報メモリ65と、外部装置と通信するための通信回路66と、ペンを駆動するためのバッテリ67と、ペンの識別情報(ペンID)を記憶するペンIDメモリ68も接続されている。
Next, an electronic pen 60 to which such an image processing apparatus 20 can be applied will be described.
FIG. 23 is a diagram illustrating the mechanism of the electronic pen 60.
As illustrated, the electronic pen 60 includes a control circuit 61 that controls the operation of the entire pen. In addition, the control circuit 61 includes an image processing unit 61a that processes a code image detected from an input image, and a data processing unit 61b that extracts identification information and position information from the processing result.
The control circuit 61 is connected to a pressure sensor 62 that detects a writing operation by the electronic pen 60 by a pressure applied to the pen tip 69. Further, an infrared LED 63 that irradiates infrared light onto the medium and an infrared CMOS 64 that inputs an image are also connected. Further, an information memory 65 for storing identification information and position information, a communication circuit 66 for communicating with an external device, a battery 67 for driving the pen, and pen identification information (pen ID) are stored. A pen ID memory 68 is also connected.

尚、図12に示した画像読取部21は、例えば、図23の赤外CMOS64にて実現される。また、図12に示したノイズ除去部22、ドット画像検出部23、ドット配列生成部24は、例えば、図23の画像処理部61aにて実現される。更に、図12に示したブロック検出部25、同期符号検出部26、識別情報取得部27、位置情報取得部28は、例えば、図23のデータ処理部61bにて実現される。   The image reading unit 21 shown in FIG. 12 is realized by, for example, the infrared CMOS 64 shown in FIG. Further, the noise removal unit 22, the dot image detection unit 23, and the dot array generation unit 24 illustrated in FIG. 12 are realized by, for example, the image processing unit 61a in FIG. Furthermore, the block detection unit 25, the synchronization code detection unit 26, the identification information acquisition unit 27, and the position information acquisition unit 28 illustrated in FIG. 12 are realized by, for example, the data processing unit 61b of FIG.

また、画像生成装置10は、例えば、サーバコンピュータ、クライアントコンピュータ、プリンタ等の画像形成装置のコンピュータ部分で実現される。一方、画像処理装置20は、電子ペン60だけでなく、例えば、スキャナ等の画像読取装置のコンピュータ部分でも実現される。そこで、画像生成装置10及び画像処理装置20を一般的なコンピュータ90で実現するものとし、コンピュータ90のハードウェア構成について説明する。
図24は、コンピュータ90のハードウェア構成を示した図である。
図示するように、コンピュータ90は、演算手段であるCPU(Central Processing Unit)91と、記憶手段であるメインメモリ92及び磁気ディスク装置(HDD:Hard Disk Drive)93とを備える。ここで、CPU91は、OS(Operating System)やアプリケーション等の各種ソフトウェアを実行し、上述した各機能を実現する。また、メインメモリ92は、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、磁気ディスク装置93は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域である。
更に、コンピュータ90は、外部との通信を行うための通信I/F94と、ビデオメモリやディスプレイ等からなる表示機構95と、キーボードやマウス等の入力デバイス96とを備える。
The image generating apparatus 10 is realized by a computer portion of an image forming apparatus such as a server computer, a client computer, or a printer. On the other hand, the image processing apparatus 20 is realized not only by the electronic pen 60 but also by a computer portion of an image reading apparatus such as a scanner. Therefore, assuming that the image generation apparatus 10 and the image processing apparatus 20 are realized by a general computer 90, the hardware configuration of the computer 90 will be described.
FIG. 24 is a diagram illustrating a hardware configuration of the computer 90.
As shown in the figure, the computer 90 includes a CPU (Central Processing Unit) 91 that is a calculation means, a main memory 92 that is a storage means, and a magnetic disk device (HDD: Hard Disk Drive) 93. Here, the CPU 91 executes various software such as an OS (Operating System) and an application, and realizes each function described above. The main memory 92 is a storage area for storing various software and data used for execution thereof, and the magnetic disk device 93 is a storage area for storing input data for various software, output data from various software, and the like. .
Further, the computer 90 includes a communication I / F 94 for performing communication with the outside, a display mechanism 95 including a video memory and a display, and an input device 96 such as a keyboard and a mouse.

尚、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。   The program for realizing the present embodiment can be provided not only by communication means but also by storing it in a recording medium such as a CD-ROM.

9Cn方式における単位符号パターンの例を示した図である。It is the figure which showed the example of the unit code pattern in 9Cn system. 4Cn方式における単位符号パターンの例を示した図である。It is the figure which showed the example of the unit code pattern in 4Cn system. 16Cn方式における単位符号パターンの例を示した図である。It is the figure which showed the example of the unit code pattern in a 16Cn system. 9Cn方式における単位符号パターンの他の例を示した図である。It is the figure which showed the other example of the unit code pattern in 9Cn system. 9Cn方式における単位符号パターンの他の例を示した図である。It is the figure which showed the other example of the unit code pattern in 9Cn system. 16Cn方式における単位符号パターンの他の例を示した図である。It is the figure which showed the other example of the unit code pattern in a 16Cn system. 9Cn方式における単位符号パターンの例を示した図である。It is the figure which showed the example of the unit code pattern in 9Cn system. 12Cn方式における単位符号パターンの例を示した図である。It is the figure which showed the example of the unit code pattern in 12Cn system. 12Cn方式における単位符号パターンの例を示した図である。It is the figure which showed the example of the unit code pattern in 12Cn system. 6Cn方式における単位符号パターンの他の例を示した図である。It is the figure which showed the other example of the unit code pattern in 6Cn system. 12Cn方式における単位符号パターンの他の例を示した図である。It is the figure which showed the other example of the unit code pattern in 12Cn system. 12Cn方式における単位符号パターンの他の例を示した図である。It is the figure which showed the other example of the unit code pattern in 12Cn system. 同期パターンの例を示した図である。It is the figure which showed the example of the synchronous pattern. 符号ブロックのレイアウトの例を示した図である。It is the figure which showed the example of the layout of a code block. 本実施の形態の画像生成装置の機能ブロック図である。It is a functional block diagram of the image generation apparatus of this Embodiment. 本実施の形態の画像処理装置の機能ブロック図である。It is a functional block diagram of the image processing apparatus of this Embodiment. 本実施の形態で参照するドット密度表を示した図である。It is the figure which showed the dot density table referred in this Embodiment. ドット密度による符号化方式の判定動作を示したフローチャートである。It is the flowchart which showed the determination operation | movement of the encoding system by dot density. ブロック区切りを用いた符号化方式の判定動作を示したフローチャートである。It is the flowchart which showed the determination operation | movement of the encoding system using a block delimiter. 9C2符号を9C2方式で復号する際のブロック区切りを示した図である。It is the figure which showed the block delimiter at the time of decoding 9C2 code | symbol by 9C2 system. 9C3符号を9Cn方式で復号する際のブロック区切りを示した図である。It is the figure which showed the block delimiter at the time of decoding 9C3 code | symbol by 9Cn system. 9C2符号を12Cn方式で復号する際のブロック区切りを示した図である。It is the figure which showed the block delimiter at the time of decoding 9C2 code | symbol by 12Cn system. 9C3符号を12Cn方式で復号する際のブロック区切りを示した図である。It is the figure which showed the block delimiter at the time of decoding 9C3 code | symbol by 12Cn system. 12C4符号を12Cn方式で復号する際のブロック区切りを示した図である。It is the figure which showed the block delimiter at the time of decoding a 12C4 code | symbol by 12Cn system. 12C4符号を12Cn方式で復号する際のブロック区切りを示した図である。It is the figure which showed the block delimiter at the time of decoding a 12C4 code | symbol by 12Cn system. 12C4符号を9Cn方式で復号する際のブロック区切りを示した図である。It is the figure which showed the block delimiter at the time of decoding a 12C4 code | symbol by 9Cn system. 本実施の形態を適用可能な電子ペンの機構を示した図である。It is the figure which showed the mechanism of the electronic pen which can apply this Embodiment. 本実施の形態を適用可能なコンピュータのハードウェア構成図である。It is a hardware block diagram of the computer which can apply this Embodiment.

符号の説明Explanation of symbols

10…画像生成装置、11…識別符号生成部、12…位置符号生成部、14…ブロック合成部、15…パターン画像記憶部、16…重畳画像生成部、20…画像処理装置、21…画像読取部、22…ノイズ除去部、23…ドット画像検出部、24…ドット配列生成部、25…ブロック検出部、26…同期符号検出部、27…識別情報取得部、28…位置情報取得部 DESCRIPTION OF SYMBOLS 10 ... Image generation apparatus, 11 ... Identification code generation part, 12 ... Position code generation part, 14 ... Block composition part, 15 ... Pattern image storage part, 16 ... Superimposed image generation part, 20 ... Image processing apparatus, 21 ... Image reading , 22 ... Noise removal unit, 23 ... Dot image detection unit, 24 ... Dot array generation unit, 25 ... Block detection unit, 26 ... Synchronization code detection unit, 27 ... Identification information acquisition unit, 28 ... Position information acquisition unit

Claims (10)

記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得する画像取得手段と、
前記画像取得手段により取得された前記単位画像の前記複数の領域における密度を算出する算出手段と、
前記算出手段により算出された前記密度に基づいて、前記m及び前記nの値を決定する決定手段と、
前記決定手段により決定された値を用いて前記情報を取得する情報取得手段と
を備えたことを特徴とする画像処理装置。
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). Image acquisition means for acquiring;
Calculation means for calculating the density in the plurality of regions of the unit image acquired by the image acquisition means;
Determining means for determining the values of m and n based on the density calculated by the calculating means;
An image processing apparatus comprising: an information acquisition unit that acquires the information using a value determined by the determination unit.
前記決定手段は、m箇所から選択したn箇所に単位画像を形成した場合の当該単位画像の密度を当該m及び当該nの値に関連付けた密度情報を参照して、当該m及び当該nの値を決定することを特徴とする請求項1記載の画像処理装置。 The determining means refers to density information relating the density of the unit image when the unit image is formed at n locations selected from m locations to the value of m and the value of n . The image processing apparatus according to claim 1, wherein: 前記決定手段は、前記mの値が1つに定まらなかった場合に、前記複数の領域を区切る複数の枠であって、各枠内の前記単位画像の個数が前記nの値に関する所定の条件を満たすものを検出し、当該複数の枠における各枠の大きさに基づいて当該mの値を決定することを特徴とする請求項1記載の画像処理装置。   The determination means is a plurality of frames that divide the plurality of regions when the value of m is not determined to be one, and the number of unit images in each frame is a predetermined condition relating to the value of n The image processing apparatus according to claim 1, wherein an image processing device that satisfies the following condition is detected, and the value of the m is determined based on the size of each frame in the plurality of frames. 前記決定手段は、前記nの値が1つに定まらなかった場合に、前記複数の領域を区切る複数の枠であって、各枠が前記mの値に応じた大きさを有し、かつ、各枠内の前記単位画像の個数のばらつきが所定の条件を満たすものを検出し、当該複数の枠における各枠内の当該単位画像の個数の平均値に基づいて当該nの値を決定することを特徴とする請求項1記載の画像処理装置。   The determining means is a plurality of frames that divide the plurality of regions when the value of n is not fixed to one, each frame having a size corresponding to the value of m, and Detecting a variation in the number of unit images in each frame that satisfies a predetermined condition, and determining the value of n based on an average value of the number of unit images in each frame in the plurality of frames. The image processing apparatus according to claim 1. 前記単位画像は、赤外領域に吸収波長を持つ不可視の画像形成材料を用いて形成され、
前記画像取得手段は、前記記録媒体に赤外光を照射することにより前記単位画像を取得することを特徴とする請求項1記載の画像処理装置。
The unit image is formed using an invisible image forming material having an absorption wavelength in the infrared region,
The image processing apparatus according to claim 1, wherein the image acquisition unit acquires the unit image by irradiating the recording medium with infrared light.
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得する画像取得手段と、
前記nの値を取得する値取得手段と、
前記複数の領域を区切る複数の枠であって、各枠内の前記単位画像の個数が前記nの値に関する所定の条件を満たすものを検出する検出手段と、
前記検出手段により検出された前記複数の枠における各枠の大きさに基づいて前記mの値を決定する決定手段と、
前記決定手段により決定された前記mの値と、前記値取得手段により取得された前記nの値とを用いて、前記情報を取得する情報取得手段と
を備えたことを特徴とする画像処理装置。
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). Image acquisition means for acquiring;
Value acquisition means for acquiring the value of n;
Detecting means for detecting a plurality of frames that divide the plurality of regions, wherein the number of unit images in each frame satisfies a predetermined condition relating to the value of n;
Determining means for determining the value of m based on the size of each of the plurality of frames detected by the detecting means;
An image processing apparatus comprising: an information acquisition unit that acquires the information using the value of m determined by the determination unit and the value of n acquired by the value acquisition unit. .
前記決定手段は、前記複数の枠における各枠の形状に基づいて前記m箇所の配置を更に決定し、
前記情報取得手段は、前記決定手段により決定された前記m箇所の配置を更に用いて前記情報を取得することを特徴とする請求項6記載の画像処理装置。
The determining means further determines the arrangement of the m locations based on the shape of each frame in the plurality of frames,
The image processing apparatus according to claim 6, wherein the information acquisition unit acquires the information by further using the arrangement of the m locations determined by the determination unit.
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得
する画像取得手段と、
前記mの値を取得する値取得手段と、
前記複数の領域を区切る複数の枠であって、各枠が前記mの値に応じた大きさを有し、かつ、各枠内の前記単位画像の個数のばらつきが所定の条件を満たすものを検出する検出手段と、
前記検出手段により検出された前記複数の枠における各枠内の前記単位画像の個数の平均値に基づいて前記nの値を決定する決定手段と、
前記値取得手段により取得された前記mの値と、前記決定手段により決定された前記nの値とを用いて、前記情報を取得する情報取得手段と
を備えたことを特徴とする画像処理装置。
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). Image acquisition means for acquiring;
Value acquisition means for acquiring the value of m;
A plurality of frames that divide the plurality of regions, each frame having a size corresponding to the value of m, and variation in the number of unit images in each frame satisfying a predetermined condition Detecting means for detecting;
Determining means for determining the value of n based on an average value of the number of unit images in each of the plurality of frames detected by the detecting means;
An image processing apparatus comprising: an information acquisition unit that acquires the information using the value of m acquired by the value acquisition unit and the value of n determined by the determination unit. .
コンピュータに、
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得する機能と、
取得された前記単位画像の前記複数の領域における密度を算出する機能と、
算出された前記密度に基づいて、前記m及び前記nの値を決定する機能と、
決定された値を用いて前記情報を取得する機能と
を実現させるためのプログラム。
On the computer,
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). The ability to get and
A function of calculating the density in the plurality of regions of the acquired unit image;
A function of determining the values of m and n based on the calculated density;
A program for realizing a function of acquiring the information using a determined value.
コンピュータに、
記録媒体上の複数の領域の各々においてm(m≧3)箇所から選択したn(1≦n<m)箇所に単位画像を形成することで情報が埋め込まれた当該記録媒体から当該単位画像を取得する機能と、
前記複数の領域を区切る複数の枠であって、各枠内の前記単位画像の個数が所定の条件を満たすものを検出する機能と、
検出された前記複数の枠における各枠の大きさ又は各枠内の前記単位画像の個数の平均値に基づいて、前記m及び前記nの少なくとも一方の値を決定する機能と、
決定された値を用いて前記情報を取得する機能と
を実現させるためのプログラム。
On the computer,
In each of the plurality of regions on the recording medium, the unit image is formed from the recording medium in which information is embedded by forming unit images at n (1 ≦ n <m) selected from m (m ≧ 3). The ability to get and
A function of detecting a plurality of frames that divide the plurality of regions, wherein the number of unit images in each frame satisfies a predetermined condition;
A function of determining at least one value of the m and the n based on the size of each of the detected plurality of frames or the average value of the number of the unit images in each frame;
A program for realizing a function of acquiring the information using a determined value.
JP2006293210A 2006-10-27 2006-10-27 Image processing apparatus and program Active JP5028955B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006293210A JP5028955B2 (en) 2006-10-27 2006-10-27 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006293210A JP5028955B2 (en) 2006-10-27 2006-10-27 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2008112218A JP2008112218A (en) 2008-05-15
JP5028955B2 true JP5028955B2 (en) 2012-09-19

Family

ID=39444720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006293210A Active JP5028955B2 (en) 2006-10-27 2006-10-27 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP5028955B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5696602A (en) * 1995-08-31 1997-12-09 Lexmark International, Inc. Method for halftoning using stochastic dithering with minimum density variance
JP4254441B2 (en) * 2003-09-16 2009-04-15 カシオ計算機株式会社 Planar recording medium and coordinate reading method

Also Published As

Publication number Publication date
JP2008112218A (en) 2008-05-15

Similar Documents

Publication Publication Date Title
JP4898771B2 (en) Bar code removing apparatus and method for removing the same
JP4207049B2 (en) Printed matter with identification function, image generation apparatus, image processing apparatus and method thereof
JP5971098B2 (en) Information processing apparatus and information processing program
JP2007179111A (en) Code pattern, printed matter, image forming device, image processor, image forming method, and information specifying method
JP2008113258A (en) Image generating device, image processing apparatus, and program
JP4967823B2 (en) Position detection apparatus and program
JP5609469B2 (en) Image processing apparatus, identification apparatus, electronic writing instrument, and program
JP4985436B2 (en) Position detection apparatus and program
JP5028955B2 (en) Image processing apparatus and program
US8657205B2 (en) Image processing apparatus, identification apparatus, method for determining bit sequence and computer readable medium
JP4973316B2 (en) Image processing apparatus and program
JP4915211B2 (en) Image generating apparatus, print medium, and program
JP2008113251A (en) Image generating device, image processing apparatus, and program
JP4973317B2 (en) Image processing apparatus and program
JP5098441B2 (en) Image processing apparatus and program
JP5115213B2 (en) Image generating apparatus, image processing apparatus, program, and print medium
JP5125547B2 (en) Image generating apparatus, image processing apparatus, program, and print medium
JP5125548B2 (en) Image processing apparatus and program
JP7109398B2 (en) Image display medium, image processing device, image processing method, and program
JP2009181341A (en) Position detection device and program
JP2008301120A (en) Image processor, image generating apparatus and program
JP2008112314A (en) Image generation device and program
JP2008109578A (en) Image generating device, information reader, and recording medium
JP2009176251A (en) Image processing device and program
JP2008301128A (en) Image processor, image-generating apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120529

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120611

R150 Certificate of patent or registration of utility model

Ref document number: 5028955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150706

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350