JPH05314298A - Data reader - Google Patents

Data reader

Info

Publication number
JPH05314298A
JPH05314298A JP4328970A JP32897092A JPH05314298A JP H05314298 A JPH05314298 A JP H05314298A JP 4328970 A JP4328970 A JP 4328970A JP 32897092 A JP32897092 A JP 32897092A JP H05314298 A JPH05314298 A JP H05314298A
Authority
JP
Japan
Prior art keywords
mesh
image
line
data
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4328970A
Other languages
Japanese (ja)
Other versions
JP2726969B2 (en
Inventor
Norio Iizuka
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP4328970A priority Critical patent/JP2726969B2/en
Publication of JPH05314298A publication Critical patent/JPH05314298A/en
Application granted granted Critical
Publication of JP2726969B2 publication Critical patent/JP2726969B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To surely reproduce data in the case of short-time processing to the image data of mesh-shaped patterns by simultaneously deciding the positions of pixel data expressing respective meshes based on geometrical regularity. CONSTITUTION:A line type image sensor 11 is moved at fixed speed in a sub scanning direction on a recording medium where images having the mesh-shaped patterns are recorded. The image data of images obtained by the image sensor 11 do not practically damage the distance accuracy of source images but keeps the geometrical regularity. A CPU 15 detects a data start mark out of the image data impressed from the image sensor 11 and calculates the central positions of the respective meshes in the image data of following mesh-shaped patterns from the detected position while utilizing the regularity of the image data. Then, the CPU 15 identifies the brightness/darkness of the respective meshes by sampling image bits at the calculated central positions of the respective meshes from a series of following main scanning line image data.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の技術分野】この発明は紙等の記録媒体に記録さ
れた符号化画像を取り込んで符号化されているデータを
再生するデータ読取装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data reading device which takes in an encoded image recorded on a recording medium such as paper and reproduces encoded data.

【0002】[0002]

【背景】代表的は画像符号化技術としてバーコード技術
が知られている。しかし、バーコードの場合、その構造
上、記録密度を高くとれないという問題がある。そこ
で、本件出願人は縦横に並んだ網目に形成した明暗によ
って情報の単位(ビット)を表現した網状パターンを符
号化画像とする新しい画像符号化技術を提案した(特願
昭63−328028)。
Background Bar code technology is known as a typical image coding technology. However, the bar code has a problem that the recording density cannot be increased due to its structure. Therefore, the applicant of the present invention has proposed a new image coding technique in which a mesh pattern expressing information units (bits) by the light and shade formed in a mesh arranged vertically and horizontally is used as a coded image (Japanese Patent Application No. 63-328028).

【0003】これによると、記録媒体上の2次元的表面
が網状パターンの網目によって埋め尽くされるので、記
録密度を可及的に向上させることができる。問題はデー
タの再生において、取り込んだ符号化画像を2次元的に
探索して各網目の明暗を識別しなければならない点であ
る。
According to this, since the two-dimensional surface on the recording medium is filled with the mesh of the mesh pattern, the recording density can be improved as much as possible. The problem is that in reproducing data, the captured encoded image must be two-dimensionally searched to identify the lightness and darkness of each mesh.

【0004】この目的のため、本件出願人は符号化画像
が歪んで取り込まれる使用環境において、網状パターン
の全走査長をカバーするサンプリング基準マークを網状
パターンに付加し、データ読取装置の方で、取り込んだ
イメージデータの局所的な領域において近似的に成り立
つ距離の線形性ないし一様性を活用して、サンプリング
基準マークの各々の位置を追跡して検出し、その局所的
な位置情報から局所的な範囲内にある網目の位置を求
め、そこにあるイメージビットをサンプリングすること
によって、網状パターンの各網目の明暗を解読するデー
タ再生技術を開発した。このデータ再生技術は実用に耐
えるデータ再生能力をもっているが、実質上、すべての
イメージデータにアクセスする必要があり、データ処理
量が多く、処理に時間がかかる問題がある。
For this purpose, the applicant of the present invention adds a sampling reference mark which covers the entire scanning length of the mesh pattern to the mesh pattern in a use environment in which the encoded image is distorted and captured, and the data reading device By utilizing the linearity or uniformity of the distance that is approximately established in the local area of the captured image data, the position of each sampling reference mark is tracked and detected, and the local position information is used to detect the local position. We have developed a data reproduction technology that decodes the light and darkness of each mesh of a mesh pattern by finding the position of the mesh within a certain range and sampling the image bits there. Although this data reproducing technique has a data reproducing ability that can be practically used, there is a problem in that virtually all image data needs to be accessed, the amount of data processing is large, and the processing takes time.

【0005】[0005]

【発明の目的】したがって、この発明の目的は網状パタ
ーンのイメージデータに対する比較的短時間の処理で確
実なデータ再生が可能なデータ読取装置を提供すること
である。
SUMMARY OF THE INVENTION It is, therefore, an object of the present invention to provide a data reading device capable of surely reproducing data of image data of a mesh pattern in a relatively short time.

【0006】[0006]

【発明の構成、作用】上記の目的を達成するため、この
発明によるデータ読取装置は、各網目に選択的に形成さ
れた明暗によってデータを符号化した網状パターンの画
像が記録された記録媒体から、距離精度を実質上損うこ
となく上記画像を表わすイメージデータを読み取るイメ
ージセンサー手段と、上記イメージデータのもつ全体的
な幾可学的規則性に基づいて上記イメージデータにおけ
る各網目を表わす画素データの位置を一括的に決定する
網目位置決定手段と、決定された各位置にある画素デー
タに基づいて上記各網目の明暗を識別する網目明暗識別
手段とを有することを特徴とする。
In order to achieve the above object, the data reading apparatus according to the present invention comprises a recording medium on which an image of a mesh pattern in which data is encoded by the light and dark selectively formed in each mesh is recorded. Image sensor means for reading the image data representing the image without substantially impairing the distance accuracy, and pixel data representing each mesh in the image data based on the overall geometric regularity of the image data. It is characterized by comprising a mesh position determining means for collectively determining the positions of the above, and a mesh light / dark identifying means for identifying the light / dark of each of the above meshes based on the pixel data at each determined position.

【0007】この構成によればイメージセンサー手段に
より、記録媒体上の網状パターンの画像がその距離精度
を実質上損うことなくイメージデータとして読み取られ
るので、イメージデータは全体として幾可学的な規則性
を保存することになる。そこで、この性質を利用してイ
メージデータ上における各網目を表わす画素データの位
置を一括的に決定する。結果として処理時間が短縮さ
れ、かつ誤差の少ない網目位置の測定が可能となり、正
確な網目の明暗の識別ができる。上記イメージセンサー
手段は、例えば、機械的に一定の走査速度、走査方向で
移動するライン型のイメージセンサーで実現できる。
According to this structure, the image sensor means reads the image of the mesh pattern on the recording medium as image data without substantially impairing the distance accuracy, so that the image data as a whole has some geometric rules. Will save the sex. Therefore, the position of the pixel data representing each mesh on the image data is collectively determined by utilizing this property. As a result, the processing time can be shortened, the mesh position can be measured with less error, and the bright and dark of the mesh can be accurately identified. The image sensor means can be realized by, for example, a line-type image sensor that moves mechanically at a constant scanning speed and scanning direction.

【0008】[0008]

【実施例】以下、図面を参照してこの発明の実施例を説
明する。図1は本実施例に係るデータ読取装置10の全
体構成である。装置10の全体の目的は図2に例示する
ような網状パターン21をもつ画像をイメージセンサー
11で取り込み、画像に符号化されているデータを解読
し、再生することである。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows the overall configuration of a data reading device 10 according to this embodiment. The overall purpose of the apparatus 10 is to capture an image having a mesh pattern 21 as illustrated in FIG. 2 by the image sensor 11, decode the data encoded in the image, and reproduce it.

【0009】イメージセンサー11は例えばCCD素子
のような光電変換アレイを含むライン型のイメージセン
サーであり、制御回路12によって制御されるセンサー
送り用のモータ13により、図2に示すような符号化画
像20が記録された記録媒体14上を一定方向(副走査
方向)に定速度で走査(移動)するようになっている。
このような機械式走査により、イメージセンサー11で
光電変換され、2値化された画像20のイメージデータ
は、原画像20の距離精度を実質上損わず、その幾可学
的規則性を保ったものとなる。制御回路12ではイメー
ジセンサー11関係の回路の制御とともに、イメージセ
ンサー11から直列に送られてくるイメージデータの直
/並列変換を実行してCPU15に対するインターフェ
ースの機能を果たす。
The image sensor 11 is, for example, a line type image sensor including a photoelectric conversion array such as a CCD device, and a sensor feeding motor 13 controlled by a control circuit 12 causes a coded image as shown in FIG. The recording medium 20 on which 20 is recorded is scanned (moved) at a constant speed in a fixed direction (sub-scanning direction).
The image data of the image 20 that is photoelectrically converted by the image sensor 11 and binarized by such mechanical scanning does not substantially impair the distance accuracy of the original image 20 and maintains its geometric regularity. It becomes a thing. The control circuit 12 controls the circuits related to the image sensor 11 and performs serial / parallel conversion of image data sent in series from the image sensor 11 to perform an interface function for the CPU 15.

【0010】CPU15はROM16に記憶されるプロ
グラムに従って動作するようになっており、符号化画像
20の走査中、制御回路12を介してイメージセンサー
11から与えられるイメージデータのなかから、網状パ
ターン21の各網目のほぼ中心におけるイメージビット
を選択し、それを各網目の明暗の識別結果としてRAM
17にストアする。即ち、図2に示すように、記録媒体
14上には符号化画像20のデータ本体である網状パタ
ーン22(48×72網目マトリクス構成)の縦の方向
に関して間隔があいていて、図2の左から右に向って網
状パターン22のほぼ横方向に沿って移動するライン型
のイメージセンサー11により網状パターン22に先立
って走査される2つの箇所に黒いバーから成るデータ開
始マーク22が形成されており、この2つのデータ開始
マーク22の開始位置(左上または左下の隅)が、CP
U15により網状パターン22の到来前に検出される。
この2つのデータ開始マーク22の位置は記録媒体14
上において網状パターン22と所定の位置関係にあり、
したがって各網目23の中心と所定の位置関係にある。
そして、上述したようにイメージセンサー11の移動は
モータ13等により一定の走査方向に沿って定速制御さ
れるので、記録媒体14上と同様な幾可的規則性が取り
込まれるイメージデータに存在し、この規則性を利用す
ることにより、来たるべき網状パターン21のイメージ
データにおける各網目23の中心位置を、2つのデータ
開始マークの検出位置から算出できる。そこで、CPU
15は後続する一連の主走査ラインイメージデータのな
かから、算出済の各網目23の中心位置におけるイメー
ジビットをサンプリングし、RAM17にストアするこ
とにより、各網目23の明暗によって情報単位であるビ
ットを表現した網状パターン22の符号化データを解
読、再生する。
The CPU 15 operates according to a program stored in the ROM 16. During scanning of the encoded image 20, the image data provided from the image sensor 11 via the control circuit 12 is used to generate a mesh pattern 21. An image bit in the approximate center of each mesh is selected and used as a discrimination result of the lightness and darkness of each mesh in the RAM
Store at 17. That is, as shown in FIG. 2, there are spaces on the recording medium 14 in the vertical direction of the mesh pattern 22 (48 × 72 mesh matrix configuration) which is the data body of the encoded image 20, and the left side of FIG. The data start mark 22 composed of a black bar is formed at two positions which are scanned prior to the net-like pattern 22 by the line-type image sensor 11 which moves in the lateral direction of the net-like pattern 22 from right to right. , The start position (upper left or lower left corner) of these two data start marks 22 is CP
It is detected by U15 before the arrival of the mesh pattern 22.
The positions of these two data start marks 22 are the recording medium 14
Has a predetermined positional relationship with the mesh pattern 22 above,
Therefore, it has a predetermined positional relationship with the center of each mesh 23.
Since the movement of the image sensor 11 is controlled at a constant speed along the constant scanning direction by the motor 13 or the like as described above, it exists in the image data in which the same regularity as that on the recording medium 14 is captured. By utilizing this regularity, the center position of each mesh 23 in the image data of the coming mesh pattern 21 can be calculated from the detected positions of the two data start marks. So CPU
Reference numeral 15 samples the image bit at the center position of each mesh 23 that has been calculated from the subsequent series of main scanning line image data and stores it in the RAM 17 to determine the bit that is an information unit depending on the brightness of each mesh 23. The encoded data of the expressed mesh pattern 22 is decoded and reproduced.

【0011】このようにして、本実施例のデータ読取装
置10にあっては、イメージセンサー11で符号化画像
20を走査しながら、走査イメージデータ上の各網目の
明暗を識別する。したがって、解読処理を極めて高速に
行え、更には走査イメージデータをストアするイメージ
メモリを実質上必要とせず、記憶容量の大幅な節約も図
れる。
In this way, in the data reading apparatus 10 of the present embodiment, the image sensor 11 scans the encoded image 20 while identifying the brightness of each mesh on the scanned image data. Therefore, the decoding process can be performed at an extremely high speed, an image memory for storing the scanned image data is not substantially required, and a large storage capacity can be saved.

【0012】以下、図3に示すフローチャートに沿って
実施例の動作をより詳細に説明する。まず3−1の初期
化でチェックフラグ、主走査ラインカウンタ、RAM1
7アドレス等の内部設定と、制御回路12に対するI/
O設定により、符号化画像20の走査を開始させる。続
く3−2と3−3のマーク検出ループで最初のマークの
位置を検出する。即ち所定の周期(主走査ライン取込周
期)ごとに、主走査ラインカウンタを更新してイメージ
センサー11からの1ライン分の主走査イメージデータ
を取り込み、そのラインにデータ開始マーク22の断片
(マーク22の左上か左下)を示す黒画素があるかどう
かをチェックする。この結果、図4でいえば主走査ライ
ン41上の点P1が最初のデータ開始マーク22の位置
として検出される。最初のマークの位置が検出された
ら、その位置P1(検出時の主走査ラインカウントが示
すライン番号、即ちX成分と、主走査ラインイメージの
端からのイメージドットカウントが示すドット番号、即
ちY成分とで特定される)を記憶し(3−4)、引き続
きもう1つのデータ開始マーク22の位置の検出作業を
行う。
The operation of the embodiment will be described in more detail below with reference to the flow chart shown in FIG. First, at the initialization of 3-1 check flag, main scanning line counter, RAM1
Internal settings such as 7 addresses and I / O for the control circuit 12
With the O setting, scanning of the encoded image 20 is started. The position of the first mark is detected by the following mark detection loops 3-2 and 3-3. That is, the main scanning line counter is updated at every predetermined period (main scanning line capturing period) to capture the main scanning image data for one line from the image sensor 11, and the fragment of the data start mark 22 (mark It is checked whether there is a black pixel indicating the upper left or lower left of 22). As a result, in FIG. 4, the point P1 on the main scanning line 41 is detected as the position of the first data start mark 22. When the position of the first mark is detected, its position P1 (the line number indicated by the main scanning line count at the time of detection, that is, the X component and the dot number indicated by the image dot count from the end of the main scanning line image, that is, the Y component) is detected. (Specified by and) is stored (3-4), and the work of detecting the position of another data start mark 22 is continued.

【0013】図4の場合、後続の主走査ライン42の点
P2で2番目のデータ開始マーク22が検出される。通
常は、主走査方向と網状パターン21の幅の方向は若干
異なるので(図4ではその差を角度θで示してある)、
2つのマークは2つの異なる主走査ラインイメージ上で
観測されるが、両者が完全に平行な場合(θ=0度)に
は同じ主走査ラインイメージ上の間隔のあいた2つのド
ット位置で観測される。2つのマーク22の位置P1、
P2が検出されると両マーク検出チェック3−5が成立
する。この2つの検出位置P1、P2から、以降のサン
プリングの基準となるイメージデータの傾き44の角度
θと主走査幅45(図4参照)がわかるので3−6でこ
れらのパラメータを算出する。この主走査幅を主走査方
向の網目の数、ここでは48で割れば、主走査方向から
みた網目の縦(図2で見て)の長さU= が得られ、主走
査幅のベクトル(ラインイメージ)の48の等分点が主
走査方向におけるサンプリング位置(Y成分)を表わ
す。一方、副走査方向におけるサンプリング位置(X成
分)はイメージデータ上における網目の縦横比から得ら
れる。即ち、イメージセンサー11の主走査方向におけ
る線分解能をDdot/mm、副走査方向における移動
(走査)速度を5mm/sec、主走査のサイクル時間
(主走査ラインイメージを取り込む間隔ないし周波数)
をKHzとすると(これらのパラメータはシステムによ
って決まる)、主走査方向の単位長1に対する副走査方
向の相対的な大きさrは r=S×D/K で与えられ、したがって副走査方向から見た網目の横方
向の長さUxは (主走査幅/48)×r(=Uy×r) で与えられる。換言すれば、イメージデータ上の各網目
の中心位置Pはイメージデータに保存される幾可学的規
則性から、 P=(MUx+NUyanθ、NUy−MYxanθ) で与えられる(ただし、M、Nは整数であり、網状パタ
ーンの左上隅の網目(M=0、N=0)の中心を原点で
示してある)。
In the case of FIG. 4, the second data start mark 22 is detected at the point P2 of the subsequent main scanning line 42. Normally, the main scanning direction and the width direction of the net-like pattern 21 are slightly different (the difference is indicated by an angle θ in FIG. 4).
Two marks are observed on two different main scanning line images, but when they are completely parallel (θ = 0 degree), they are observed at two dot positions with the same spacing on the same main scanning line image. It Position P1 of the two marks 22,
When P2 is detected, both mark detection checks 3-5 are established. From these two detection positions P1 and P2, the angle θ of the inclination 44 of the image data and the main scanning width 45 (see FIG. 4), which will be the reference for the subsequent sampling, can be known, so these parameters are calculated in 3-6. If this main scanning width is divided by the number of meshes in the main scanning direction, here 48, the length U = in the vertical direction (as viewed in FIG. 2) of the mesh seen from the main scanning direction is obtained, and the vector of the main scanning width ( The 48 equal points of the line image) represent the sampling position (Y component) in the main scanning direction. On the other hand, the sampling position (X component) in the sub-scanning direction is obtained from the aspect ratio of the mesh on the image data. That is, the line resolution of the image sensor 11 in the main scanning direction is Ddot / mm, the moving (scanning) speed in the sub scanning direction is 5 mm / sec, and the main scanning cycle time (interval or frequency for capturing main scanning line image).
Is KHz (these parameters are determined by the system), the relative size r in the sub-scanning direction with respect to the unit length 1 in the main scanning direction is given by r = S × D / K. The horizontal length U x of the mesh is given by (main scanning width / 48) × r (= U y × r). In other words, the center position P of each mesh on the image data is P = (MU x + NU y t an θ, NU y −MY x t an θ) from the geometrical regularity stored in the image data. (Where M and N are integers, and the center of the mesh (M = 0, N = 0) in the upper left corner of the mesh pattern is indicated by the origin).

【0014】ここに、網目の長さの成分UxとUyは実数
として計算されるが、イメージデータ上からの実際のサ
ンプリングは何番目の主走査ラインイメージの何番目の
ドットかという離散形式でしか行えないので、上記実数
座標PにM=0、N=0の網目のイメージデータ上の実
際の位置(正確には実数位置)を加えたものに一番近い
整数座標が実際のサンプリング位置(図5の数字付S)
となる。
Here, the mesh length components U x and U y are calculated as real numbers, but the actual sampling from the image data is in a discrete form in which number of main scanning line image and what number of dot. Since it can be done only by the above, the integer coordinate closest to the real number coordinate P plus the actual position on the image data of the mesh of M = 0 and N = 0 (to be exact, the real number position) is the actual sampling position. (S with a number in Fig. 5)
Becomes

【0015】かくして、3−7で最初(M=0)のビッ
ト行のサンプリング位置が計算され、3−8から3−1
1のデコード処理に対する準備が完了する。デコード処
理のループでは主走査ラインイメージを取り出しては
(3−8)、その主走査ラインイメージに含まれるサン
プリング位置をチェックし(3−9)、サンプリング位
置をもたない主走査ラインイメージについては読み飛ば
し(3−9でNOとなり3−8に戻る)、サンプリング
位置が含まれる場合にはそれぞれのサンプリング位置に
あるイメージビットを網目の明暗を示す情報ビットとし
てサンプリングしてRAM17にストアするとともに、
次の網目のサンプリング位置を計算する(3−10)。
例えば図4の場合、最初のビット行のサンプリング位置
に出合う主走査ライン43までのラインイメージは読み
飛ばされる。このような逐次走査・デコードにより、R
AM17に対するストアが画像フォーマットの定める4
8×72ビット分終了するとデコード終了チェック3−
11が成立し、イメージセンサー11に対して走査の終
了が指示され(3−12)、実施例による走査/解読処
理が完了する。
Thus, at 3-7, the sampling position of the first (M = 0) bit row is calculated, 3-8 to 3-1.
Preparation for the decoding process of 1 is completed. In the decoding loop, the main scanning line image is extracted (3-8), the sampling position included in the main scanning line image is checked (3-9), and the main scanning line image having no sampling position is detected. If it is skipped (NO in 3-9 and returns to 3-8), and if sampling positions are included, the image bits at each sampling position are sampled as information bits indicating the brightness of the mesh and stored in the RAM 17.
The sampling position of the next mesh is calculated (3-10).
For example, in the case of FIG. 4, the line image up to the main scanning line 43 which meets the sampling position of the first bit row is skipped. By such sequential scanning / decoding, R
Store for AM17 is defined by image format 4
Decoding completion check when 8 × 72 bits are completed 3-
11 is established, the end of scanning is instructed to the image sensor 11 (3-12), and the scanning / decoding process according to the embodiment is completed.

【0016】このように本実施例は (a)イメージ走査と並行してそのデータ解読が行われ
処理速度が極めて高速である、(b)同様の理由から、
イメージメモリは不要であり、データ読取装置15の記
憶容量を大幅に削減できる、(c)簡単なデータ開始マ
ークがあればその検出位置からイメージデータの規則性
を利用してすべての網目の位置を決定でき、網状パター
ンの走査方向の全長に亘るような格別のサンプリング基
準マークを必要としない、等の利点を有している。
As described above, according to the present embodiment, (a) the data is decoded in parallel with the image scanning and the processing speed is extremely high. (B) For the same reason,
No image memory is required, and the storage capacity of the data reading device 15 can be greatly reduced. (C) If there is a simple data start mark, the regularity of the image data is used to detect all mesh positions from the detection position. This has the advantage that it can be determined and does not require a special sampling reference mark that extends over the entire length of the mesh pattern in the scanning direction.

【0017】[0017]

【変形例】以上で実施例の説明を終えるがこの発明の範
囲内で種々の変形、変更が可能である。例えば、符号化
画像の走査とイメージデータの解読とを同時に並行して
実行する代りに、符号化画像の走査完了後にイメージデ
ータの解読作業を行うようにしてもよい。
[Modification] Although the description of the embodiment has been completed, various modifications and changes can be made within the scope of the present invention. For example, instead of simultaneously executing the scanning of the encoded image and the decoding of the image data in parallel, the decoding of the image data may be performed after the scanning of the encoded image is completed.

【0018】そのような変形例(第1変形例)について
図6から図12を参照して説明する。図6は図7に示す
ようなイメージRAM70に取り込まれた網状パターン
21のイメージデータから各網目の明暗を識別する処理
のフローチャートである。最初のルーチン6−1で主走
査ラインイメージを1乃至複数本調べて、主走査方向か
らみた網状パターン21の縦の長さや網目の縦の長さを
測定する。この処理は、符号化画像20に網状パターン
21以外のマークが全くない場合と、網状パターン21
の周囲に網状パターンの輪郭を形成する輪郭線等(太さ
は例えば網目の幅に等しい)が設けられた場合とでは若
干、処理内容が異なる。輪郭線付きの場合には、イメー
ジの余白部を除くどの主走査ラインイメージにも輪郭線
の断片である黒画素が含まれるのでラインイメージの両
端から中央に向ってイメージドット値を調べていき、黒
画素子(候補点と呼ぶことにする)に当ったら、そこが
輪郭線のエッジと考えてよく、その間の距離で主走査方
向における網状パターンの幅の尺度が与えられる。一
方、網状パターンのみの場合には同様の候補点はその主
走査ラインイメージにおける網状パターン21のなかで
一番外側の黒の網目のエッジであり、網状パターン21
の一番外側の網目が白の場合にはその網目は読み飛ばさ
れる。
Such a modification (first modification) will be described with reference to FIGS. 6 to 12. FIG. 6 is a flowchart of a process for identifying the lightness and darkness of each mesh from the image data of the mesh pattern 21 loaded in the image RAM 70 as shown in FIG. In the first routine 6-1, one to a plurality of main scanning line images are examined to measure the vertical length of the mesh pattern 21 and the vertical length of the mesh as viewed from the main scanning direction. This process is performed when the coded image 20 has no marks other than the mesh pattern 21 and when the mesh pattern 21 has no mark.
The processing contents are slightly different from the case where a contour line or the like (the thickness is, for example, equal to the width of the mesh) that forms the contour of the mesh pattern is provided around the. If there is a contour line, any main scanning line image except for the margins of the image contains black pixels that are fragments of the contour line, so check the image dot value from both ends of the line image toward the center. When a black image element (which will be referred to as a candidate point) is hit, it may be considered as an edge of the contour line, and the distance between them gives a measure of the width of the mesh pattern in the main scanning direction. On the other hand, in the case of only the mesh pattern, the similar candidate point is the edge of the outermost black mesh in the mesh pattern 21 in the main scanning line image.
If the outermost mesh of is white, that mesh is skipped.

【0019】しかし、符号化画像の網目記録(印刷)装
置の方で網目の明暗の直流成分(同じ明度の網目が連続
する長さ)を抑える処理(明暗のためのデジタル変調や
乱数処理で行える)を施しておけば、ある程度以上の数
の主走査ラインを調べることで、一番外側に黒の網目を
もつラインイメージに当たることになる。したがって、
図7にl、m、nで示すような複数の主走査ラインイメ
ージ上で得た候補点対のなかで最長のもの(他のに比べ
極端に長いのはエラーなので除外する)を選択すること
で、主走査方向から見た網状パターンの縦の長さを評価
できる。以下の説明では網状パターン21に輪郭線が付
くことを想定するが、この例のように若干処理を複雑に
すれば、網状パターン21のみの符号化画像にも適用で
きる。なお、輪郭線付の場合、一本の主走査ラインイメ
ージを調べるだけで主走査方向から見た網状パターン2
1の縦の長さを測定できるが、汚れ等のために網状パタ
ーン21の周辺に一部欠陥が生じる可能性を考慮し、あ
る程度間隔のあいた複数の主走査ラインイメージを調
べ、測定値の多数決方式等により欠陥があってもその影
響が出ないようにすることもできる。
However, in the halftone recording (printing) device of the coded image, the process of suppressing the DC component of the light and dark of the mesh (the length of continuous meshes of the same lightness) can be performed (by digital modulation or random number processing for light and dark). ) Is applied, the line image having a black mesh on the outermost side is hit by examining a certain number or more of main scanning lines. Therefore,
To select the longest candidate point pair (excluded because it is an error that is extremely long compared to the others) among the candidate point pairs obtained on a plurality of main scanning line images as indicated by l, m, and n in FIG. Thus, the vertical length of the mesh pattern viewed from the main scanning direction can be evaluated. In the following description, it is assumed that the mesh pattern 21 has a contour line, but if the processing is slightly complicated as in this example, it can be applied to a coded image of only the mesh pattern 21. In addition, in the case of a contour line, the net-like pattern 2 seen from the main scanning direction is obtained only by examining one main scanning line image.
Although the vertical length of 1 can be measured, in consideration of the possibility that some defects may occur around the mesh pattern 21 due to dirt or the like, a plurality of main scanning line images with a certain interval are examined, and the majority of the measured values is decided. Even if there is a defect depending on the method or the like, it is possible to prevent the influence from occurring.

【0020】また、ルーチン6−1では主走査方向から
みた網目の大きさ(縦の長さ)を測定するようにしても
よい。これは主走査ラインイメージ上で同じ画素値が続
く長さ(ランレングス)を調べそのヒストグラム(図8
参照)を作成すれば、その頻度のピーク群が網目の一単
位を基本とするランレングスの調和級数として観察され
ることから、網目の縦の長さ、更には網状パターンの縦
の長さも評価できる。図8のヒストグラムの場合、ラン
レングス4、8、12にピークが発生するところから、
主走査方向から見た網目の大きさは約4ドットというこ
とになる。更には、所望であれば、統計的処理を行うこ
とにより、小数点の桁まで正確に網目の縦の大きさを評
価できる(例えば図8において3、4、5は網目1個の
長さのサンプル)、7、8、9は網目の2個の長さのサ
ンプルというように考えて、これらのサンプルをその出
現頻度による重みで平均化処理を行う)。もっとも、網
目のサイズは網状パターンのフォーマット(網目の2次
元マトリクス構成)が既知の場合には、網状パターンの
幅から算出するのが容易である。
Further, in the routine 6-1, the size (vertical length) of the mesh seen from the main scanning direction may be measured. This is to check the length (run length) where the same pixel value continues on the main scanning line image, and check its histogram (Fig. 8).
, The peaks of that frequency are observed as harmonic series of run length based on one unit of mesh. Therefore, the vertical length of the mesh and also the vertical length of the mesh pattern can be evaluated. it can. In the case of the histogram shown in FIG. 8, since peaks occur at the run lengths 4, 8, and 12,
The size of the mesh seen from the main scanning direction is about 4 dots. Further, if desired, the vertical size of the mesh can be accurately evaluated up to the digit of the decimal point by performing statistical processing (for example, 3, 4, and 5 in FIG. 8 are samples of the length of one mesh). ), 7, 8 and 9 are considered to be samples of two lengths of the mesh, and these samples are averaged by weighting according to their appearance frequency). However, if the format of the mesh pattern (two-dimensional matrix structure of the mesh) is known, the mesh size can be easily calculated from the width of the mesh pattern.

【0021】図6のルーチン6−2では副走査方向(図
7参照)から見た網状パターンの横の長さや網目の横の
長さを測定する。これは、調べる方向が主走査方向から
副走査方向に変っただけで、処理内容はルーチン6−1
と同様である。ここまでで、イメージRAM70上の主
走査方向と副走査方向のそれぞれからイメージの幾可的
規則性に従って観測される網状パターンの縦と横の寸
法、網目の縦と横の寸法が得られた。
In the routine 6-2 shown in FIG. 6, the horizontal length of the mesh pattern and the horizontal length of the mesh as viewed in the sub-scanning direction (see FIG. 7) are measured. This is because the inspection direction is changed from the main scanning direction to the sub scanning direction, and the processing content is the routine 6-1.
Is the same as. Up to this point, the vertical and horizontal dimensions of the mesh pattern and the vertical and horizontal dimensions of the mesh, which are observed according to the somewhat regularity of the image, are obtained from the main scanning direction and the sub-scanning direction on the image RAM 70.

【0022】次のルーチン6−3では網状パターンの縦
と横の方向を決定する。網目の方向は種々のアルゴリズ
ムによって決定できる。回転サーチでは、正しい方向か
らみた網状パターンの切断長が最短になることを利用す
る。図9を参照して述べると、まず主走査ライン1に対
しかなりの角度をもって交差する2つのライン2と3を
選択しこのライン2、3上のイメージからみた網状パタ
ーン21の縦の切断長を測定し、比較する。ライン2の
方が短ければ縦の正しい方向はライン1とライン2の間
にあるのでその間を2等分するようなライン4(角度の
2等分でもよいが、ライン1とライン2の各端の位置の
間の中心同士を結ぶラインでよい)を選択し、そのライ
ンイメージ上の切断長を測定し、ライン1とライン2の
切断長が等しくなければそのうち短い切断長をもつ方の
ラインとライン4との間を更に2等分するラインを選
び、以下、同様にして2等分を続け、切断長が減少しな
くなった時点で、あるいは等しい切断長をもつ2つのラ
インを検出した段階で処理を打ち切る(例えばライン1
とライン2の切断長が等しければその2等分ライン4は
最短の切断長をもつ)。
In the next routine 6-3, the vertical and horizontal directions of the mesh pattern are determined. The direction of the mesh can be determined by various algorithms. The rotation search utilizes the fact that the cut length of the mesh pattern seen from the correct direction is the shortest. Referring to FIG. 9, first, two lines 2 and 3 intersecting the main scanning line 1 at a considerable angle are selected, and the vertical cutting length of the mesh pattern 21 seen from the image on the lines 2 and 3 is selected. Measure and compare. If the line 2 is shorter, the correct vertical direction is between the line 1 and the line 2 so that the line 4 is divided into two equal parts (the angle may be divided into two equal parts, but each end of the line 1 and the line 2 may be divided into two). , Which is a line connecting the centers between the positions, and the cutting length on the line image is measured. If the cutting lengths of line 1 and line 2 are not equal, the one with the shorter cutting length is selected. A line that further divides the line 4 into two is selected, and thereafter, the line is equally divided into two, and when the cutting length does not decrease, or when two lines having the same cutting length are detected. Abort processing (eg line 1)
And the cut length of the line 2 is equal, the bisecting line 4 has the shortest cut length).

【0023】別のアプローチでは、図10のイメージ拡
大図に〇印と△印で示すように、隣り合うイメージライ
ン(実際には離散系なので図10の〇印の列で示すよう
にラインLは段階状になる)のビットパターンが一致あ
るいは最も良く一致するような方向を網状パターンの方
向として定めることができる。なお、図10の小さいま
す目はイメージビットのメモリセルを示し、大きなます
目は明暗の網目を示している。ビットパターンの一致検
査は上述したような回転サーチ法による切断長の比較等
によりある程度網状パターンの方向がしぼられた段階か
ら始めるとよい。例えば、網状パターンの端でみて網目
のサイズ程度の角度範囲内に方向がしぼり込まれたら、
それによって細長い四角の探索範囲が決まるので、この
探索範囲内でビットパターンの一致検査を行う。あるい
は、そのような探索範囲内で網目のエッジを検出し、エ
ッジの発見位置から方向を決定してもよい。これは、隣
り合う網目列の境界の前後で最もイメージビットの不一
致が発生することに着目したアプローチである。例え
ば、幅が網目サイズ程度の細長い4角の探索領域が得ら
れたら、幅方向(網状パターンの縦方向決定の場合には
副走査方向)に沿って網目の長さ分のイメージ検査を各
イメージビット行について行い、ビット反転位置を検出
し、これらの検出位置のなかで網目の1/2程度の幅の領
域内に収まる検出位置群を結ぶか、これらの検出位置の
回帰直線を決定することで網状パターンの方向が得られ
る。
In another approach, as shown by the circles and triangles in the enlarged image of FIG. 10, adjacent image lines (actually, since it is a discrete system, the line L as shown by the circle of FIG. The direction in which the bit patterns of (stepwise) match or best match can be determined as the direction of the mesh pattern. The small cells in FIG. 10 indicate image bit memory cells, and the large cells indicate light and dark meshes. It is advisable to start the bit pattern matching inspection at a stage where the direction of the mesh pattern is narrowed to some extent by comparing the cutting lengths by the above-described rotation search method. For example, when the direction is narrowed down within the angle range of the size of the mesh when viewed at the end of the mesh pattern,
Since the search range of the elongated rectangle is determined thereby, the bit pattern matching check is performed within this search range. Alternatively, the edge of the mesh may be detected within such a search range, and the direction may be determined from the found position of the edge. This is an approach that focuses on the most occurrence of image bit mismatch before and after the boundary between adjacent mesh columns. For example, when a narrow rectangular search area having a width of about a mesh size is obtained, an image inspection of the length of the mesh is performed on each image along the width direction (the sub-scanning direction when determining the vertical direction of the mesh pattern). Perform on bit lines, detect bit inversion positions, connect detection positions that fall within a half width of the mesh among these detection positions, or determine the regression line of these detection positions. Gives the direction of the mesh pattern.

【0024】ルーチン6−3の処理の結果は、網状パタ
ーンの縦と横の方向ないしその方向を与えた2つのライ
ンである。したがってその2つのラインにおける網状パ
ターンの上下左右の端の網目の位置の情報も得られ、こ
れは以下説明するルーチン6−4の代りのルーチン6−
4bで参照される。
The result of the processing of the routine 6-3 is the vertical and horizontal directions of the mesh pattern or two lines giving the directions. Therefore, information on the positions of the meshes at the upper, lower, left and right ends of the mesh pattern in the two lines is also obtained, which is a routine 6-instead of the routine 6-4 described below.
4b.

【0025】ルーチン6−4ではルーチン6−3で得た
網状パターン21の縦の方向と横の方向に沿う適当な複
数のラインイメージを調べて、網状パターン21の左、
右、上、下の端にある輪郭線(輪郭線付の場合)または
網目の列ないし行の中心線を検出し、網状パターンの4
隅の網目の位置を決定する。図11は平行サーチによる
左端の網目列の検出のアルゴリズムの一例を示したもの
で、網状パターンの縦の方向に沿って、イメージRAM
70上の端のライン1と、網状パターンの内部を通ると
考えられるライン2とを調べ、ライン2が網状パターン
の存在を示す複数の黒画素を含めば、ライン1とライン
2との中間のライン3を選び、ライン3も網状パターン
内を通れば、ライン1とライン3との間を2分するライ
ン4を選び、以下同様にして2分サーチを続け、2つの
ライン間の間隔が十分近くなって(例えば網目のサイズ
程度)、片方のラインが網状パターンの外側を示す白画
素のみまたはほとんど白画素から成り、もう片方のライ
ンが網状パターンの内部(ここでは輪郭線なしを想定し
ている)を示す黒画素群(例えば、網状パターンの縦の
長さにほぼ等しい間隔をもちランレングス2が網目の長
さの評価値がその整数倍にほぼ等しいような画素群)を
含むものが得られたら、処理を打ち切り、後者のライン
をサーチ結果、即ち網状パターンの左端の網目を通るラ
イン(中心線)とする。
In Routine 6-4, a plurality of suitable line images along the vertical and horizontal directions of the mesh pattern 21 obtained in Routine 6-3 are examined to find the left side of the mesh pattern 21,
Detect the contour lines (if equipped with contour lines) or the center lines of the mesh columns or rows at the right, top, and bottom edges, and
Determine the position of the mesh in the corner. FIG. 11 shows an example of an algorithm for detecting the leftmost mesh row by parallel search. The image RAM is arranged along the vertical direction of the mesh pattern.
The line 1 at the end on 70 and the line 2 which is considered to pass through the inside of the mesh pattern are examined, and if the line 2 includes a plurality of black pixels indicating the existence of the mesh pattern, the line 1 and the line 2 between If line 3 is selected and if line 3 also passes through the mesh pattern, line 4 that bisects line 1 and line 3 is selected, and the 2 min search is continued in the same manner, and the interval between the two lines is sufficient. As it becomes closer (for example, about the size of the mesh), one line consists of only or almost white pixels that indicate the outside of the mesh pattern, and the other line is inside the mesh pattern (assuming there is no outline here). That includes a black pixel group (for example, a pixel group whose run length 2 has an interval approximately equal to the vertical length of the net-like pattern and whose evaluation value of the mesh length is approximately equal to an integral multiple thereof). Obtained Et al., Truncation processing, the latter line search results, i.e. the line passing through the left edge of the mesh of the mesh pattern (center line).

【0026】より正確な左端の網目の中心線が所望であ
れば図12のイメージ拡大図に示すような3ビット間隔
のライン対l0とl1、ライン対l2とl3(このライン対
は前者のライン対からほぼ網目のサイズだけ離れてい
る)を1回の検査終了の都度、右に1ビットだけずらし
ながら調べ、ライン対l0、l1間の副走査方向における
白画素から黒画素のビットへの変化数が最大になるとき
のラインl0の番号と、ライン対l2、l3間の副走査方
向におけるビット変化数が最大となるときのラインl2
の番号とを検出すれば、l0とl1の間が網状パターンと
外部との左側境界E0であり、l2とl3との間が左端の
網目の列と2番目の網目の列との境界E1である。そこ
で境界E0と境界E1とを2分するラインM(図中ハッ
チングで示してある)を選べばこれが左端の網目の正確
な中心線ということになる(なお、イメージビットパタ
ーンの最大不一致による境界検出方式は取り込んだイメ
ージデータに歪みがある場合にも有効であり、網状パタ
ーンの各網目の境界を調べ、作成してその内部点をサン
プリングしてもよい)。
If a more accurate center line of the leftmost mesh is desired, a line pair l 0 and l 1 and a line pair l 2 and l 3 (this line pair are arranged at 3-bit intervals as shown in the enlarged image of FIG. 12). Is separated from the former line pair by about the size of the mesh) every time one inspection is completed by shifting it by 1 bit to the right, and the white pixel in the sub-scanning direction between the line pair l 0 and l 1 is black. The number of the line l 0 when the number of pixel changes to the bit is maximum, and the line l 2 when the number of bit changes between the line pairs l 2 and l 3 is the maximum.
, The left boundary E0 between the mesh pattern and the outside is between l 0 and l 1 , and the leftmost mesh row and the second mesh row are between l 2 and l 3. Is the boundary E1. If a line M (hatched in the drawing) that divides the boundary E0 and the boundary E1 into two is selected, this is the accurate center line of the mesh at the left end (note that the boundary detection due to the maximum discrepancy in image bit patterns). The method is also effective when there is distortion in the captured image data, and the boundaries of each mesh of the mesh pattern may be examined and created, and the internal points may be sampled.

【0027】網状パターン21の4隅の網目の位置は中
心線の交点、例えば左上の隅は左端のラインと上端のラ
インとの交点で与えられる。
The mesh positions at the four corners of the mesh pattern 21 are given by the intersections of the center lines, for example, the upper left corner is given by the intersection of the left end line and the upper end line.

【0028】ルーチン6−4bはルーチン6−4の代り
となる処理であり、ルーチン6−3bで検出した網状パ
ターン21の縦の方向のラインと横の方向のラインとの
交点を求め、その交点が網状パターン21の何行目、何
列目の網目の中心であるかを調べる。詳細には、ルーチ
ン6−3bで検出した網状パターン21の縦の方向のラ
インイメージにおける両端の網目の断片を示す位置と画
像フォーマット、即ち、網状パターン21の縦方向にお
ける網目の数(図2では48個)から交点が中心となる
網目の行番号が計算され、同様にして、ルーチン6−3
bで検出した網状パターン21の横の方向のラインイメ
ージにおける両端の網目の断片を示す位置と網状パター
ン21の横方向における網目の数(図2では72個)か
ら交点を中心とする網目の列番号が計算される。
Routine 6-4b is an alternative process to routine 6-4. It finds the intersection between the line in the vertical direction and the line in the horizontal direction of mesh pattern 21 detected in routine 6-3b, and the intersection point is obtained. Is the center of the mesh of the row and column of the mesh pattern 21. Specifically, the positions and image formats showing the fragments of the meshes at both ends in the line image in the vertical direction of the mesh pattern 21 detected by the routine 6-3b, that is, the number of meshes in the vertical direction of the mesh pattern 21 (in FIG. 2, 48), the line number of the mesh whose center is the intersection is calculated, and similarly, the routine 6-3
A row of meshes centered on the intersection point based on the positions of the mesh fragments at both ends in the line image in the horizontal direction of the mesh pattern 21 detected in b and the number of meshes in the horizontal direction of the mesh pattern 21 (72 in FIG. 2). The number is calculated.

【0029】ルーチン6−4または6−4bの後はルー
チン6−5でイメージRAM70上における網状パター
ン21の各網目の中心を、既に得ている基準の網目(4
隅の網目または行と列番号が特定された網目)の中心位
置、網目の縦方向と横方向のサイズの評価値、及び網状
パターン21の縦と横の方向から、算出し、ルーチン6
−6で各網目の中心のイメージビットをサンプリングす
ることにより、網目の明暗を識別する。
After the routine 6-4 or 6-4b, in the routine 6-5, the center of each mesh of the mesh pattern 21 on the image RAM 70 is set to the standard mesh (4
Routine 6 is calculated from the center position of the mesh of the corner or the mesh in which the row and column numbers are specified), the evaluation values of the size of the mesh in the vertical and horizontal directions, and the vertical and horizontal directions of the mesh pattern 21.
At -6, the lightness and darkness of the mesh is identified by sampling the image bit at the center of each mesh.

【0030】なお、網目の中心の単一のイメージビット
をサンプリングするだけでなく網目の中心を基準として
そのまわり(例えば、上下左右)のイメージビットもサ
ンプリングし、その結果から網目の明暗を決定し、更に
はその信頼性を評価するようにしてもよい。
It should be noted that not only a single image bit at the center of the mesh is sampled, but also image bits around it (for example, up, down, left and right) are sampled with the center of the mesh as a reference, and the brightness of the mesh is determined from the result. Further, the reliability may be evaluated.

【0031】次に、第2の変形例を図13と図14を参
照して説明する。便宜上、輪郭線付きの網状パターンを
想定する。また網状パターンの網目のマトリクス構成は
既知とする。デコード処理(図14)の最初のルーチン
14−1で、イメージRAM70(図13)のメモリ中
心を通る複数の異なるラインイメージを調べ、各ライン
イメージの両端から中央に向って最初に現われる黒画素
を輪郭線の断片として着目し、その検出位置をサンプリ
ングする。複数のラインイメージの選び方は、第1群の
ラインイメージが網状パターンの上下の輪郭線と交差す
るようにし、第2群のラインイメージが網状パターンの
左右の輪郭線と交差するようにすると都合がよく、これ
は、網状パターンの存在する範囲がある変動範囲内に収
まるので容易に決められる。これにより、サンプリング
した検出位置のファイルは上の輪郭線上の位置と予想さ
れる第1グループと、下の輪郭線上の位置と予想される
第2グループと、左の輪郭線上の位置と予想される第3
グループと、右の輪郭線上の位置と予想される第4グル
ープとに分かれる。各グループについて、特にはずれて
いるサンプリング位置を除いて回帰直線等による直線フ
ィティングを行えば、それが、輪郭線の軌跡ということ
になり、これによって得た4つの直線間の交点が網状パ
ターンの4つの隅の位置を定める(14−2)。この方
式は、記録媒体14上の汚れ等により、網状パターン1
1の周線部が部分的に破壊されている場合にも有効な方
式であり、正確に網状パターン21の4隅の位置を測定
できる。また、処理時間が短いという利点もある。
Next, a second modification will be described with reference to FIGS. 13 and 14. For convenience, assume a mesh pattern with contour lines. The matrix structure of the mesh of the mesh pattern is known. In the first routine 14-1 of the decoding process (FIG. 14), a plurality of different line images passing through the memory center of the image RAM 70 (FIG. 13) are examined, and the black pixel first appearing from both ends of each line image toward the center is checked. Focusing on a fragment of the contour line, the detection position is sampled. To select a plurality of line images, it is convenient to make the first group of line images intersect the upper and lower contour lines of the mesh pattern and the second group of line images to intersect the left and right contour lines of the mesh pattern. Well, this is easily determined because the range in which the mesh pattern is present falls within a certain fluctuation range. As a result, the sampled detection position file is predicted to be the first group that is expected to be on the upper contour line, the second group that is expected to be on the lower contour line, and the position on the left contour line. Third
It is divided into a group and a fourth group which is expected to be located on the right contour line. For each group, if straight line fitting by a regression line or the like is performed except for the sampling positions that are out of alignment, that is the locus of the contour line, and the intersection points between the four straight lines obtained by this are the mesh patterns. The positions of the four corners are determined (14-2). In this method, the mesh pattern 1 is formed due to stains on the recording medium 14.
This method is also effective when the peripheral line portion 1 is partially destroyed, and the positions of the four corners of the mesh pattern 21 can be accurately measured. There is also an advantage that the processing time is short.

【0032】4隅の位置が決定された後は第1変形例と
同様にして、各網目の中心を算出し、そこにあるイメー
ジビットをサンプリングすることでデコード処理が完了
する(14−3、14−4)。
After the positions of the four corners are determined, the center of each mesh is calculated in the same manner as in the first modification, and the image bits located there are sampled to complete the decoding process (14-3, 14-4).

【0033】次に図15を参照して第3の変形例を説明
する。この変形例のデコード処理では、イメージRAM
70上のメモリ中心を通る主走査ラインと副走査ライン
によって、イメージRAM70を4分割し、各象限内に
ある網状パターンの隅の位置を決定する。図15に示す
第1象限について説明すると、主走査ライン1と副走査
ライン2を最初に調べ、端から最初に発見される黒画素
を輪郭線の断片とみなしてその位置を記憶する。次に、
イメージRAM70の右上と中心を結ぶ対角ライン3を
調べ、端から最初に発見した黒画素の位置を記憶する。
次に主走査ライン1と対角ライン2との間のイメージR
AM70の上端における中点とイメージRAM70の中
心とを結ぶラインを調べ、同様の黒画素を検出し、その
位置を記憶する。ここで、ライン1、4、3に関する黒
画素の位置関係と、ライン2、3、4に関する黒画素の
位置関係を調べる。その結果、図15の場合であればい
ずれの3つの黒画素も直線上にないことが判明する。換
言すれば、ライン3とライン4の間を通るライン上に網
状パターンの隅がある。そこで、メモリ上端におけるラ
イン3とライン4との中点とメモリ中心を通るラインを
引いて同様の黒画素を検出し、今度は、ライン1、4、
5に係る黒画素間の直線チェックとライン2、3、5の
黒画素間の直線チェックを行う。図15に従えばライン
1、4、5は直線上にあると判定される。したがって、
網状パターンの右上隅の中心はライン3とライン5との
間にある。そこで、ライン3とライン5との間を2分す
るライン6を引き、以下同様にして、検索範囲をしぼっ
ていく。2分線を引くための2つのライン間のメモリ端
における間隔が十分小さく(例えば1ドットの距離)に
なれば、そのラインの黒画素の位置が網状パターンの右
上隅(正確には輪郭線の右上の項点)ということにな
る。
Next, a third modification will be described with reference to FIG. In the decoding process of this modification, the image RAM
The image RAM 70 is divided into four by the main scanning line and the sub-scanning line passing through the memory center on 70, and the position of the corner of the mesh pattern in each quadrant is determined. Explaining the first quadrant shown in FIG. 15, the main scanning line 1 and the sub-scanning line 2 are examined first, and the black pixel first found from the end is regarded as a fragment of the contour line and its position is stored. next,
The diagonal line 3 connecting the upper right of the image RAM 70 and the center is examined, and the position of the black pixel first found from the end is stored.
Next, image R between main scan line 1 and diagonal line 2
The line connecting the midpoint at the upper end of the AM 70 and the center of the image RAM 70 is examined, a similar black pixel is detected, and the position is stored. Here, the positional relationship of the black pixels regarding the lines 1, 4, and 3 and the positional relationship of the black pixels regarding the lines 2, 3, and 4 are examined. As a result, in the case of FIG. 15, it is found that none of the three black pixels is on a straight line. In other words, there are corners of the net-like pattern on the line passing between line 3 and line 4. Therefore, a similar black pixel is detected by drawing a line passing through the center of the memory and the middle point of the lines 3 and 4 at the upper end of the memory.
The straight line check between the black pixels of No. 5 and the straight line check between the black pixels of lines 2, 3, and 5 are performed. According to FIG. 15, it is determined that the lines 1, 4, and 5 are on a straight line. Therefore,
The center of the upper right corner of the mesh pattern is between line 3 and line 5. Therefore, a line 6 that divides the line 3 and the line 5 into two is drawn, and the search range is narrowed down in the same manner. If the space at the memory end between the two lines for drawing the bisector becomes sufficiently small (for example, a distance of 1 dot), the position of the black pixel on that line is located at the upper right corner of the mesh pattern (to be exact, the contour line The upper right point).

【0034】次に第4の変形例を図16と図17を参照
して説明する。この例では網状パターン21の外側に4
つの位置合わせマークR(ここでは黒の円)を設けてお
り、デコード処理においてイメージRAM70上から、
この位置合わせマークRの中心を測定し、その結果から
網状パターン21の各網目の中心位置を幾可的規則性に
従って算出し、その位置のイメージビットをサンプリン
グすることで各網目の明暗を識別とするものである。各
位置合わせマークRの中心を検出するため、図17のイ
メージ拡大図に示すようにイメージRAM70の端か
ら、例えば45度の方向のラインイメージをある程度の
間隔をもって1本ずつ調べ、位置合わせマークRの断片
とみなされる黒画素のランレングスを含むラインイメー
ジに当ったら、検索範囲をしぼり、その範囲内で細かく
(例えば1ドット間隔で)ラインイメージを調べ、その
プロジェクションAをとる。更にライン方向を例えば9
0度回転させ、その方向のラインイメージを細かい間隔
で調べ、そのプロジェクションBをとる。プロジェクシ
ョンAとBのエッジE1、E2、エッジE3、E4を見
つけ、その中心を通るラインを求め、その交点を得る。
この交点が位置合わせマークRの中心である。このよう
な処理をイメージRAM70の4つのコーナーで行うこ
とにより、4つの位置合わせマークRの中心位置が決ま
る。この方式の場合、4つの位置合わせマークRのう
ち、最大2箇所のマークが破壊されていても、その破壊
を検出でき(プロジェクションの形状やエッジ間の距離
が想定される基準から大きく異なるので検出でき)、残
る2つの健全な位置合わせマークRの位置が測定されれ
ば、後はイメージデータの規則性から網状パターンの各
網目の中心位置を正確に算出できるので、記録媒体14
上の汚れ等に対するデコード耐久力が強いという利点が
ある。
Next, a fourth modification will be described with reference to FIGS. 16 and 17. In this example, 4 are placed outside the mesh pattern 21.
One alignment mark R (here, a black circle) is provided, and from the image RAM 70 in the decoding process,
The center of the alignment mark R is measured, the center position of each mesh of the mesh pattern 21 is calculated from the result in accordance with some regularity, and the image bit at that position is sampled to identify the brightness of each mesh. To do. In order to detect the center of each alignment mark R, line images in the direction of, for example, 45 degrees are examined one by one from the edge of the image RAM 70 as shown in the enlarged image of FIG. When a line image including a run length of black pixels regarded as a fragment of is hit, the search range is narrowed down, the line image is examined finely (for example, at 1 dot intervals) within the range, and the projection A is taken. Furthermore, the line direction is, for example, 9
It is rotated by 0 degree, the line image in that direction is examined at fine intervals, and its projection B is taken. The edges E1 and E2 and the edges E3 and E4 of the projections A and B are found, a line passing through their centers is obtained, and their intersections are obtained.
This intersection is the center of the alignment mark R. By performing such processing at the four corners of the image RAM 70, the center positions of the four alignment marks R are determined. In the case of this method, even if a maximum of two marks among the four alignment marks R are destroyed, the destruction can be detected (because the shape of the projection and the distance between edges are greatly different from the assumed reference, detection is possible). If the positions of the remaining two sound alignment marks R are measured, the center position of each mesh of the mesh pattern can be calculated accurately from the regularity of the image data.
There is an advantage that the decoding durability against stains on the top is strong.

【0035】その他の変形例として、例えば、イメージ
センサーを磁気インク等に反応する磁気/電気変換タイ
プで構成してもよい。また機械的に走査されるイメージ
センサーの代りに、コストは高くなるが固定して使用さ
れる面積イメージセンサーを用いてもよい。
As another modification, for example, the image sensor may be of a magnetic / electric conversion type that reacts with magnetic ink or the like. Instead of a mechanically scanned image sensor, a fixed area image sensor may be used, although the cost is high.

【0036】[0036]

【発明の効果】以上の説明から明らかなように、この発
明では記録媒体上の網状パターンの画像をその距離精度
が実質上保存される形式で取り込むイメージセンサー手
段を設け、取り込んだ画像のイメージデータが全体とし
て有する幾可学的規則性に基づいてイメージデータにお
ける各網目を表わす画素データの位置を一括的に決定
し、決定された各位置にある画素データに基づいて各網
目の明暗を識別しているので、データ再生のための処理
量を削減でき、処理時間を短縮し、かつ誤りの少ない解
読が可能となり、実時間的な用途に最適である。
As is apparent from the above description, in the present invention, the image sensor means for taking in the image of the mesh pattern on the recording medium in a format in which the distance accuracy thereof is substantially preserved is provided, and the image data of the taken-in image is provided. The position of the pixel data representing each mesh in the image data is collectively determined based on the geometrical regularity that the whole has, and the brightness of each mesh is identified based on the pixel data at each determined position. Therefore, the processing amount for data reproduction can be reduced, the processing time can be shortened, and decoding with few errors can be performed, which is suitable for real-time use.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の実施例に係るデータ読取装置の全体
構成図。
FIG. 1 is an overall configuration diagram of a data reading device according to an embodiment of the present invention.

【図2】実施例の読取対象である網状パターンの符号化
画像を例示する図。
FIG. 2 is a diagram exemplifying a coded image of a mesh pattern which is a reading target of the embodiment.

【図3】実施例による走査・デコード処理のフローチャ
ート。
FIG. 3 is a flowchart of scanning / decoding processing according to the embodiment.

【図4】符号化画像に対するイメージセンサーの走査例
を示す図。
FIG. 4 is a diagram showing an example of scanning of an image sensor with respect to an encoded image.

【図5】走査例を拡大して示す図。FIG. 5 is an enlarged view showing a scanning example.

【図6】第1の変形例によるデコード処理のフローチャ
ート。
FIG. 6 is a flowchart of a decoding process according to a first modified example.

【図7】イメージRAM上のイメージデータの概略を示
し、主走査方向からみた網状パターンの長さの測定の説
明に用いた図。
FIG. 7 is a diagram showing an outline of image data on an image RAM, which is used for explaining measurement of the length of a mesh pattern seen from the main scanning direction.

【図8】主走査ラインイメージに係るランレングスのヒ
ストグラムを示す図。
FIG. 8 is a diagram showing a run-length histogram relating to a main scanning line image.

【図9】回転サーチによる網状パターンの縦の長さの測
定を説明するのに用いた図。
FIG. 9 is a view used for explaining measurement of a vertical length of a mesh pattern by rotation search.

【図10】イメージを拡大して示し、イメージビットパ
ターンの一致検出による網状パターンの方向決定を説明
するのに用いた図。
FIG. 10 is an enlarged view of an image and is used to explain the determination of the direction of a mesh pattern by detecting the coincidence of image bit patterns.

【図11】平行サーチによる網状パターンの境界の検出
の説明に用いた図。
FIG. 11 is a diagram used for explaining detection of a boundary of a mesh pattern by parallel search.

【図12】イメージビットパターンの最大不一致検出に
よる網目列間の境界決定を説明するのに用いた図。
FIG. 12 is a diagram used to explain the boundary determination between mesh columns by detecting the maximum mismatch of image bit patterns.

【図13】第2の変形例に係り、イメージRAM上の網
状パターンの輪郭線の検出を説明するのに用いた図。
FIG. 13 is a diagram according to the second modification and used for explaining the detection of the contour line of the mesh pattern on the image RAM.

【図14】第2の変形例のデコード処理のフローチャー
ト。
FIG. 14 is a flowchart of a decoding process of the second modified example.

【図15】第3の変形例に係り、2分サーチによりイメ
ージRAM上の網状パターンの隅の位置を検出する原理
を示す図。
FIG. 15 is a diagram showing a principle of detecting a corner position of a mesh pattern on an image RAM by a binary search according to a third modification.

【図16】第4の変形例に係り、網状パターンに位置合
わせマークを付加した符号化画像を取り込んだイメージ
RAMを示す図。
FIG. 16 is a diagram showing an image RAM in which a coded image in which a registration mark is added to a mesh pattern is taken in according to a fourth modification.

【図17】位置合わせマークの位置を測定する原理を示
す図。
FIG. 17 is a diagram showing the principle of measuring the position of an alignment mark.

【符号の説明】[Explanation of symbols]

10 データ読取装置 11 イメージセンサー 14 記録媒体 15 CPU 16 ROM 20 符号化画像 21 網状パターン 10 data reader 11 image sensor 14 recording medium 15 CPU 16 ROM 20 coded image 21 mesh pattern

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】各網目に選択的に形成された明暗によって
データを符号化した網状パターンの画像が記録された記
録媒体から、距離精度を実質上損うことなく上記画像を
表わすイメージデータを読み取るイメージセンサー手段
と、 上記イメージデータのもつ全体的な幾可学的規則性に基
づいて上記イメージデータにおける各網目を表わす画素
データの位置を一括的に決定する網目位置決定手段と、 決定された各位置にある画素データに基づいて上記各網
目の明暗を識別する網目明暗識別手段と、 を有することを特徴とするデータ読取装置。
1. Image data representing the image is read from a recording medium on which an image of a mesh pattern in which data is encoded by light and dark selectively formed on each mesh is recorded, without substantially impairing the distance accuracy. Image sensor means, mesh position determining means for collectively determining the position of pixel data representing each mesh in the image data based on the overall geometric regularity of the image data, A data reading device, comprising: a mesh light / dark discrimination means for discriminating the light / dark of each mesh based on the pixel data at the position.
JP4328970A 1992-11-16 1992-11-16 Data reader Expired - Lifetime JP2726969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4328970A JP2726969B2 (en) 1992-11-16 1992-11-16 Data reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4328970A JP2726969B2 (en) 1992-11-16 1992-11-16 Data reader

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP8342351A Division JP2737755B2 (en) 1996-12-09 1996-12-09 Data reader

Publications (2)

Publication Number Publication Date
JPH05314298A true JPH05314298A (en) 1993-11-26
JP2726969B2 JP2726969B2 (en) 1998-03-11

Family

ID=18216153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4328970A Expired - Lifetime JP2726969B2 (en) 1992-11-16 1992-11-16 Data reader

Country Status (1)

Country Link
JP (1) JP2726969B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5740286A (en) * 1995-03-10 1998-04-14 Sharp Kabushiki Kaisha Digital information decoding method having a re-reading step
JP2007538308A (en) * 2004-04-02 2007-12-27 シルバーブルック リサーチ ピーティワイ リミテッド Monolithic integrated circuit and device
US7636483B2 (en) 2003-12-05 2009-12-22 Fujitsu Limited Code type determining method and code boundary detecting method
JP2018085164A (en) * 2018-02-08 2018-05-31 大日本印刷株式会社 Data storage medium, data reading device, and data reading method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58170165A (en) * 1982-03-30 1983-10-06 Matsushita Graphic Commun Syst Inc Mark reading system
JPH0198087A (en) * 1987-10-09 1989-04-17 Yamatake Honeywell Co Ltd Method for reading quadruple square-shaped code

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58170165A (en) * 1982-03-30 1983-10-06 Matsushita Graphic Commun Syst Inc Mark reading system
JPH0198087A (en) * 1987-10-09 1989-04-17 Yamatake Honeywell Co Ltd Method for reading quadruple square-shaped code

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5740286A (en) * 1995-03-10 1998-04-14 Sharp Kabushiki Kaisha Digital information decoding method having a re-reading step
US7636483B2 (en) 2003-12-05 2009-12-22 Fujitsu Limited Code type determining method and code boundary detecting method
JP2007538308A (en) * 2004-04-02 2007-12-27 シルバーブルック リサーチ ピーティワイ リミテッド Monolithic integrated circuit and device
US7802731B2 (en) 2004-04-02 2010-09-28 Silverbrook Research Pty Ltd Surface having coded data layers
US7845562B2 (en) 2004-04-02 2010-12-07 Silverbrook Research Pty Ltd Decoding system for coded data
US7861143B2 (en) 2004-04-02 2010-12-28 Silverbrook Research Pty Ltd Method of data storage by encoding bit stream on surface
US8006167B2 (en) 2004-04-02 2011-08-23 Silverbrook Research Pty Ltd System for decoding coded data with PLL
JP2018085164A (en) * 2018-02-08 2018-05-31 大日本印刷株式会社 Data storage medium, data reading device, and data reading method

Also Published As

Publication number Publication date
JP2726969B2 (en) 1998-03-11

Similar Documents

Publication Publication Date Title
EP0669593B1 (en) Two-dimensional code recognition method
US6752316B2 (en) Two-dimensional code
JP2938338B2 (en) Two-dimensional code
KR100263734B1 (en) Two-dimensional code symbol mark decoding method
JP3115610B2 (en) High speed image capture system and method
US5726435A (en) Optically readable two-dimensional code and method and apparatus using the same
EP2248068B1 (en) Two-dimensional symbol and method for reading same
US6729542B2 (en) Method and apparatus for recording digital information in two-dimensional pattern, carrier of digital information recorded thereby, and a method and apparatus for decoding such digital information
JPH0286369A (en) Picture processing unit
US5854478A (en) Method and apparatus for reading machine-readable symbols having surface or optical distortions
JP2000163506A (en) Two-dimensional code reading method and record medium
JP2004054530A (en) Device, method, and program for reading two-dimensional code and recording medium for this program
JPH0612515A (en) Method and apparatus for decoding two-dimensional bar code using ccd/cmd camera
US7350710B2 (en) Two-dimensional code extracting method
JP2764224B2 (en) Method and apparatus for determining the position of a supplementary target
JP3716527B2 (en) 2D code reading method
US6268935B1 (en) Image processor
EP0333826A1 (en) Method and apparatus for analysing fingerprints
JP2726969B2 (en) Data reader
JPH0356402B2 (en)
JPH0666884B2 (en) Halftone photo area identification method
JPH08249412A (en) Digital information decoding method
JP2737755B2 (en) Data reader
JPS6027088A (en) Recording method and recording carrier of digital information
JP5453594B2 (en) Symbol information reading apparatus and symbol information reading method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071212

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081212

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091212

Year of fee payment: 12