JP2734639B2 - Data reading method and device - Google Patents

Data reading method and device

Info

Publication number
JP2734639B2
JP2734639B2 JP1145256A JP14525689A JP2734639B2 JP 2734639 B2 JP2734639 B2 JP 2734639B2 JP 1145256 A JP1145256 A JP 1145256A JP 14525689 A JP14525689 A JP 14525689A JP 2734639 B2 JP2734639 B2 JP 2734639B2
Authority
JP
Japan
Prior art keywords
image
synchronization mark
mark
data
mesh
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP1145256A
Other languages
Japanese (ja)
Other versions
JPH0311484A (en
Inventor
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KASHIO KEISANKI KK
Original Assignee
KASHIO KEISANKI KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KASHIO KEISANKI KK filed Critical KASHIO KEISANKI KK
Priority to JP1145256A priority Critical patent/JP2734639B2/en
Priority to US07/530,630 priority patent/US5153928A/en
Publication of JPH0311484A publication Critical patent/JPH0311484A/en
Priority to US07/869,012 priority patent/US5454054A/en
Priority to US08/451,544 priority patent/US5664030A/en
Priority to US08/451,545 priority patent/US5790715A/en
Application granted granted Critical
Publication of JP2734639B2 publication Critical patent/JP2734639B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [発明の技術分野] この発明は紙やシート等の記録媒体に記録された符号
化画像を取り込んで符号化されているデータを読み取る
データ読取方法および装置に関する。
Description: TECHNICAL FIELD [0001] The present invention relates to a data reading method and apparatus for reading an encoded data by taking an encoded image recorded on a recording medium such as paper or a sheet.

[背 景] 画像の符号化技術として従来よりバーコード技術が知
られているが、バーコードの場合、その構造上、記録で
きる情報量に限界があり、記録密度を高くできないとい
う問題があった。
[Background] A barcode technology has been conventionally known as an image coding technology. However, in the case of a barcode, the amount of recordable information is limited due to its structure, and there has been a problem that the recording density cannot be increased. .

最近、本件出願人はバーコードに代え、縦横に多数の
網目を配置し、各網目に選択的に形成した明暗によって
データを符号化したり網状パターンを符号化画像のデー
タ本体として使用し、このような符号化画像を取り込ん
で解読する技術を提案している(特願昭63−328028
号)。この方式の場合、記録媒体上において2次元的に
微少間隔で配置した網目の各々の明暗によって各データ
ビットが表現されるので、記録密度は大幅に改善でき
る。
Recently, the applicant has arranged a large number of meshes vertically and horizontally instead of barcodes, and encoded data by using light and dark selectively formed in each mesh, or used a mesh pattern as the data body of an encoded image. Technology that captures and decodes coded images (Japanese Patent Application No. 63-328028).
issue). In the case of this method, since each data bit is expressed by the brightness of each of the meshes arranged two-dimensionally at minute intervals on the recording medium, the recording density can be greatly improved.

この種の符号化画像に対するデータ解読の目的は網状
パターンにおける各網目の明暗を知ることにあるが、そ
のアプローチとしてイメージセンサーから取り込んだイ
メージデータ上から直接的に網目を探索する方式は一般
に不利であり、誤った認識が生じやすい。特に簡易なイ
メージセンサーとして、手動で記録媒体上の符号化画像
を走査するラインイメージスキャナを用いた場合には、
走査中における走査速度の変動や方向の変化のために、
相当の画像歪みが走査段階で発生し、取り込んだイメー
ジデータ上の各網目の位置が記録媒体上での各網目の位
置から大きくずれてしまい解読は極めて困難となる。走
査速度を測定するロータリエンコーダ等の特殊な機構を
イメージセンサーに設けることにより、この問題は軽減
されるがコスト型が避けられない。
The purpose of decoding data of this type of coded image is to know the brightness of each mesh in the mesh pattern, but the approach of searching for the mesh directly from the image data captured from the image sensor as an approach is generally disadvantageous. Yes, false recognition is likely to occur. In particular, when a line image scanner that scans an encoded image on a recording medium manually is used as a simple image sensor,
Due to fluctuations in scanning speed and changes in direction during scanning,
Considerable image distortion occurs in the scanning stage, and the position of each mesh on the captured image data is greatly displaced from the position of each mesh on the recording medium, making it extremely difficult to decode. By providing a special mechanism such as a rotary encoder for measuring the scanning speed in the image sensor, this problem is reduced, but the cost type cannot be avoided.

そこで、上述した特願昭63−328028号では記録媒体上
の符号化画像のなかに、網状パターンの各網目の主走査
方向での中心位置(網目の縦方向での中心)を指示する
ための主走査基準パターンと、副走査方向での中心位置
(網目の横方向での中心)を指示するための副走査基準
パターンとを追加し、解読作業において、この符号化画
像を取り込んだイメージデータ上から、各走査基準パタ
ーンの位置を認識し、その結果からイメージデータ上で
の各網目の中心位置を決定し、そこにある網目の明暗を
代表するイメージビット(画素)をサンプリングしてい
る。特に実施例では、縦横に等間隔で網目を配した網状
パターンの外側に主走査基準パターンとしての2本のガ
イドラインを網状パターンを挾むようにして平行に配置
するとともに、副走査基準パターンとして黒の網目と白
の網目(クロック)を交互に繰り返すパターンの同期マ
ークを各ガイドラインの内側に沿って設けており、この
2つの同期マークの対応するクロック同士を結ぶ線上に
網状パターンの縦の網目の列が一致するようにしてい
る。このような符号化画像に対し、ラインイメージセン
サーがほぼガイドライン方向に沿って動かされ、そのイ
メージデータを1ラインずつ取り込む。解読作業におい
て、イメージデータの各主走査ラインイメージの両端か
ら中央に向って画素値が調べられ、最初の白から黒への
変化を検出することにより、その主走査ラインイメージ
におけるガイドライン位置を得ている。イメージデータ
上の各主走査ラインイメージは記録媒体上の網目パター
ンを完全には縦方向ではなくラインイメージごとに変動
を受けながら斜めに横切った線上の画像部を表わしてい
る。しかし、その場合であっても、斜線上の2つのガイ
ドライン位置間(ガイドライン間隔)を適当に等分した
点が、網状パターンにおける各網目の縦方向の中心(及
び同期マークの網目の縦方向の中心)に位置するように
符号化画像が構成されている。そこで、この性質を利用
し、各主走査ラインイメージのガイドライン位置間を画
像フォーマットに従って等分し、各等分点のイメージビ
ットをサンプリングして主走査デコードされたイメージ
データを得る。この主走査デコードされたイメージデー
タの両側にある配列(イメージドット列)は同期マーク
の縦方向の中心を仙ったイメージを表わしており、この
イメージドット列を仙ってゆけば、同期マークの各網目
(クロック)を表わす白画素のランレングス(連なり)
と黒画素のランレングスとが交互に観察されるはずであ
る。そして、各ランレングスの中心が同期マークのクロ
ックの横方向の中心と考えられ、両側の同期マークのイ
メージドット列にある対応するランレングスの中心を結
ぶ線が網状パターンの縦の網目列の横方向の中心を通る
と考えられる。そこで、この原理に従って、主走査デコ
ードされたイメージデータから同期マークの各クロック
の中心を検出し、対応する両側のクロックの中心同士を
結ぶ線上にある各イメージドット(画素値)をサンプリ
ングすることにより、網状パターンにおける各網目の明
暗が識別される。
Therefore, in the above-mentioned Japanese Patent Application No. 63-328028, the center position (the center in the vertical direction) of each mesh of the mesh pattern in the main scanning direction is specified in the encoded image on the recording medium. A main scanning reference pattern and a sub-scanning reference pattern for indicating the center position in the sub-scanning direction (the center in the horizontal direction of the mesh) are added. , The position of each scanning reference pattern is recognized, the center position of each mesh on the image data is determined from the result, and the image bits (pixels) representing the brightness of the mesh there are sampled. In particular, in the embodiment, two guide lines as a main scanning reference pattern are arranged in parallel outside the mesh pattern in which meshes are arranged vertically and horizontally at equal intervals so as to sandwich the mesh pattern, and a black mesh is used as a sub-scanning reference pattern. Synchronous marks of a pattern in which white meshes (clocks) are alternately repeated are provided along the inside of each guideline, and the vertical mesh rows of the mesh pattern coincide with the lines connecting the corresponding clocks of the two synchronous marks. I am trying to do it. For such an encoded image, the line image sensor is moved substantially along the guideline direction, and the image data is fetched line by line. In the decoding operation, the pixel values are checked from both ends of each main scanning line image of the image data toward the center, and by detecting the first change from white to black, a guideline position in the main scanning line image is obtained. I have. Each main scanning line image on the image data represents an image portion on a line obliquely crossing the mesh pattern on the recording medium, not completely in the vertical direction, but with fluctuations for each line image. However, even in this case, the point at which the distance between the two guide lines on the diagonal line (guide line interval) is appropriately equally divided is the vertical center of each mesh in the mesh pattern (and the vertical mark of the synchronization mark mesh). The encoded image is configured to be located at (center). Therefore, utilizing this property, the positions between the guide line positions of each main scanning line image are equally divided according to the image format, and the image bits at each equally dividing point are sampled to obtain image data decoded in the main scanning. An array (image dot row) on both sides of the main scan decoded image data represents an image that has shifted from the center of the synchronization mark in the vertical direction. Run length (run) of white pixels representing each mesh (clock)
And the run length of the black pixel should be observed alternately. The center of each run length is considered to be the horizontal center of the clock of the synchronization mark, and the line connecting the centers of the corresponding run lengths in the image dot rows of the synchronization marks on both sides is the horizontal line of the vertical mesh row of the mesh pattern. It is thought to pass through the center of the direction. Therefore, according to this principle, the center of each clock of the synchronization mark is detected from the image data decoded in the main scanning, and each image dot (pixel value) on a line connecting the centers of the corresponding clocks on both sides is sampled. , The brightness of each mesh in the mesh pattern is identified.

以上のようにコストのかからない走査基準パターンを
符号化画像に付加し、取り込んだイメージデータから走
査基準パターンの各位置を検出することにより、歪んだ
イメージデータ上から直接的に網状パターンの各網目を
探索するという困難な問題を避けて各網目の位置を求め
ることが可能となった。
As described above, the scan reference pattern that does not cost is added to the encoded image, and each position of the scan reference pattern is detected from the captured image data, so that each mesh of the mesh pattern can be directly obtained from the distorted image data. It has become possible to find the position of each mesh without the difficult problem of searching.

しかし、記録媒体の符号化画像自体に汚れ等のキズが
あり、それによって走査基準パターンが部分的に潰れた
り、欠けたりして損傷を受けているような場合には、上
述したような解読方法では汚れ等を走査基準パターンの
断片と見誤るおそれが多分にあり、その結果を基に決め
られるイメージデータ上の網状パターンの各網目の位置
に狂いが生じ、でたらめな明暗識別結果をもたらすとい
う問題があった。例えば、副操作基準パターンとしての
同期パターンのある白クロックのところが黒く潰れて前
後の黒クロックとつながってしまったとすると、イメー
ジデータ上でこのような同期パターンの各クロックを検
出する場合に、上記白クロックを読み飛ばすことになり
(3つの黒、白、黒のクロックの1つの黒クロックとし
て検出し)、このエラーが伝搬して残りのすべての解読
が誤ってしまう。こうなっては後の検査コード(網状パ
ターンに含めた冗長コード)等によるエラー訂正処理で
エラーを検出しても、訂正能力をはるかに超えるエラー
のために訂正は不可能となる。
However, if the encoded image itself on the recording medium has a flaw such as dirt and the scanning reference pattern is partially crushed or missing or damaged, the above-described decoding method is used. In such a case, there is a possibility that a stain or the like may be mistaken for a fragment of the scanning reference pattern. was there. For example, assuming that a white clock having a synchronization pattern as a sub-operation reference pattern is crushed black and connected to the preceding and succeeding black clocks, the above-described white clock is detected when detecting each clock of such a synchronization pattern on image data. The clock is skipped (detected as one black clock of the three black, white, and black clocks), and this error propagates, causing all other decoding errors. In this case, even if an error is detected by an error correction process using a later check code (redundant code included in the mesh pattern) or the like, the error cannot be corrected because the error far exceeds the correction capability.

[発明の目的] したがって、この発明の目的は網状パターンをデータ
本体とする符号化画像の走査基準パターンが記録媒体上
の汚れ等によって部分的に破壊された場合でも、イメー
ジデータ上における正しい走査基準パターンの各位置を
割り出すことができるデータ読取方法及び装置を提供す
ることである。
[Object of the Invention] Accordingly, an object of the present invention is to provide a method for correctly determining a scanning reference pattern on image data even when a scanning reference pattern of an encoded image having a net-like pattern as a data body is partially destroyed due to dirt on a recording medium or the like. An object of the present invention is to provide a data reading method and device capable of determining each position of a pattern.

[発明の構成、作用] この発明は上記の目的を達成するため、網状パターン
と該網状パターンの副走査方向におけるデータサンプリ
ング基準を指示するための同期マークの列とを含む画像
が記録された記録媒体からその画像を表わすイメージデ
ータを読み取り、読み取られたイメージデータから上記
同期マークの列を探索し、この探索において、少なくと
も1つの同期マークの位置と隣り合う同期マーク間の間
隔とを検出し、検出された位置と間隔を特徴パラメータ
として決定し、決定された特徴パラメータから隣りの同
期マークの位置を予測し、予測された位置を中心として
上記隣りの同期マークを実測し、実測結果の位置と上記
予測された位置とを比較し、比較結果が実質上一致のと
きは実測結果に従って上記隣りの同期マークの位置を決
定し、比較結果が実質上不一致のときは決定された特徴
パラメータから上記隣りの同期マークの位置を決定し、
上記予測、実測、比較、決定の処理をすべての同期マー
クについて繰り返すことによりすべての同期マークの位
置情報を生成し、生成された位置情報に基づいて上記網
状パターンの各網目の明暗を識別することを特徴とす
る。
[Constitution and operation of the invention] In order to achieve the above object, the present invention provides a recording method in which an image including a reticulated pattern and a row of synchronization marks for indicating a data sampling reference in the sub-scanning direction of the reticulated pattern is recorded. Reading image data representing the image from the medium, searching the row of the synchronization marks from the read image data, detecting the position of at least one synchronization mark and the interval between adjacent synchronization marks in the search; Determine the detected position and interval as a feature parameter, predict the position of the adjacent synchronization mark from the determined feature parameter, measure the adjacent synchronization mark with the predicted position as the center, the position of the measurement result and Comparing with the predicted position, and when the comparison result substantially matches, the position of the adjacent synchronization mark is determined according to the actual measurement result. Determined, when the comparison result is substantially inconsistent, determine the position of the adjacent synchronization mark from the determined feature parameter,
The position information of all the synchronization marks is generated by repeating the processing of the prediction, the actual measurement, the comparison, and the determination for all the synchronization marks, and the brightness of each mesh of the mesh pattern is identified based on the generated position information. It is characterized by.

この構成によれば、汚れ等により破壊された走査基準
パターンの部分は、上記予測、実測、比較を通して得ら
れる予測点と実測点とが実質上不一致となることから検
出でき、その場合、既に決定されている特徴パラメータ
(例えば破壊箇所の近くから得た同期マークの間隔や位
置)から破壊された同期マークの位置を決定しているの
で、走査基準パラメータに部分的に破壊が生じている場
合でも、本来の同期マーク位置を高い精度で求めること
ができ、このようにして得た位置情報に基づいて行われ
る網状パターンの各網目の明暗の識別を確実なものにす
ることができる。
According to this configuration, the portion of the scan reference pattern destroyed due to dirt or the like can be detected because the predicted point obtained through the above-described prediction, actual measurement, and comparison substantially does not match the actual measured point. Since the position of the broken synchronization mark is determined from the characteristic parameters (for example, the intervals and positions of the synchronization marks obtained near the broken point), even if the scanning reference parameter is partially broken, The original synchronization mark position can be obtained with high accuracy, and the distinction of the brightness of each mesh of the mesh pattern performed based on the position information thus obtained can be made sure.

イメージセンサーによる符号化画像の走査中に、走査
方向や走査速度が変動を受けるような環境で使用するよ
うな場合は、実測結果によって同期マークの位置を決定
したものについては、その実測結果によって次の同期マ
ークに対する標準となる上記特徴パラメータを更新する
とよい。
If the scanner is used in an environment where the scanning direction and scanning speed fluctuate while the encoded image is being scanned by the image sensor, if the position of the synchronization mark is determined based on the actual measurement results, the next It is preferable to update the above-mentioned feature parameter which is a standard for the synchronization mark.

実測結果の位置と予測された位置とを比較する場合に
おける「位置」の意味は広義に解されるべきであり、破
壊に関連して値が変化するようなパラメータを含み得
る。例えば、隣り合う同期クロックの間隔は片方の同期
マークが汚れによってその中心位置が大きく変化すれ
ば、その変化に対応してずれるわけであり、予想した同
期クロック間隔と実測した同期間隔とは実質上不一致と
して検出される。また、同期マークのサイズについて
も、潰れている同期マークのサイズは正規の同期マーク
として予想したサイズから大きくはずれるので比較によ
って検出できる。
The meaning of “position” when comparing the position of the actual measurement result with the predicted position is to be understood in a broad sense, and may include a parameter whose value changes in relation to destruction. For example, if the center position of one of the synchronization marks greatly changes due to dirt, the interval between adjacent synchronization clocks is shifted in accordance with the change, and the expected synchronization clock interval and the actually measured synchronization interval are substantially different. Detected as mismatch. Also, the size of the sync mark can be detected by comparison since the size of the crushed sync mark greatly deviates from the size expected as a normal sync mark.

符号化画像を走査するライン型のイメージセンサーが
走査中、その移動方向(副走査方向)に変動を受けるよ
うな場合、走査基準パターンのために、符号化画像の平
均的な副走査方向に沿って並べられた同期マークの列を
少なくとも2列用意し、各列間を主走査方向に隔てて配
置するのが好ましい。このような2列の同期マーク列を
使用した場合、片方の同期マーク列と他方の同期マーク
列との間で、1対1で同期マークを対応づけることがで
きるので、この性質を利用して片方の同期マークが破壊
されているところは他方の列における対応する同期マー
クが破壊されていなければ、その実測位置と各同期マー
ク列における隣りの健全な同期マークの実測位置間の関
係(位置ベクトル)とから、その位置を高精度に決定す
ることができる(列上における同期マークの間隔は十分
狭くできるので、その間に走査方向に変化があってもほ
とんどの場合、その変化の大きさはごくわずかであ
る)。
If the line type image sensor that scans the encoded image fluctuates in the moving direction (sub-scanning direction) during scanning, the scanning image may be moved along the average sub-scanning direction of the encoded image due to the scanning reference pattern. It is preferable to prepare at least two rows of synchronization marks arranged side by side, and to arrange each row at a distance in the main scanning direction. When such two synchronization mark strings are used, one synchronization mark string and the other synchronization mark string can be associated one-to-one with synchronization marks. Where one of the sync marks is broken, the relationship between its measured position and the measured position of the adjacent sound sync mark in each sync mark row (position vector ), The position can be determined with high precision (because the interval between the synchronization marks on the row can be made sufficiently small, even if there is a change in the scanning direction during that time, in most cases, the magnitude of the change is extremely small. Is slight).

このための好ましい構成例として、(A)縦横に並べ
られた複数の網目のそれぞれに形成された明暗によって
データを符号化した網状パターンと、該網状パターンの
上と下の両側に設けられ、該網状パターンの横方向に沿
って、各網目の横方向の長さに対応する間隔で交互に明
と暗を繰り返す同期マーク列とから成る画像が記録され
た記録媒体から、該画像を表わすイメージデータを読み
取り、(B)読み取られたイメージデータから、上記同
期マーク列を探索し、この探索において、(i)各側の
同期マーク列の最初の同期マークの中心位置、及び横方
向の長さを検出するとともに、上側の同期マーク列の最
初の同期マークの中心位置と下側の同期マーク列の最初
の中心位置との位置関係を表わす傾きを検出し、該中心
位置、横方向の長さ、傾きから成る特徴パラメータを決
定し、(ii)決定された特徴パラメータから各側の同期
マーク列の隣りの同期マークの中心位置を予測し、(ii
i)予測された中心位置を基に上記隣りの同期マークに
ついて、中心位置、横方向の長さ、傾きを実測して実測
パラメータを求め、(iv)各側について、予測された中
心位置と実測された中心位置とを比較し、(v)比較結
果が、(a)いずれの側においても所定の範囲内で一致
するときは実測パラメータに従って上記隣りの同期マー
クの位置を決定するとともに実測パラメータで特徴パラ
メータを更新し、(b)一方の側では所定の範囲内で一
致するが他方の側では所定の範囲内で一致しないときは
一方の側の隣りの同期マークの位置を実測パラメータが
示す当該一方の側の同期マークの実測中心位置に従って
決定するとともに他方の側の隣りの同期マークの位置
を、上記一方の側の同期マークの実測中心位置と上記特
徴パラメータに含まれる傾きとから決定し、(c)いず
れの側でも所定の範囲内で一致しないときは予測された
中心位置により上記隣りの同期マークの位置を決定し、
(vi)上記(ii)から(v)の処理をすべての同期マー
クについて繰り返すことにより、すべての同期マークの
位置情報を生成し、(C)生成された位置情報に基づい
て上記網状パターンの各網目の明暗を識別することを特
徴とするデータ読取方法、装置が提供される。
As a preferable configuration example for this purpose, (A) a net-like pattern formed by arranging data in each of a plurality of meshes arranged vertically and horizontally by coding light and shade, and provided on both upper and lower sides of the net-like pattern, The image data representing the image is read from a recording medium on which an image composed of a synchronization mark sequence in which light and dark alternately repeat light and dark alternately at intervals corresponding to the horizontal length of each mesh along the horizontal direction. , (B) searching the read image data for the synchronization mark sequence, and in this search, (i) detecting the center position and the horizontal length of the first synchronization mark in the synchronization mark sequence on each side. At the same time, the inclination indicating the positional relationship between the center position of the first synchronization mark in the upper synchronization mark row and the first center position of the lower synchronization mark row is detected, and the center position and the length in the horizontal direction are detected. Determining characteristic parameters consisting of the slope, to predict a synchronization mark center position of the next synchronization mark train on each side from the characteristic parameters determined (ii), (ii
i) With respect to the adjacent synchronization mark based on the predicted center position, the center position, the length in the horizontal direction, and the inclination are measured to obtain measured parameters. (iv) For each side, the predicted center position and the measured value are measured. (V) When the comparison result is within a predetermined range on either side, the position of the adjacent synchronization mark is determined in accordance with the measured parameters, and The feature parameters are updated, and (b) when one side matches within the predetermined range but does not match within the predetermined range on the other side, the actual measurement parameter indicates the position of the synchronization mark adjacent to one side. The position of the adjacent synchronization mark on the other side is determined according to the measured center position of the synchronization mark on one side, and the position of the adjacent synchronization mark on the other side is included in the measured center position of the synchronization mark on the one side and the characteristic parameter. Determined from the slope to determine the position of the synchronization mark next to the the predicted center position when not match within the predetermined range in (c) either side,
(Vi) By repeating the above processes (ii) to (v) for all the synchronization marks, position information of all the synchronization marks is generated, and (C) each of the mesh patterns is generated based on the generated position information. A data reading method and apparatus are provided, which distinguish between light and dark of a mesh.

なお、以下の実施例の説明では、同期マーク列の構成
要素である同期マークのことをクロックまたはクロック
マークと呼んでいる。
In the following description of the embodiment, the synchronization mark, which is a component of the synchronization mark sequence, is called a clock or a clock mark.

[実施例] 以下、図面を参照してこの発明の実施例を説明する。Embodiment An embodiment of the present invention will be described below with reference to the drawings.

第1実施例 第1図は第1実施例に係るデータ読取装置10の全体構
成を示したものである。装置全体の目的は、紙等の記録
媒体に記録された網状の画像20(第2図参照)をイメー
ジセンサー11で読み取り、画像に符号化されているデー
タを解読することである。
First Embodiment FIG. 1 shows the overall configuration of a data reading device 10 according to a first embodiment. The purpose of the entire apparatus is to read a net-like image 20 (see FIG. 2) recorded on a recording medium such as paper with the image sensor 11 and decode data encoded in the image.

イメージセンサー11は例えばCCD素子の検出アレイを
含む手動式のラインイメージセンサーであり、手動によ
り、記録媒体の副走査方向(横方向)に動かされること
によって、記録媒体上の符号化画像20を走査し、対応す
るイメージデータを発生する。詳細には、検出アレイの
各検出素子において、入力光、即ち、各検出素子に対向
する記録媒体上の画素の明暗に従う入力光がアナログ電
気信号に光電変換され、主走査1ライン分の時間を定め
る所定の周期(主走査周期)ごとに検出アレイの全検出
素子分のラインイメージ出力が得られるように、各検出
素子のアナログイメージ出力がアナログマルチプレクサ
等を介して順番にかつ周期的に取り出される。しかる
後、2値化回路にて2値化され(例えば、黒画素は
“1"、白画素は“0")、この2値化された直列のイメー
ジデータがタイミング制御信号とともに制御回路12へ伝
送される。制御回路12ではイメージセンサー11関係の制
御と、直列に送られてくるイメージデータの並列変換を
行う。
The image sensor 11 is, for example, a manual line image sensor including a detection array of CCD elements, and scans the encoded image 20 on the recording medium by being manually moved in the sub-scanning direction (horizontal direction) of the recording medium. And generate corresponding image data. In detail, in each detection element of the detection array, input light, that is, input light according to the brightness of pixels on a recording medium facing each detection element is photoelectrically converted into an analog electric signal, and the time for one main scanning line is reduced. An analog image output of each detection element is sequentially and periodically extracted via an analog multiplexer or the like so that a line image output for all the detection elements of the detection array is obtained at every predetermined period (main scanning period). . Thereafter, the image data is binarized by a binarization circuit (for example, “1” for black pixels and “0” for white pixels), and the binarized serial image data is sent to the control circuit 12 together with a timing control signal. Transmitted. The control circuit 12 controls the image sensor 11 and performs parallel conversion of image data sent in series.

一方、CPU13はROM14に記憶されたプログラムに従って
動作し、イメージセンサー11が画像の走査を行っている
間は、制御回路12で直列イメージデータが並列変換され
る都度、その並列データをイメージRAM15に書き込んで
いく。画像走査の終了後、CPU13はイメージRAM15に記録
されているイメージデータの解読作業に入り、その結果
をRAM16に記録する。解読作業は大きく分けて、イメー
ジデータからデータのサンプリング基準パターンを認識
する処理と、その結果に基づいてデータ本体である網状
パターンの各網目の明暗を識別する処理とから成る。本
実施例によればサンプリング基準パターンが汚れ等によ
って部分的に破壊されている場合でも、イメージデータ
上におけるサンプリング基準パターンの各位置を高い精
度で割り出すことができ、これによって網状パターンに
対する正確な解読結果が得られるようにしている。その
詳細は後述する。
On the other hand, the CPU 13 operates according to the program stored in the ROM 14, and while the image sensor 11 is scanning an image, the parallel data is written to the image RAM 15 every time the serial image data is converted into parallel by the control circuit 12. Go out. After the end of the image scanning, the CPU 13 starts decoding the image data recorded in the image RAM 15 and records the result in the RAM 16. The decoding operation is roughly divided into a process of recognizing a data sampling reference pattern from image data, and a process of identifying the brightness of each mesh of a mesh pattern as a data body based on the result. According to the present embodiment, even when the sampling reference pattern is partially destroyed due to dirt or the like, it is possible to determine each position of the sampling reference pattern on the image data with high accuracy, thereby accurately decoding the mesh pattern. Make sure you get results. The details will be described later.

第2図はデータ読取装置10の読取対象である記録媒体
上の符号化画像の例である。図示の符号化画像20は内部
にデータ本体としての網状パターン22を有している。網
状パターン22は縦横に並べられた多数の網目から成り、
各網目はデータの単位であるビットを表現(符号化)す
るため、選択的に暗(黒)または明(白)になってお
り、例えば、黒の網目でビット“1"を表現し、白の網目
でビット“0"を表現している。図の例では網状パターン
22は48×72ビットの情報をもっている。更に、符号化画
像20はデータ本体である網状パターン22に対する主走査
と副走査のデータサンプリング基準を指示するためのパ
ターンないしマークをもっている。第2図の場合、主走
査のサンプリング基準のマークと副走査のサンプリング
基準のマークとは別々になっており、主走査のサンプリ
ング基準は網状パターン22の上と下の両側に沿って副走
査方向に延在する2本のガイドライン21によって与えら
れ、副走査のサンプリング基準は各ガイドライン21の内
側に沿って、交互に黒と白の網目を繰り返すパターンを
もつ2つの同期マーク列25によって与えられる。同期マ
ーク列25の黒白網目の間隔は網状パターン22の副走査方
向の網目の間隔に一致するかたちで同期しているので、
同期マーク列25の各網目のことをクロックと呼ぶことに
する。
FIG. 2 is an example of an encoded image on a recording medium to be read by the data reading device 10. The illustrated encoded image 20 has a mesh pattern 22 as a data body inside. The mesh pattern 22 is composed of a large number of meshes arranged vertically and horizontally,
Each mesh is selectively dark (black) or light (white) in order to represent (encode) a bit which is a unit of data. For example, a bit "1" is represented by a black mesh, The bit "0" is represented by the mesh of "." In the example in the figure, a mesh pattern
22 has 48 × 72 bits of information. Further, the encoded image 20 has a pattern or a mark for designating a data sampling reference for main scanning and sub-scanning with respect to the net pattern 22 as the data body. In the case of FIG. 2, the main scanning sampling reference mark and the sub scanning sampling reference mark are separate, and the main scanning sampling reference extends in both directions above and below the mesh pattern 22 in the sub scanning direction. The sampling reference for the sub-scan is given by two synchronization mark trains 25 having a pattern of alternating black and white meshes along the inside of each guide line 21. Since the interval between the black and white meshes of the synchronization mark row 25 is synchronized with the interval between the meshes in the sub-scanning direction of the mesh pattern 22,
Each mesh of the synchronization mark train 25 is called a clock.

主走査基準パターンとして間隔をあけた2本のガイド
ライン21を、イメージセンサー11の移動方向、即ち画像
20の副走査方向に沿って設けたのは、画像の走査中にイ
メージセンサー11の方向が変化した場合にも対応できる
ようにするためである。即ち、イメージセンサー11から
のイメージデータは主走査ライン別に識別可能な仕方で
イメージRAM15に記憶されるが、記憶された各々の主走
査ラインイメージデータがどの方向でのライン画像を示
しているかはっきりしない。しかし、各主走査ラインイ
メージデータ上における2つのガイドライン21の位置を
検出することにより、その検出結果から、網状パターン
22の各網目の縦方向の中心位置(あるいは縦方向の存在
範囲でもよい)に相当する各主走査ラインイメージデー
タ上における位置(主走査データサンプリングの中心位
置)を、原画がもつ位置関係、即ちオリジナルである記
録媒体上の符号化画像において2つのガイドライン21と
網状パターン22との間に形成されている所定の位置関係
に従って決定することができる。例えば、第2図の画像
フォーマットの場合、2つのガイドライン21は互に平行
で、かつ網状パターン22に対しても平行であり、上のガ
イドライン21の1点と下のガイドライン21の1点とを結
ぶ直線は網状パターン22における等間隔の複数の網目を
通るので、そのような直線の画像を表わすラインイメー
ジデータにも、このことが保存されているはずであり、
したがって、そのラインイメージデータ上から、両ガイ
ドライン21の点をみつけ、その間を等分することで、そ
のライン画像における各網目の主走査方向での中心位置
が得られる。
Two spaced guidelines 21 are used as the main scanning reference pattern in the moving direction of the image sensor 11,
The reason why they are provided along the 20 sub-scanning directions is to cope with a case where the direction of the image sensor 11 changes during scanning of an image. That is, the image data from the image sensor 11 is stored in the image RAM 15 in a manner identifiable for each main scanning line, but it is not clear in which direction the stored main scanning line image data indicates a line image in which direction. . However, by detecting the position of the two guide lines 21 on each main scan line image data, the detection result indicates
The position on the main scanning line image data (the center position of the main scanning data sampling) corresponding to the vertical center position (or vertical existence range) of each of the 22 meshes is a positional relationship of the original image, that is, It can be determined according to a predetermined positional relationship formed between the two guidelines 21 and the mesh pattern 22 in the encoded image on the original recording medium. For example, in the case of the image format shown in FIG. 2, the two guidelines 21 are parallel to each other and also parallel to the mesh pattern 22, and one point of the upper guideline 21 and one point of the lower guideline 21 are defined. Since the connecting straight line passes through a plurality of meshes at equal intervals in the mesh pattern 22, this should be stored in the line image data representing the image of such a straight line,
Therefore, the center position in the main scanning direction of each halftone in the line image can be obtained by finding the points of both guidelines 21 from the line image data and equally dividing the points.

一方、副走査基準パターンである同期マーク列25は取
り込んだイメージデータにおける副走査方向における各
網目の位置を決定するのに利用される。即ち、上と下の
各同期マーク列25の各クロックをイメージデータ上から
検出し、上と下の対応するクロック同士に着目する。第
2図の符号化画像フォーマットの場合、この対応するク
ロック同士の中心を結ぶ直線は網状パターン22の縦のあ
る列における各網目の横方向(副走査方向)での中心を
通る。したがって、1対の同期マーク列25の各クロック
の位置をイメージデータ上から検出することにより、イ
メージデータ上における網状パターン22の各網目の副走
査方向の中心位置あるいは副走査方向での存在範囲を決
定できる。
On the other hand, the synchronization mark row 25, which is a sub-scanning reference pattern, is used to determine the position of each mesh in the sub-scanning direction in the captured image data. That is, the respective clocks of the upper and lower synchronization mark trains 25 are detected from the image data, and attention is paid to the corresponding upper and lower clocks. In the case of the encoded image format shown in FIG. 2, the straight line connecting the centers of the corresponding clocks passes through the center in the horizontal direction (sub-scanning direction) of each mesh in a certain vertical column of the mesh pattern 22. Therefore, by detecting the position of each clock of the pair of synchronization mark trains 25 from the image data, the center position of each mesh of the mesh pattern 22 on the image data in the sub-scanning direction or the existing range in the sub-scanning direction can be determined. Can decide.

更に、第2図の符号化画像20の場合、網状パターン22
に先立って走査される領域に市松模様の網目群から成る
データ開始マーク23があり、網状パターン22の走査後に
走査される領域には横に細長く主走査方向に沿って交互
に黒と白を繰り返すデータ終了マーク24が形成されてい
る。この例のようにデータ開始マーク23、終了マーク24
は周期的あるいは規則的なパターンとすることでイメー
ジデータ上においてこれらのマークを容易に検出するこ
とができる。また、この例のように、データ開始マーク
23と終了マーク24とを視覚上、区別しやすいパターンに
することにより、使用者は符号化画像20に対するイメー
ジセンサー11の走査方向(移動方向)を容易に判断でき
る。更に、主走査基準としてのガイドライン21の端の部
分が汚れ等で破壊されていても、データ開始マーク23あ
るいは終了マーク24を検出することで、データの開始や
終了を検出でき、更にはガイドライン21のつぶれた位置
を予測ないし評価することも可能となる。
Further, in the case of the encoded image 20 shown in FIG.
There is a data start mark 23 consisting of a checkered mesh group in the area scanned prior to scanning, and the area scanned after the scanning of the mesh pattern 22 is elongated horizontally and alternately repeats black and white along the main scanning direction. A data end mark 24 is formed. Data start mark 23, end mark 24 as in this example
By using a periodic or regular pattern, these marks can be easily detected on the image data. Also, as in this example, the data start mark
The user can easily determine the scanning direction (moving direction) of the image sensor 11 with respect to the encoded image 20 by making the pattern that makes it easy to visually distinguish the 23 and the end mark 24 from each other. Further, even if the end portion of the guideline 21 as the main scanning reference is broken by dirt or the like, the start or end of data can be detected by detecting the data start mark 23 or the end mark 24. It is also possible to predict or evaluate the collapsed position.

第3図は第2図に示す符号化画像をイメージセンサー
11でややていねいに手動走査した場合に得られるイメー
ジを示したものである。実施例によれば、図示の程度の
歪みであれば、サンプリング基準パターンの部分的な欠
損、即ち、ガイドライン21や同期マーク列25が多少破壊
されていても、十分に対応でき、正しい解読結果を与え
ることができる。
FIG. 3 shows an image sensor using the encoded image shown in FIG.
FIG. 11 shows an image obtained in the case where manual scanning is performed with care. According to the embodiment, if the distortion is as shown, even if the sampling reference pattern is partially lost, that is, even if the guide line 21 and the synchronization mark row 25 are slightly destroyed, it is possible to sufficiently cope with the error and obtain a correct decoding result. Can be given.

以下、実施例によるイメージデータの解読処理につい
て説明する。
Hereinafter, the decoding process of the image data according to the embodiment will be described.

第4図は符号化画像20を走査したイメージデータのス
トアと、ストアされたイメージデータから主走査基準パ
ターンであるガイドライン21を認識して、イメージデー
タを主走査サンプリングする処理のフローチャートであ
り、第5図は主走査サンプリングされたイメージデータ
から、副走査基準パターンである同期マーク列25を認識
してイメージデータの副走査サンプリングを行う処理の
フローチャートである。この実施例は、ガイドライン21
の認識と同期マーク列25の認識に特徴を有しており、以
下説明するように、多少の破壊がガイドライン21や同期
マーク列25に生じている場合でも、高い精度で破壊され
ている位置を割り出すことができる。
FIG. 4 is a flowchart of a process of storing image data obtained by scanning the encoded image 20 and recognizing a guideline 21 which is a main scanning reference pattern from the stored image data, and performing main scanning sampling of the image data. FIG. 5 is a flowchart of a process of recognizing a synchronization mark row 25 as a sub-scanning reference pattern from image data subjected to main-scan sampling and performing sub-scan sampling of the image data. This example is based on Guideline 21
And the recognition of the synchronization mark row 25, and as described below, even if some destruction occurs in the guideline 21 or the synchronization mark row 25, the position of the destruction can be determined with high accuracy. You can figure it out.

第4図において、4−1から4−5は記録媒体の符号
化画像20をイメージセンサー11で読み取ってイメージRA
M15に書き込む工程である。なお、4−3に示す走査終
了条件(メモリ一杯)は単なる例示であり、他の任意の
適当なイベント発生を走査終了の合図とすることができ
る。また、4−4に示すように、イメージRAM15として
バイトメモリを想定している。第6図はイメージRAM15
のメモリマップを示したもので、図の横の1行(イメー
ジRAM15のl個の連続アドレス)に、1ライン分のイメ
ージ(ラインイメージ)が書き込まれる。
In FIG. 4, reference numerals 4-1 to 4-5 denote an encoded image 20 of the recording medium read by the image sensor 11 and an image RA.
This is the step of writing to M15. Note that the scan end condition (full memory) shown in 4-3 is merely an example, and any other appropriate event occurrence can be used as a signal to end the scan. Further, as shown in 4-4, a byte memory is assumed as the image RAM 15. Figure 6 shows the image RAM15
The image (line image) for one line is written in one row (l consecutive addresses of the image RAM 15) on the horizontal side of the figure.

イメージの解読作業は第4図の4−6から始まる。4
−6において、第6図のような形式で記憶されたイメー
ジデータの全体から、ガイドラインセット(主走査基準
であるガイドラインを特徴づける画素群)の探索が行わ
れる。第2図に示すようにガイドライン21は黒の連続線
であり、符号化画像20の他の要素にはない特徴をもって
いる。したがって、例えば、第7図に例示するように、
適当な間隔をもつ白、黒、白の3本の平行なランレング
ス73、74、75でガイドラインセットを定義し得る。ガイ
ドラインセットを見つけるために必要なランレングスの
間隔ないし幅76の初期値は固定の標準の限界値を用いて
もよいし、あるいは、ラインイメージに最も高い頻度で
現われる白や黒ドットの幅を測定するなどして決定して
もよい。適当な3本のランレングス73、74、75で定めら
れるガイドラインセットの探索は、イメージRAM15の適
当なラインイメージ上において適当な間隔をもつ白ドッ
ト、黒ドット、白ドットの位置から、ラインイメージと
垂直な深さ方向(第6図の場合、縦の方向)に、イメー
ジを追跡して、白、黒、白の各ドットの続く数(ランレ
ングス)を調べ、その結果をガイドラインセットの条件
と比較する処理を繰り返すなどして行える。探索に失敗
したときは解読不可なのでエラーとなるが(4−7)探
索に成功したときにはガイドラインセットの情報からイ
メージデータ上のガイドラインの幅や走査方向の傾きの
標準値が定まる。更に、4−8において走査方向の傾き
の標準値からの変動を考慮したマージンを左右(第2図
の場合は上下であるが、第6図に従い、以下左右という
ことにする)のガイドラインセットの位置に加えること
により、以降の処理で扱うイメージデータの左右の探索
領域(第8図の探索幅81)が求められる。なお、この探
索幅81の制限は、第8図に示すように、符号化画像20の
まわりに文字等のその他のイメージ(解読中にノイズと
なるおそれのあるイメージ)がある場合に望まれる処理
であり、符号化画像20の周囲が余白になっている場合は
格別に必要ない。
The image decoding operation starts from 4-6 in FIG. 4
At -6, a search for a guideline set (a group of pixels characterizing the guideline that is the main scanning reference) is performed from the entire image data stored in the format as shown in FIG. As shown in FIG. 2, the guide line 21 is a continuous black line, and has a feature not found in other elements of the encoded image 20. Thus, for example, as illustrated in FIG.
A guideline set may be defined by three parallel run lengths 73, 74, 75 of white, black, and white with appropriate spacing. The initial run-length interval or width 76 needed to find the guideline set may use a fixed standard limit or measure the width of the most frequent white or black dots in the line image. Alternatively, it may be determined. The search for the guide line set defined by the appropriate three run lengths 73, 74, and 75 is performed by determining the positions of white dots, black dots, and white dots at appropriate intervals on the appropriate line image in the image RAM 15 and determining the line image. In the vertical depth direction (vertical direction in the case of FIG. 6), the image is tracked, and the number of successive white, black, and white dots (run length) is checked. The comparison can be performed by repeating the processing. If the search is unsuccessful, an error occurs because decoding is impossible. (4-7) When the search is successful, the standard values of the width of the guide line and the inclination in the scanning direction on the image data are determined from the information of the guide line set. Further, in 4-8, the margin considering the variation of the scanning direction inclination from the standard value is set to the left and right (in the case of FIG. 2, it is up and down, but in accordance with FIG. 6, it is hereinafter referred to as left and right). By adding to the position, left and right search areas (search width 81 in FIG. 8) of image data to be handled in the subsequent processing are obtained. It should be noted that the limitation of the search width 81 is a processing desired when there is another image such as characters (an image which may become noise during decoding) around the coded image 20 as shown in FIG. This is not particularly necessary when the periphery of the encoded image 20 is blank.

4−9から4−11まではイメージデータの深さ方向の
探索領域の限定のための処理であり、そのためにデータ
開始マーク23とデータ終了マーク24を検出してこれらの
マーク23、24が検出されたラインイメージにおける左右
のガイドラインの位置を求めている。データ開始マーク
23と終了マーク24は、ラインイメージが周期的な白黒の
パターンを含むことで検出でき、例えば、第2図の符号
化画像の場合、開始、終了マーク23、24は24個の白黒の
対の繰り返しであるので、マージンを見込んで20個程度
の同じ周期をもつ白黒の対が見つかったら、これらのマ
ークであるとする条件で十分である。データ開始マーク
23はイメージデータの上のライン(最初のライン)から
探索し、データ終了マーク24はイメージデータの下のラ
イン(最後のライン)から探索すると都合がよい。開始
マーク23または終了マーク24が検出できなかったとき
は、符号化画像20の一部だけが走査された等の誤った操
作等が原因と考えられるのでエラーとして処理する(4
−10、4−12)。
4-9 to 4-11 are processes for limiting the search area in the depth direction of the image data. For this purpose, the data start mark 23 and the data end mark 24 are detected, and these marks 23 and 24 are detected. Position of the left and right guideline in the obtained line image. Data start mark
23 and the end mark 24 can be detected by the line image containing a periodic black and white pattern. For example, in the case of the encoded image of FIG. 2, the start and end marks 23 and 24 are 24 black and white pairs. Since it is a repetition, it is sufficient to assume that these marks are marks if about 20 black-and-white pairs having the same period are found in consideration of the margin. Data start mark
It is convenient to search 23 from the line above the image data (first line) and to search for the end-of-data mark 24 from the line below the image data (last line). When the start mark 23 or the end mark 24 cannot be detected, it is considered that the error is caused by an erroneous operation such as scanning of only a part of the encoded image 20 and is processed as an error (4).
-10, 4-12).

4−13から4−18までは、上述の処理によって探索幅
81と探索深さ(第8図でいえばスタートライン82からエ
ンドライン83まで)とが制限されたイメージデータをサ
ーチブロックと呼ばれる深さ方向で仕切られた複数の部
分イメージにセグメント化し、各セグメントにおけるガ
イドラインの破壊の有無を調べているところである。第
8図の場合、イメージデータは8つのサーチブロック84
に分けられている。このようなサーチブロックの大きさ
(深さ)を4−13で決めスタートライン82の次のライン
から始まる最初のサーチブロックを選択する。サーチブ
ロックの深さは、例えば4−6で得ているガイドライン
セットの情報や処理時間、精度等を考慮して決定でき、
その値が4−14で探索されるガイドラインセットに関す
る白、黒、白のランレングスの必要な長さを定める。即
ち、白、黒、白の深さ方向のランレングスとして、間隔
が適当で、サーチブロックの深さ(以上)の長さをもつ
ものが見つかった場合、ガイドラインセットありとな
り、その位置(ガイドラインセットで囲まれる矩形領
域)が記憶される。探索に失敗した場合はそのサーチブ
ロックのガイドラインに何らかの欠損が生じていること
になるので、左右どちらのガイドラインについて失敗し
たか、あるいは両方失敗したか等、失敗状態に従うフラ
グを立てておき、後でガイドライン位置の補間ができる
ようにしておく(4−15、4−16)。例えば、第8図の
場合、上から4番目と5番目のサーチブロックの右ガイ
ドライン部分に汚れ85が付いているので、これらのサー
チブロックでは右ガイドラインはエラーとして検出され
る。
From 4-13 to 4-18, search width by the above processing
The image data limited in number 81 and the search depth (from the start line 82 to the end line 83 in FIG. 8) is segmented into a plurality of partial images divided in the depth direction called a search block. Is examining whether or not the guidelines have been destroyed. In the case of FIG. 8, the image data consists of eight search blocks 84.
Are divided into The size (depth) of such a search block is determined by 4-13, and the first search block starting from the line following the start line 82 is selected. The depth of the search block can be determined in consideration of, for example, information of the guideline set obtained in 4-6, processing time, accuracy, and the like.
Its value determines the required length of the white, black, and white run lengths for the guideline set searched for in 4-14. That is, when a run length in the depth direction of white, black, and white is found that has an appropriate interval and a length of the search block depth (or more), a guideline set exists, and the position (guideline set) is determined. Is stored. If the search fails, it means that there is some defect in the guideline of the search block, so set a flag according to the failure status, such as whether the left or right guideline failed, or both failed, and later The guideline position must be interpolated (4-15, 4-16). For example, in the case of FIG. 8, the dirt 85 is attached to the right guideline portion of the fourth and fifth search blocks from the top, so that the right guideline is detected as an error in these search blocks.

1つのサーチブロックについてガイドラインの状態を
検査したら次のサーチブロックを選択し(4−17)、検
査し、エンドライン83で終わる最後のサーチブロックま
で検査を繰り返す(4−18)。
When the state of the guideline is inspected for one search block, the next search block is selected (4-17), inspected, and the inspection is repeated until the last search block ending with the end line 83 (4-18).

なお、第4図のフローでは行っていないが、サーチブ
ロックのサイズを探索結果に従って可変に局所化するよ
うにしてもよい。例えば、4−15でガイドラインのエラ
ーがあるサーチブロックについて検出されたら、そのサ
ーチブロックの深さを半分にして再度、半分の深さの2
つのサーチブロックの各々についてガイドラインの探索
を行ったり、あるいは半分の深さのサーチブロックで4
−13から4−18のループを再開するようにしてもよい。
Although not performed in the flow of FIG. 4, the size of the search block may be variably localized according to the search result. For example, if a search block having a guideline error is detected in 4-15, the depth of the search block is reduced to half and the half depth 2
Guideline search for each of the three search blocks, or 4
The loop from -13 to 4-18 may be restarted.

第4図の4−19から最後までは、各サーチブロックに
ついて、各主走査ラインイメージにおける左右のガイド
ラインの各位置を決定し、その位置情報を基に、等分方
式で各ラインイメージの主走査サンプリング位置(その
全体の軌跡が第3図に参照番号31で示されている)を求
め、各サンプリング位置のイメージデータビット(画
素、ドット)をラインイメージから取り出して主走査デ
コード配列100(第10図参照)を作成している。各主走
査ラインイメージ上のガイドラインの位置(ガイドライ
ン幅の中心位置)の決定は、その主走査ラインイメージ
が属するサーチブロックのそのガイドラインについてエ
ラーないし破壊を示す失敗フラグが立っていない場合に
は、実測によって行われるが、失敗フラグが立っている
場合にはガイドラインが正常な部分について実測したガ
イドラインの位置から補間によって行われる。例えば第
4図に示すように失敗フラグのリストを参照して、最後
のサーチブロックの端の主走査ラインイメージにおける
ガイドラインの位置からの直線的の補間により、問題の
主走査ラインイメージにおけるガイドラインの位置を得
ることができる。
From 4-19 to the end of FIG. 4, for each search block, the positions of the left and right guide lines in each main scanning line image are determined, and the main scanning of each line image is performed in an equal division method based on the position information. The sampling positions (the entire trajectory of which is indicated by reference numeral 31 in FIG. 3) are obtained, and the image data bits (pixels, dots) at each sampling position are extracted from the line image, and the main scanning decode array 100 (10th position) is obtained. (See the figure). The determination of the position of the guide line (the center position of the guide line width) on each main scan line image is performed by actually measuring the guide block of the search block to which the main scan line image belongs, unless a failure flag indicating an error or destruction is set. If the failure flag is set, the interpolation is performed from the position of the guideline actually measured for the normal part of the guideline. For example, referring to the list of failure flags as shown in FIG. 4, the position of the guide line in the main scan line image in question is obtained by linear interpolation from the position of the guide line in the main scan line image at the end of the last search block. Can be obtained.

フローに従うとチェック4−20でNOとなるのは現サー
チブロックの左右のガイドラインがともに正常である場
合であり(対応する失敗フラグが下がっていることから
わかる)、その場合は4−29で現サーチブロック内の各
主走査ラインイメージについて左右のガイドラインの中
心位置を実測し、両位置の間において符号化画像のフォ
ーマットに応じた等分点の位置を主走査のサンプリング
点として得、各サンプリング点にあるイメージビットを
取り出す。4−20で左右のガイドラインのうち少なくと
も一方に失敗フラグが立っている場合には、4−21以下
に進み、失敗フラグが立っているガイドラインの位置を
補間するため、現サーチブロックより1ライン上のガイ
ドライン位置、即ち、前サーチブロックの最後の主走査
ラインイメージにおけるガイドライン位置(現サーチブ
ロックが最初のサーチブロックの場合には4−9で得て
いるスタートラインのガイドライン位置)を補間始端と
し(4−21)、次サーチブロック以降において正常なガ
イドラインのサーチブロックを捜し出し(4−22、4−
26)、その正常サーチブロックの最上の主走査ラインイ
メージにおけるガイドラインの位置を補間候補として検
出し(4−27)、補間の始端と終端との間にある問題の
サーチブロックにおける各主走査ラインイメージ上のガ
イドラインの位置を補間によって割り出し、主走査サン
プリングを行う(4−28)。なお、フローには明記して
いないが一方のガイドラインが正常な場合、その位置は
直接的に実測されるようになっている。また、エンドラ
イン近くでのガイドラインが破壊されている場合には、
4−11で評価したエンドラインのガイド位置が補間終端
とされる(4−23、4−24)。
According to the flow, the result of the check 4-20 is NO when both the right and left guidelines of the current search block are normal (as can be seen from the corresponding failure flag being lowered). The center position of the left and right guide lines is actually measured for each main scanning line image in the search block, and the position of an equal point according to the format of the encoded image is obtained between the two positions as the main scanning sampling point. Extract the image bit at. If the failure flag is set in at least one of the left and right guidelines in 4-20, the process proceeds to 4-21 and below, and one line above the current search block is used to interpolate the position of the guideline in which the failure flag is set. , That is, the guide line position in the last main scan line image of the previous search block (the guide line position of the start line obtained in 4-9 when the current search block is the first search block) is set as the interpolation start end ( 4-21), search for a search block with a normal guideline after the next search block (4-22, 4-
26), the position of the guide line in the uppermost main scanning line image of the normal search block is detected as an interpolation candidate (4-27), and each main scanning line image in the problematic search block between the start and end of the interpolation is detected. The positions of the above guidelines are determined by interpolation, and main scanning sampling is performed (4-28). It should be noted that, although not explicitly stated in the flow, if one of the guidelines is normal, the position is directly measured. Also, if the guidelines near the end line have been broken,
The guide position of the end line evaluated in 4-11 is set as the interpolation end (4-23, 4-24).

このようにしてエラーがあるガイドラインの区間は他
の正常なガイドラインの区間で実測した位置に基づいて
補間し、精度の高い主走査サンプリングを行う。この結
果、第10図のような主走査デコードの配列100が完成す
る。ここにおいて、この主走査デコードされたイメージ
データ100の両側の列は副走査基準パターンである同期
マーク列25の主走査中心軌跡31(第3図)に沿うイメー
ジドットの一次元配列(ドット列)となっている。この
左右の同期マーク列25のドット列を調べて、同期マーク
列25の各クロックにおける副走査方向の中心位置を決定
し、この結果を基に網状パターン22の副走査データサン
プリングを行って、各網目の明暗を識別しているのが第
5図のフローである。
In this manner, the section of the guideline having an error is interpolated based on the position actually measured in the section of another normal guideline, and highly accurate main scanning sampling is performed. As a result, an array 100 for main scan decoding as shown in FIG. 10 is completed. Here, the rows on both sides of the main scan decoded image data 100 are one-dimensional arrays (dot rows) of image dots along the main scanning center locus 31 (FIG. 3) of the synchronization mark row 25 which is the sub-scanning reference pattern. It has become. By examining the dot rows of the left and right synchronization mark rows 25, the center position in the sub-scanning direction in each clock of the synchronization mark row 25 is determined, and based on the result, the sub-scanning data sampling of the mesh pattern 22 is performed. The flow in FIG. 5 identifies the brightness of the mesh.

第5図において5−1で主走査幅、即ち左右のガイド
ライン21の間隔(第4図で得られている)から、スター
トクロックのチェック5−3で標準値(比較参照値)と
なるクロックの深さ方向(副走査方向、第10図において
縦の方向)の長さを決定する。ただし、この実施例は手
動でイメージセンサー11を符号化画像20に対して走査す
ることを想定しており、そのためクロック長に相当量の
変動が予想されるので標準値にかなり大きめのマージン
を付ける必要がある。なお、主走査幅から標準値を算出
する代りに、例えば、主走査デコード配列100上の同期
マーク列25のドット列を調べて平均的な白、黒のランレ
ングスを求めて、それを標準値とするようにしてもよ
い。5−2で主走査デコードされたイメージデータ100
から、両側にある左右の同期マーク列25の最初の(黒
の)クロックを検出し、その中心点、長さ、左右の最初
のクロック間の、イメージデータ100の主走査方向(第1
0図の水平方向)に対する傾き等を実測する。そして5
−3で実測結果のクロック長を5−1で得ていて標準値
の範囲内にあるかどうか判別する。この段階で標準値の
範囲内にないものは読み取りエラーとなる。標準値内の
ときには、副走査サンプリングのため、左右のスタート
クロックの中心位置を結ぶ直線上のドットの値を主走査
デコードされたイメージデータ100から取り出して、網
状パターン22における最初の列の網目の明暗を示すデー
タを得るとともに、5−2で実測した各特徴パラメータ
(中心位置、長さ、傾き等)を次クロックに対する標準
値としてセットする。
In FIG. 5, at 5-1 the main scanning width, that is, the interval of the left and right guide lines 21 (obtained in FIG. 4), the clock of the standard value (comparison reference value) is checked at 5-3 of the start clock. The length in the depth direction (the sub-scanning direction, the vertical direction in FIG. 10) is determined. However, in this embodiment, it is assumed that the image sensor 11 is manually scanned with respect to the encoded image 20. Therefore, a considerable amount of fluctuation is expected in the clock length, so that a considerably large margin is added to the standard value. There is a need. Instead of calculating the standard value from the main scanning width, for example, by examining the dot row of the synchronization mark row 25 on the main scanning decode array 100, an average white and black run length is obtained, and the obtained value is calculated as the standard value. You may make it. 5-2 Main scan decoded image data 100
, The first (black) clock of the left and right synchronization mark trains 25 on both sides is detected, and the center point, length, and main scanning direction of the image data 100 between the first clocks on the left and right (first
The inclination with respect to the horizontal direction in FIG. And 5
At -3, it is determined whether or not the clock length of the measurement result is obtained at 5-1 and is within a standard value range. At this stage, if the value is not within the range of the standard value, a reading error occurs. When the value is within the standard value, the value of a dot on a straight line connecting the center positions of the left and right start clocks is extracted from the main scan decoded image data 100 for sub-scan sampling, and the mesh of the first column in the mesh pattern 22 is extracted. Data indicating lightness and darkness are obtained, and the characteristic parameters (center position, length, inclination, etc.) actually measured in 5-2 are set as standard values for the next clock.

5−5で前クロックの長さを前クロックの中心位置に
加え、次のクロックの中心位置を予測する。この予測
は、この実施例の場合、記録媒体上において符号化画像
20(第2図)の同期マーク列が等しい長さと黒と白のク
ロックの繰り返しパターンであること、したがって、ク
ロック長がクロック間隔に等しくなっていることによる
ものである。次に5−6でこの予測点から主走査デコー
ドされたイメージデータ上の同期マークのドット列に沿
って、上下に予測点のドット値と異なるドット値が出る
まで探索して、次クロックを実測する。例えば予測点が
黒画素を示す“1"であれば、そこを中心に上下に連続す
る“1"で次のクロックとするわけである。そして、実測
結果として次クロックの長さ、中心、左右の傾き等を得
る(5−7)。このようにして、予測と実測を行った場
合、クロックにエラーがなければ予測の中心点と実測の
中心点とはある範囲内に収まるはずであるが、そのクロ
ックが潰れていたりすると、第9図と第10図に示すよう
に、クロック長や傾きは標準値(前のクロックの長さや
前の左右のクロックの傾き)から大きく変化するはずで
ある。第9図でいえば、汚れ63が右の同期マーク列25の
2番目の黒のクロックを潰しているため、第10図の主走
査デコードされたイメージデータ100上においてこの同
期マーク列25のドット列(第9図の軌跡31上の画素の
列)のなかに第10図中、点線で囲んだ汚れ63の断片を示
す黒ドット列が形成される。したがって、右の同期マー
ク列25のドット列における前のクロック(白クロックで
あり、実測の中心をP1で示してある)の長さより次クロ
ックの長さの方が汚れの分だけ長くなって観測される。
また、予測した次クロックの中心P2も、実測した中心P3
から大きくずれることになる。一方、左側の同期マーク
列25の対応する部分には汚れがないので前のクロック
(中心をP1で示している)から予測した次クロックの中
心P2と実測値P3との差はあってもわずかである。したが
って、次クロックについて予測した特徴パラメータと実
測した特徴パラメータとを比較し、両者の差を調べるこ
とで汚れ等によるクロックのエラーの発生を検出でき
る。第5図のフローでは、予測した次クロックの中心点
と実測した次クロックの中心点との差を左右の同期マー
クのそれぞれについて求め(5−8)、その差が許容範
囲内かどうかを調べる(5−9、5−10、5−13)こと
で、次クロックが適正かどうかを判別している。5−11
は左右ともクロックが適正でないときに行われる処理で
あり、このような状況では同期マーク列25の前の状態し
か確実視できないので5−5で求めた左右の予測点を次
クロックの中心点として確定させる。そして、5−16で
その中心点同士を結ぶ直線上のドット列を主走査デコー
ド配列100からサンプリングして関連する各網目の明暗
を示すデータとする。5−12と5−14と左右の次クロッ
クのうち一方が適正で他方が不正であったときの処理
で、この場合は、不正な方のクロックの中心点は前クロ
ックからの予測点を用いてもよいが、少しでも精度が上
がるように、適正な方のクロックの実測中心点から、傾
きを基に不正クロックの中心点を求めている。例えば、
第9図、第10図において上方に見える左右の適正な白ク
ロックの傾きはその左クロックの中心点P1と右クロック
の中心点P1との間の縦方向の差2(ドット)で評価で
き、これらの2つの白クロックのそれぞれ下に位置する
黒クロックのうち右側が不正であり、左側は適正でその
中心点は図示のP2で実測されているので、この点を通る
水平線と右の同期マーク列25のドット列である直線との
交点から2ドット上の位置(この場合、たまたま、右側
の前のクロック中心P1から予測した位置P2と一致してい
る)が右側の不正クロックの中心点として決定される。
そして、5−15において、適正だった方のクロック長の
みをクロック間隔の標準値として更新し、5−16で左右
のクロック中心間のドット列をサンプリングする。両ク
ロックとも適正な場合は、実測したクロック中心を確定
させその間のドット列を取り出す。この場合5−15で標
準パラメータは実測したクロックの特徴パラメータによ
ってすべて更新される。
In 5-5, the length of the previous clock is added to the center position of the previous clock, and the center position of the next clock is predicted. In the case of this embodiment, this prediction is performed on the encoded image on the recording medium.
This is due to the fact that the synchronization mark sequence of 20 (FIG. 2) has a repetitive pattern of black and white clocks of equal length, and therefore the clock length is equal to the clock interval. Next, in step 5-6, a search is performed along the dot row of the synchronization mark on the image data decoded in the main scan from this prediction point until a dot value different from the dot value of the prediction point appears up and down, and the next clock is measured. I do. For example, if the prediction point is "1" indicating a black pixel, the next clock is a "1" that continues vertically from that point. Then, the length, center, left / right inclination, and the like of the next clock are obtained as actual measurement results (5-7). In this way, when the prediction and the actual measurement are performed, the center point of the prediction and the central point of the actual measurement should fall within a certain range if there is no error in the clock. As shown in FIG. 10 and FIG. 10, the clock length and the slope should greatly change from the standard values (the length of the previous clock and the slope of the previous left and right clocks). In FIG. 9, since the dirt 63 has crushed the second black clock of the right synchronization mark row 25, the dots of this synchronization mark row 25 on the main scan decoded image data 100 of FIG. In FIG. 10, a black dot row indicating a fragment of the dirt 63 surrounded by a dotted line is formed in a row (a row of pixels on the locus 31 in FIG. 9). Therefore, the length of the next clock is longer by the amount of dirt than the length of the previous clock (white clock, the center of the actual measurement is indicated by P1) in the dot row of the right synchronization mark row 25 and observed. Is done.
In addition, the predicted center P2 of the next clock is also the measured center P3.
Will greatly deviate from On the other hand, since there is no dirt on the corresponding portion of the left synchronization mark row 25, the difference between the center P2 of the next clock predicted from the previous clock (the center is indicated by P1) and the actually measured value P3 is small, if any. It is. Therefore, the occurrence of a clock error due to contamination or the like can be detected by comparing the characteristic parameter predicted for the next clock with the actually measured characteristic parameter and examining the difference between the two. In the flow of FIG. 5, the difference between the predicted center point of the next clock and the actually measured center point of the next clock is obtained for each of the left and right synchronization marks (5-8), and it is checked whether the difference is within the allowable range. (5-9, 5-10, 5-13), it is determined whether the next clock is appropriate. 5-11
Is a process performed when the clock is not appropriate for both the left and right. In such a situation, only the state before the synchronization mark row 25 can be reliably viewed. determine. In step 5-16, a dot row on a straight line connecting the center points is sampled from the main scanning decode array 100, and is used as data indicating the brightness of each associated mesh. 5-12, 5-14, and the right and left next clocks, one of which is appropriate and the other is incorrect. In this case, the center point of the incorrect clock uses the predicted point from the previous clock. The center point of the incorrect clock is determined from the measured center point of the appropriate clock based on the slope, so that the accuracy may be improved as much as possible. For example,
In FIG. 9 and FIG. 10, the inclination of the right and left proper white clocks seen upward can be evaluated by the vertical difference 2 (dot) between the center point P1 of the left clock and the center point P1 of the right clock. Since the right side of the black clock located below each of these two white clocks is incorrect, the left side is appropriate and the center point is actually measured at P2 shown in the figure, the horizontal line passing through this point and the right synchronization mark The position two dots above the intersection with the straight line which is the dot row of row 25 (in this case, it coincides with the position P2 predicted from the previous clock center P1 on the right side) is set as the center point of the right incorrect clock. It is determined.
Then, at 5-15, only the appropriate clock length is updated as the standard value of the clock interval, and at 5-16, the dot row between the left and right clock centers is sampled. If both clocks are appropriate, the center of the actually measured clock is determined and the dot row between them is extracted. In this case, the standard parameters are all updated with the actually measured clock characteristic parameters in 5-15.

5−17はデコードの終了判定であり、ここで符号化画
像20のフォーマットに従い予め定められたデータ数とデ
コード処理5−16の実行回数とが比較される。デコード
処理5−16の実行回数がフォーマットの定める回数に等
しく、かつその後の同期マーク列25のドット列のなかに
クロックがエンドラインのところまでない場合(5−1
8)、即ち、主走査デコードされたイメージデータ100上
の同期マーク列25のドット列から実測または補間によっ
て検出されるクロック数がフォーマットの定める数に等
しい場合に、適正な処理が行われたものとしてサンプリ
ング処理が完了する。途中で誤ったクロック補間等が行
われた場合は、フォーマットのデータ数が得られる前に
配列100のエンドラインに達したり(5−19でNO)、あ
るいはフォーマットのデータ数が得られた後で更にクロ
ックが見つかる(5−18でNO)のでエラーとして検出で
きる。
Reference numeral 5-17 denotes a decoding end determination, in which a predetermined number of data according to the format of the encoded image 20 is compared with the number of times of execution of the decoding process 5-16. When the number of times of execution of the decoding processing 5-16 is equal to the number of times determined by the format, and the clock is not at the end line in the dot row of the synchronization mark row 25 thereafter (5-1)
8) That is, when the number of clocks detected by actual measurement or interpolation from the dot row of the synchronization mark row 25 on the main scan decoded image data 100 is equal to the number determined by the format, appropriate processing is performed. And the sampling process is completed. If erroneous clock interpolation or the like is performed on the way, the end line of the array 100 is reached before the number of data in the format is obtained (NO in 5-19), or after the number of data in the format is obtained. Further, since a clock is found (NO in 5-18), it can be detected as an error.

以上のように第1実施例によれば、かなり厳しい環境
条件下での符号化画像20の読み込み、例えばイメージセ
ンサー11による符号化画像20に対する走査が手動で行わ
れるために少なからず生じる走査中での走査速度の大き
さや向きの変化、更には符号化画像20の周囲にノイズ要
因である文字等が記録されること等を考慮して符号化画
像20に含めるサンプリング基準(ガイドライン21、同期
マーク列25)のパターン等を工夫するとともに、読み込
んだイメージデータに対するサンプリング基準パターン
の認識において、サンプリング基準パターンの一部が破
壊されているような場合に備え、主走査基準パターンで
あるガイドライン21についてはセグメント方式により他
の部分でのガイドライン21の位置の実測を可能にすると
ともにその位置情報を基にして問題の部分のガイドライ
ン位置を補間し、副走査基準パターンである同期マーク
列25については、各クロックの位置を、近くのクロック
の特徴パラメータによる予測、予測点からの実測、実測
結果と予測結果との比較、クロックエラーの比較結果に
対する位置の再決定、の手続を踏むことによって得てい
る。したがって、まぎらわしい文字、走査方向の変動、
汚れ等の比較的厳しい使用環境であるにもかかわらず、
イメージデータからサンプリング基準パターンの各位置
をできるだけ高い精度で割り出すことができ、その結果
から網状パターン22の各網目の明暗を高い正確度で識別
することができる。
As described above, according to the first embodiment, the reading of the encoded image 20 under considerably severe environmental conditions, for example, during the scanning that occurs to some extent because the scanning of the encoded image 20 by the image sensor 11 is performed manually. Sampling criteria to be included in the encoded image 20 (Guideline 21, Synchronization mark string) in consideration of the change in the scanning speed and direction of the image, and the fact that characters that are noise factors are recorded around the encoded image 20 In addition to devising the pattern of 25), in recognizing the sampling reference pattern for the read image data, in the case where a part of the sampling reference pattern is broken, Method enables actual measurement of the position of guideline 21 in other parts and based on the position information By interpolating the guideline position of the problem part, the position of each clock is estimated by the characteristic parameter of the nearby clock, the actual measurement from the prediction point, the actual measurement result and the prediction result , And the position of the clock error comparison result is determined again. Therefore, misleading characters, scan direction fluctuations,
Despite the relatively severe use environment such as dirt,
Each position of the sampling reference pattern can be determined from the image data with as high accuracy as possible. As a result, the brightness of each mesh of the mesh pattern 22 can be identified with high accuracy.

第2実施例 この発明の第2実施例に係るデータ読取装置110の全
体構成を第11図に示す。この実施例は記録媒体118に対
するイメージセンサー111の走査を機械的に行うように
したものである。図示のように、制御回路112によって
ステッピングモータ117を駆動し、このステッピングモ
ータ117によりイメージセンサー111を所定のレール等の
径路に沿って動かす。この構成の場合、イメージセンサ
ー111の移動速度や方向の変動が手操作に比べはるかに
少なくなるので、読み込んだイメージデータの歪みが格
段に小さくなるメリットが生じる(モータ117をサーボ
機構等で特別に制御しない場合であっても成立する)。
したがってこの性質を利用することにより、第1実施例
で述べた構成要素や処理のいくつかをより簡略化したり
省略することが可能である。例えば、第12図に示すよう
にデータ終了マークなしの符号化画像120を用いたとし
ても、イメージセンサー111の正確な走査速度からデー
タ開始マーク23のほぼ何ライン下でデータが終了するか
を正しく予測できる。また、サーチブロック84を大きく
とっても破壊されたガイドラインの位置を高精度で補間
できる。更に、副走査基準パターンである同期マーク列
25の認識処理においても、比較の標準値として1つ前の
クロックの特徴パラメータといったような局所的なパラ
メータではなく、イメージ全体から平均をとったような
グローバルなパラメータを使用することができ、これに
よってより高い精度で次クロックの位置の予測、評価な
どが可能になる。
Second Embodiment FIG. 11 shows the overall configuration of a data reading device 110 according to a second embodiment of the present invention. In this embodiment, the scanning of the image sensor 111 on the recording medium 118 is performed mechanically. As shown in the figure, a stepping motor 117 is driven by a control circuit 112, and the image sensor 111 is moved along a path such as a predetermined rail by the stepping motor 117. In the case of this configuration, since the fluctuation of the moving speed and the direction of the image sensor 111 is much smaller than the manual operation, there is an advantage that the distortion of the read image data is significantly reduced (the motor 117 is specially controlled by a servo mechanism or the like). This is true even if control is not performed.)
Therefore, by utilizing this property, it is possible to further simplify or omit some of the components and processes described in the first embodiment. For example, even if the encoded image 120 without the data end mark is used as shown in FIG. 12, it is correctly determined how many lines below the data start mark 23 the data ends from the accurate scanning speed of the image sensor 111. Can be predicted. Even if the search block 84 is made large, the position of the destroyed guide line can be interpolated with high accuracy. Furthermore, a synchronization mark string which is a sub-scanning reference pattern
Even in the recognition processing of 25, it is possible to use a global parameter such as an average from the entire image instead of a local parameter such as a feature parameter of the previous clock as a standard value for comparison. This enables prediction and evaluation of the position of the next clock with higher accuracy.

[変形例] 以上で実施例の説明を終えるがこの発明の範囲内で種
々の変形、変更が可能である。
[Modifications] The description of the embodiment is finished above, but various modifications and changes can be made within the scope of the present invention.

例えば第1実施例において述べたデータ開始マーク23
とデータ終了マーク24はガイドライン21のこれらのマー
クの対応する部分が破壊されているような場合に、その
部分のガイドライン位置の予測を行う(第4図の4−
9、4−11で行われる)のに有効であるが、通常の場合
におけるマーク23、24の機能、即ち、データの開始、終
了を示す機能はこれらのマークなしでも達成し得る。例
えば、第2図においてデータ開始マーク23と終了マーク
24がないとするとこれらの部分(白部分)を通った主走
査ラインイメージには2本のガイドライン21の黒の断片
の間が白画素の連続となって現われるので、これから、
データの開始、終了を検出できる。
For example, the data start mark 23 described in the first embodiment
The data end mark 24 predicts the position of the guide line at the corresponding portion of the guide line 21 when the corresponding portion of the mark is broken (4- in FIG. 4).
9, 4-11), but the function of the marks 23, 24 in the normal case, ie, the function of indicating the start and end of data, can be achieved without these marks. For example, in FIG. 2, the data start mark 23 and the end mark
If there is no 24, the main scanning line image passing through these parts (white part) will appear as a series of white pixels between the two black fragments of the guideline 21.
Start and end of data can be detected.

また、上記実施例では符号化画像20、120における主
走査基準パターンとして2本のガイドライン21を網状パ
ターン22の外側に配置しているが、他の任意の適当な主
走査基準パターンを使用できる。例えば、第13図に示す
ように、3本(あるいはそれ以上)の平行なガイドライ
ンPRを網状パターンMPに対する主走査基準パターンとし
て使用すれば、ガイドラインPRの部分的な破壊に対して
一層、強力なガイドライン位置の復元が可能となり、例
えば、3本中、1本のガイドラインPRについて破壊があ
る部分については残る2本のガイドラインの対応する位
置から正確に破壊ガイドライン部の位置を割り出せる。
また、第13図の真中のガイドラインPRで例示するような
網状パターン22の内部に主走査基準パターンを配置して
もよい。また、イメージセンサーの走査方向が安定して
いるような場合には、第14図に例示するように網状パタ
ーンMPの主走査方向に沿う1本のガイドラインPRで主走
査基準パターンを構成してもよい。この場合、イメージ
センサーの走査方向(移動方向)は、例えばガイドライ
ンPRを通る主走査ラインイメージを調べることで決定で
きる。また、そのような主走査ラインイメージを調べる
ことにより、ガイドラインPRの端点の位置を決定でき、
その結果及び画像フォーマットとして定められているガ
イドラインPRの端点と網状パターンMPの各網目との位置
関係とから、読み込んだイメージデータ上における各網
目の主走査方向における中心位置を決定して主走査サン
プリングが行える。更に、主走査基準パターンは黒ある
いは他の色と異なる色の連続線であるのが有利である
が、不連続的なマークでも構成し得る。
In the above embodiment, two guide lines 21 are arranged outside the mesh pattern 22 as main scanning reference patterns in the encoded images 20 and 120. However, any other suitable main scanning reference patterns can be used. For example, as shown in FIG. 13, if three (or more) parallel guide lines PR are used as the main scanning reference pattern for the mesh pattern MP, a stronger effect against partial destruction of the guide line PR is obtained. The position of the guide line can be restored. For example, for a portion of one of the three guide lines PR where there is a destruction, the position of the destruction guide line portion can be accurately determined from the corresponding position of the remaining two guide lines.
Further, the main scanning reference pattern may be arranged inside the mesh pattern 22 as exemplified by the guide line PR in the middle of FIG. In the case where the scanning direction of the image sensor is stable, the main scanning reference pattern may be configured by one guide line PR along the main scanning direction of the mesh pattern MP as illustrated in FIG. Good. In this case, the scanning direction (moving direction) of the image sensor can be determined, for example, by examining a main scanning line image passing the guide line PR. Also, by examining such a main scan line image, the position of the end point of the guideline PR can be determined,
From the result and the positional relationship between the end point of the guideline PR defined as the image format and each mesh of the mesh pattern MP, determine the center position of each mesh in the main scanning direction on the read image data, and perform main scanning sampling. Can be performed. Further, the main scanning reference pattern is advantageously a continuous line of black or a color different from other colors, but may also be formed of discontinuous marks.

また、実施例の符号化画像20、120では副走査基準パ
ターンとして、網状パターン22の両側において白と黒の
網目(クロック)を交互に繰り返す2列の同期マーク列
25を使用しているが、網状パターン22の副走査方向にお
ける網目の列と同期するような(位置的に対応づけ可能
な)任意の適当なパターンを副走査基準とすることがで
きる。例えば、イメージセンサーの走査方向が安定して
いる場合には、第15図に示すように、網状パターン22の
副走査方向に沿って延在するような1列の同期マークSR
があれば十分である。また、部分的なクロックの破壊に
対してより精度の高い復元ができるように、3列あるい
はそれ以上の列の同期マークを主走査方向に間隔をあけ
て配置してもよい。また、同期マークにおけるクロック
の長さは任意であり得、例えば第16図に示すように、細
長い黒の断片を成すクロックを並べた同期マークSRを、
網状パターンMPの上下に、対応するクロック同士を結ぶ
線を網状パターンMPの網目の境界を通るような関係で配
置することによって副走査基準パターンを形成してもよ
い。また、第17図に示すように、第1のクロックマーク
の列SR1に加え、第1のクロックマークの列SRの所定数
のクロックマークごとに、1つのクロックマークが付く
ような第2のクロックマークの列SR2を設け、この両者
によって網状パターン17に対する副走査基準を与えるよ
うにしてもよい。この構成の場合、イメージの解読作業
において、クロック数の管理が容易になり、部分的なク
ロックマークの欠損に対する復元をより確実なものにで
きる。例えば、第1のクロックマーク列SR1と第2のク
ロックマーク列SR2との間で一致するクロック同士を読
み込んだイメージデータ上で発見した位置で、第1のク
ロックマーク列SR1に対するクロックマークのカウンタ
を初期化しておき、それ以降、第1のクロックマーク列
SR上のクロックマークを検出あるいは実施例に従う復元
によって決定する都度、クロックマークカウンタをイン
クリメント処理を行うものとする。そして再び、第1ク
ロックマーク列SR1のクロックと第2クロックマーク列S
R2のクロックとの一致が検出されたときに、クロックマ
ークカウンタを調べる。第17図のフォーマットの場合、
もしその値が8n(nは自然数)に等しければ、第1のク
ロックマーク列は適正に認識できたと考えられ、nが2
以上なら、第2のクロックマーク列SR2に欠損があると
評価でき、8nに等しくなければ、第1のクロックマーク
の認識に誤りがあるとしてエラー検出できる。結果とし
て、第1のクロックマーク列SRに部分的に破壊が生じて
いて、かつ実施例で述べたような次クロック位置の予
測、実測、比較、再評価の処理(第5図参照)を通じて
クロックを復元したような場合に、その復元のプロセス
に生じた誤りを第2のクロックマーク列SRのクロック間
隔という局所化された領域に狭めることができ、更に
は、部分の各クロック位置を第2クロックマーク列SR2
の2つのクロックの間で等分するなどして得ることがで
きる。したがって、網状パターンMP全体に対する各網目
の明暗の認識をこのような局所的エラーがあったことは
認めながらも、行うことができる(実施例の場合は第5
図の5−17から5−19に示すように全体がエラーとなり
解読不能とされる)。実用的には、網状パターンのデー
タには検査コードが含まれるので、それらの検出コード
によるエラー訂正処理において上述したような局所的エ
ラーがあったところの明暗識別データに対し、十分な訂
正の機会が与えられることになる。
In the coded images 20 and 120 of the embodiment, as a sub-scanning reference pattern, two rows of synchronization mark strings in which white and black meshes (clocks) are alternately repeated on both sides of the mesh pattern 22.
Although 25 is used, any appropriate pattern that can be synchronized (positionally associated) with a row of the mesh pattern 22 in the sub-scanning direction in the sub-scanning direction can be used as the sub-scanning reference. For example, when the scanning direction of the image sensor is stable, as shown in FIG. 15, one row of synchronization marks SR extending along the sub-scanning direction of the mesh pattern 22 is used.
Is enough. Further, three or more rows of synchronization marks may be arranged at intervals in the main scanning direction so that more accurate restoration can be performed against partial clock destruction. Further, the length of the clock in the synchronization mark can be arbitrarily set.For example, as shown in FIG. 16, a synchronization mark SR in which clocks forming elongated black fragments are arranged,
The sub-scanning reference pattern may be formed by arranging lines connecting the corresponding clocks above and below the mesh pattern MP so as to pass through the mesh boundary of the mesh pattern MP. As shown in FIG. 17, in addition to the first clock mark row SR1, a second clock such that one clock mark is provided for each predetermined number of clock marks in the first clock mark row SR. A row of marks SR2 may be provided, and a sub-scanning reference for the mesh pattern 17 may be given by both of them. In the case of this configuration, the number of clocks can be easily managed in the image decoding operation, and the restoration of the partial loss of the clock mark can be more reliably performed. For example, at a position where a clock that matches between the first clock mark string SR1 and the second clock mark string SR2 is found on the read image data, the clock mark counter for the first clock mark string SR1 is counted. Initialized, and thereafter, the first clock mark sequence
Each time a clock mark on the SR is detected or determined by restoration according to the embodiment, the clock mark counter is incremented. Then, again, the clock of the first clock mark train SR1 and the second clock mark train S
When a match with the clock of R2 is detected, the clock mark counter is checked. In the case of the format in Fig. 17,
If the value is equal to 8n (n is a natural number), it is considered that the first clock mark sequence has been properly recognized, and n is 2
In this case, it can be evaluated that there is a defect in the second clock mark sequence SR2, and if it is not equal to 8n, it can be determined that there is an error in the recognition of the first clock mark and an error can be detected. As a result, the first clock mark string SR is partially broken, and the clock is calculated through the process of predicting, measuring, comparing, and re-evaluating the next clock position as described in the embodiment (see FIG. 5). Can be narrowed down to a localized area called the clock interval of the second clock mark sequence SR, and further, each clock position of the portion can be reduced to the second clock mark sequence SR. Clock mark row SR2
Can be obtained by dividing the two clocks equally. Therefore, it is possible to recognize the brightness of each mesh for the entire mesh pattern MP while recognizing that such a local error has occurred (in the case of the embodiment, the fifth embodiment).
As shown in 5-17 to 5-19 in the figure, the whole becomes an error and cannot be decoded.) Practically, since the inspection data is included in the data of the mesh pattern, there is a sufficient opportunity for the correction of the light / dark identification data where the local error as described above has occurred in the error correction processing using the detection codes. Will be given.

また、実施例では符号化画像の近くや周りに文字等の
解読にとっては望ましくないイメージがあることを想定
したが、当然なくてもよく、その場合、サンプリング基
準パターンの認識等が相当容易になり、文字等のイメー
ジと区別するために望まれた基準パターンの条件(配
置、幾可学的形状等の条件)が軽減される。
Further, in the embodiment, it is assumed that there is an image that is not desirable for decoding of characters or the like near or around the encoded image, but it is not necessary to do so, in which case the recognition of the sampling reference pattern becomes considerably easier. , The conditions of the reference pattern (conditions such as arrangement, geometrical shape, etc.) desired to be distinguished from images such as characters are reduced.

また、実施例ではサンプリング基準パターンとして、
主走査用のもの(ガイドライン21)と副走査用のもの
(同期マーク列25)とを画像上の別々の構成要素で実現
しているが、両者を兼用するようなサンプリング基準パ
ターンを使用することもできる。
In the embodiment, as the sampling reference pattern,
The main scanning (guideline 21) and sub-scanning (synchronization mark array 25) are realized by separate components on the image, but use a sampling reference pattern that combines them. Can also.

例えば、第16図に戻って図示の同期マーク列SRを主走
査兼副走査の基準マークとして使用できる。第16図の場
合、同期マーク列SRはデータ本体である網状パターンMP
の外側にある。したがって網状パターンMPと同期マーク
列SR以外に不要なイメージがないような場合、同期マー
ク列SRを読み込んだイメージデータ上から検出するのは
困難なことではない。例えば、読み込んだイメージデー
タの各主走査ラインイメージに注目してみると、主走査
ラインイメージの両端近くに現われる黒画素は同期マー
ク列SRの断片の可能性を示唆する。手動の場合、各主走
査ラインイメージは第16図において完全に縦の方向では
なく変動しながら若干傾いた方向において読み取られる
のが通常である。したがって、各主走査ラインイメージ
のなかで両端近くに黒画素群をもつ主走査ラインイメー
ジが連続して数ライン分(例えば2〜3ライン分)、現
われれば、それが、同期マーク列SRのクロックマークの
高い可能性を示す。かつ、このような黒画素群のなかで
ある程度の周期性をもって、イメージデータ上に分布し
ているものは、クロックマークと考えて間違いはない。
そこで、このような数ライン分の黒画素群に着目し、そ
の中心を実測すれば、それがクロックマークの中心とい
うことになる。破壊しているクロックマークについて
は、例えば、第5図の対応する処理と同様にして前回の
クロックマークと前回のクロックマークの間隔(前々回
のクロックマークの中心と前回のクロックマークの中心
との距離)から予測し、それを中心として実測し、予測
値と実測結果とを比較し、その差が大きいことから検出
でき、その場合、予測点を現クロックマークの中心とし
て決めたり、あるいは他の列の現クロックマークの中心
から前回のクロックマーク同士間の傾きを基に取り出し
た位置を現クロックマークの中心として決めることがで
きる。このようにして、各クロックマークの中心位置が
決まったら、上下の同期マーク列SRから対応するクロッ
クマーク同士を選び、その中心同士を結んで、その直線
を画像フォーマットに従って等分し、等分位置にあるイ
メージビットを読むことで各網目の中心における明暗を
知ることができる(なおこの最後の説明は、第16図にお
ける同期マーク列SRの各クロックが網状パターンMPの各
網目の中心に一致するよう、各クロックを水平方向に網
目の半分だけずらした場合を想定している)。
For example, returning to FIG. 16, the illustrated synchronization mark array SR can be used as a reference mark for both main scanning and sub scanning. In the case of FIG. 16, the synchronization mark string SR is a net pattern MP which is the data body.
Outside. Therefore, when there is no unnecessary image other than the mesh pattern MP and the synchronization mark string SR, it is not difficult to detect the synchronization mark string SR from the read image data. For example, when focusing on each main scanning line image of the read image data, black pixels appearing near both ends of the main scanning line image indicate a possibility of a fragment of the synchronization mark sequence SR. In the case of manual operation, each main scanning line image is generally read not in a completely vertical direction but in a slightly inclined direction while fluctuating in FIG. Therefore, if a main scanning line image having a group of black pixels near both ends continuously appears for several lines (for example, two to three lines) in each of the main scanning line images, the main scanning line image of the synchronization mark string SR is displayed. Indicates a high likelihood of a clock mark. Among such black pixel groups, those that are distributed on the image data with a certain degree of periodicity are considered to be clock marks without error.
Therefore, focusing on such a group of black pixels for several lines and actually measuring the center thereof, it is the center of the clock mark. For the broken clock mark, for example, the distance between the previous clock mark and the center of the previous clock mark (the distance between the center of the previous clock mark and the center of the previous clock mark) in the same manner as the corresponding processing in FIG. ), The measured value is measured at the center, the predicted value is compared with the measured result, and the difference can be detected because the difference is large. In this case, the predicted point is determined as the center of the current clock mark, or another column is determined. The position extracted from the center of the current clock mark based on the inclination between the previous clock marks can be determined as the center of the current clock mark. In this way, when the center position of each clock mark is determined, the corresponding clock marks are selected from the upper and lower synchronization mark trains SR, the centers are connected, and the straight line is equally divided according to the image format. The brightness at the center of each of the meshes can be known by reading the image bits in (1). In the last explanation, each clock of the synchronization mark sequence SR in FIG. 16 matches the center of each of the meshes of the mesh pattern MP. Thus, it is assumed that each clock is shifted by half a mesh in the horizontal direction).

第16図のように、各クロックの長さ方向が網状パター
ンMPの網目間の境界に一致する配置になっている場合
は、例えば上下の同期マーク列SRからi番目と(i+
1)番目のクロックマークの中心Ui、Ui+1、Bi、Bi+1
選択し、その位置情報から目的とする縦の網目列の各中
心位置を計算できる。これを第18図と第19図について説
明すると、第18図において、上の同期マーク列SRのi番
目と(i+1)番目のクロックマークの中心Ui、U
i+1(読み込んだイメージデータ上での位置である)を
結びその中心C1を計算する。同様にして下の同期マーク
列SRのi番目と(i+1)番目のクロックマークの中心
Bi、Bi+1とを結びその中点C2を求める。第19図は読み込
んだイメージデータのうち、中点C1とC2を含む部分を示
したもので、同図の水平方向のそれぞれの行が、主走査
ラインイメージである。第19図の1つのます目は1ビッ
ト(1画素)のメモリセルを表わしている。この中点C1
とC2とを結び画像のフォーマットに従って等分すること
により、目的とする網目の列における各網目の、イメー
ジデータメモリ上における中心位置即ち記憶場所(図
中、×印で示している)が決まる。以上のような中点方
向の場合、データサンプリング点を2つの隣り合うクロ
ック中心の対から求めているので、同期マーク列SR測定
点(あるいは補間点)である位置Ui、Ui+1、Bi、Bi+1
含まれる誤差を平均化によって吸収し、減少させること
ができる。
As shown in FIG. 16, when the length direction of each clock is arranged so as to coincide with the boundary between the meshes of the mesh pattern MP, for example, the i-th and (i +
1) The centers U i , U i + 1 , B i , and B i + 1 of the first clock mark are selected, and the respective center positions of the target vertical mesh row can be calculated from the position information. This will be described with reference to FIGS. 18 and 19. In FIG. 18, the centers U i , U i of the i-th and (i + 1) -th clock marks in the upper synchronization mark sequence SR are shown.
Connect i + 1 (the position on the read image data) and calculate its center C1. Similarly, the center of the i-th and (i + 1) -th clock marks in the lower synchronization mark sequence SR
B i and B i + 1 are connected to determine the midpoint C2. FIG. 19 shows a portion including the middle points C1 and C2 in the read image data. Each row in the horizontal direction in FIG. 19 is a main scanning line image. The first square in FIG. 19 represents a memory cell of one bit (one pixel). This midpoint C1
And C2 are connected and equally divided according to the format of the image, thereby determining the center position, that is, the storage location (indicated by a cross in the figure) of each mesh in the target mesh column in the image data memory. In the case of the above-described middle point direction, since the data sampling point is obtained from the pair of two adjacent clock centers, the positions U i , U i + 1 , which are the synchronization mark string SR measurement points (or interpolation points), The errors included in B i and B i + 1 can be absorbed and reduced by averaging.

なお、第19図で×印で示す点だけをデータサンプリン
グすることによって各網目の明暗を識別し得るが、所望
であれば、×印の点を中心としてその近傍(例えば上下
左右)の画素値を調べ、その結果から、網目の明暗を決
めてもよい。あるいは近停の画素値が同期マーク列SRの
認識結果から求めた×印の点の画素値と矛盾するような
場合、このことを記憶しておき、その情報を検査コード
による後のエラー訂正処理に役立てることができ、それ
によってエラー訂正能力の強化を図れる。例えば、ある
ブロックの明暗識別データを検査ワードに従って調べた
ときにエラーが検出された場合に、そのブロック内に先
の矛盾発見箇所が含まれていれば、それをエラー発生箇
所と推定することによりいわゆるイレージャー訂正(誤
りの位置が判定しているときのエラー訂正)が可能にな
る。
Note that the brightness of each mesh can be identified by data sampling only the points indicated by the crosses in FIG. 19, but if desired, the pixel values in the vicinity (for example, up, down, left and right) of the crosses can be identified. , And the brightness of the mesh may be determined from the result. Alternatively, when the pixel value of the near stop is inconsistent with the pixel value of the cross mark point obtained from the recognition result of the synchronization mark string SR, this is stored, and the information is stored in a later error correction process using an inspection code. And the error correction capability can be enhanced thereby. For example, if an error is detected when the light / dark identification data of a block is checked according to the inspection word, and if the block includes the previously found contradiction, it is estimated as the error occurrence position. So-called erasure correction (error correction when an error position is determined) becomes possible.

サンプリング基準パターンとデータ本体である網状パ
ターンとの関係は、定義可能な位置関係であれば、定義
された位置関係とイメージデータ上で求めたサンプリン
グ基準パターンの各位置の情報から、イメージデータ上
における網状パターンの各網目の中心位置を求めること
ができる。このことを第20図から第22図を参照して説明
してみる。この場合、符号化画像に対するイメージセン
サーの走査速度と方向にある程度の変動があることを想
定しており、また、説明の便宜上クロックマークをもつ
間隔のあいた2列の同期マークがサンプリング基準パタ
ーンとして使用され、この2列の同期マークにはさまれ
て網状パターンが配置されているとする。
The relationship between the sampling reference pattern and the net-like pattern, which is the data body, can be defined on the image data based on the defined positional relationship and the information on each position of the sampling reference pattern obtained on the image data, if it can be defined. The center position of each mesh of the mesh pattern can be obtained. This will be described with reference to FIGS. 20 to 22. In this case, it is assumed that there is some variation in the scanning speed and direction of the image sensor with respect to the encoded image, and for convenience of description, two rows of synchronous marks having clock marks are used as sampling reference patterns. It is assumed that a net-like pattern is arranged between the two rows of synchronization marks.

第20図はイメージセンサーから読み込んだイメージデ
ータ上における位置関係を示したもので、UiとUi+1は上
側の同期マーク列のi番目と(i+1)番目のクロック
の中心位置であり、BiとBi+1は下側の同期マーク列のi
番目と(i+1)番目のクロックの中心位置である。例
えば、UiとBi、Ui+1とBi+1は読み込んだイメージデータ
上において副走査方向の距離が一番小さいクロック同士
であり得る。第20図において、点Uiの座標は原点(0、
0)で示され、点Ui+1の座標はX軸上の点(x1、0)と
して示されている。これは、単に説明の都合上イメージ
メモリ上での位置を正規化して表現したものにすぎな
い。Y軸の方向が主走査ラインイメージの方向である。
FIG. 20 shows the positional relationship on the image data read from the image sensor, where U i and U i + 1 are the center positions of the i-th and (i + 1) -th clocks in the upper synchronization mark sequence, B i and B i + 1 are i in the lower synchronization mark row
This is the center position of the (i + 1) th and (i + 1) th clocks. For example, U i and B i , and U i + 1 and B i + 1 may be clocks having the shortest distance in the sub-scanning direction on the read image data. In FIG. 20, the coordinates of the point U i are the origin (0,
0), and the coordinates of the point U i + 1 are shown as a point (x 1 , 0) on the X axis. This is merely a normalized representation of the position on the image memory for convenience of explanation. The direction of the Y axis is the direction of the main scanning line image.

第21図は第20図と対応する記録媒体上での位置関係を
示している。TiとTi+1が上側の同期マーク列のi番目と
(i+1)番目のクロックの中心であり、AiとAi+1が下
側の同期マーク列のi番目と(i+1)番目のクロック
マークの中心である。記録媒体上における同期マーク列
の各クロック中心{Ti}、{Ai}と基準パターンと各網
目の中心位置{P}はデータ読取装置にとっては既知の
事項であり符号化画像モデルとして有している。例え
ば、これらの位置のデータを全部記憶しておいてもよい
し、位置間に同期性のある場合には1ないし数個の位置
データと同期データとからすべての中心位置を演算でき
る。第21図ではTiとTi+1を結ぶ上側同期マーク列のライ
ンと、AiとAi+1を結ぶ下側同期マーク列のラインとは平
行に描いているが、必ずしもその必要はない。第21図で
も、上側同期マーク列のi番目のクロック中心を原点
(0、0)とし、(i+1)番目のクロック中心をx軸
上の点(D、0)として示している。
FIG. 21 shows the positional relationship on the recording medium corresponding to FIG. T i and T i + 1 are the centers of the i-th and (i + 1) -th clocks in the upper synchronization mark sequence, and A i and A i + 1 are the i-th and (i + 1) -th synchronization clock sequences in the lower synchronization mark sequence. Is the center of the clock mark. The center of each clock {T i }, {A i }, the reference pattern, and the center position {P} of each mesh of the synchronization mark sequence on the recording medium are known to the data reading device and have as an encoded image model. ing. For example, all the data at these positions may be stored, or if there is synchronization between the positions, all the center positions can be calculated from one or several position data and the synchronization data. In FIG. 21, the line of the upper synchronization mark string connecting T i and T i + 1 and the line of the lower synchronization mark string connecting A i and A i + 1 are drawn in parallel, but it is not always necessary. Absent. Also in FIG. 21, the center of the i-th clock in the upper synchronization mark row is defined as the origin (0, 0), and the center of the (i + 1) -th clock is illustrated as a point (D, 0) on the x-axis.

いま、読み込んだイメージデータから基準パターンで
ある同期マーク列の各クロック中心が上述したように仕
方で得られたとし、第20図に示すような4つのクロック
中心Ui、Ui+1、Bi、Bi+1で囲まれる四角のイメージブロ
ックに注目したとする。問題はこの四角のイメージブロ
ック内にある各網目の中心位置を知ることである。そこ
でデータ読取装置は符号化画像モデルから、モデル上
(したがって記録媒体上)での対応するクロック中心
Ti、Ti+1、Ai、Ai+1を選択する。符号化画像モデルには
全符号化画像における各網目の中心の位置情報{P}が
含まれているので、Ti、Ti+1、Ai、Ai+1で囲まれる四角
形(ここでは平行四辺形)の内部にある網目の中心位置
のセットを作成できる。例えば、第21図の場合であれ
ば、 0≦x+Ly≦D(Lは傾き) を満足する座標(x、y)の組を全網目の中心位置のセ
ット{P}から選択すればよい。
Now, it is assumed that the respective clock centers of the synchronization mark sequence as the reference pattern have been obtained from the read image data in the manner described above, and the four clock centers U i , U i + 1 , B as shown in FIG. It is assumed that attention is focused on a square image block surrounded by i and B i + 1 . The problem is to know the center position of each mesh within this square image block. The data reader then converts the encoded image model to the corresponding clock center on the model (and therefore on the recording medium).
Select T i , T i + 1 , A i , and A i + 1 . Since the coded image model includes the position information {P} of the center of each mesh in all the coded images, a square surrounded by T i , T i + 1 , A i , and A i + 1 (in this case, A set of center positions of the mesh inside the parallelogram can be created. For example, in the case of FIG. 21, a set of coordinates (x, y) satisfying 0 ≦ x + Ly ≦ D (L is a slope) may be selected from the set {P} of the center positions of all the meshes.

モデル上のTi、Ti+1、Ai、Ai+1で囲まれる四角形の内
部点は、読み込んだイメージデータ上においてUi
Ui+1、Bi、Bi+1で囲まれる内部点に対応し、その外部に
出ることはない。したがって、このようにして四角形の
内部にある各網目の中心位置が、符号化画像モデルの座
標系x−yにおいて判明したら、後はその各位置を、読
み込んだイメージデータの座標系X−Yにおける位置に
座標変換し、変換された位置でのイメージビットを取り
出せばよい。
The internal points of the rectangle surrounded by T i , T i + 1 , A i , and A i + 1 on the model are represented by U i ,
It corresponds to the interior point surrounded by U i + 1 , B i , and B i + 1 and does not go outside. Therefore, when the center position of each mesh inside the rectangle is found in the coordinate system xy of the coded image model in the manner described above, each position is then referred to in the coordinate system XY of the read image data. What is necessary is to convert the coordinates to the position and extract the image bit at the converted position.

座標交換の例を第22図に示す。同図(a)はモデル上
での問題のイメージブロックであり、ある網目の中心が
座標(x、y)で示されている。同図(f)は読み込ん
だイメージデータ上での対応するイメージブロック(目
的イメージブロック)であり、座標(x、y)に相当す
る座標を(X、Y)で示している。(a)から(b)は
四角形の上辺の長さを合わせるための横方向のスケーリ
ングであり、(b)から(c)は傾きを目的のイメージ
ブロックの下辺(UiからBi)の傾きに合わせるための変
換であり、(c)から(d)は左辺の長さを目的のイメ
ージブロックの左辺の長さに合わせるためのスケーリン
グであり、ここまでで、目的イメージブロックの4つの
頂点Ui、Ui+1、Bi、Bi+1のうち、3点Ui、Ui+1、Biが一
致するイメージブロックとなっている。そこで(e)に
示すように点Uiの対角になる点Bi+1にこのイメージブロ
ック(d)の対応する点をずらせば目的のイメージブロ
ックになる。イメージブロックは局部的な領域であり、
手動走査の場合であってもこのような局部的な領域内で
の速度変動や方向の変化はわずかであるので(d)から
(e)への変換を一様な歪み(面積比に比例する歪み)
と考えて問題はない。
An example of coordinate exchange is shown in FIG. FIG. 2A shows an image block in question on the model, and the center of a certain mesh is indicated by coordinates (x, y). FIG. 11F shows the corresponding image block (target image block) on the read image data, and the coordinates corresponding to the coordinates (x, y) are indicated by (X, Y). (A) and (b) are horizontal scalings for adjusting the length of the upper side of the rectangle, and (b) to (c) are gradients of the lower side (U i to B i ) of the target image block. (C) to (d) are scalings for adjusting the length of the left side to the length of the left side of the target image block, and the four vertices U of the target image block have been described so far. Of the i , U i + 1 , B i , and B i + 1 , three points U i , U i + 1 , and B i are the same image blocks. Therefore, as shown in (e), if the corresponding point of this image block (d) is shifted to a point B i + 1 which is a diagonal of the point U i, a target image block is obtained. Image blocks are local areas,
Even in the case of manual scanning, since the speed fluctuation and the direction change in such a local area are small, the conversion from (d) to (e) is performed with uniform distortion (proportional to the area ratio). distortion)
There is no problem to think.

結果として、目的の座標(X、Y)は、 ここに、 で与えられる(式(1)と(2)の△D、△Hに対する
乗数は第22図の(d)における実線の四角形と座標(X
d、Yd)を対角点とする点線の四角形との面積比を示し
ており、△Dは目的のイメージブロックの上辺の長さと
下辺の長さとの差、△Hは目的イメージブロックの左右
の辺のY軸方向の長さの差であり、その他のX1、X2
X3、Y2、Y3は第20図を参照されたい)。このようにし
て、モデルにおける網目中心の座標(x、y)から目的
イメージブロックにおける対応する網目の中心の座標
(X、Y)が得られる。したがって、位置(X、Y)に
あるイメージビットをサンプリングすることにより、網
目の明暗を示す情報が得られる。なお、点Ti、Ti+1
Ai、Ai+1により形成される画像の枠は実際には非常に細
長い局所的な領域であるので(第2図参照)、手走査を
行ったとしても通常の場合はずれ△Hは無視される大き
さ(△H=0)と考えられ、したがって式(2)の代り
にY=Ydとして簡略化できる。
As a result, the desired coordinates (X, Y) are here, (The multipliers for △ D and △ H in equations (1) and (2) are represented by the solid rectangle and the coordinates (X
d, Yd) indicates the area ratio with the dotted rectangle having the diagonal points, ΔD is the difference between the length of the upper side and the lower side of the target image block, and ΔH is the right and left of the target image block. The difference between the lengths of the sides in the Y-axis direction, and other X 1 , X 2 ,
X 3 , Y 2 and Y 3 are shown in FIG. 20). In this way, the coordinates (X, Y) of the center of the corresponding mesh in the target image block are obtained from the coordinates (x, y) of the center of the mesh in the model. Accordingly, by sampling the image bit at the position (X, Y), information indicating the brightness of the mesh can be obtained. Note that points T i , T i + 1 ,
Since the frame of the image formed by A i and A i + 1 is actually a very elongated local area (see FIG. 2), even if the manual scanning is performed, the deviation ΔH is ignored in the normal case. (△ H = 0), and therefore can be simplified to Y = Yd instead of equation (2).

[発明の効果] 以上の説明から明らかなように、請求項1、2記載の
データ読取方法、走査によれば、網状パターンの副走査
方向でのデータサンプリング基準を指示する同期マーク
の列のなかに部分的に破壊された部分があった場合に、
そのことを予測位置と実測位置が不一致であることから
検出し、破壊された同期マークの位置を決定ずみの特徴
パラメータから決定しているので、同期マーク列が汚れ
やキズによって部分的に破壊されている場合でも同期マ
ークを読み飛ばさずにその位置を精度よく割り出すこと
ができ、その位置情報に基づいて行われる網状パターン
の各網目の明暗の識別が確実なものになる利点がある。
[Effects of the Invention] As is apparent from the above description, according to the data reading method and the scanning according to the first and second aspects, in the row of the synchronization marks indicating the data sampling reference in the sub-scanning direction of the mesh pattern. If there is a partially destroyed part of
This is detected from the mismatch between the predicted position and the actual measurement position, and the position of the destroyed sync mark is determined from the determined feature parameters, so the sync mark row is partially destroyed by dirt or scratches. In this case, the position of the synchronization mark can be accurately determined without skipping the synchronization mark, and there is an advantage that the distinction of the brightness of each mesh of the mesh pattern performed based on the position information can be surely performed.

請求項3、4に記載のデータ読取方法、装置は、符号
化画像を走査するライン型のイメージセンサーが走査
中、その移動方向(副走査方向)に変動を受けるような
使用環境下に特に適している。この場合、一方の側の同
期マークが破壊されてなければ、他方の側の対応する同
期マークが破壊されていても、この同期マークの位置を
一方の側の同期マークの実測位置と特徴パラメータに含
まれる傾き情報から高精度に決定することができる。
The data reading method and apparatus according to the third and fourth aspects are particularly suitable for a use environment in which a line-type image sensor for scanning an encoded image is fluctuated in a moving direction (sub-scanning direction) during scanning. ing. In this case, if the synchronization mark on one side is not destroyed, the position of the synchronization mark is used as the measured position and the characteristic parameter of the synchronization mark on one side even if the corresponding synchronization mark on the other side is destroyed. It can be determined with high accuracy from the included tilt information.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明の第1実施例に係るデータ読取装置の
全体構成図、 第2図は読取り対象である記録媒体上の符号化画像を例
示する図、 第3図は第2図の符号化画像を手動のイメージセンサー
で走査して得られるイメージ例を示す図、 第4図は符号化画像の走査によるイメージデータをスト
アし、ストアされたイメージデータから主走査基準パタ
ーンであるガイドラインを認識して主走査デコードを行
うためのフローチャート、 第5図は主走査デコードされたイメージデータから副走
査基準パターンである同期マーク列を認識して副走査デ
コードを行うためのフローチャート、 第6図はイメージRAMのメモリマップを示す図、 第7図はガイドラインの断片を特徴づけるガイドライン
セットの説明図、 第8図は周囲に文字等がある符号化画像を示すとともに
符号化画像を区分けした複数のサーチブロックを示す
図、 第9図は汚れの付いたガイドラインと同期マーク列の画
像を例示した図、 第10図は第9図の画像に対応する主走査デコードされた
イメージデータを示す図、 第11図は第2実施例に係るデータ読取装置の全体構成
図、 第12図はデータ終了マークなしの符号化画像の例を示す
図、 第13図はガイドラインが3本の場合の符号化画像例の概
略図、 第14図はガイドラインが1本の場合の符号化画像例の概
略図、 第15図は同期マーク列が1列の場合の符号化画像例の概
略図、 第16図はクロックとして細長い黒マークを並べた同期マ
ーク列が付いた符号化画像例の概略図、 第17図は周期の異なる2種類の同期マーク列が付いた符
号化画像例の概略図、 第18図は同期マーク列の4つのクロックの中心から中点
方式で各網目の明暗を識別する処理の説明に用いた図、 第19図は第18図に示す中点C1、C2を含むイメージRAM上
のイメージデータの配置を示す図、 第20図は読み込んだイメージデータ上でのサンプリング
基準パターンの4つの位置と内部にある網目の位置との
関係を示す図、 第21図は第20図に対応するが記録媒体上でのサンプリン
グ基準パターンの4つの位置と内部にある網目の位置と
の関係を示す図、 第22図は記録媒体上での網目の中心座標をイメージデー
タ上での網目の中心位置へ座標変換する処理の説明に用
いた図である。 20……符号化画像、21……ガイドライン(主走査基準パ
ターン)、22……網状パターン、25……同期マーク列
(副走査基準パターン)、11、111……イメージセンサ
ー、13……CPU、14……ROM、15……イメージRAM。
FIG. 1 is an overall configuration diagram of a data reading apparatus according to a first embodiment of the present invention, FIG. 2 is a diagram illustrating an encoded image on a recording medium to be read, and FIG. FIG. 4 is a diagram showing an example of an image obtained by scanning an encoded image with a manual image sensor. FIG. 4 stores image data obtained by scanning an encoded image, and recognizes a guideline which is a main scanning reference pattern from the stored image data. FIG. 5 is a flowchart for performing main scanning decoding, FIG. 5 is a flowchart for performing sub scanning decoding by recognizing a synchronization mark string which is a sub scanning reference pattern from the main scanning decoded image data, and FIG. FIG. 7 is a diagram showing a memory map of a RAM, FIG. 7 is an explanatory diagram of a guideline set characterizing fragments of the guideline, and FIG. FIG. 9 is a diagram showing a plurality of search blocks obtained by dividing an encoded image, FIG. 9 is a diagram showing an example of an image of a guide line with a stain and a synchronization mark string, and FIG. 10 is a diagram corresponding to the image shown in FIG. FIG. 11 is a diagram showing scan-decoded image data, FIG. 11 is an overall configuration diagram of a data reading device according to a second embodiment, FIG. 12 is a diagram showing an example of an encoded image without a data end mark, and FIG. FIG. 14 is a schematic diagram of an example of an encoded image in the case of three guidelines, FIG. 14 is a schematic diagram of an example of an encoded image in the case of one guide line, and FIG. 15 is an encoded image of one synchronous mark sequence. Schematic diagram of the example, FIG. 16 is a schematic diagram of an example of an encoded image with a synchronization mark sequence in which elongated black marks are arranged as clocks, and FIG. 17 is an encoded image with two types of synchronization mark sequences having different periods. Schematic illustration of the example, Figure 18 shows the four FIG. 19 is a diagram used to describe the process of identifying the lightness and darkness of each mesh from the center of the lock using the middle point method. FIG. 20 is a diagram showing the relationship between the four positions of the sampling reference pattern on the read image data and the positions of the meshes inside, and FIG. 21 corresponds to FIG. 20 but shows sampling on the recording medium. FIG. 22 is a diagram showing a relationship between four positions of a reference pattern and positions of meshes inside the image. FIG. 22 is a view for explaining a process of converting the center coordinates of the mesh on the recording medium into the center position of the mesh on the image data. FIG. 20 coded image, 21 guideline (main scanning reference pattern), 22 mesh pattern, 25 synchronization mark array (sub-scanning reference pattern), 11, 111 image sensor, 13 CPU 14 ... ROM, 15 ... Image RAM.

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】記録媒体に記録された画像に符号化された
データを読み取るデータ読取方法において、 (A)縦横に並べられた複数の網目のそれぞれに形成さ
れた明暗によってデータを符号化した網状パターンと、
該網状パターンの副走査方向におけるデータサンプリン
グ基準を指示するための同期マークの列とから成る画像
が記録された記録媒体から、該画像を表わすイメージデ
ータを読み取る工程と、 (B)読み取られたイメージデータから、上記同期マー
クの列を探索する工程であって下記のステップから成る
工程と、 (i)少なくとも1つの同期マークの位置と隣り合う同
期マーク間の間隔とを検出し、検出された位置と間隔を
特徴パラメータとして決定するステップ、 (ii)決定された特徴パラメータから隣りの同期マーク
の位置を予測するステップ、 (iii)予測された位置を中心として上記隣りの同期マ
ークを実測するステップ、 (iv)実測結果の位置を上記予測された位置と比較する
ステップ、 (v)比較結果が実質上一致のときは実測結果に従って
上記隣りの同期マークの位置を決定し、比較結果が実質
上不一致のときは決定された特徴パラメータから上記隣
りの同期マークの位置を決定するステップ、及び (vi)上記(ii)から(v)のステップをすべての同期
マークについて繰り返すことにより、すべての同期マー
クの位置情報を生成するステップ、 (C)生成された位置情報に基づいて上記網状パターン
の各網目の明暗を識別する工程と、 を有することを特徴とするデータ読取方法。
1. A data reading method for reading data encoded on an image recorded on a recording medium, comprising the steps of: (A) forming a mesh in which data is encoded by light and dark formed on a plurality of meshes arranged vertically and horizontally; Patterns and
Reading image data representing the image from a recording medium on which an image comprising a sequence of synchronization marks for designating a data sampling reference in the sub-scanning direction of the mesh pattern is recorded; (I) detecting a position of at least one synchronization mark and an interval between adjacent synchronization marks, and detecting the detected position; (Ii) predicting the position of the adjacent synchronization mark from the determined characteristic parameter; (iii) actually measuring the adjacent synchronization mark around the predicted position; (Iv) comparing the position of the actual measurement result with the predicted position; (v) actual measurement when the comparison result substantially coincides Determining the position of the adjacent synchronization mark according to the result, and determining the position of the adjacent synchronization mark from the determined characteristic parameter when the comparison result substantially does not match; and (vi) from (ii) to (ii). generating position information of all the synchronization marks by repeating step v) for all the synchronization marks; and (C) identifying the brightness of each mesh of the mesh pattern based on the generated position information. A data reading method, comprising:
【請求項2】記録媒体に記録された画像に符号化された
データを読み取るデータ読取装置において、 (A)縦横に並べられた複数の網目のそれぞれに形成さ
れた明暗によってデータを符号化した網状パターンと、
該網状パターンの副走査方向におけるデータサンプリン
グ基準を指示するための同期マークの列とから成る画像
が記録された記録媒体から、該画像を表わすイメージデ
ータを読み取るイメージセンサー手段と、 (B)読み取られたイメージデータから、上記同期マー
クの列を探索する探索手段であって下記の手段から成る
探索手段と、 (i)少なくとも1つの同期マークの位置と隣り合う同
期マーク間の間隔とを検出し、検出された位置と間隔を
特徴パラメータとして決定する手段、 (ii)決定された特徴パラメータから隣りの同期マーク
の位置を予測する手段、 (iii)予測された位置を中心として上記隣りの同期マ
ークを実測する手段、 (iv)実測結果の位置を上記予測された位置と比較する
手段、 (v)比較結果が実質上一致のときは実測結果に従って
上記隣りの同期マークの位置を決定し、比較結果が実質
上不一致のときは決定された特徴パラメータから上記隣
りの同期マークの位置を決定する手段、及び (vi)上記(ii)から(v)の手段をすべての同期マー
クについて繰り返すことにより、すべての同期マークの
位置情報を生成する手段、 (C)生成された位置情報に基づいて上記網状パターン
の各網目の明暗を識別する識別手段と、 を有することを特徴とするデータ読取装置。
2. A data reading apparatus for reading data encoded on an image recorded on a recording medium, comprising: (A) a mesh which encodes data by light and dark formed on a plurality of meshes arranged vertically and horizontally; Patterns and
(B) image sensor means for reading image data representing an image from a recording medium on which an image comprising a row of synchronization marks for indicating a data sampling reference in the sub-scanning direction of the mesh pattern is recorded; Searching means for searching for a row of the synchronization mark from the image data obtained, the search means comprising: (i) detecting a position of at least one synchronization mark and an interval between adjacent synchronization marks; Means for determining the detected position and interval as a feature parameter; (ii) means for estimating the position of an adjacent synchronization mark from the determined characteristic parameter; and (iii) the adjacent synchronization mark with the estimated position as the center. (Iv) means for comparing the position of the actual measurement result with the predicted position, (v) when the comparison results substantially coincide with each other Means for determining the position of the adjacent synchronization mark according to the actual measurement result, and determining the position of the adjacent synchronization mark from the determined characteristic parameter when the comparison result is substantially inconsistent; and (vi) from (ii) above Means for generating position information of all synchronization marks by repeating the means of (v) for all synchronization marks; and (C) identification for identifying the brightness of each mesh of the mesh pattern based on the generated position information. Means for reading data.
【請求項3】記録媒体に記録された画像に符号化された
データを読み取るデータ読取方法において、 (A)縦横に並べられた複数の網目のそれぞれに形成さ
れた明暗によってデータを符号化した網状パターンと、
該網状パターンの上と下の両側に設けられ、該網状パタ
ーンの横方向に沿って、各網目の横方向の長さに対応す
る間隔で交互に明と暗を繰り返す同期マーク列とから成
る画像が記録された記録媒体から、該画像を表わすイメ
ージデータを読み取る工程と、 (B)読み取られたイメージデータから、上記同期マー
ク列を探索する工程であって下記のステップから成る工
程と、 (i)各側の同期マーク列の最初の同期マークの中心位
置、及び横方向の長さを検出するとともに、上側の同期
マーク列の最初の同期マークの中心位置と下側の同期マ
ーク列の最初の中心位置との位置関係を表わす傾きを検
出し、該中心位置、横方向の長さ、傾きから成る特徴パ
ラメータを決定するステップ、 (ii)決定された特徴パラメータから各側の同期マーク
列の隣りの同期マークの中心位置を予測するステップ、 (iii)予測された中心位置を基に上記隣りの同期マー
クについて、中心位置、横方向の長さ、傾きを実測して
実測パラメータを求めるステップ、 (iv)各側について、予測された中心位置と実測された
中心位置とを比較するステップ、 (v)比較結果が、(a)いずれの側においても所定の
範囲内で一致するときは実測パラメータに従って上記隣
りの同期マークの位置を決定するとともに実測パラメー
タで特徴パラメータを更新し、(b)一方の側では所定
の範囲内で一致するが他方の側では所定の範囲内で一致
しないときは一方の側の隣りの同期マークの位置を実測
パラメータが示す当該一方の側の同期マークの実測中心
位置に従って決定するとともに他方の側の隣りの同期マ
ークの位置を、上記一方の側の同期マークの実測中心位
置と上記特徴パラメータに含まれる傾きとから決定し、
(c)いずれの側でも所定の範囲内で一致しないときは
予測された中心位置により上記隣りの同期マークの位置
を決定するステップ、及び (vi)上記(ii)から(v)のステップをすべての同期
マークについて繰り返すことにより、すべての同期マー
クの位置情報を生成するステップ、 (C)生成された位置情報に基づいて上記網状パターン
の各網目の明暗を識別する工程と、 を有することを特徴とするデータ読取方法。
3. A data reading method for reading data encoded on an image recorded on a recording medium, comprising: (A) a mesh which encodes data by light and dark formed on each of a plurality of meshes arranged vertically and horizontally. Patterns and
An image is provided which is provided on both upper and lower sides of the mesh pattern, and which is composed of a synchronization mark string which alternates between light and dark alternately along the horizontal direction of the mesh pattern at intervals corresponding to the horizontal length of each mesh. Reading the image data representing the image from the read recording medium; (B) searching for the synchronization mark string from the read image data, comprising the following steps: The center position of the first sync mark of the side sync mark row and the length in the horizontal direction are detected, and the center position of the first sync mark of the upper sync mark row and the first center position of the lower sync mark row are detected. Detecting a tilt representing the positional relationship with the center and determining a characteristic parameter comprising the center position, the length in the horizontal direction, and the tilt; (ii) a synchronization mark sequence on each side from the determined characteristic parameter. Estimating the center position of the adjacent synchronization mark; (iii) measuring the center position, the length in the horizontal direction, and the inclination of the adjacent synchronization mark based on the predicted center position to obtain an actually measured parameter; (Iv) comparing the predicted center position with the actually measured center position for each side; (v) the comparison result is (a) when the comparison result is within a predetermined range on either side, the actually measured parameter The position of the adjacent synchronization mark is determined according to the above, and the feature parameter is updated with the actually measured parameter. (B) If the one side matches within the predetermined range but the other side does not match within the predetermined range, The position of the adjacent synchronization mark on the other side is determined according to the measured center position of the synchronization mark on the one side indicated by the measured parameter, and the position of the adjacent synchronization mark on the other side is determined. The, determined from the slope contained in the measured center position and the feature parameter of the sync mark on one side of said,
(C) determining the position of the adjacent synchronization mark based on the predicted center position when no match is found within the predetermined range on either side; and (vi) performing all of the steps (ii) to (v) above. (C) identifying the brightness of each mesh of the mesh pattern based on the generated location information. Data reading method.
【請求項4】記録媒体に記録された画像に符号化された
データを読み取るデータ読取装置において、 (A)縦横に並べられた複数の網目のそれぞれに形成さ
れた明暗によってデータを符号化した網状パターンと、
該網状パターンの上と下の両側に設けられ、該網状パタ
ーンの横方向に沿って、各網目の横方向の長さに対応す
る間隔で交互に明と暗を繰り返す同期マーク列とから成
る画像が記録された記録媒体から、該画像を表わすイメ
ージデータを読み取る手段と、 (B)読み取られたイメージデータから、上記同期マー
ク列を探索する探索手段であって下記の手段から成る探
索手段と、 (i)各側の同期マーク列の最初の同期マークの中心位
置、及び横方向の長さを検出するとともに、上側の同期
マーク列の最初の同期マークの中心位置と下側の同期マ
ーク列の最初の中心位置との位置関係を表わす傾きを検
出し、該中心位置、横方向の長さ、傾きから成る特徴パ
ラメータを決定する手段、 (ii)決定された特徴パラメータから各側の同期マーク
列の隣りの同期マークの中心位置を予測する手段、 (iii)予測された中心位置を基に上記隣りの同期マー
クについて、中心位置、横方向の長さ、傾きを実測して
実測パラメータを求める手段、 (iv)各側について、予測された中心位置と実測された
中心位置とを比較する手段、 (v)比較結果が、(a)いずれの側においても所定の
範囲内で一致するときは実測パラメータに従って上記隣
りの同期マークの位置を決定するとともに実測パラメー
タで特徴パラメータを更新し、(b)一方の側では所定
の範囲内で一致するが他方の側では所定の範囲内で一致
しないときは一方の側の隣りの同期マークの位置を実測
パラメータが示す当該一方の側の同期マークの実測中心
位置に従って決定するとともに他方の側の隣りの同期マ
ークの位置を、上記一方の側の同期マークの実測中心位
置と上記特徴パラメータに含まれる傾きとから決定し、
(c)いずれの側でも所定の範囲内で一致しないときは
予測された中心位置により上記隣りの同期マークの位置
を決定する手段、及び (vi)上記(ii)から(v)の手段をすべての同期マー
クについて繰り返すことにより、すべての同期マークの
位置情報を生成する手段、 (C)生成された位置情報に基づいて上記網状パターン
の各網目の明暗を識別する識別手段と、 を有することを特徴とするデータ読取装置。
4. A data reading device for reading data encoded on an image recorded on a recording medium, comprising: (A) a net-like data in which data is encoded by light and dark formed on a plurality of meshes arranged vertically and horizontally; Patterns and
An image is provided which is provided on both upper and lower sides of the mesh pattern, and which is composed of a synchronization mark string which alternates between light and dark alternately along the horizontal direction of the mesh pattern at intervals corresponding to the horizontal length of each mesh. Means for reading image data representing the image from the read recording medium; (B) search means for searching for the synchronization mark string from the read image data, the search means comprising: ) The center position and the horizontal length of the first synchronization mark of the synchronization mark sequence on each side are detected, and the center position of the first synchronization mark of the upper synchronization mark sequence and the first position of the lower synchronization mark sequence are detected. Means for detecting a tilt representing a positional relationship with the center position, and determining a characteristic parameter comprising the center position, a lateral length, and a tilt; (ii) a synchronization mark sequence on each side from the determined characteristic parameter Means for predicting the center position of the adjacent synchronization mark; (iii) means for measuring the center position, the length in the horizontal direction, and the inclination of the adjacent synchronization mark based on the predicted center position to obtain an actually measured parameter; (Iv) means for comparing the predicted center position with the actually measured center position for each side; (v) the comparison result is (a) when the comparison result matches within a predetermined range on either side, the actually measured parameter The position of the adjacent synchronization mark is determined according to the above, and the feature parameter is updated with the actually measured parameter. (B) If the one side matches within the predetermined range but the other side does not match within the predetermined range, The position of the adjacent synchronization mark on the other side is determined in accordance with the measured center position of the one side synchronization mark indicated by the measured parameter, and the position of the adjacent synchronization mark on the other side is determined by the above-mentioned one. Actually measuring the center position of the synchronization mark on the side of the determination from the slope included in the feature parameter,
(C) means for determining the position of the adjacent synchronization mark on the basis of the predicted center position when no match is found within the predetermined range on any side; and (vi) all means from (ii) to (v) above (C) identification means for identifying the brightness of each mesh of the mesh pattern on the basis of the generated location information. Characteristic data reading device.
JP1145256A 1989-06-09 1989-06-09 Data reading method and device Expired - Lifetime JP2734639B2 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP1145256A JP2734639B2 (en) 1989-06-09 1989-06-09 Data reading method and device
US07/530,630 US5153928A (en) 1989-06-09 1990-05-30 Method and apparatus for recording/reproducing mesh pattern data
US07/869,012 US5454054A (en) 1989-06-09 1992-04-14 Method and apparatus for recording/reproducing mesh pattern data
US08/451,544 US5664030A (en) 1989-06-09 1995-05-26 Method and apparatus for recording/reproducing mesh pattern data
US08/451,545 US5790715A (en) 1989-06-09 1995-05-26 Method and apparatus for recording/reproducing mesh pattern data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1145256A JP2734639B2 (en) 1989-06-09 1989-06-09 Data reading method and device

Publications (2)

Publication Number Publication Date
JPH0311484A JPH0311484A (en) 1991-01-18
JP2734639B2 true JP2734639B2 (en) 1998-04-02

Family

ID=15380929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1145256A Expired - Lifetime JP2734639B2 (en) 1989-06-09 1989-06-09 Data reading method and device

Country Status (1)

Country Link
JP (1) JP2734639B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05290197A (en) * 1992-04-06 1993-11-05 Teiriyou Sangyo Kk Method for deciphering two-dimensional code symbol mark
JP5033485B2 (en) * 2007-06-04 2012-09-26 日立オムロンターミナルソリューションズ株式会社 Object detection device and packaging coin detection device
JP5033484B2 (en) * 2007-06-04 2012-09-26 日立オムロンターミナルソリューションズ株式会社 Money release device

Also Published As

Publication number Publication date
JPH0311484A (en) 1991-01-18

Similar Documents

Publication Publication Date Title
US5790715A (en) Method and apparatus for recording/reproducing mesh pattern data
EP0669593B1 (en) Two-dimensional code recognition method
AU601100B2 (en) Technique for reading bar codes
JP3458737B2 (en) Reading method of two-dimensional code and recording medium
JPH0612515A (en) Method and apparatus for decoding two-dimensional bar code using ccd/cmd camera
JPH08185492A (en) Digital information recording carrier, method and device for recording digital information, and method and device for converting digital information into plain one
US5164996A (en) Optical character recognition by detecting geo features
JP2764224B2 (en) Method and apparatus for determining the position of a supplementary target
JP2734638B2 (en) Data reading method and device
JP2003248792A (en) Decoding method of two-dimensional code, decoding device of two-dimensional code, program of performing the decoding method of two-dimensional code on computer and recording medium with the program recorded
JP2734639B2 (en) Data reading method and device
JPH10198754A (en) Code reader
JP5515012B2 (en) Bar code information reading method and bar code information reading device
JPH10154198A (en) Bar code reading method and device
JPH0120795B2 (en)
JPH0233195B2 (en) DEJITARUJOHONOKIROKUHOHOOYOBIKIROKUTANTAI
JP2000235632A (en) Digital information recording carrier, digital information recording method/device and digital information decoding method/device
JPH0311481A (en) Method and device for recording data, recording medium, and method and device for reproducing data
JPS596418B2 (en) Character reading method
JPH05324878A (en) Method and device for recording data
JPH0157393B2 (en)
JP2737755B2 (en) Data reader
JP2001357350A (en) Method and device for detecting position of one- dimensional bar code
JP2849000B2 (en) Barcode label scanning interval determination method
JPH0525555U (en) Concentric color code and its reader

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090109

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090109

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

EXPY Cancellation because of completion of term
R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100109

Year of fee payment: 12