JPS60210069A - Document information coding method - Google Patents

Document information coding method

Info

Publication number
JPS60210069A
JPS60210069A JP6563684A JP6563684A JPS60210069A JP S60210069 A JPS60210069 A JP S60210069A JP 6563684 A JP6563684 A JP 6563684A JP 6563684 A JP6563684 A JP 6563684A JP S60210069 A JPS60210069 A JP S60210069A
Authority
JP
Japan
Prior art keywords
data
pattern
character
document information
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6563684A
Other languages
Japanese (ja)
Inventor
Koichi Ejiri
公一 江尻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP6563684A priority Critical patent/JPS60210069A/en
Publication of JPS60210069A publication Critical patent/JPS60210069A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To code document picture information with high efficiency by dividing data for each series of black picture elements continuous to each other, extracting the data section of a prescribed size to recognize characters and to obtain character codes and at the same time converting other pitcure data into run length codes. CONSTITUTION:The document picture information is scanned based on the position of an upper left picture element and a square window defined in X and Y axes to obtain black picture elements. Then a notice picture element is set at the black picture element. The black picture elements adjacent to the notice picture element are obtained, and the window is shifted along continuous black picture element groups, i.e., the contour of a pattern. Then the minimum coordinates Xmin and Ymin and the maximum coordinates Xmax and Ymax are obtained among coordinates X and Y of the black picture element along which the window has a round. Then a square pattern area ARC passing through picture elements D (Xmin, Ymin) and (Xmax, Ymax). The horizontal and vertical lengths WX and WY of the area ARC are compared with their reference values respectively. When the extracted pattern is equal to a character pattern, the characters are recognized with the dictionary data and coded. While the extracted pattern equal to a graphic pattern is kept as it is, and other picture data are converted into run length codes.

Description

【発明の詳細な説明】 ■技術分野 本発明は、例えばファクシミリのように図形と文字を含
む文書情報を読み取ってそれを符号化する装置に採用し
うる文書情報の符号化に関する。
DETAILED DESCRIPTION OF THE INVENTION [Technical Field] The present invention relates to the encoding of document information that can be employed in a device, such as a facsimile, which reads and encodes document information including figures and characters.

■従来技術 通常、ファクシミリで伝送する文書は文字の情報と図形
の情報とを含んでいる。一般のファクシミリにおいては
、画像を走査してそれを構成する各微小画素のデータを
順次読み取り、そのデータの集りを、直接、ランレング
スコード化して伝送している。図形の情報のみを含む場
合のように、文書に含まれる情報の密度が小さい場合、
ランレングスコード化によって伝送すべきビット数がか
なり小さくなる。しかし、文字情報を含む文書の場合に
は、情報の密度が大きく、ランレングスコード化を行な
っても伝送するビット数はあまり小さくならない。
■Prior Art Documents transmitted by facsimile usually contain text information and graphic information. In a typical facsimile, an image is scanned, data of each minute pixel making up the image is sequentially read, and the collection of data is directly converted into a run-length code and transmitted. When the density of information contained in a document is low, such as when it contains only graphical information,
Run-length encoding significantly reduces the number of bits to be transmitted. However, in the case of a document containing character information, the information density is high, and the number of bits to be transmitted does not decrease much even if run-length encoding is performed.

文字情報は、それ自体の種類が限られているので、その
文字が特定できれば、それをビット数の小さな1つの情
報(漢字であれば16ビツト)として表現できる。そこ
で、通常の文字認識と同様に、文書情報を予め定めた行
毎に切り出し、更にそれを短形の小領域毎に区分し、各
々の小領域についてパターンマツチング等による文字認
識を行ない、文字が認識された場合にはその文字に対応
する文字コードを伝送し、認識不可能なパターンについ
てはその領域についてランレングスコード化された情報
を伝送する方式(USP−4,091,424)が提案
されている。
Since the types of character information itself are limited, if the character can be identified, it can be expressed as a single piece of information with a small number of bits (16 bits for Kanji). Therefore, in the same way as normal character recognition, document information is cut out for each predetermined line, then divided into rectangular small areas, and character recognition is performed on each small area by pattern matching. A method has been proposed (USP-4,091,424) in which if a pattern is recognized, the character code corresponding to that character is transmitted, and if a pattern cannot be recognized, run-length coded information about that area is transmitted. has been done.

しかしながら、これだと大きな図形をも含む文書の場合
には文字の切り出しによって1つの図形が多数の領域に
分断され、その結果図形を構成する線の一部が数字の1
″!やハイフン7′#lに誤認識されて不正確な情報が
再現されることがある。またこれだと、複雑な図形の場
合、通常よりも伝送効率が低下する。
However, in the case of a document that includes large figures, one figure is divided into many areas by cutting out characters, and as a result, some of the lines that make up the figure are divided into numbers.
``!'' or hyphen 7'#l may be misrecognized and inaccurate information may be reproduced. Also, in the case of complex figures, the transmission efficiency will be lower than usual.

■目的 本発明は、文字情報と図形情報を含む文書の情報をビッ
ト数の小さな情報に効率良くコード化するーとともに、
誤認識による誤まったコード化を防止することを目的と
する。
■Purpose The present invention efficiently encodes document information including character information and graphic information into information with a small number of bits.
The purpose is to prevent incorrect encoding due to misrecognition.

■構成 文書情報を少ないビット数で効率良くコード化するには
、やはり文書中に含まれる文字情報は文字コードに変換
して出力するのが良い。但し、従来のように一般の文字
認識と同一の方法を用いてパターン(文字)切り出しを
行なうと、上記のような併置が生ずる。
■In order to efficiently encode the constituent document information using a small number of bits, it is best to convert the character information contained in the document into a character code and output it. However, if patterns (characters) are cut out using the same method as conventional character recognition, the above-mentioned juxtaposition will occur.

この種の併置は、本来なら1つであるべきパターンが複
数の領域に分断されるために生ずる。そこで例えば互い
に連続する一連の黒画素(又は白画素)毎にデータを区
分すれば、1つのパターンデータが複数に分断されるこ
とはなくなる。また、一般に文字の場合には各々のパタ
ーンの大きさが略所定範囲に入っている。従って、区分
したパターンデータのうち所定の大きさのもののみを抽
出し、それに対して文字認識を行なえばよい。文字を認
識できたパターンについては、その文字コードを出力し
、そのパターンデータを記憶している画像メモリからそ
のパターンデータを消去すれば、画像メモリに残る画像
データの有効情報量が少なくなるので、その画像データ
を従来と同様にランレングスコード化すれば、効率の良
いコード化を行ないうる。
This type of juxtaposition occurs because a pattern that should originally be one is divided into multiple regions. Therefore, for example, if the data is divided into a series of consecutive black pixels (or white pixels), one pattern data will not be divided into a plurality of pieces. Furthermore, in the case of characters, the size of each pattern generally falls within a predetermined range. Therefore, it is sufficient to extract only those of a predetermined size from the divided pattern data and perform character recognition on them. For patterns in which characters can be recognized, if the character code is output and the pattern data is deleted from the image memory that stores the pattern data, the amount of effective information in the image data remaining in the image memory will be reduced. If the image data is run-length coded as in the conventional method, efficient coding can be achieved.

以下、図面を参照して本発明の詳細な説明する。Hereinafter, the present invention will be described in detail with reference to the drawings.

第1図に示すような文書画像を読み取る場合について説
明する。第1図を参照すると、この画像は図形のパター
ンPTIと文字のパターンPT2およびPT3を含んで
いる。しかもこれらのパターンは互いに近接しているの
で、従来の光学式文字読み取り(OCR)において行な
われているような文字切り出しの方法では、文字のパタ
ーンPT2およびPT3をうまく切り出すことができな
し1゜ そこで、この情報を光学的に読み取った白黒に対応する
2値情報を予めバッファメモリに格納し、そのメモリの
内容に対して次のように処理する。
A case will be described in which a document image as shown in FIG. 1 is read. Referring to FIG. 1, this image includes a graphic pattern PTI and character patterns PT2 and PT3. Furthermore, since these patterns are close to each other, character patterns PT2 and PT3 cannot be successfully extracted using the character extraction method used in conventional optical character reading (OCR). , binary information corresponding to black and white obtained by optically reading this information is stored in advance in a buffer memory, and the contents of the memory are processed as follows.

文書画像情報の左上画素位置を基点とし、第1図に示さ
れるような3×3マトリクスレジスタすなわち窓をX軸
方向およびY軸方向に順次走査し、黒画素を見つける。
Starting from the upper left pixel position of the document image information, a 3×3 matrix register or window as shown in FIG. 1 is sequentially scanned in the X-axis direction and the Y-axis direction to find a black pixel.

黒画素が見つかったら、その位置に注目画素を合わせる
。次に、注目画素に隣接する黒画素を見つけて、連続す
る黒画素群すなわち1つのパターンの、輪郭に沿って窓
を移動する。窓がパターンの輪郭を一周したら、その間
に通った黒画素の座標XおよびYの中で最小のものXm
1nおよびYminならびに最大のものXmaxおよび
Ymaxを判定する。
When a black pixel is found, the pixel of interest is adjusted to that position. Next, a black pixel adjacent to the pixel of interest is found, and the window is moved along the outline of a group of consecutive black pixels, that is, one pattern. When the window goes around the outline of the pattern, the smallest of the coordinates X and Y of the black pixels passing through it is Xm
Determine 1n and Ymin and the maximum Xmax and Ymax.

この結果特定される1つの画素D (Xmin、Ymi
n)と、もう1つの画素D (Xmax 、 Ymax
)とを通る方形の領域を1つのパターン領域ARCとし
て定める。パターン領域ARCの横方向長さWXおよび
縦方向長さWYは、第1図に示すように、それが文字の
場合には比較的小さくなるが、図形を含む場合には横方
向と縦方向の少なくとも一方が大きくなる。
One pixel D (Xmin, Ymi
n) and another pixel D (Xmax, Ymax
) is defined as one pattern area ARC. As shown in Fig. 1, the horizontal length WX and vertical length WY of the pattern area ARC are relatively small when it is a character, but when it includes a figure, the horizontal and vertical lengths are relatively small. At least one becomes larger.

そこで、この大きさWXおよびWYをそれぞれ予め定め
た参照値RefXおよびRefYと比較して、抽出した
パターン領域ARCが文字のパターンか図形のパターン
かを判定する。
Therefore, the sizes WX and WY are compared with predetermined reference values RefX and RefY, respectively, to determine whether the extracted pattern area ARC is a character pattern or a graphic pattern.

パターン領域ARCが図形であると判定した場合には何
もしないで次のパターンを捜すが、文字であると判定し
た場合には、この領域の画素データを予め備える辞書デ
ータと比較してパターンマツチング(他の方法でもよい
)を行ない、文字認識処理する。その結果、認識に成功
した場合には、そこで得られた文字コードと、その文字
パターンの左上の座標データすなわちXm1nおよびY
minを含む文字コードデータ群を生成する。
If the pattern area ARC is determined to be a figure, nothing is done and the next pattern is searched, but if it is determined to be a character, the pixel data of this area is compared with dictionary data prepared in advance and the pattern area ARC is searched for. (other methods may be used) and perform character recognition processing. As a result, if the recognition is successful, the obtained character code and the upper left coordinate data of the character pattern, that is, Xm1n and Y
Generate a character code data group including min.

第1図に示すように複数の文字パターン(PT2゜PT
3)が並んでいる場合(各パターンのX minおよび
Yminを比較して判定する)には、これを一連の文字
と見なし、同一の文字コードデータ群に含める。その場
合の2番目以降の文字の座標は、前の文字の座標(2番
目ならX ll1in 、 Y min )に対する相
対座標dXYで表現する。
As shown in Figure 1, multiple character patterns (PT2゜PT
3) are lined up (determined by comparing X min and Y min of each pattern), these are regarded as a series of characters and included in the same character code data group. In this case, the coordinates of the second and subsequent characters are expressed as relative coordinates dXY with respect to the coordinates of the previous character (for the second character, X ll1in , Y min ).

また、文字を認識した場合には、そのパターン領域AR
Cに相当するバッファメモリのデータを自画素データに
する。つまり、それまで存在していた黒画素のデータを
消去する。従って、この処理を繰り返すと、バッファメ
モリ内のデータから、文字パターンの成分がなくなる。
In addition, when a character is recognized, the pattern area AR
The data in the buffer memory corresponding to C is made the own pixel data. In other words, the black pixel data that existed up to that point is erased. Therefore, if this process is repeated, the character pattern components will disappear from the data in the buffer memory.

以上の処理の概略の流れは第2a図に示しである。A schematic flow of the above processing is shown in FIG. 2a.

また、文字コードデータ群の構成例が第3a図に示しで
ある。第3a図を参照すると、CCが、それ以降に文字
コードデータ群が存在することを識別するための識別コ
ードであり、DNはこのデータ群内に存在する文字の数
であり、CHI、CH2、・・・CHnが各文字のコー
ド(漢字ならそれぞれ16ビツトで構成される)であり
、C/Rはこのデータ群の終りを示すキャリッジリター
ンコードである。
Further, an example of the structure of the character code data group is shown in FIG. 3a. Referring to FIG. 3a, CC is an identification code for identifying that a character code data group exists after that, DN is the number of characters existing in this data group, CHI, CH2, . . . CHn is the code of each character (for Kanji characters, each consists of 16 bits), and C/R is a carriage return code indicating the end of this data group.

以上のような処理を行なうと、バッファメモリに含まれ
る画像データは図形成分と僅かに認識できない文字パタ
ーンの成分のみになるので、実質的にこの中に含まれる
情報足は小さく、これをそのままランレングスコード化
しても、かなり効率良くデータ量を減小させることがで
きる。しかし、この実施例では更にデータ量を減らすた
め、次のように線認識を行なう。
When the above processing is performed, the image data contained in the buffer memory will consist of only graphic components and slightly unrecognizable character pattern components, so the amount of information contained in this data is actually small, and it cannot be run as is. Even if it is length encoded, the amount of data can be reduced quite efficiently. However, in this embodiment, in order to further reduce the amount of data, line recognition is performed as follows.

第4図に示すような線状の画素群を処理する場合につい
て説明する。上記と同様に、窓を横方向および縦方向に
移動して、残っている黒画素の始まり(第4図のD (
SX、5Y))を見つける。注目画素に隣接する黒画素
に対して、第5図に示すような優先順位をつける。つま
り、この例では注目画素の右上に位置する黒画素が最も
優先順位が高いので、この位置の画素が黒画素なら他の
画素が黒画素であっても無視する。
A case will be described in which a linear pixel group as shown in FIG. 4 is processed. In the same way as above, move the window horizontally and vertically to find the beginning of the remaining black pixel (D in Figure 4).
Find SX, 5Y)). Black pixels adjacent to the pixel of interest are prioritized as shown in FIG. That is, in this example, the black pixel located at the upper right of the pixel of interest has the highest priority, so if the pixel at this position is a black pixel, it is ignored even if other pixels are black pixels.

始点画素D (SX、SV)においては、その右中央に
位置する黒画素が最も優先順位が高い。そこで、第4図
に示す矢印のように、注目画素を、その優先順位の高い
黒画素の位置に移動する。この時の移動方向に応じて、
第5図に示すような方向データ(1〜8のいずれか)を
生成する。ここで生成した方向データは、カウンタCN
Tの値に対応付けた方向メモリのアドレスに格納してお
く。
In the starting point pixel D (SX, SV), the black pixel located at the center right thereof has the highest priority. Therefore, as indicated by the arrow shown in FIG. 4, the pixel of interest is moved to the position of a black pixel with a higher priority. Depending on the direction of movement at this time,
Direction data (any one of 1 to 8) as shown in FIG. 5 is generated. The direction data generated here is the counter CN
It is stored in the direction memory address associated with the value of T.

次いでカウンタCNTの内容を+1し、注目画素に接す
る後方(第4図において注目画素の位置が(sx+i、
sy)の場合には(SX、5Y−1)。
Next, the contents of the counter CNT are incremented by 1, and the position of the pixel of interest is (sx+i,
sy) in case of (SX, 5Y-1).

(sx、sy)および(SX、SY+1)の座標)の、
黒画素データを白画素データに更新する。この処理を繰
り返すと、第4図に示す線状パターンの場合には、ハツ
チングを施した一部の画素のみが黒画素として残り、他
の黒画素は全て消去される。
(sx, sy) and (SX, SY+1) coordinates),
Update black pixel data to white pixel data. When this process is repeated, in the case of the linear pattern shown in FIG. 4, only some hatched pixels remain as black pixels, and all other black pixels are erased.

注目画素が線状パターンの最終画素に達したら、その注
目画素自体も消去し、始点データSX、SY、カウンタ
CNTおよび方向メモリの内容を参照して、線コードデ
ータを生成する。つまり、第3b図に示すように、それ
に続くデータが一連の線コードデータであることを識別
するためのコードCL、始点のX座標(SX)l始点の
Y座標(SY)?データ数(CNT)、各々の方向デー
タおよびデータの終りを示すキャリッジリターンコード
C/Rでなる一連のコードデータを生成する。
When the pixel of interest reaches the final pixel of the linear pattern, the pixel of interest itself is also erased, and line code data is generated with reference to the start point data SX, SY, the counter CNT, and the contents of the direction memory. That is, as shown in FIG. 3b, the code CL for identifying that the following data is a series of line code data, the X coordinate of the starting point (SX), the Y coordinate of the starting point (SY)? A series of code data consisting of a data number (CNT), each direction data, and a carriage return code C/R indicating the end of data is generated.

パターンの長さが短い場合、パターンが複雑な場合等は
、線認識は行なわない。その以外のパターンについては
、上記処理を繰り返し行なって線コードデータに変換す
る。この処理が終わると、バッファメモリ上に残る画素
データの量が非常に少なくなる。この残りのデータに対
しては、一般のファクシミリ装置で行なわれているよう
に、ランレングスコード化を行ない、第3b図に示すよ
うなランレングスコードを生成する。第3b図に示すコ
ードCRはそれに続くデータがランレングスコードであ
ることを識別するためのものであり、EOLは走査ライ
ンを区別するための同期コードであり、EOFは全ての
データの送出が終了したことを示すデータ終了コードで
ある。
Line recognition is not performed when the length of the pattern is short or when the pattern is complex. For other patterns, the above process is repeated to convert them into line code data. When this process is finished, the amount of pixel data remaining on the buffer memory becomes very small. This remaining data is run-length encoded as is done in general facsimile machines, to generate a run-length code as shown in FIG. 3b. The code CR shown in Figure 3b is used to identify that the data that follows is a run-length code, EOL is a synchronization code to distinguish between scanning lines, and EOF is used to indicate that all data has been sent. This is the data end code indicating that the

線認識以降の処理手順の概略が、第2b図に示しである
An outline of the processing procedure after line recognition is shown in FIG. 2b.

■効果 以上のとおり、本発明によれば文字パターンを正確に切
り出してそれを文字コード化でき、しかも残りのパター
ンから文字パターンを消去するので、その残りのデータ
を少ないビット数に効率良くコード化しうる。
■Effects As described above, according to the present invention, it is possible to accurately cut out a character pattern and code it into a character code. Moreover, since the character pattern is deleted from the remaining patterns, the remaining data can be efficiently coded into a small number of bits. sell.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は文書画像情報の一部の平面図である。 第2a図および第2b図は、本発明の実施例における画
像情報のコード化手順を示すフローチャートである。 第3a図および第3b図は、コード化されたデータの配
列の例を示すブロック図である。 第4図は、文書画像のパターンの一部を示す平面図であ
る。 第5図は、コード化処理に用いる窓に呪われる画素の種
別と処理との対応を示す平面図である。
FIG. 1 is a plan view of a portion of document image information. FIGS. 2a and 2b are flowcharts showing a procedure for encoding image information in an embodiment of the present invention. Figures 3a and 3b are block diagrams showing examples of encoded data arrangements. FIG. 4 is a plan view showing a part of the pattern of the document image. FIG. 5 is a plan view showing the correspondence between the types of pixels cursed by windows used in encoding processing and processing.

Claims (3)

【特許請求の範囲】[Claims] (1)所定のメモリに文書情報を記憶し、記憶された情
報を調べ、互いに連続する有効画素の集りを見つけてそ
れをそれぞれ独立したパターンデータとみなし、各々の
パターンデータの縦および横の少なくとも一方の長さを
判別して各々のパターンデータを少なくとも2種に区分
し、そのうちの1種のパターンデータに対しては、文字
認識処理を行ない、文字が認識されたら、その文字のコ
ードを出力するとともに、メモリに記憶した文書情報か
らその文字に対応するパターンデータを消去し、その後
残りの文書情報を任意の手段でコード化する、文書情報
符号化方法。
(1) Store document information in a predetermined memory, examine the stored information, find a group of consecutive effective pixels, consider them as independent pattern data, and at least The length of one is determined and each pattern data is divided into at least two types, one type of pattern data is subjected to character recognition processing, and when a character is recognized, the code of that character is output. At the same time, the document information encoding method erases the pattern data corresponding to the character from the document information stored in the memory, and then encodes the remaining document information by any means.
(2)残りの文書情報について、特定の注目画素を定め
、その注目画素をそれに隣接する有効画素に移動させな
がらその移動方向をコード化情報として出力し、少なく
とも注目画素の情報をメモリの文書情報から消去する、
前記特許請求の範囲第(1)項記載の文書情報符号化方
法。
(2) For the remaining document information, determine a specific pixel of interest, move the pixel of interest to an effective pixel adjacent to it, and output the moving direction as coded information, and at least transfer the information of the pixel of interest to the document information in memory. delete from,
A document information encoding method according to claim (1).
(3)残りの文書情報は、ランレングスコード化して出
力する、前記特許請求の範囲第(1)項記載の文書情報
符号化方法。
(3) The document information encoding method according to claim (1), wherein the remaining document information is output as a run-length code.
JP6563684A 1984-04-02 1984-04-02 Document information coding method Pending JPS60210069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6563684A JPS60210069A (en) 1984-04-02 1984-04-02 Document information coding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6563684A JPS60210069A (en) 1984-04-02 1984-04-02 Document information coding method

Publications (1)

Publication Number Publication Date
JPS60210069A true JPS60210069A (en) 1985-10-22

Family

ID=13292706

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6563684A Pending JPS60210069A (en) 1984-04-02 1984-04-02 Document information coding method

Country Status (1)

Country Link
JP (1) JPS60210069A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333341A (en) * 2002-04-25 2003-11-21 Microsoft Corp Compression of bi-level image with explicit representation of ink cluster

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56100565A (en) * 1980-01-16 1981-08-12 Toshiba Corp Facsimile device
JPS57137971A (en) * 1981-02-20 1982-08-25 Ricoh Co Ltd Picture area extracting method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56100565A (en) * 1980-01-16 1981-08-12 Toshiba Corp Facsimile device
JPS57137971A (en) * 1981-02-20 1982-08-25 Ricoh Co Ltd Picture area extracting method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333341A (en) * 2002-04-25 2003-11-21 Microsoft Corp Compression of bi-level image with explicit representation of ink cluster

Similar Documents

Publication Publication Date Title
US4873426A (en) Technique for reading bar codes
US5280544A (en) Optical character reading apparatus and method
US4922545A (en) Facsimile image encoding method
US4562594A (en) Method and apparatus for segmenting character images
US4608489A (en) Method and apparatus for dynamically segmenting a bar code
EP0063454A2 (en) Method for recognizing machine encoded characters
JPH07505024A (en) Image compression method and device
JPS6118381B2 (en)
GB2151829A (en) Document processing system and method
JPH07200712A (en) Method and apparatus for readout of bar code
US4962432A (en) Selective retrieval of data from microfilm images of different forms by reading a memory index form cord (bar code) recorded on each image frame
US5197107A (en) Character recognition apparatus
US5164996A (en) Optical character recognition by detecting geo features
US4288779A (en) Method and apparatus for character reading
JPS6140684A (en) Contour tracking device
US5065439A (en) Pattern recognition apparatus
JPS60210069A (en) Document information coding method
Holt A fast binary template matching algorithm for document image data compression
JPH09138837A (en) Slip recognizing device
JPH10222602A (en) Optical character reading device
JP3710164B2 (en) Image processing apparatus and method
JPH08212292A (en) Frame line recognition device
JPH1117959A (en) Run length coding method for binary image and recording medium storing run length coding program
JPS5850078A (en) Character recognizing device
JPH1040333A (en) Device for recognizing slip