JP2000011088A - Method for exracting feature information of read image, image processor and mail address reader - Google Patents

Method for exracting feature information of read image, image processor and mail address reader

Info

Publication number
JP2000011088A
JP2000011088A JP10174630A JP17463098A JP2000011088A JP 2000011088 A JP2000011088 A JP 2000011088A JP 10174630 A JP10174630 A JP 10174630A JP 17463098 A JP17463098 A JP 17463098A JP 2000011088 A JP2000011088 A JP 2000011088A
Authority
JP
Japan
Prior art keywords
image
information
processing
address
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10174630A
Other languages
Japanese (ja)
Inventor
Toshiaki Nakamura
敏明 中村
Keisuke Nakajima
啓介 中島
Shinichi Shinoda
伸一 篠田
Seiji Oyama
清治 大山
Masaki Ban
政樹 伴
Yoshiharu Konishi
義治 小西
Yoshihiro Shima
好博 嶋
Tatsuhiko Kagehiro
達彦 影広
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Chubu Software Ltd
Original Assignee
Hitachi Ltd
Hitachi Chubu Software Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Chubu Software Ltd filed Critical Hitachi Ltd
Priority to JP10174630A priority Critical patent/JP2000011088A/en
Publication of JP2000011088A publication Critical patent/JP2000011088A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Sorting Of Articles (AREA)
  • Character Input (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain feature extraction synchronized with a reading speed in character recognition for a mail address or the like and to make it unnecessary to prepare a frame memory for temporarily storing the whole pixel density information of a read surface. SOLUTION: The system consists of a scanner 101 for photoelectrically converting the address surface of a mail, a distortion correction part 102 for a read image, a feature extraction part 106, an image information processing part 103 having two feature memory groups and capable of dividing the image data of the address surface into horizontal strips and processing these divided strips in parallel, an address recognition part 104 for reading out an address based on plural feature information, and a line synchronizing part 108 for synchronizing the operation of each part with an image reading speed in each line of main scanning. The feature extraction part 106 has a function for outputting low accuracy multi-valued reduced data for recognizing an address area and high accuracy binary data for recognizing an address and an adjacent processing part for entering and temporarily storing the end part pixel data of adjacent strips.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は画像処理装置に係
り、郵便物の宛名面などから読み取った画像の特徴情報
を抽出して文字認識に供する特徴情報抽出方法に関す
る。
[0001] 1. Field of the Invention [0002] The present invention relates to an image processing apparatus, and more particularly to a method for extracting characteristic information of an image read from a mailing address or the like for use in character recognition.

【0002】[0002]

【従来の技術】読み取り画像を基に文書を配送先別に仕
分ける、郵便物宛名自動読み取り区分機が実用されてい
る。この装置では、郵便物(電子文書は印刷機にて実文
書化)を一通ずつスキャナで読み取り、郵便番号、送り
先住所等を自動的に認識し、送り先の住所に対応した区
分箱に仕分けする。
2. Description of the Related Art A mail address automatic reading / sorting machine that sorts documents according to a delivery destination based on a read image has been put to practical use. In this apparatus, postal matters (electronic documents are converted into actual documents by a printing machine) are read one by one by a scanner, and a postal code, a destination address, and the like are automatically recognized, and sorted into sorting boxes corresponding to the destination address.

【0003】例えば、特開平9−75860号の「区分
機、宛名認識装置及び宛名認識方法」には、郵便物の画
像を光学読み取り装置で読み取り、宛名領域を検出し、
その領域から文字行を切り出し、その部分に対して量子
化を行い、さらに文字を切り出した後に認識処理を行う
方法が示されている。また、特開平7ー311845号
には、画像処理領域を複数の短冊に分割し、それぞれの
短冊について並列に画像処理を行う方法が示されてい
る。その際、隣接する短冊の端部の画素データを一時記
憶しておいて、短冊の左右の端部の画素についてフィル
タ演算を行う場合に一時記憶しておいた隣接短冊の画素
データを使用する。
For example, Japanese Patent Application Laid-Open No. 9-75860 discloses a "separator, address recognition apparatus and address recognition method". An image of a mail is read by an optical reading apparatus, and an address area is detected.
A method is shown in which a character line is cut out from the area, quantization is performed on the portion, and recognition processing is performed after cutting out the character. Japanese Patent Application Laid-Open No. 7-311845 discloses a method in which an image processing area is divided into a plurality of strips and image processing is performed on each strip in parallel. At this time, the pixel data of the end of the adjacent strip is temporarily stored, and the pixel data of the adjacent strip that is temporarily stored when performing the filter operation on the pixels at the left and right ends of the strip is used.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上記し
た従来方法では、宛名領域を切り出すために、最初に郵
便物の宛名面全体の画素の濃淡値を一旦蓄えるフレーム
メモリを必要とする。また、文字ラインを切り出して記
憶しラインごとに圧縮処理する逐次処理では、そのつど
処理結果を記憶するフレームメモリが必要になる。ま
た、文字を含む行を切り出してから、その部分に対して
のみ量子化を行うため、行の切り出しがうまくいかない
場合は文字認識ができない等の問題がある。
However, in the above-mentioned conventional method, in order to cut out the address area, first, a frame memory for temporarily storing the grayscale values of the pixels on the entire address surface of the postal matter is required. Further, in the sequential processing in which character lines are cut out and stored, and compression processing is performed for each line, a frame memory for storing a processing result each time is required. In addition, since a line including a character is cut out and then quantization is performed only on that portion, there is a problem that character recognition cannot be performed if the line is not cut out properly.

【0005】さらに、画像領域を短冊に分けて並列処理
する方法では、隣接する短冊の端部の画像データを一時
記憶するメモリを必要とし、かつそのデータをやり取り
するために処理部のピン数が増加するという問題があ
る。
Further, the method of dividing an image region into strips and performing parallel processing requires a memory for temporarily storing image data at the end of an adjacent strip, and the number of pins of the processing unit is reduced in order to exchange the data. There is a problem of increasing.

【0006】本発明の目的は、従来技術の問題点を克服
し、画像読み取りの速度に同期して、主走査ライン単位
に文字認識のための特徴情報を抽出する方法と、それに
より特徴情報を抽出する各処理過程でフレームメモリを
必要としない画像処理装置を提供することにある。
SUMMARY OF THE INVENTION It is an object of the present invention to overcome the problems of the prior art and to extract characteristic information for character recognition in units of main scanning lines in synchronization with the speed of image reading, and thereby to extract characteristic information. An object of the present invention is to provide an image processing apparatus which does not require a frame memory in each process of extraction.

【0007】また、画像読み取りの速度に同期できるよ
うに、文字領域の切り出しに用いる特徴情報や、文字認
識のために文字の意味解釈を行なう特徴情報などを並列
処理により抽出する方法と装置を提供することにある。
In addition, a method and an apparatus are provided for extracting characteristic information used for cutting out a character area and characteristic information for interpreting the meaning of characters for character recognition by parallel processing so as to synchronize with the image reading speed. Is to do.

【0008】さらに、高速の画像読み取り速度に同期で
きるように、上記の並列処理機能を複数設け、フレーム
を副走査ライン方向に分割した画像領域を分担して処理
する方法と装置を提供することにある。本発明のその余
の目的は、以下の説明を通して明らかになる。
Further, a method and an apparatus for providing a plurality of the above-described parallel processing functions so as to synchronize with a high image reading speed and sharing and processing an image area obtained by dividing a frame in the sub-scanning line direction are provided. is there. Further objects of the present invention will become apparent through the following description.

【0009】[0009]

【課題を解決するための手段】上記目的を達成する本発
明は、文字情報の含まれる対象面を走査して読み取った
画像情報から文字認識のための特徴情報を抽出する方法
において、前記文字情報のある文字領域を検出するため
の第1の特徴情報として、前記画像情報に対し多値縮小
処理した低精細多値データを取得し、また、前記文字領
域内の文字情報を文字認識するための第2の特徴情報と
して、前記画像情報に対し2値化処理した高精細2値デ
ータを取得し、前記第1、第2の特徴情報を主走査ライ
ン単位の並列処理により抽出することを特徴とする。
According to the present invention, there is provided a method for extracting characteristic information for character recognition from image information read by scanning a target surface including character information. As first feature information for detecting a character region having a character, low-definition multi-value data obtained by performing multi-value reduction processing on the image information is acquired, and character information in the character region is recognized. Acquiring high-definition binary data obtained by binarizing the image information as second characteristic information, and extracting the first and second characteristic information by parallel processing in units of main scanning lines. I do.

【0010】また、前記文字領域内の文字列を検出する
ための第3の特徴情報として、前記2値化処理の後に2
値縮小処理した中精細2値データを、前記第1、第2の
特徴情報と並列処理で抽出することを特徴とする。
[0010] Further, as third feature information for detecting a character string in the character area, after the binarization processing, two-dimensional information is obtained.
The method is characterized in that medium-definition binary data subjected to value reduction processing is extracted by parallel processing with the first and second feature information.

【0011】また、各特徴情報を抽出する前記並列処理
は、前記画像の読み取り速度、つまり主走査ラインに同
期して行なうことを特徴とする。
Further, the parallel processing for extracting each feature information is performed in synchronization with the image reading speed, that is, the main scanning line.

【0012】また、前記2値化処理に用いるしきい値
は、処理対象画素に隣接する複数画素を含むブロック内
の画素濃淡値の平均値を求め、当該ブロックに隣接する
複数ブロックについて同様に求めた各平均値の中の最大
値に定数を乗じて第1の2値化しきい値候補(TH1)
とし、前記最大値から定数を減じたものを第2の2値化
しきい値候補(TH2)とし、任意の定数を第3のしき
い値候補(TH3)とし、これらしきい値候補から1つ
を選択して最終の2値化しきい値(TH)を決定するこ
とを特徴とする。ここで、TH3が最大または最小とな
るときはTH3を、それ以外のときはTH1またはTH
2の小さい方を選択する。
The threshold value used in the binarization processing is obtained by calculating an average value of pixel grayscale values in a block including a plurality of pixels adjacent to a pixel to be processed, and similarly calculating a plurality of blocks adjacent to the block. Multiplied by a constant to the maximum value among the average values obtained, the first binarization threshold candidate (TH1)
The value obtained by subtracting a constant from the maximum value is defined as a second binarized threshold candidate (TH2), and an arbitrary constant is defined as a third threshold candidate (TH3). Is selected to determine the final binarization threshold (TH). Here, TH3 is used when TH3 is maximum or minimum, and TH1 or TH1 is used otherwise.
Select the smaller of 2.

【0013】また、前記対象面に対応する画像フレーム
を主走査方向に複数の画像領域に分割して各画像領域の
特徴情報抽出を並行処理する場合に、処理対象である画
像領域の主走査ラインの画素データに加えて、隣接する
他の画像領域の主走査ラインの端部の画素データを取り
込むことを特徴とする。この場合、前記2値化処理に用
いるしきい値は、処理対象画素を含むブロックが他の画
像領域との隣接端部に位置するときに、前記端部画素デ
ータに基づいて計算した隣接ブロックの平均値を含む複
数ブロックの中の平均値の最大値に基づいて決定する。
In the case where an image frame corresponding to the target surface is divided into a plurality of image regions in the main scanning direction and feature information extraction of each image region is performed in parallel, a main scanning line of the image region to be processed is provided. In addition to the above pixel data, pixel data at the end of the main scanning line in another adjacent image area is taken in. In this case, the threshold value used for the binarization processing is a threshold value of an adjacent block calculated based on the edge pixel data when the block including the processing target pixel is located at an edge adjacent to another image area. The determination is made based on the maximum value of the average value in a plurality of blocks including the average value.

【0014】本発明の画像処理装置は、文字情報の含ま
れる対象面を走査して読み取るスキャナと、読み取った
画像情報から文字認識のための特徴情報を抽出する特徴
情報処理装置と、抽出した特徴情報を格納するメモリ
と、前記対象面に対応する画像フレーム単位の特徴情報
に基づいて文字認識を行なう認識装置を備え、かつ前記
特徴情報処理装置による抽出処理を、前記スキャナによ
る主走査ラインの走査に同期させるためのライン同期手
段を備え、前記画像フレームの全主走査ライン対する抽
出処理後に、前記認識装置による文字認識を行なうこと
を特徴とする。
An image processing apparatus according to the present invention includes a scanner for scanning and scanning a target surface including character information, a characteristic information processing apparatus for extracting characteristic information for character recognition from the read image information, and a characteristic extracting apparatus. A memory for storing information, and a recognition device for performing character recognition based on feature information in image frame units corresponding to the target surface, and performing an extraction process by the feature information processing device by scanning a main scanning line by the scanner. A line synchronizing means for synchronizing the image frame with the image data, and performing the character recognition by the recognition device after the extraction processing for all the main scanning lines of the image frame.

【0015】また、前記情報処理装置に、前記画像フレ
ーム内の文字領域を検出するために多値縮小処理した低
精細多値データを抽出する第1の特徴情報抽出手段と、
前記文字領域内の文字を認識するために2値化処理した
高精細2値データを抽出する第2の特徴情報抽出手段を
並列処理可能に設けたことを特徴とする。
[0015] The information processing apparatus may further comprise: first feature information extracting means for extracting low-definition multi-value data subjected to multi-value reduction processing to detect a character area in the image frame;
A second feature information extracting means for extracting high-definition binary data which has been binarized for recognizing characters in the character area is provided so as to be capable of parallel processing.

【0016】また、各特徴情報の出力タイミングを互い
に異ならせる出力制御手段を設け、1つのバスを介して
前記メモリに出力する構成としたことを特徴とする。
Further, an output control means for making the output timings of the respective characteristic information different from each other is provided, and the information is output to the memory via one bus.

【0017】さらに、前記特徴情報処理装置とバス接続
された前記メモリとの組を複数設け、前記画像フレーム
の副走査方向に分割した複数の画像領域を並列処理する
ことを特徴とする。
Furthermore, a plurality of sets of the memory connected to the feature information processing device and the bus are provided, and a plurality of image areas divided in the sub-scanning direction of the image frame are processed in parallel.

【0018】本発明の郵便物宛名読取り装置は、郵便物
の宛名面を読み取った画像情報から特徴情報を抽出し、
フレーム単位の特徴情報に基づいて宛名の認識を行なう
ものにおいて、上記の画像処理装置を複数備え、前記ス
キャナからの読み取り画像をフレーム単位またはその数
分の1単位に順次、前記画像処理装置に振り分けて並列
処理することを特徴とする。
A mail address reading apparatus according to the present invention extracts characteristic information from image information obtained by reading a mail address surface,
In an apparatus for recognizing an address based on feature information in a frame unit, a plurality of the image processing apparatuses are provided, and images read from the scanner are sequentially distributed to the image processing apparatus in a frame unit or a fraction thereof. And perform parallel processing.

【0019】あるいは、上記の画像処理装置を複数備え
るとともに、各々の特徴抽出処理の処理パラメータを異
ならせて設定し、前記スキャナからの読み取り画像を各
画像処理装置で一斉に並列処理し、処理パラメータに応
じた異なる画像処理結果を得るようにしたことを特徴と
する。これによって、自動読取り機の精度を向上でき
る。
Alternatively, a plurality of the above image processing apparatuses are provided, processing parameters for each feature extraction processing are set differently, and images read from the scanners are simultaneously processed in parallel by each image processing apparatus. , Different image processing results corresponding to the image processing are obtained. Thereby, the accuracy of the automatic reader can be improved.

【0020】さらに、複数の画像処理装置の1つから、
2値縮小処理した中精細2値データを圧縮処理せずに表
示装置に出力する構成とし、自動読み取りが不可能な場
合に書かれている郵便番号を人間が確認して、キーボー
ドから入力できるように支援する。
Further, from one of the plurality of image processing apparatuses,
The system is configured to output the binary fine-scaled medium-definition binary data to the display device without performing the compression process, so that when the automatic reading is not possible, the human can confirm the postal code written and input from the keyboard. To help.

【0021】本発明の作用を上記構成による郵便物宛名
読取り装置を例に説明する。宛名面を光電変換によりデ
ジタル画像データに変換する。この主走査ラインに同期
して、画像データの歪み補正、次に特徴情報の抽出を行
なう。画像の特徴情報としては、宛名面全体の画素の高
解像度2値データ、低解像度2値データ、低解像度多値
データ、濃度ヒストグラム等を抽出し、その結果を特徴
メモリへ蓄える。
The operation of the present invention will be described with reference to an example of a mail address reading device having the above configuration. The address plane is converted into digital image data by photoelectric conversion. In synchronization with the main scanning line, distortion correction of image data and extraction of feature information are performed. As the feature information of the image, high-resolution binary data, low-resolution binary data, low-resolution multi-value data, density histogram, and the like of pixels on the entire destination surface are extracted, and the results are stored in a feature memory.

【0022】そして、宛名面全体の特徴データを使って
宛名認識手段により郵便番号、宛名住所の文字認識を行
なう。ここで、光電変換、歪み補正、特徴抽出、特徴メ
モリへのデータ書込は、主走査1ライン単位に完全に同
期をとって実行されるため、歪み補正後の宛名面全体の
画素濃淡データを一旦蓄えるためのフレームメモリを必
要としない。
Then, the character recognition of the postal code and the address is performed by the address recognition means using the characteristic data of the entire address surface. Here, since the photoelectric conversion, distortion correction, feature extraction, and data writing to the feature memory are performed completely in synchronization with each main scanning line, the pixel density data of the entire destination surface after the distortion correction is obtained. There is no need for a frame memory to temporarily store.

【0023】また、特徴処理を光電変換処理と同じ画像
処理スピードで行なうために、画像フレームを複数の短
冊に分割し、それぞれの短冊に対して並列に画像処理を
実行する。この際、自己の処理する主走査の画素データ
に加えて隣接する短冊の端部の画素データを取り込んで
おき、境界部の平均値演算など他端部の画素データの必
要時に利用する。これにより、ライン同期の画像処理が
できるとともに、隣接短冊間のデータのやりとりが必要
なくなる。ちなみに、左右2つの短冊に分割するときの
画像処理スピードは、1主走査線(1024画素)にお
ける左右の512画素が16Mhz/画素の速度で並列出
力する。
In order to perform the feature processing at the same image processing speed as the photoelectric conversion processing, the image frame is divided into a plurality of strips, and the image processing is performed on each of the strips in parallel. At this time, in addition to the main scanning pixel data to be processed by itself, pixel data at the end of an adjacent strip is fetched and used when pixel data at the other end is required, such as calculation of an average value at a boundary. This allows line-synchronous image processing and eliminates the need to exchange data between adjacent strips. Incidentally, the image processing speed when dividing into two right and left strips is such that 512 pixels on the left and right in one main scanning line (1024 pixels) are output in parallel at a speed of 16 MHz / pixel.

【0024】[0024]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。図1は一実施例による郵便物宛名
読取り装置のシステム構成を示す。スキャナ101は郵
便物の宛名面を光学的に読み取り、電気信号に変換す
る。これは読み取り面を照らす光源とレンズとCCDラ
インセンサで実現できる(図示を省略)。歪補正部10
2は主走査方向の各画素位置における光源の光量変動や
CCDラインセンサの各画素の光電変換素子の特性補正
を行ない、白を255、黒を0に正規化して出力する。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a system configuration of a mail address reading device according to an embodiment. The scanner 101 optically reads the address surface of a mail and converts it into an electric signal. This can be realized by a light source, a lens, and a CCD line sensor that illuminate the reading surface (not shown). Distortion correction unit 10
Numeral 2 corrects the light amount fluctuation of the light source at each pixel position in the main scanning direction and corrects the characteristics of the photoelectric conversion element of each pixel of the CCD line sensor, and normalizes white to 255 and black to 0, and outputs them.

【0025】宛名画像処理部103の機能は特徴抽出部
106と特徴メモリ107で構成される。特徴抽出部1
06は郵便物の画像データから、送り先の宛名や郵便番
号等の画像情報を抽出する。特徴メモリ107は特徴抽
出部106から出力される複数の特徴情報を格納する。
ライン同期部108は主走査1ラインの画像処理の起動
を行なう。スキャナ101、歪み補正部102、宛名画
像処理部103に対し、ライン同期部108から主走査
ライン単位の起動をかけ、各部は1主走査線と同じ速度
で処理を実行する。宛名認識部104は宛名画像処理部
103の出力を用い、宛名領域を切り出し、さらに宛名
の画像情報から宛名を認識し、コード情報に変換して出
力する。VDT105は自動読み取りが不可能なときの
バックアップで、宛名画像処理103−5からの出力を
ディスプレイに表示する。
The function of the destination image processing unit 103 includes a feature extracting unit 106 and a feature memory 107. Feature extraction unit 1
Reference numeral 06 extracts image information such as a destination address and a postal code from image data of a mail. The feature memory 107 stores a plurality of pieces of feature information output from the feature extracting unit 106.
The line synchronization unit 108 activates image processing for one line in the main scanning. The line synchronization unit 108 activates the scanner 101, the distortion correction unit 102, and the destination image processing unit 103 in units of main scanning lines, and each unit executes processing at the same speed as one main scanning line. The address recognition unit 104 uses the output of the address image processing unit 103 to cut out the address area, recognizes the address from the image information of the address, converts the address into code information, and outputs the code information. The VDT 105 is a backup when automatic reading is impossible, and displays an output from the address image processing 103-5 on a display.

【0026】本実施例の宛名画像処理部103は、特徴
抽出部106と特徴メモリ107の組を2つ設けてい
る。これにより、例えば宛名画像処理部103の処理速
度が32MHz必要な場合、1組の処理速度を16MH
zとし、画像を主走査方向に左右半分に分けて並列処理
する。つまり、主走査方向1024画素を順次32MH
zで処理するのではなく、左右512画素に分けて、そ
れぞれは主走査方向512画素を順次16MHzで処理
する。
The destination image processing unit 103 of this embodiment has two sets of a feature extraction unit 106 and a feature memory 107. Accordingly, for example, when the processing speed of the destination image processing unit 103 requires 32 MHz, one set of processing speed is set to 16 MHz.
z, and the image is divided into left and right halves in the main scanning direction and processed in parallel. That is, 1024 pixels in the main scanning direction are sequentially shifted to 32 MHz.
Instead of processing at z, the pixels are divided into 512 pixels on the left and right, and each of the pixels is processed at 16 MHz sequentially in 512 pixels in the main scanning direction.

【0027】また、宛名画像処理部103と宛名認識処
理部104を1組として、4組並列の構成している。例
えば、郵便物1通当りの読み取り時間が1秒で、宛名認
識部104の処理時間が4秒かかる場合、歪補正部10
2から1秒毎に連続して出力される宛名画像情報を1通
ずつ、宛名画像処理部103−1〜4に順番に分配して
処理する。これにより、1組が1秒で処理するのと同等
の性能を実現できる。もちろん、宛名画像情報を1/2
通ずつ分配するなどの変更も可能である。
Further, the address image processing unit 103 and the address recognition processing unit 104 are set as one set, and four sets are configured in parallel. For example, if the reading time per mail is 1 second and the processing time of the address recognition unit 104 takes 4 seconds, the distortion correction unit 10
Address image information output continuously from 2 to 1 second is distributed to the address image processing units 103-1 to 103-4 one by one in order and processed. Thereby, performance equivalent to one set processing in one second can be realized. Of course, the address image information is halved.
It is also possible to make a change such as distributing one by one.

【0028】あるいは、4組並列の構成において、後述
する特徴抽出部106の2値化、2値縮小、多値縮小な
どの処理パラメータを組毎に異ならせ、各組に同じ宛名
画像情報を一斉に送信して並列処理する。各組の宛名文
字の認識精度が文字種や濃淡値により異なるので、認識
の難しい低濃度の文字や手書き文字などの認識率をシス
テムとして向上できる。もちろん、4組のうち2組単位
でパラメータを変更し、その2組単位に1通の宛名画像
情報を送信するようにしてもよい。
Alternatively, in a parallel configuration of four sets, processing parameters such as binarization, binary reduction, and multi-value reduction of the feature extraction unit 106, which will be described later, are different for each set, and the same destination image information is simultaneously applied to each set. To be processed in parallel. Since the recognition accuracy of each set of destination characters differs depending on the character type and the shading value, the recognition rate of low-density characters and handwritten characters that are difficult to recognize can be improved as a system. Of course, the parameters may be changed in units of two of the four sets, and one piece of address image information may be transmitted in units of the two sets.

【0029】図2に、本郵便物宛名読取り装置の処理の
流れを示す。スキャナ101により郵便物の宛名面を20
0dpiの解像度で光電変換し(s101)、歪み補正10
2でシェーディング歪み補正、ガンマ補正を行い、多値
画素データ(8ビット/画素)を出力する(s10
2)。郵便物1通あたりの画像の画素数は主走査102
4画素、副走査1920画素である。このとき、1主走
査線(1024画素)を左右512画素で分割し、2つ
の信号出力バスから16Mhz/画素の速度で並列に出力
する。
FIG. 2 shows a processing flow of the mail address reading apparatus. Scanner 101 reduces the mailing address to 20
The photoelectric conversion is performed at a resolution of 0 dpi (s101), and distortion correction is performed.
2 to perform shading distortion correction and gamma correction, and output multi-valued pixel data (8 bits / pixel) (s10
2). The number of pixels of the image per mail is the main scan 102
There are four pixels and 1920 pixels in the sub-scanning direction. At this time, one main scanning line (1024 pixels) is divided into left and right 512 pixels, and the signals are output in parallel at a speed of 16 Mhz / pixel from two signal output buses.

【0030】特徴抽出部106では1主走査線512画
素単位に4種類の画像特徴情報を抽出し(s103)、
特徴メモリ107に格納する(s104)。特徴情報は
画像の濃度頻度分布を示すヒストグラム、33dpiの低精
細の多値データ、100dpiの中精細の2値データ、200dpi
の高精細の2値データの4種類である。
The feature extracting unit 106 extracts four types of image feature information in units of 512 pixels per main scanning line (s103).
It is stored in the feature memory 107 (s104). The feature information is a histogram showing the density frequency distribution of the image, low definition multi-value data of 33 dpi, medium definition binary data of 100 dpi, 200 dpi
Are four types of high-definition binary data.

【0031】次に、宛名画像処理部103で1通の郵便
物の全ラインの処理が終了したことを検知したら(s1
05)、特徴メモリ107に格納された郵便物1通分の
画像特徴情報が宛名認識部104に転送され、宛名認識
ソフトウェアによる文字認識処理が行われる。まず、ヒ
ストグラムから宛名が記述されている位置を推定し(s
106)、低精細多値画像で宛名域を切り出す(s10
7)。その後、中精細データを用いて文字列を切り出し
(s108)、高精細2値データで文字を認識する(s
109)。
Next, when the address image processing unit 103 detects that the processing of all lines of one mail has been completed (s1).
05), the image feature information of one mail stored in the feature memory 107 is transferred to the address recognition unit 104, and character recognition processing is performed by the address recognition software. First, the position where the address is described is estimated from the histogram (s
106), the address area is cut out from the low-definition multi-value image (s10).
7). Thereafter, a character string is cut out using the medium definition data (s108), and the character is recognized using the high definition binary data (s108).
109).

【0032】文字認識処理は1通分につき数秒かかるた
め、次の郵便物の多値画像データは隣接する待機状態の
宛名画像処理部103へ転送され、そこで認識処理が実
行される。さらに、宛名認識できなかった郵便物につい
ては、認識処理と並行して、宛名画像処理部103−5
の特徴抽出部106を2値データ出力モードで動作さ
せ、特徴メモリ107に圧縮していない2値データ(10
0dpi)を格納する。その2値画像をVDT105に表示
し、人間が郵便番号を読み取って、キーボードから入力
できるようにしている。
Since the character recognition process takes several seconds for one message, the multivalued image data of the next mail is transferred to the adjacent standby address image processing unit 103, where the recognition process is executed. Further, for mail that could not be addressed, the address image processing unit 103-5 executes the address processing in parallel with the recognition process.
Is operated in the binary data output mode, and the uncompressed binary data (10
0dpi). The binary image is displayed on the VDT 105 so that a human can read the postal code and input it from the keyboard.

【0033】以下、特徴抽出部106の機能を詳細に説
明する。図3に特徴抽出部の機能ブロック図を示す。エ
ッジ強調部201は画像読み取り時の画像輪郭部のボケ
を補正する。平均値演算部202は隣接する主走査3画
素および副走査3画素の計9画素の濃度値の平均値求め
る。2値化部203は8ビットで表された画素情報を1
ビットの画素情報に変換する。ノイズ除去部204は2
値出力に現れる孤立点や、文字の輪郭部に生じる凹凸を
取り除く。2値縮小部205は200dpiの解像度の画像デ
ータを100dpiの画像データに変換する。データ圧縮部2
06は2値画像データを符号化し、情報量を圧縮する。
多値縮小部207は66dpiの平均値データを33dpiに変換
する。ヒストグラム208は33dpiの郵便物一面の画像
データの濃度分布を検出する。
Hereinafter, the function of the feature extracting unit 106 will be described in detail. FIG. 3 shows a functional block diagram of the feature extracting unit. The edge emphasizing unit 201 corrects blurring of an image outline at the time of image reading. The average value calculation unit 202 obtains the average value of the density values of a total of nine pixels of three main scanning pixels and three sub-scanning pixels adjacent to each other. The binarization unit 203 converts the pixel information represented by 8 bits into 1
Convert to bit pixel information. The noise removal unit 204
It removes isolated points that appear in the value output and irregularities that occur in the outline of characters. The binary reduction unit 205 converts image data having a resolution of 200 dpi into image data having a resolution of 100 dpi. Data compression unit 2
Reference numeral 06 encodes the binary image data and compresses the amount of information.
The multi-value reduction unit 207 converts 66 dpi average value data to 33 dpi. The histogram 208 detects the density distribution of the image data of the entire 33-dpi mail.

【0034】2つの特徴抽出部106で、郵便物を左右
2つの短冊領域に分けて並列処理する場合に、エッジ強
調部201と2値化部203で2値化しきい値を求める
処理では周辺画素のデータを含めた演算が必要になる。
つまり、左短冊の右端部および右短冊の左端部の画素に
対して画像処理を行う場合には、それぞれ隣短冊の端部
の画像データが必要になる。隣接処理部209では隣短
冊の端部の画像データを入力して、当該短冊の端部の画
像処理を正常に行なわさせる。出力制御部210は各部
より出力される画像データの出力タイミングを制御し、
1つの入出力バスを介して特徴メモリ107に出力す
る。これは論理回路であるセレクタで実現できる。
When the mail extraction is divided into two left and right strip regions by the two feature extraction units 106 and processed in parallel, the edge enhancement unit 201 and the binarization unit 203 determine the binarization threshold value by the peripheral pixels. An operation including the above data is required.
That is, in the case where image processing is performed on the pixels at the right end of the left strip and the left end of the right strip, image data of the ends of the adjacent strips are required. The adjacent processing unit 209 receives the image data of the end of the adjacent strip and causes the image processing of the end of the strip to be performed normally. The output control unit 210 controls the output timing of the image data output from each unit,
Output to the feature memory 107 via one input / output bus. This can be realized by a selector which is a logic circuit.

【0035】次に、特徴抽出部106の動作を説明す
る。本実施例の特徴抽出部106は、高精細2値圧縮処
理、中精細2値圧縮処理、低精細多値データ処理および
ヒストグラム抽出処理からなる特徴データ抽出モードを
有し、画像特徴データが特徴メモリ107に格納され
る。また、表示モード及びスルーモードも有している。
Next, the operation of the feature extracting unit 106 will be described. The feature extraction unit 106 of this embodiment has a feature data extraction mode including high-definition binary compression processing, medium-definition binary compression processing, low-definition multivalued data processing, and histogram extraction processing. 107 is stored. It also has a display mode and a through mode.

【0036】まず、高精細2値データの圧縮処理を説明
する。高精細2値データは宛名認識部104で郵便物の
送付先住所や郵便番号の文字単位の認識に利用される。
歪補正部102からの画素当り8ビットのデータはエッ
ジ強調部201と平均値演算部202に入力され、3×
3画素の2次元フィルタを介して、エッジ強調と平均値
演算を同時処理する。入力データが左端または右端の画
素となる場合、3×3画素の2次元フィルタには隣接処
理部209を介して隣接歪補正データ(縦3画素)が取
り込まれる。
First, the compression processing of high definition binary data will be described. The high-definition binary data is used by the address recognition unit 104 for recognition of the destination address of the postal matter and the postal code in character units.
The 8-bit data per pixel from the distortion correction unit 102 is input to the edge enhancement unit 201 and the average value calculation unit 202, and the 3 ×
Edge enhancement and average value calculation are simultaneously processed through a three-pixel two-dimensional filter. When the input data is the left end or right end pixel, adjacent distortion correction data (vertical 3 pixels) is taken into the 3 × 3 pixel two-dimensional filter via the adjacent processing unit 209.

【0037】エッジ強調部201の出力は、2値化部2
03でしきい値(TH)を基に2値データに変換され
る。しきい値(TH)は後述のように、平均化した多値
データから求める。2値化の結果が特定のパターンとな
れば、ノイズ除去部204でノイズとして除去された上
で、スキャナの解像度と同じ200dpiの高精細2値データ
を得る。
The output of the edge emphasizing section 201 is output to a binarizing section 2
At 03, the data is converted into binary data based on the threshold value (TH). The threshold value (TH) is obtained from the averaged multi-value data as described later. If the binarization results in a specific pattern, the noise is removed by the noise removing unit 204 as noise, and then high-resolution binary data of 200 dpi, which is the same as the resolution of the scanner, is obtained.

【0038】その後、データ圧縮部206−1により、
主走査線1ライン毎のランレングス符号化により圧縮
し、出力制御部210を介して特徴メモリ107に出力
する。各ラインの圧縮データは画素の変化数により異な
る。したがって、各ラインの圧縮データがメモリの何番
地から格納されているかを即座に検出できるように、ラ
イン単位の圧縮データが格納される絶対番地を、特徴メ
モリ107のポインタ格納領域に出力する。
Thereafter, the data compression unit 206-1
The data is compressed by run-length encoding for each main scanning line, and output to the feature memory 107 via the output control unit 210. The compressed data of each line differs depending on the number of pixel changes. Therefore, the absolute address where the compressed data of each line is stored is output to the pointer storage area of the feature memory 107 so that the address of the memory where the compressed data of each line is stored can be immediately detected.

【0039】次に、中精細2値圧縮処理を説明する。中
精細2値データは宛名認識部104で郵便物上の宛名行
(文字列)の検出に利用される。本処理は高精細2値圧
縮処理のノイズ除去部204から分岐し、2値縮小部2
05で200dpiの2値出力の主走査2画素、副走査2画素
の4画素を1画素に変換し、100dpiとして特徴メモリ1
07に出力する。出力データは高精細2値データと同様
に、各ラインの圧縮データとその格納先頭アドレスを出
力する。
Next, the medium definition binary compression processing will be described. The medium-definition binary data is used by the address recognition unit 104 to detect an address line (character string) on the mail. This processing branches from the noise removal unit 204 of the high-definition binary compression processing, and the binary reduction unit 2
At step 05, four pixels of 200 dpi binary output main scanning two pixels and sub-scanning two pixels are converted into one pixel, and the characteristic memory 1 is set as 100 dpi.
07. As the output data, similarly to the high-definition binary data, the compressed data of each line and the storage start address are output.

【0040】次に、低精細多値データ処理を説明する。
低精細多値データは郵便物上の宛名ラベル領域の検出や
ヒストグラム抽出に利用される。多値縮小部207は33
dpiの多値(8ビット/画素)データを出力する。すな
わち、主走査3画素×副走査3画素の9画素から平均値
を求めて、それを66dpiの1画素とし、さらに66dpiデー
タの主走査2画素、副走査2画素の4画素から右上の1
画素を33dpiデータとして出力する。
Next, the low definition multi-value data processing will be described.
The low-definition multi-value data is used for detecting an address label area on a mail and extracting a histogram. The multi-value reduction unit 207 is 33
Outputs multi-level (8 bits / pixel) data of dpi. That is, an average value is calculated from 9 pixels of 3 pixels in the main scanning and 3 pixels in the sub-scanning, and the average value is determined as one pixel of 66 dpi.
The pixel is output as 33 dpi data.

【0041】次に、ヒストグラム抽出処理を説明する。
ヒストグラム抽出部208では宛名面全体の256通り
(0〜255)の低精細多値画素値について、各画素値
ごとに画素数を求めて特徴メモリ107に出力する。宛
名認識部104では低精細多値データから宛名ラベルの
領域を検出する際に、宛名面全体の低精細多値データを
2値化して、2値化結果の“1”をラベル領域、“0”
を背景領域と判別する。この2値化しきい値を求めると
きに、濃淡値ヒストグラムを利用する。
Next, the histogram extraction processing will be described.
The histogram extracting unit 208 calculates the number of pixels for each of the 256 low-definition multi-valued pixel values (0 to 255) of the entire destination surface and outputs the number to the feature memory 107. When detecting the area of the address label from the low-definition multi-valued data, the address recognition unit 104 binarizes the low-definition multi-valued data of the entire address surface, and sets “1” of the binarization result to the label area and “0”. "
Is determined as a background area. When obtaining the binarization threshold value, a gray value histogram is used.

【0042】ところで、2値縮小部205では100dpiの
2値化結果を、圧縮処理せずにそのまま特徴メモリ10
7に出力する表示モードを有している。このモードで動
作する場合、出力制御部210は他のモードによる特徴
抽出の結果を出力しない。そして、宛名認識できなかっ
た郵便物の宛名面の画像を、高精細2値データによりV
DT105に表示し、そこに書かれている郵便番号を人
間が認識し、キーボードから入力できるようにする。
By the way, in the binary reduction unit 205, the binarization result of 100 dpi is directly processed without compression processing in the feature memory 10.
7 is provided. When operating in this mode, the output control unit 210 does not output the results of feature extraction in other modes. Then, the image of the address side of the postal matter for which the address could not be recognized is converted into V by high-resolution binary data.
The zip code is displayed on the DT 105 so that a human can recognize the zip code written on the DT 105 and input it from the keyboard.

【0043】また、歪み補正データである200dpiの多値
(8ビット/画素)入力データをそのまま特徴メモリ1
07に出力するスルーモードがある。このモードで動作
する場合も、他の特徴抽出の結果を出力しない。このス
ルー出力は図示していないシミュレータに入力され、歪
み補正処理や特徴抽出処理を実行して、実機の出力結果
と比較することで、デバッグを容易にする。
The 200 dpi multi-valued (8 bits / pixel) input data, which is distortion correction data, is directly stored in the feature memory 1.
07 has a through mode. Even when operating in this mode, no other feature extraction result is output. This through output is input to a simulator (not shown), which performs distortion correction processing and feature extraction processing, and compares the result with the output result of the actual machine to facilitate debugging.

【0044】以下、特徴抽出部106の各機能の構成と
動作を詳しく説明する。図4にエッジ強調部の一実施例
を示す。(a)に示すエッジ強調部201の構成で、ラ
インバッファ301は連続する主走査3ライン分の画像
データを蓄積するラインメモリである。nラインの画像
データ入力時に、n−1,n−2,n−3ラインのデー
タが出力されるように、交替バッファの構成としてい
る。ラインメモリ301はSRAMで実現できる。
Hereinafter, the configuration and operation of each function of the feature extraction unit 106 will be described in detail. FIG. 4 shows an embodiment of the edge enhancing unit. In the configuration of the edge emphasizing unit 201 shown in (a), a line buffer 301 is a line memory for storing image data for three continuous main scanning lines. The configuration of the replacement buffer is such that when image data of n lines is input, data of lines n-1, n-2, and n-3 are output. The line memory 301 can be realized by an SRAM.

【0045】ラッチ302〜307は画像データを一時
保持する機能であり、フリップフロップで実現できる。
乗算308は入力データ値を5倍の値にする機能、加算
309は2つの入力データを加算する機能、減算311
は2つの入力のうち上部に入力されるデータから下部に
入力されるデータを減算する機能であり、それぞれ論理
回路で実現できる。選択312は一通の郵便物を左右2
つのブロックに分けて並列に処理する場合、担当ブロッ
クの端部に属する画素に対して処理を行なう際に、隣接
ブロックの端部の画像データを選択して入力する機能で
ある。
The latches 302 to 307 have a function of temporarily holding image data, and can be realized by flip-flops.
The multiplication 308 has a function of increasing the input data value by five times, the addition 309 has a function of adding two input data, and the subtraction 311
Is a function of subtracting the data input to the lower part from the data input to the upper part of the two inputs, and can be realized by a logic circuit. Select 312 is one mail left and right 2
When processing is performed on pixels belonging to the end of the block in charge when processing is performed in parallel by dividing the image into two blocks, the function is to select and input image data at the end of an adjacent block.

【0046】上記構成により、n−2ライン上の各画素
に対して画素値を5倍し、斜め上下に隣接する4画素分
の合計値をそこから減算する処理が可能になり、対象画
素値のエッジ強調の演算結果が得られる。
With the above configuration, it becomes possible to multiply the pixel value by 5 for each pixel on the n-2 line and to subtract the total value of the four pixels vertically and vertically adjacent thereto from the target pixel value. Is obtained.

【0047】図4(b)にエッジ強調部の動作例を示
す。画像データa〜iは互いに隣接した9個の画素を表
している。ここでは、中心に位置するeがエッジ強調処
理の対象画素であり、画素eに対するエッジ強調フィル
タ演算は、エッジ強調結果をE(e)として(1)式を
実行する。
FIG. 4B shows an operation example of the edge emphasizing unit. The image data a to i represent nine pixels adjacent to each other. Here, e located at the center is the target pixel of the edge enhancement processing, and the edge enhancement filter calculation for the pixel e executes Expression (1) with the edge enhancement result as E (e).

【0048】[0048]

【数1】 E(e)=5・e−1・a−1・c−1・g−1・i …(1) 上記処理を1画素ずつ主走査方向に順次実行すること
で、各画素のエッジ強調結果を得る。
E (e) = 5 · e−1 · a−1 · c−1 · g−1 · i (1) The above processing is sequentially performed one pixel at a time in the main scanning direction, so that each pixel is obtained. Is obtained.

【0049】図5(a)に平均値演算部の一実施例を示
す。平均値演算部202のラインバッファ401は、連
続する主走査3ライン分の画像データを蓄積するライン
メモリである。nラインの画像データ入力時に、n−
1,n−2,n−3ラインのデータが出力されるよう交
替バッファとしている。ラッチ402〜405は画像デ
ータを一時保持する機能、加算406〜409および4
12は2つの入力データを加算する機能である。
FIG. 5A shows an embodiment of the average value calculating section. The line buffer 401 of the average value calculation unit 202 is a line memory that stores image data for three consecutive main scanning lines. When inputting n-line image data, n-
An alternate buffer is used to output data of 1, n-2 and n-3 lines. Latches 402 to 405 function to temporarily hold image data, and adders 406 to 409 and 4
Reference numeral 12 denotes a function for adding two input data.

【0050】1/8化410は入力データを8で割る機
能であり、2進数で表されたデータを3ビット下位へシ
フトし、上位3ビットに0を詰めることで実現できる。
1/64化411は入力データを64で割る機能であ
り、2進数で表されたデータを6ビット下位へシフト
し、上位6ビットに0を詰めることで実現できる。加算
412は1/8化410と1/64化411の出力を加
算する。
The 1/8 conversion 410 is a function of dividing input data by 8, and can be realized by shifting data represented by a binary number to lower 3 bits and filling upper 3 bits with 0.
The 1/64 conversion 411 is a function of dividing input data by 64, and can be realized by shifting data represented by a binary number to lower 6 bits and packing 0 into upper 6 bits. The addition 412 adds the outputs of the 1/8 conversion 410 and the 1/64 conversion 411.

【0051】つまり、1/9演算を1/8化と1/64
化で近似する構成としたので、論理回路で1/9を実現
する場合に比べて、回路規模が小さくなる。このユニー
クな構成により、主走査3画素×副走査3画素の計9画
素の平均値が近似値として出力できる。
That is, 1/9 operation is reduced to 1/8 and 1/64
Therefore, the circuit scale is reduced as compared with the case where 1/9 is realized by a logic circuit. With this unique configuration, an average value of a total of 9 pixels of 3 pixels in the main scan × 3 pixels in the sub-scan can be output as an approximate value.

【0052】選択413は一通の郵便物を左右2つの短
冊に分けて並列に処理する場合、担当短冊の端部に属す
る画素に対して処理を行なう際に、隣接処理部209を
介して入力した隣接短冊の端部9画素の平均値を選択す
る機能である。すなわち、自身が左短冊を受け持ってい
る場合には、主走査1ラインの処理の直後に右短冊端部
の平均値を選択する。また、自身が右短冊を受け持って
いる場合には、主走査1ラインの処理の直前に左短冊端
部の平均値を選択する。
In the case where one mail is divided into two right and left strips and processed in parallel, the selection 413 is input via the adjacent processing unit 209 when processing is performed on the pixels belonging to the end of the strip in charge. This function selects the average value of the nine pixels at the end of the adjacent strip. In other words, if it is in charge of the left strip, the average value of the right strip end is selected immediately after the processing of one main scanning line. In addition, when it is in charge of the right strip, the average value of the left strip end is selected immediately before the processing of one main scanning line.

【0053】図5(b)に平均値演算部の動作例を示
す。画像データa〜iは互いに隣接した9個の画素を表
している。この9画素に対する平均化フィルタ演算は、
画像データa〜iの平均値出力をA(e)として、
(2)式を実行する。
FIG. 5B shows an operation example of the average value calculating section. The image data a to i represent nine pixels adjacent to each other. The averaging filter operation for these nine pixels is
The average value output of the image data a to i is A (e),
Execute equation (2).

【0054】[0054]

【数2】 A(e)=1/9・(a+b+c+d+e+f+g+h+i) …(2) 上記処理を3画素ずつ主走査方向および副走査方向に順
次実行することで、9画素毎の平均値出力を得る。
A (e) = 1/9 · (a + b + c + d + e + f + g + h + i) (2) The above process is sequentially performed in the main scanning direction and the sub-scanning direction for every three pixels, thereby obtaining an average value output for every nine pixels.

【0055】図6に、2値化部の一実施例を示す。ライ
ンバッファ501は連続する主走査3ライン分の画像デ
ータを蓄積するラインメモリである。nラインの画像デ
ータ入力時に、n−1,n−2,n−3ラインのデータ
が出力されるよう交替バッファとしている。
FIG. 6 shows an embodiment of the binarizing section. The line buffer 501 is a line memory that stores image data for three consecutive main scanning lines. When image data of n lines is input, a replacement buffer is provided so that data of lines n-1, n-2, and n-3 is output.

【0056】ラッチ502〜506は画像データを一時
保持する機能であり、フリップフロップで実現できる。
最大値507,508は3つの入力値の最大値を出力す
る機能、最大値509は2つの入力値の大きい方を出力
する機能で、これらは比較器とセレクタで構成できる。
処理パラメータであるしきい値率510、しきい値差5
15および下限値511は、制御側から動作開始前に各
レジスタに設定される。乗算512は2つの入力を乗算
する機能であり、乗算器で実現できる。
The latches 502 to 506 have a function of temporarily holding image data, and can be realized by flip-flops.
The maximum values 507 and 508 are a function of outputting the maximum value of the three input values, and the maximum value 509 is a function of outputting the larger of the two input values. These can be configured by a comparator and a selector.
Threshold rate 510 and threshold difference 5 as processing parameters
15 and the lower limit 511 are set in each register from the control side before the operation starts. The multiplication 512 is a function of multiplying two inputs and can be realized by a multiplier.

【0057】1/256化513は入力データを256
で割る機能であり、2進数で表されたデータを8ビット
下位へシフトし、上位8ビットに0を詰めることで実現
できる。減算516はラッチ504の出力からしきい値
差515の値を減算する機能である。最小値517は2
つの入力のうち小さい方を出力する機能である。比較5
14は2つの入力値を比較し、上側が大きい時に1
(黒)を出力し、それ以外は0(白)を出力する機能で
ある。
The 1/256 conversion 513 converts the input data into 256
This function can be realized by shifting data represented by a binary number to the lower 8 bits and filling the upper 8 bits with 0. The subtraction 516 is a function of subtracting the value of the threshold difference 515 from the output of the latch 504. The minimum value 517 is 2
This function outputs the smaller of the two inputs. Comparison 5
14 compares two input values, and when the upper value is large, 1
(Black), and 0 (white) otherwise.

【0058】上記構成により、最初に最大値507で縦
方向に連続する3つの平均値の最大値である縦最大値を
検出する。つぎに、最大値508で横方向に連続する3
つの縦最大値のなかの最大値を検出する。その結果、縦
方向3平均値、横方向3平均値で構成される計9平均値
の最大値が求まる。
According to the above configuration, the vertical maximum value which is the maximum value of three consecutive average values in the vertical direction at the maximum value 507 is detected first. Next, 3 continuous in the horizontal direction at the maximum value 508
Detects the maximum of the two vertical maximums. As a result, the maximum value of a total of nine average values composed of three average values in the vertical direction and three average values in the horizontal direction is obtained.

【0059】つぎに、しきい値率510と乗算512と
1/256化513により、9平均値の最大値に対し、
しきい値率を掛けた値を2値化しきい値の1つの候補T
H1とする。このとき、本来のしきい値率は1〜0の数
であるが、ハードウェア化の都合上、255〜0の整数
値で設定し、9平均値の最大値との乗算後に1/256
することで実現した。
Next, by using the threshold rate 510, the multiplication 512 and the 1/256 conversion 513, the maximum value of the 9 average values is
One candidate T of the binary threshold value obtained by multiplying the value multiplied by the threshold rate
H1. At this time, the original threshold ratio is a number of 1 to 0, but for hardware reasons, it is set to an integer value of 255 to 0, and after multiplication with the maximum value of 9 average values, it is 1/256.
It was realized by doing.

【0060】さらに減算516で、9平均値の最大値か
らしきい値差515の値を減算した値を2値化しきい値
のもう1つの候補TH2とする。そして最小値517で
TH1とTH2の小さい方を選択し、TH12とする。
つぎに最大値509で下限値511に設定された値TH
3と比較し、2値化しきい値TH12が大きい場合はそ
れを最終的な2値化しきい値THとする。それ以外はT
H3を2値化しきい値THとして採用する。この理由
は、一面が黒色の画像領域から2値化しきい値を求めた
場合、黒色の画像データの値より、2値化しきい値の方
が小さな値となってしまい、その結果、黒領域の2値化
結果が0(白)に化けるのを防ぐためである。
Further, a value obtained by subtracting the value of the threshold value difference 515 from the maximum value of the nine average values in the subtraction 516 is set as another candidate TH2 for the binarization threshold value. Then, the smaller one of TH1 and TH2 is selected with the minimum value 517, and is set to TH12.
Next, the value TH set to the lower limit value 511 with the maximum value 509
Compared with 3, when the binarization threshold TH12 is large, it is set as the final binarization threshold TH. Otherwise T
H3 is adopted as the binarization threshold TH. The reason is that when the binarization threshold value is obtained from the black image area on one side, the binarization threshold value is smaller than the value of the black image data. This is to prevent the binarization result from being changed to 0 (white).

【0061】図7に2値化部の動作例を示す。(a)の
a〜iはそれぞれ図5の平均部202で求めた9画素の
平均値を示している。(b)はしきい値を求める演算の
一例で、a〜iの中から最大値を求める。ここでは、c
の画素値が最大値となる。つぎにcの画素値にしきい値
率510を乗算して、しきい値候補TH1、TH2を求
める。この場合、TH1<TH2かつTH1>TH3で
あるから最終しきい値TH=TH1となる。(c)は別
の演算例で、a〜iの中での最大値fから求まるTH
1、TH2がともにTH3を下回っている場合である。
この場合はTH=TH3となる。
FIG. 7 shows an operation example of the binarizing unit. In FIG. 5A, a to i each indicate an average value of nine pixels obtained by the averaging unit 202 in FIG. (B) is an example of an operation for obtaining a threshold value, and obtains a maximum value from a to i. Here, c
Becomes the maximum value. Next, the threshold value 510 is multiplied by the pixel value of c to obtain threshold value candidates TH1 and TH2. In this case, since TH1 <TH2 and TH1> TH3, the final threshold value TH = TH1. (C) is another calculation example, in which TH obtained from the maximum value f among a to i is set.
1 and TH2 are both lower than TH3.
In this case, TH = TH3.

【0062】2値化部203は上記の演算で求まったし
きい値THとエッジ強調データを比較し、エッジ強調値
<THのとき‘1’(黒)を出力し、それ以外のときは
‘0’(白)を出力する。なお、TH1、TH2、TH
3のうちの2つの候補からTHを自動的に選択したり、
1つの候補を最初からTHとして固定的に選択する方法
も可能である。
The binarizing section 203 compares the threshold value TH obtained by the above calculation with the edge emphasis data, outputs '1' (black) when the edge emphasis value <TH, and outputs '1' (black) otherwise. Outputs 0 '(white). Note that TH1, TH2, TH
Automatically select TH from two of the three candidates,
A method in which one candidate is fixedly selected as TH from the beginning is also possible.

【0063】図8にノイズ除去部の一実施例を示す。ラ
インバッファ601は連続する主走査3ライン分の画像
データを蓄積するラインメモリである。nラインの画像
データ入力時に、n−1,n−2,n−3ラインのデー
タが出力されるよう交替バッファとしている。ラッチ6
02〜607は画像データを一時保持する機能、ノイズ
除去論理609は2値化データa〜iのパターンにより
ノイズ除去処理を行なう機能である。
FIG. 8 shows an embodiment of the noise removing section. The line buffer 601 is a line memory that stores image data for three consecutive main scanning lines. When image data of n lines is input, a replacement buffer is provided so that data of lines n-1, n-2, and n-3 is output. Latch 6
02 to 607 are functions for temporarily holding image data, and the noise removal logic 609 is a function for performing noise removal processing using patterns of the binary data a to i.

【0064】図9にノイズ除去部の動作例を示す。
(a)はラッチ602〜607に保持されている2値化
データa〜iの画素位置を示したものである。(b)は
ノイズ除去の処理前と処理後の2値化データa〜iのド
ットパターンを示したもので、ノイズ除去論理609の
論理パターンを反映している。左から一番目は黒の孤立
点を除去するパターン、2番目は白の孤立点を除去する
パターンである。残りの4つは横方向と縦方向の輪郭線
上の凹部を除去するパターンである。この処理は論理積
や論理和の組み合わせで実現できる。
FIG. 9 shows an operation example of the noise elimination unit.
(A) shows the pixel positions of the binarized data a to i held in the latches 602 to 607. (B) shows the dot patterns of the binarized data a to i before and after the noise removal processing, and reflects the logic pattern of the noise removal logic 609. The first from the left is a pattern for removing black isolated points, and the second is a pattern for removing white isolated points. The remaining four are patterns for removing the concave portions on the contour lines in the horizontal and vertical directions. This processing can be realized by a combination of a logical product and a logical sum.

【0065】図10に2値縮小部の一実施例を示す。
(a)に示す2値縮小部205の構成で、ラインバッフ
ァ701は連続する主走査3ライン分の画像データを蓄
積するラインメモリである。nラインの画像データ入力
時に、n−1,n−2,n−3ラインのデータが出力さ
れるよう交替バッファとしている。ラッチ702〜70
7は画像データを一時保持する。縮小演算709〜71
2は連続する2画素のデータを1画素に縮小変換する機
能で、これらは論理積、論理和、インバータで実現でき
る。
FIG. 10 shows an embodiment of the binary reduction section.
In the configuration of the binary reduction unit 205 shown in (a), a line buffer 701 is a line memory for storing image data for three consecutive main scanning lines. When image data of n lines is input, a replacement buffer is provided so that data of lines n-1, n-2, and n-3 is output. Latch 702-70
Reference numeral 7 temporarily stores image data. Reduction operations 709 to 71
Reference numeral 2 denotes a function for reducing and converting data of two consecutive pixels into one pixel, which can be realized by a logical product, a logical sum, and an inverter.

【0066】上記構成において、最初にn−1ラインに
おいて画素cと画素bの2画素を画素xに変換する。こ
のとき、画素bの隣の画素aを参照し、縮小演算709
を実行する。この演算は画素cが1(黒)のとき、画素
xは1(黒)を出力する。また、画素cが0(白)で画
素aとbが共に1(黒)なら、画素cが黒領域中の白細
線である可能性が高いので、画素xは0(白)を出力す
る論理演算となる。同時に、画素d,e,fと画素g,
h,iにおいても同じ縮小演算を実行する。以上の処理
により、主走査方向の1/2縮小が同時に3ライン分、
実行できたことになる。
In the above configuration, first, two pixels, pixel c and pixel b, are converted into pixel x in the (n-1) th line. At this time, the pixel a next to the pixel b is referred to, and the reduction operation 709 is performed.
Execute In this calculation, when the pixel c is 1 (black), the pixel x outputs 1 (black). If the pixel c is 0 (white) and both the pixels a and b are 1 (black), there is a high possibility that the pixel c is a white thin line in a black area, and the pixel x outputs 0 (white). Calculation. At the same time, pixels d, e, f and g,
The same reduction operation is performed for h and i. By the above processing, the 縮小 reduction in the main scanning direction is simultaneously performed for three lines,
You have done it.

【0067】次に、それらの出力x,y,zにおいて縮
小変換712を実行する。これは副走査方向の1/2縮
小演算であり、縮小論理は主走査の場合と同じである。
以上の処理の結果、主走査2画素、副走査2画素の計4
画素を1画素に変換する処理が実現できる。
Next, a reduction conversion 712 is performed on the outputs x, y, and z. This is a 縮小 reduction operation in the sub-scanning direction, and the reduction logic is the same as in the main scanning.
As a result of the above processing, a total of 4 pixels of 2 pixels for main scanning and 2 pixels for sub-scanning
Processing for converting a pixel into one pixel can be realized.

【0068】図10(b)〜(e)に2値縮小部の動作
例を示す。(b)は主走査方向の縮小論理709を実行
した場合の縮小前と縮小後の出力を示したもので、画素
bと画素cの2画素を1画素bcに変換する処理である。
bとcが共に同じ色のときはbcも当然その色になる。異
なる場合の例として、(c)、(d)では黒となり白画
素中に黒画素があるような場合は黒が優先される。しか
し、(e)に示すようにcが白でa,bが黒の場合は白
を優先する論理となる。
FIGS. 10B to 10E show examples of the operation of the binary reduction section. (B) shows the output before and after the reduction when the reduction logic 709 in the main scanning direction is executed, and is a process for converting two pixels of the pixel b and the pixel c into one pixel bc.
When both b and c have the same color, bc naturally has that color. As an example of a different case, in (c) and (d), the color becomes black, and when there is a black pixel among the white pixels, black is prioritized. However, when c is white and a and b are black as shown in (e), the logic is to give priority to white.

【0069】図11にデータ圧縮部の一実施例を示す。
(a)に示すデータ圧縮部206の構成で、ラッチ80
1〜805は画像データを一時保持する機能である。変
化点検出806は連続する2画素の2値出力が異なると
きに1を出力する機能である。定数807は0を出力す
る機能で、データ値が8ビットで表現される場合は、8
ビットの信号線をすべてグランドレベルに固定する。ラ
ン長カウンタ808は主走査方向に連続する同一出力の
画素数をカウントする機能である。カウンタ808は変
化点検出806の出力が1になる度にリセットされる。
FIG. 11 shows an embodiment of the data compression section.
The configuration of the data compression unit 206 shown in FIG.
1 to 805 are functions for temporarily holding image data. The change point detection 806 is a function of outputting 1 when the binary output of two consecutive pixels is different. The constant 807 is a function for outputting 0. When the data value is represented by 8 bits, 8 is used.
All bit signal lines are fixed to the ground level. The run length counter 808 has a function of counting the number of pixels of the same output that are continuous in the main scanning direction. The counter 808 is reset each time the output of the change point detection 806 becomes 1.

【0070】選択809は定数807からの‘0’か、
ラン長カウンタ808からの入力を選択出力する機能で
ある。これは論理回路のセレクタで実現できる。出力制
御810は変化点検出信号が入力されたら、特徴メモリ
107へのデータ書込指令を出力する機能と、メモリへ
の出力データとして定数807とラン長カウンタ808
の選択信号を出力する機能と、選択812から2バイト
分のデータを並列して出力する際のラッチ803、80
4の組を出力するか、804、805の組を出力するか
を選択する機能である。
The selection 809 is “0” from the constant 807 or
This function selects and outputs the input from the run length counter 808. This can be realized by a selector of a logic circuit. The output control 810 has a function of outputting a data write command to the feature memory 107 when a change point detection signal is input, a constant 807 and a run length counter 808 as output data to the memory.
And the latches 803 and 80 for outputting two bytes of data in parallel from the selection 812.
This is a function for selecting whether to output a set of 4 or a set of 804 and 805.

【0071】アドレスカウンタ811は出力制御810
からの書込指令の数をカウントしてメモリへの書込アド
レスを出力する機能である。選択812は2バイト分の
データを並列に出力する際のラッチ803、804の組
を出力するか、804、805の組を出力するかを選択
する機能である。この処理はデータバス幅を2バイトと
するので、メモリアクセス速度を1バイトの場合の1/
2にできる。
The address counter 811 controls the output control 810
This function outputs the write address to the memory by counting the number of write commands from the memory. The selection 812 is a function of selecting whether to output a pair of latches 803 and 804 or to output a pair of 804 and 805 when outputting 2-byte data in parallel. In this process, since the data bus width is 2 bytes, the memory access speed is 1/1 of the case of 1 byte.
Can be 2.

【0072】上記構成による動作を(b−1)〜(b−
3)で説明する。(b−1)では、1ラインの先頭から
白(0)が連続して5画素入力し、つぎに黒(1)が連
続して12画素入力する出力例を示している。まず、1
ラインの先頭に白が入力されると、ラン長カウンタ80
8が連続する白画素数をカウントする。つぎに黒画素が
入力されると変化点検出806が1を出力し、出力制御
810が選択809を介してラン長カウンタ808の出
力‘5’をラッチ803にラッチする。
The operation according to the above configuration is described as (b-1) to (b-
This will be described in 3). In (b-1), an output example is shown in which five consecutive white (0) pixels are input from the beginning of one line, and then 12 consecutive black (1) pixels are input. First, 1
When white is input at the beginning of the line, the run length counter 80
8 counts the number of consecutive white pixels. Next, when a black pixel is input, the change point detection 806 outputs 1 and the output control 810 latches the output '5' of the run length counter 808 via the selection 809 in the latch 803.

【0073】さらに、ラン長カウンタ808は変化点検
出806の出力により、カウント値‘1’に初期化さ
れ、以後の連続する黒画素をカウントする。黒画素が連
続して12画素入力され、つぎに白画素が入力される
と、変化点検出806が1を出力し、出力制御810が
選択809を介してラン長カウンタ808の出力‘1
2’をラッチ803にラッチする。このとき、ラッチ8
04に白のラン長‘5’がシフトされる。ラッチ803
及び804に2バイト分のデータが蓄えられた時点で、
特徴メモリ107への書き込みタイミングであれば、出
力制御810はその2バイトを出力する。
Further, the run length counter 808 is initialized to a count value "1" by the output of the change point detection 806, and counts subsequent black pixels. When 12 consecutive black pixels are input and then white pixels are input, the change point detection 806 outputs 1 and the output control 810 outputs the output '1' of the run length counter 808 via the selection 809.
2 'is latched by the latch 803. At this time, the latch 8
The white run length '5' is shifted to 04. Latch 803
And when 804 stores 2 bytes of data,
If it is a write timing to the feature memory 107, the output control 810 outputs the two bytes.

【0074】(b−2)は1ラインの先頭から黒(1)
が連続して16画素入力し、つぎに白(0)が連続して
58画素入力する例を示している。1ラインの先頭に黒
画素が入力した場合、先頭黒検出813の出力が1とな
り、出力制御810は選択809を介して定数807の
出力‘00H’をラッチ803にラッチさせる。そして
ラン長カウンタ808が連続する黒画素数をカウントす
る。つぎに、白画素が入力されると、変化点検出806
が1を出力し、出力制御810が選択809を介してラ
ン長カウンタ808の出力‘16’がラッチ803にラ
ッチされる。さらにラン長カウンタは変化点検出806
の出力により、カウント値‘1’に初期化される。そし
て、それ以後の連続する白画素をカウントする。
(B-2) is black (1) from the beginning of one line.
Shows an example in which 16 pixels are continuously input, and then white (0) is continuously input in 58 pixels. When a black pixel is input at the beginning of one line, the output of the leading black detection 813 becomes 1, and the output control 810 causes the latch 803 to latch the output '00H' of the constant 807 via the selection 809. Then, the run length counter 808 counts the number of continuous black pixels. Next, when a white pixel is input, change point detection 806 is performed.
Output 1 and the output control 810 latches the output '16' of the run length counter 808 via the selection 809 in the latch 803. Further, the run length counter 806 detects a change point.
Is initialized to the count value '1'. Then, subsequent white pixels are counted.

【0075】白画素が連続して58画素入力され、つぎ
に黒画素が入力されると、変化点検出806が1を出力
し、出力制御810が選択809を介してラン長カウン
タ808の出力‘58’がラッチ803にラッチされ
る。ラッチ804に白のラン長‘16’がシフトされ
る。さらに先頭黒をしめすデータ‘0’がラッチ805
にシフトされる。ラッチ803および804に2バイト
分のデータが蓄えられた時点で、特徴メモリへの書き込
みタイミングであれば、出力制御810はその2バイト
を出力する。
When 58 white pixels are successively input and then black pixels are input, the change point detection 806 outputs 1 and the output control 810 controls the output of the run length counter 808 via the selection 809. 58 'is latched by the latch 803. The white run length '16' is shifted to the latch 804. Further, the data "0" indicating the leading black is latched by the latch 805.
Is shifted to At the time when two bytes of data are stored in the latches 803 and 804, if it is a timing to write to the feature memory, the output control 810 outputs the two bytes.

【0076】(b−3)は白ラン長が268画素連続入
力された場合の例である。白画素が連続して255にな
ったとき出力制御810はラン長カウンタ808の出力
‘255’を出力する。さらに白画素が連続する場合、
出力制御810は選択809を介して定数807‘00
H’をラッチ803に出力する。これは、黒画素数が連
続0個であることを示している。そしてラン長カウンタ
を1に初期化し、白画素のカウントを続ける。そして、
黒画素が入力された時点で変化点検出806が‘1’を
出力し、出力制御810により、白画素のカウント値
‘13’がラッチ803にラッチされる。
(B-3) shows an example in which a white run length of 268 pixels is continuously input. When the number of white pixels continuously reaches 255, the output control 810 outputs the output '255' of the run length counter 808. If white pixels continue,
The output control 810 controls the constant 807'00 via the selection 809.
H ′ is output to the latch 803. This indicates that the number of black pixels is 0 consecutively. Then, the run length counter is initialized to 1, and the counting of white pixels is continued. And
When the black pixel is input, the change point detection 806 outputs “1”, and the output control 810 latches the count value “13” of the white pixel in the latch 803.

【0077】図12に多値縮小部とヒストグラム抽出部
の実施例を示す。(a)に示す構成で、ラッチ901、
902は画像データを一時保持する機能、選択903、
904は2つの入力のうちの一方を選択する機能であ
る。縮小制御905は主走査2画素、副走査2画素の4
画素を1画素に縮小する機能であり、主走査1ラインお
きに、ラッチ901に多値データをラッチする。さら
に、多値縮小部207はラッチするラインの画素データ
に対し、1画素おきに画素データをラッチするようにク
ロックを発生することで、隣接4画素のうちの1画素を
ラッチして縮小機能を実現する。これは論理回路の組み
合わせで実現できる。
FIG. 12 shows an embodiment of the multi-value reduction unit and the histogram extraction unit. In the configuration shown in FIG.
902, a function for temporarily holding image data, selection 903,
A function 904 selects one of the two inputs. The reduction control 905 includes four pixels of two pixels for main scanning and two pixels for sub-scanning.
This function reduces a pixel to one pixel, and latches multilevel data in the latch 901 every other main scanning line. Further, the multi-level reduction unit 207 generates a clock so that pixel data of the line to be latched is latched every other pixel, thereby latching one of four adjacent pixels to perform a reduction function. Realize. This can be realized by a combination of logic circuits.

【0078】本実施例による1フレーム内の画素の濃淡
値のヒストグラム検出する機能はユニークで、メモリ内
のヒストグラム格納領域に0を書込む機能、画素の濃淡
値をメモリのアドレスとして出力する機能および当該ア
ドレスのデータを読み出し、その値に1を加算した結果
を、当該アドレスに書き込む機能を有している。
The function of detecting the histogram of the gray value of a pixel in one frame according to the present embodiment is unique. The function of writing 0 to the histogram storage area in the memory, the function of outputting the gray value of the pixel as an address of the memory, and It has a function of reading data at the address and writing the result of adding 1 to the value to the address.

【0079】すなわち、ヒストグラム抽出部208にお
いて、アドレスカウンタ906は画素クロックにより出
力値を+1づつインクリメントする。定数設定907、
908は常に‘0’または‘1’を出力し、加算909
は2つの入力を加算する。動作制御910は、最初に選
択903でアドレスカウンタ906の出力を選択し、選
択904では定数設定907の出力‘0’を選択するよ
うに制御する。そして、アドレスカウンタ906を0か
ら255までカウントアップさせながら、特徴メモリ1
07の0番地から255番地にデータ‘0’を書き込
む。これは郵便物を一通ずつ読み取る毎に、ヒストメモ
リの値を0に初期化するためである。
That is, in the histogram extracting unit 208, the address counter 906 increments the output value by +1 according to the pixel clock. Constant setting 907,
908 always outputs '0' or '1',
Adds two inputs. The operation control 910 performs control such that the output of the address counter 906 is first selected by the selection 903, and the output “0” of the constant setting 907 is selected by the selection 904. Then, while counting up the address counter 906 from 0 to 255, the feature memory 1
Data '0' is written from address 0 to address 255 of 07. This is because the value of the history memory is initialized to 0 each time a mail is read one by one.

【0080】つぎに、郵便物の画像データが入力を開始
したら、選択903の入力をラッチ901からの多値縮
小データとし、特徴メモリ104へアドレスとして出力
する。そして特徴メモリ107の当該アドレスからのリ
ードデータをラッチ902に格納する。さらに、ラッチ
902の出力に加算909で定数908の出力‘1’を
加算し、選択904を介して特徴メモリ107の当該ア
ドレスに書き込む。
Next, when the input of the mail image data is started, the input of the selection 903 is set as the multi-value reduced data from the latch 901 and is output to the feature memory 104 as an address. Then, the read data from the address in the feature memory 107 is stored in the latch 902. Further, the output “1” of the constant 908 is added to the output of the latch 902 by the addition 909, and the result is written to the corresponding address of the feature memory 107 via the selection 904.

【0081】以上の処理により、画素データ値と同じ値
のアドレス内のデータは、アクセスの度に+1される。
そして郵便物一通分の画像処理が終了した時点では、0
〜255までの各画素データ毎の合計画素数が特徴メモ
リ107に格納され、ヒストグラムを得る。
By the above processing, the data in the address having the same value as the pixel data value is incremented by one every time the access is made.
When the image processing for one mail is completed, 0
The total number of pixels for each pixel data of ~ 255 is stored in the feature memory 107, and a histogram is obtained.

【0082】図12(b)は特徴メモリのアドレスとヒ
ストグラムの対応を示したものである。多値縮小207
から入力された多値縮小データの値(濃淡値)をアドレ
スとして特徴メモリ107に出力し、そのメモリデータ
をリードすると、それまでのその濃淡値をもった画素数
が検出される。そして、その数に1を加算して再びその
アドレスにデータをライトすることで各濃淡値(0〜2
55の256通り)の画素数が累積される。以上の処理
を郵便物全面について行なうことで特徴メモリ107内
にヒストグラムが求まる。
FIG. 12B shows the correspondence between the address of the feature memory and the histogram. Multi-value reduction 207
Is output to the feature memory 107 as an address of the multi-valued reduced data input from the CPU, and when the memory data is read, the number of pixels having that gray value is detected. Then, 1 is added to the number, and data is written again to the address, thereby obtaining each gray scale value (0 to 2).
55 (256 patterns) are accumulated. A histogram is obtained in the feature memory 107 by performing the above processing on the entire postal matter.

【0083】図13に隣接処理部の実施例を示す。隣接
処理部209の構成で、シフタ1001、1002は画
素データをラッチし、順次シフトして3画素分のデータ
を出力する機能で、シフトレジスタで実現できる。選択
1003、1010及び1014は2つの入力のうち一
方を出力する。ラッチ1004〜1008は画素データ
を保持し、加算1009、1013は2つの入力データ
を加算する。1/9化1011は入力データの1/9の
近似値を得る機能で、入力データを8で割る1/8化
と、64で割る1/64化と加算器からの組合せでな
り、図5の場合と同様に構成される。
FIG. 13 shows an embodiment of the adjacent processing section. With the configuration of the adjacent processing unit 209, the shifters 1001 and 1002 have a function of latching pixel data, sequentially shifting the data, and outputting data of three pixels, and can be realized by a shift register. Selections 1003, 1010 and 1014 output one of two inputs. Latches 1004 to 1008 hold pixel data, and additions 1009 and 1013 add two input data. 1/9 conversion 1011 is a function for obtaining an approximate value of 1/9 of the input data, and is a combination of 1/8 conversion of input data by 8 and 1/64 conversion of 64 by an adder. The configuration is the same as in the case of

【0084】ここで、シフタ1001、1002および
ラッチ1004に対し、左右2つの短冊の隣接歪補正デ
ータの入力は並列に行なわれる。つまり、左短冊の1画
素目の入力と同じタイミングで右短冊の1画素目が入力
され、左短冊の512画素目の入力と同じタイミングで
右短冊の512画素目が入力される。
Here, input of adjacent distortion correction data of two right and left strips to shifters 1001 and 1002 and latch 1004 is performed in parallel. In other words, the first pixel of the right strip is input at the same timing as the input of the first pixel of the left strip, and the 512th pixel of the right strip is input at the same timing as the input of the 512 pixel of the left strip.

【0085】郵便物を左右2つの短冊(主走査512画
素分)に分けた場合、自身が右短冊の処理の場合はシフ
タ1001で左短冊の各主走査線上の最後の画素(51
2画素目)を順次ラッチし、連続3ライン分の512画
素目を出力する。また、自身が左短冊の処理の場合はシ
フタ1002で右短冊の各主走査線上の先頭の画素(1
画素目)を順次ラッチし、連続3ライン分の1画素目を
出力する。
If the mail is divided into two strips on the left and right (512 pixels in the main scanning direction), and if the mail itself is processed on the right strip, the shifter 1001 selects the last pixel (51) on each main scanning line of the left strip.
The second pixel) is sequentially latched, and the 512th pixel for three consecutive lines is output. In the case of processing the left strip itself, the shifter 1002 uses the first pixel (1) on each main scanning line of the right strip.
) Are sequentially latched, and the first pixel of three consecutive lines is output.

【0086】つまり、特徴抽出部106−1と106−
2の各々は、主走査512画素分に隣接の最初または最
後の1画素分だけプラスしてラッチし、この隣接1画素
の3ライン分を1組として、隣接縦3画素データを構成
している。これによれば、特徴抽出部106間でのデー
タのやりとりの必要がないので、入出力のためのピン数
を増加させない。
That is, the feature extraction units 106-1 and 106-
Each of 2 is latched by adding the first or last one pixel adjacent to 512 pixels of the main scan and three lines of one adjacent pixel as one set to form adjacent vertical three-pixel data. . According to this, since there is no need to exchange data between the feature extraction units 106, the number of pins for input / output is not increased.

【0087】シフタ1001または1002の出力であ
る隣接縦3画素データを、選択1003を介して図4の
エッジ強調部201に入力し、左短冊のエッジ強調処理
では主走査512画素目のエッジ強調処理時に、右短冊
の主走査1画素目の画素データを選択312を介してラ
ッチ302と加算309に入力する。また、右短冊のエ
ッジ強調処理では主走査1画素目のエッジ強調処理時
に、左短冊の主走査512画素目の画素データを選択3
12を介してラッチ302と加算309に入力する。
The adjacent vertical three-pixel data output from the shifter 1001 or 1002 is input to the edge emphasizing unit 201 shown in FIG. At this time, the pixel data of the first pixel of the main scanning of the right strip is input to the latch 302 and the addition 309 via the selection 312. In the edge enhancement of the right strip, the pixel data of the 512th pixel in the main scan of the left strip is selected during the edge enhancement of the first pixel in the main scan.
The signal is input to the latch 302 and the adder 309 via the counter 12.

【0088】一方、ラッチ1004は左短冊の主走査方
向510〜512画素の3画素、右短冊の主走査方向1
〜3画素を1画素ずつラッチする。つまり、隣接する短
冊から3画素分だけプラスしてラッチしている。
On the other hand, the latch 1004 has three pixels of 510 to 512 pixels in the main scanning direction of the left strip, and 1 pixel in the main scanning direction of the right strip.
33 pixels are latched one pixel at a time. In other words, it is latched by adding three pixels from adjacent strips.

【0089】そして、加算1009とラッチ1005と
選択1010により、左短冊の連続する3ラインの51
0〜512画素の3画素×3ライン分の合計9画素の値
の加算値をもとめ、ラッチ1005にラッチする。また
加算1009とラッチ1006と選択1010により、
右短冊の連続する3ラインの1〜3画素の3画素×3ラ
イン分の合計9画素の値の加算値を求め、ラッチ100
6にラッチする。
Then, the addition 1009, the latch 1005, and the selection 1010 are used to select 51
The sum of the values of a total of 9 pixels for 3 × 3 lines of 0 to 512 pixels is obtained and latched by the latch 1005. Also, by addition 1009, latch 1006 and selection 1010,
An addition value of a total of 9 pixels for 3 × 3 lines of 1 to 3 pixels of three consecutive lines of the right strip is obtained.
Latch to 6.

【0090】つぎに、1/9化1011により、ラッチ
1005の出力データの平均値(近似値)を求めラッチ
1007にラッチする。同様に、ラッチ1006の平均
値を求めラッチ1008にラッチする。
Next, the average value (approximate value) of the output data of the latch 1005 is obtained by the 1/9 conversion 1011 and latched by the latch 1007. Similarly, the average value of the latch 1006 is obtained and latched by the latch 1008.

【0091】この結果、ラッチ1007には左短冊の主
走査方向後端部の9画素の平均値がラッチされる。また
ラッチ1008には右短冊の主走査方向先端部の9画素
の平均値がラッチされる。これにより、短冊間のデータ
のやり取りが必要なく、かつ他の短冊の画素データを一
端記憶する場合に比べ記憶容量を低減できる。ラッチ1
007または1008の出力は、選択1012を介して
図5の平均値演算部202に入力され、選択413を介
して図6の2値化部203に入力される。
As a result, the latch 1007 latches the average value of the nine pixels at the rear end of the left strip in the main scanning direction. The latch 1008 latches the average value of the nine pixels at the leading end of the right strip in the main scanning direction. Accordingly, there is no need to exchange data between strips, and the storage capacity can be reduced as compared with a case where pixel data of another strip is temporarily stored. Latch 1
The output of 007 or 1008 is input to the average value calculation unit 202 of FIG. 5 via the selection 1012, and is input to the binarization unit 203 of FIG. 6 via the selection 413.

【0092】なお、本例は特徴抽出部106が左短冊、
右短冊の処理に共用可能に構成されているが、左短冊ま
たは右短冊用に固定して、他方の短冊の端部の3画素の
みをラッチして、9画素の平均値を求めるようにしても
よい。
In this example, the feature extracting unit 106 determines that the left strip,
It is configured so that it can be used for processing the right strip, but it is fixed for the left strip or the right strip, and only the three pixels at the end of the other strip are latched to obtain the average value of 9 pixels. Is also good.

【0093】図14に、隣短冊の端部データを使用した
隣接処理部の動作を説明する。(a)は右短冊の端部画
素eのエッジ強調処理を行なう場合に必要な画素ブロッ
クを示したもので、画素a,d,gは左短冊に属する画
素である。このため、シフタ1001にラッチしておい
て、右短冊の画素eのエッジ強調処理時にエッジ強調部
201に出力する。
FIG. 14 illustrates the operation of the adjacent processing unit using the end data of the adjacent strip. (A) shows a pixel block necessary for performing edge enhancement processing on the end pixel e of the right strip, and pixels a, d, and g are pixels belonging to the left strip. For this reason, it is latched in the shifter 1001 and is output to the edge emphasizing unit 201 at the time of edge emphasizing processing of the pixel e of the right strip.

【0094】(b)は右短冊の端部画素(例えば画素
e)を2値化する場合、2値化部203でしきい値を求
めるときの9ブロックの平均値データ(A0〜A8)の
位置を示したもので、A0,A3,A6は左短冊の平均
値である。このため、ラッチ1007にラッチしておい
て、右短冊の左端部の2値化しきい値を求める際に、2
値化部203に出力する。
FIG. 9B shows the average value data (A0 to A8) of 9 blocks when the threshold value is calculated by the binarization unit 203 when the end pixel (eg, pixel e) of the right strip is binarized. The positions are shown, and A0, A3, and A6 are average values of the left strip. Therefore, when the binarization threshold value at the left end of the right strip is obtained by latching in the latch 1007,
The value is output to the value conversion unit 203.

【0095】図15は特徴メモリのメモリマップの一例
を示す。出力制御部210(図3)のレジスタ設定部1
101、1102に、画像処理結果を格納する特徴メモ
リ107の格納開始アドレスを設定する。レジスタ設定
部1101、1102はフリップフロップで実現でき、
予め外部のCPUから任意の設定値A、Bを設定してい
る。
FIG. 15 shows an example of a memory map of the feature memory. Register setting unit 1 of output control unit 210 (FIG. 3)
In 101 and 1102, a storage start address of the feature memory 107 for storing the image processing result is set. The register setting units 1101 and 1102 can be realized by flip-flops,
Arbitrary setting values A and B are set in advance from an external CPU.

【0096】特徴メモリ107には、最初のヒストグラ
ムが256階調のそれぞれの階調の画素数を格納するた
め、1階調につき2バイトのメモリ領域を必要とする。
したがって512バイトと容量が一定のため、格納アド
レスは000H〜1FFHと固定にした。また、低解像
度多値データは200H〜2000Hへ、中解像度2値
ライン先頭アドレスは4000H〜42FFHへ、高解
像度2値ライン先頭アドレスは4300H〜レジスタ設
定値Aから1を引いた番地に格納される。中解像度2値
圧縮データと高解像度2値圧縮データの格納アドレス
は、画像データにより出力データ量が変動するため、レ
ジスタ設定1101、1102でそれぞれ格納領域を変
更できる構成としている。
Since the first histogram stores the number of pixels of each of the 256 gradations, the feature memory 107 requires a 2-byte memory area for each gradation.
Therefore, since the capacity is fixed at 512 bytes, the storage address is fixed at 000H to 1FFH. The low-resolution multi-value data is stored at 200H to 2000H, the middle-resolution binary line head address is stored at 4000H to 42FFH, and the high-resolution binary line head address is stored at 4300H to the address obtained by subtracting 1 from the register setting value A. . Since the output addresses of the storage addresses of the medium resolution binary compressed data and the high resolution binary compressed data vary depending on the image data, the storage areas can be changed by register settings 1101 and 1102, respectively.

【0097】図16に、出力制御部の動作タイムチャー
トを示す。(a)は副走査方向の画像処理の推移を示し
たものであり、1区間が主走査1ラインの処理周期を示
している。特徴メモリ107へのライトデータは高精細
2値圧縮データが毎ライン、中精細2値圧縮データが2
ライン周期内に1ライン、低精細多値データとヒストグ
ラムは6ライン周期内に1ラインで行なわれる。そし
て、高精細2値圧縮データを除く他の特徴データのライ
トは、同一ライン上で発生しないように制御している。
FIG. 16 shows an operation time chart of the output control unit. (A) shows the transition of the image processing in the sub-scanning direction, and one section indicates the processing cycle of one line in the main scanning. The write data to the feature memory 107 is high-resolution binary compressed data every line, and medium-resolution binary compressed data is 2
The low-definition multi-value data and the histogram are performed on one line in a line cycle and one line in a six-line cycle. The writing of other feature data other than the high definition binary compressed data is controlled so as not to occur on the same line.

【0098】(b)は主走査方向の画像処理の推移を示
したものであり、1区間が1画素の処理周期を示してい
る。特徴メモリ107とのインタフェースは16ビット
幅の1つのバスを介して行われる。1メモリサイクルは
16MHzである。バスを16ビット幅とすることによ
り、最も頻繁にアクセスする8ビット幅の高精細2値ラ
ンレングスデータは、2つ用意できた時点で偶数サイク
ルにアクセスするようにしている。他の画像特徴情報は
奇数サイクルでメモリアクセスするようにした。以上の
ように、副走査方向、主走査方向ともに、4種類の画像
特徴データのアクセスサイクルが重複しないように制御
することで、1バスでのメモリアクセスを実現した。
(B) shows the transition of the image processing in the main scanning direction. One section indicates the processing cycle of one pixel. The interface with the feature memory 107 is performed via one bus having a width of 16 bits. One memory cycle is 16 MHz. By making the bus 16 bits wide, the most frequently accessed 8-bit wide high-definition binary run-length data is accessed in an even-numbered cycle when two are ready. Other image feature information is accessed in memory in odd cycles. As described above, by controlling the access cycles of the four types of image characteristic data so as not to overlap in both the sub-scanning direction and the main scanning direction, memory access by one bus is realized.

【0099】[0099]

【発明の効果】本発明によれば、読み取り画像に対する
低精細の多値縮小と高精細の2値化を行ない、多値縮小
データによる文字領域の切り出しと、その文字領域につ
いて2値データによる文字認識のための特徴抽出を並列
に行なうので、主走査1ライン単位に画像の読み取り速
度に同期した文字認識が可能になる。これにより、読み
取り画面全体の画素濃淡データ、文字領域切り出し後の
画素濃淡データ、行切り出し後の画素濃淡データを一旦
蓄えるためのフレームメモリを必要としない。
According to the present invention, a low-resolution multi-value reduction and a high-definition binarization are performed on a read image, a character area is cut out by the multi-value reduction data, and the character area is converted into a character by binary data. Since feature extraction for recognition is performed in parallel, character recognition synchronized with the image reading speed can be performed in units of one line of main scanning. This eliminates the need for a frame memory for temporarily storing pixel grayscale data of the entire read screen, pixel grayscale data after character region clipping, and pixel grayscale data after line clipping.

【0100】また、画像フレームを複数の画像領域(短
冊)に分割し、各短冊に対して並列に画像処理を実行す
る構成としているので、特徴処理を光電変換処理と同じ
画像処理スピードで行なうことができる。
Further, since the image frame is divided into a plurality of image areas (strips) and the image processing is performed on each strip in parallel, the feature processing is performed at the same image processing speed as the photoelectric conversion processing. Can be.

【0101】さらに、複数短冊に分割する場合に、自己
の主走査画素に加えて隣接短冊の端部の画素データをプ
ラスしてラッチしているので、端部処理に際し短冊間で
のデータのやりとりがなく処理装置のピン数や記憶容量
を少なくできる。
Further, when dividing into a plurality of strips, pixel data at the end of an adjacent strip is added and latched in addition to its own main scanning pixel, so that data is exchanged between the strips during edge processing. And the number of pins and storage capacity of the processing device can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の画像情報処理装置とそれを並列適用し
た郵便物宛名読取システムの一実施例を示す構成図。
FIG. 1 is a configuration diagram showing an embodiment of an image information processing apparatus of the present invention and a mail address reading system to which the image information processing apparatus is applied in parallel.

【図2】一実施例による画像情報処理装置の概略動作を
説明するフローチャート。
FIG. 2 is a flowchart illustrating a schematic operation of the image information processing apparatus according to the embodiment;

【図3】画像情報処理装置の特徴抽出部の一実施例を示
す構成図。
FIG. 3 is a configuration diagram illustrating an embodiment of a feature extraction unit of the image information processing apparatus.

【図4】画像情報処理装置のエッジ強調部の一実施例を
示す構成図。
FIG. 4 is a configuration diagram illustrating an embodiment of an edge enhancement unit of the image information processing apparatus.

【図5】画像情報処理装置の平均値演算部の一実施例を
示す構成図。
FIG. 5 is a configuration diagram showing an embodiment of an average value calculation unit of the image information processing apparatus.

【図6】画像情報処理装置の2値化部の一実施例を示す
構成図。
FIG. 6 is a configuration diagram illustrating an embodiment of a binarization unit of the image information processing apparatus.

【図7】2値化部の動作を説明する説明図。FIG. 7 is an explanatory diagram illustrating an operation of a binarization unit.

【図8】画像情報処理装置のノイズ除去部の一実施例を
示す構成図。
FIG. 8 is a configuration diagram illustrating an embodiment of a noise removing unit of the image information processing apparatus.

【図9】ノイズ除去部の動作を説明する説明図。FIG. 9 is an explanatory diagram illustrating an operation of a noise removing unit.

【図10】画像情報処理装置の2値縮小部の一実施例を
示す構成図。
FIG. 10 is a configuration diagram showing an embodiment of a binary reduction unit of the image information processing apparatus.

【図11】画像情報処理装置のデータ圧縮部の一実施例
を示す構成図。
FIG. 11 is a configuration diagram showing an embodiment of a data compression unit of the image information processing apparatus.

【図12】画像情報処理装置のヒストグラム抽出部の一
実施例を示す構成図。
FIG. 12 is a configuration diagram illustrating an embodiment of a histogram extraction unit of the image information processing apparatus.

【図13】画像情報処理装置の隣接処理部の一実施例を
示す構成図。
FIG. 13 is a configuration diagram illustrating an embodiment of an adjacent processing unit of the image information processing apparatus.

【図14】隣接処理部の動作を説明する説明図。FIG. 14 is an explanatory diagram illustrating the operation of an adjacent processing unit.

【図15】特徴メモリのメモリマップの一実施例を示す
説明図。
FIG. 15 is an explanatory diagram showing an example of a memory map of a feature memory.

【図16】画像情報処理装置の出力制御部の動作を説明
するタイムチャート。
FIG. 16 is a time chart illustrating an operation of an output control unit of the image information processing apparatus.

【符号の説明】[Explanation of symbols]

101…スキャナ、102…歪補正部、103…画像情
報処理部、104…宛名認識部、105…VDT(ビデ
オデータ端末)、106…特徴抽出部、107…特徴メ
モリ、108…ライン同期部、201…エッジ強調部、
202…平均値演算部、203…2値化部、204…ノ
イズ除去部、205…2値縮小部、206…データ圧縮
部、207…多値縮小部、208…ヒストグラム抽出
部、209…隣接処理部、210…出力制御部、30
1,401,501,601,701…ラインバッフ
ァ、609…ノイズ除去論理、709〜712…縮小論
理、806…変化点検出、807…定数設定、808…
ラン長カウンタ、809…選択、810…出力制御、8
11…アドレスカウンタ、812…選択、905…縮小
制御、906…アドレスカウンタ、907,908…定
数設定、910…動作制御、1001,1002…シフ
タ、1101,1102…レジスタ設定部。
101 scanner, 102 distortion correction unit, 103 image information processing unit, 104 address recognition unit, 105 VDT (video data terminal), 106 feature extraction unit, 107 feature memory, 108 line synchronization unit, 201 … Edge enhancement part,
202: Average value calculation unit, 203: Binarization unit, 204: Noise removal unit, 205: Binary reduction unit, 206: Data compression unit, 207: Multi-value reduction unit, 208: Histogram extraction unit, 209: Adjacent processing Unit, 210 ... output control unit, 30
1, 401, 501, 601, 701 line buffer, 609 noise removal logic, 709 to 712 reduction logic, 806 change point detection, 807 constant setting, 808
Run length counter, 809 selection, 810 output control, 8
11: address counter, 812: selection, 905: reduction control, 906: address counter, 907, 908: constant setting, 910: operation control, 1001, 1002: shifter, 1101, 1102: register setting unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 中島 啓介 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 篠田 伸一 茨城県日立市大みか町七丁目1番1号 株 式会社日立製作所日立研究所内 (72)発明者 大山 清治 愛知県名古屋市中区栄三丁目10番22号 日 立中部ソフトウェア株式会社内 (72)発明者 伴 政樹 愛知県名古屋市中区栄三丁目10番22号 日 立中部ソフトウェア株式会社内 (72)発明者 小西 義治 東京都千代田区神田駿河台四丁目6番地 株式会社日立製作所内 (72)発明者 嶋 好博 東京都国分寺市東恋ヶ窪一丁目280番地 株式会社日立製作所中央研究所内 (72)発明者 影広 達彦 東京都国分寺市東恋ヶ窪一丁目280番地 株式会社日立製作所中央研究所内 Fターム(参考) 3F079 AA01 CA02 CB08 EA19 5B029 BB02 CC07 CC27 DD06 DD09 5B057 AA02 BA30 CD05 CE02 CE03 CG04 CH04 CH11 DA08 DA20 DB02 DB08 DB09 DC23  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Keisuke Nakajima 7-1-1, Omikacho, Hitachi City, Ibaraki Prefecture Inside the Hitachi Research Laboratory, Hitachi, Ltd. (72) Inventor Shinichi Shinoda 7-1 Omikamachi, Hitachi City, Ibaraki Prefecture No. 1 Inside Hitachi, Ltd.Hitachi Research Laboratories (72) Inventor Seiji Oyama 3-10-22 Sakae, Naka-ku, Nagoya-shi, Aichi Japan Sun Inside Chubu Software Co., Ltd. 3-10-22 Sakae Nikkachibu Software Co., Ltd. (72) Inventor Yoshiharu Konishi 4-6-1 Kanda Surugadai, Chiyoda-ku, Tokyo Inside Hitachi, Ltd. 280 Hitachi Central Research Laboratory Co., Ltd. (72) Inventor Tatsuhiko Kagehiro 1-chome Higashi Koigabo 280 Hitachi Central Research Laboratory F term (reference) 3F079 AA01 CA02 CB08 EA19 5B029 BB02 CC07 CC27 DD06 DD09 5B057 AA02 BA30 CD05 CE02 CE03 CG04 CH04 CH11 DA08 DA20 DB02 DB08 DB09 DC23

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 文字情報の含まれる対象面を走査して読
み取った画像情報から文字認識のための特徴情報を抽出
する方法において、 前記文字情報のある文字領域を検出するための第1の特
徴情報として、前記画像情報に対し多値縮小処理した低
精細多値データを取得し、また、前記文字領域内の文字
情報を文字認識するための第2の特徴情報として、前記
画像情報に対し2値化処理した高精細2値データを取得
し、前記第1、第2の特徴情報を主走査ライン単位の並
列処理により抽出することを特徴とする読取り画像の特
徴情報抽出方法。
1. A method for extracting characteristic information for character recognition from image information read by scanning a target surface including character information, wherein a first characteristic for detecting a character region having the character information is provided. As information, low-definition multi-value data obtained by performing multi-value reduction processing on the image information is obtained, and as the second feature information for character recognition of the character information in the character area, 2 A method of extracting feature information of a read image, comprising obtaining high-definition binary data subjected to a value process, and extracting the first and second feature information by parallel processing in units of main scanning lines.
【請求項2】 請求項1において、 前記文字領域内の文字列を検出するための第3の特徴情
報として、前記2値化処理の後に2値縮小処理した中精
細2値データを、前記第1、第2の特徴情報と並列処理
で抽出することを特徴とする読取り画像の特徴情報抽出
方法。
2. The medium-definition binary data obtained by performing a binary reduction process after the binarization process as the third feature information for detecting a character string in the character region. 1. A method for extracting feature information of a read image, wherein the feature information is extracted by parallel processing with the second feature information.
【請求項3】 請求項1または2において、 各特徴情報を抽出する前記並列処理は、前記画像の読み
取り速度に同期して行なうことを特徴とする読取り画像
の特徴情報抽出方法。
3. The method according to claim 1, wherein the parallel processing for extracting each piece of feature information is performed in synchronization with a reading speed of the image.
【請求項4】 請求項1または2において、 前記第1の特徴情報を符号圧縮処理を経てメモリに蓄積
する場合に、主走査1ライン毎の符号圧縮データおよび
そのポインタ情報となるメモリ書込アドレス情報を出力
することを特徴とする読取り画像の特徴情報抽出方法。
4. The memory write address according to claim 1, wherein when the first characteristic information is stored in a memory through code compression processing, code compression data for each main scanning line and pointer information thereof are provided. A method for extracting feature information of a read image, characterized by outputting information.
【請求項5】 請求項1〜4のいずれかにおいて、 前記2値化処理に用いるしきい値は、処理対象画素に隣
接する複数画素を含むブロック内の画素濃淡値の平均値
を求め、当該ブロックに隣接する複数ブロックについて
同様に求めた各平均値の中の最大値に定数を乗じて第1
の2値化しきい値候補とし、前記最大値から定数を減じ
たものを第2の2値化しきい値候補とし、任意の定数を
第3のしきい値候補とし、これらしきい値候補から1つ
を選択して最終の2値化しきい値を決定することを特徴
とする読取り画像の特徴情報抽出方法。
5. The method according to claim 1, wherein the threshold value used in the binarization processing is obtained by calculating an average value of pixel grayscale values in a block including a plurality of pixels adjacent to the processing target pixel. The maximum value among the average values similarly obtained for a plurality of blocks adjacent to the block is multiplied by a constant to obtain a first value.
, A constant obtained by subtracting a constant from the maximum value is set as a second binarization threshold candidate, and an arbitrary constant is set as a third threshold candidate. 3. A method for extracting characteristic information of a read image, wherein one of the two methods is selected to determine a final binarization threshold value.
【請求項6】 請求項1〜5のいずれかにおいて、 前記対象面に対応する画像フレームを主走査方向に複数
の画像領域に分割して各画像領域の特徴情報抽出を並行
処理する場合に、処理対象である画像領域の主走査ライ
ンの画素データに加えて、隣接する他の画像領域の主走
査ラインの端部の画素データを取り込むことを特徴とす
る読取り画像の特徴情報抽出方法。
6. The method according to claim 1, wherein an image frame corresponding to the target surface is divided into a plurality of image regions in a main scanning direction and feature information extraction of each image region is performed in parallel. A feature information extraction method for a read image, wherein pixel data of an end of a main scanning line of another adjacent image region is taken in addition to pixel data of a main scanning line of an image region to be processed.
【請求項7】 請求項1〜5のいずれかにおいて、 前記対象面に対応する画像フレームを主走査方向に複数
の画像領域に分割して各画像領域の特徴情報抽出を並行
処理する場合に、主走査ラインを分割して取り込む画素
データに、隣接する他の画像領域の端部画素データを含
めて取り込み、 前記2値化処理に用いるしきい値は、処理対象画素を含
むブロックが他の画像領域との隣接端部に位置するとき
に、他の画像領域の前記端部画素データに基づいて求め
た隣接ブロックの平均値を含む複数ブロックの平均値の
中の最大値に基づいて決定することを特徴とする読取り
画像の特徴情報抽出方法。
7. The method according to claim 1, wherein an image frame corresponding to the target surface is divided into a plurality of image regions in a main scanning direction, and feature information extraction of each image region is performed in parallel. The pixel data obtained by dividing the main scanning line and including the edge pixel data of another adjacent image area are captured. When located at an end adjacent to the region, the determination is made based on the maximum value among the average values of a plurality of blocks including the average value of the adjacent block obtained based on the end pixel data of another image region. A feature information extraction method for a read image characterized by the following.
【請求項8】 文字情報の含まれる対象面を走査して読
み取るスキャナと、読み取った画像情報から文字認識の
ための特徴情報を抽出する特徴情報処理装置と、抽出し
た特徴情報を格納するメモリと、前記対象面に対応する
画像フレーム単位の特徴情報に基づいて文字認識を行な
う認識装置を備える画像処理装置において、 前記特徴情報処理装置による抽出処理を、前記スキャナ
による主走査ラインの走査に同期させるためのライン同
期手段を備え、前記画像フレームの全主走査ライン対す
る抽出処理後に、前記認識装置による文字認識を行なう
ことを特徴とする画像処理装置。
8. A scanner for scanning and scanning a target surface including character information, a characteristic information processing apparatus for extracting characteristic information for character recognition from the read image information, and a memory for storing the extracted characteristic information. An image processing apparatus including a recognition device that performs character recognition based on feature information in image frame units corresponding to the target surface, wherein an extraction process by the feature information processing device is synchronized with main scanning line scanning by the scanner. An image processing apparatus for performing character recognition by the recognition device after extracting all the main scanning lines of the image frame.
【請求項9】 請求項8において、 前記情報処理装置に、前記画像フレーム内の文字領域を
検出するために多値縮小処理した低精細多値データを抽
出する第1の特徴情報抽出手段と、前記文字領域内の文
字を認識するために2値化処理した高精細2値データを
抽出する第2の特徴情報抽出手段を並列処理可能に設け
たことを特徴とする画像処理装置。
9. The information processing apparatus according to claim 8, wherein the information processing apparatus includes a first feature information extracting unit configured to extract low-definition multi-valued data subjected to multi-value reduction processing to detect a character area in the image frame; An image processing apparatus, comprising: a second feature information extracting unit that extracts high-definition binary data that has been binarized to recognize characters in the character area, in a parallel processing manner.
【請求項10】 請求項9において、 前記情報処理装置に、各特徴情報の出力タイミングを互
いに異ならせる出力制御手段を設け、1つのバスを介し
て前記メモリに出力する構成としたことを特徴とする画
像処理装置。
10. The information processing apparatus according to claim 9, wherein the information processing apparatus is provided with output control means for making output timings of the respective characteristic information different from each other, and outputting the characteristic information to the memory via one bus. Image processing device.
【請求項11】 請求項8、9または10において、 前記特徴情報処理装置とバス接続された前記メモリとの
組を複数設け、前記画像フレームの副走査方向に分割し
た複数の画像領域を並列処理することを特徴とする画像
処理装置。
11. The image processing apparatus according to claim 8, 9 or 10, wherein a plurality of sets of the feature information processing device and the memory connected to the bus are provided, and a plurality of image areas divided in a sub-scanning direction of the image frame are processed in parallel. An image processing apparatus comprising:
【請求項12】 郵便物の宛名面を走査して読み取るス
キャナと、読み取った画像情報から文字認識のための特
徴情報を抽出する特徴情報処理装置と、抽出した特徴情
報を格納するメモリと、前記宛名面に対応する画像フレ
ーム単位の特徴情報に基づいて宛名の認識を行なう宛名
認識装置を備える郵便物宛名読取り装置において、 前記特徴情報処理装置に、フレーム内の宛名領域を検出
するために多値縮小処理した低精細多値データを抽出す
る第1の特徴情報抽出手段と、前記宛名領域における文
字列を検出するために2値縮小処理した中精細2値デー
タを抽出する第2の特徴情報抽出手段と、前記文字列の
文字を認識するために2値化処理した高精細2値データ
を抽出する第3の特徴情報抽出手段の各々を並列処理可
能に設け、かつ、前記特徴情報処理装置による抽出処理
を前記スキャナによる主走査ラインの走査に同期させる
ためのライン同期手段を設けたことを特徴とする郵便物
宛名読取り装置。
12. A scanner for scanning and reading an address surface of a postal matter, a feature information processing apparatus for extracting feature information for character recognition from the read image information, a memory for storing the extracted feature information, In a mail address reading device provided with an address recognition device for recognizing an address based on feature information in image frame units corresponding to an address surface, the feature information processing device includes a multi-valued First characteristic information extracting means for extracting low-definition multivalued data subjected to reduction processing, and second characteristic information extraction for extracting medium-definition binary data subjected to binary reduction processing for detecting a character string in the address area Means, and third feature information extracting means for extracting high-definition binary data which has been binarized in order to recognize the characters of the character string are provided in a parallel-processable manner; Postal matter address reading apparatus characterized by the extraction process by symptoms information processing apparatus provided with a line synchronization means for synchronizing the scanning of the main scan line by the scanner.
【請求項13】 郵便物の宛名面を読み取った画像情報
から特徴情報を抽出し、フレーム単位の特徴情報に基づ
いて宛名の認識を行なう郵便物宛名読取り装置におい
て、 請求項8〜11のいずれかに記載の画像処理装置を複数
備え、前記スキャナからの読み取り画像をフレーム単位
またはその数分の1単位に順次、前記画像処理装置に振
り分けて並列処理することを特徴とする郵便物宛名読取
り装置。
13. A mail address reading apparatus for extracting feature information from image information obtained by reading the address surface of a mail and recognizing the address based on the feature information in frame units. A mail address reading device, comprising: a plurality of image processing devices according to (1), wherein the read image from the scanner is sequentially distributed to the image processing devices in a frame unit or a fraction thereof and processed in parallel.
【請求項14】 郵便物の宛名面を読み取った画像情報
から特徴情報を抽出し、フレーム単位の特徴情報に基づ
いて宛名の認識を行なう郵便物宛名読取り装置におい
て、 請求項8〜11のいずれかに記載の画像処理装置を複数
備えるとともに、各々の特徴抽出処理の処理パラメータ
を異ならせて設定し、前記スキャナからの読み取り画像
を各画像処理装置で一斉に並列処理し、処理パラメータ
に応じた異なる画像処理結果を得るようにしたことを特
徴とする郵便物宛名読取り装置。
14. A mail address reading apparatus for extracting feature information from image information obtained by reading the address surface of a mail, and recognizing the address based on the frame-based feature information. And a plurality of image processing devices described in the above, and setting the processing parameters of each feature extraction process differently, parallelly process the image read from the scanner by each image processing device simultaneously, different according to the processing parameters A mail address reading device characterized by obtaining an image processing result.
【請求項15】 請求項13または14において、 前記特徴情報処理装置に前記文字領域内の文字列を検出
するために2値縮小処理した中精細2値データを抽出す
る第3の特徴情報抽出手段を設け、1つの画像処理装置
における2値縮小処理の結果を圧縮処理せずにそのまま
表示装置に出力できる構成としたことを特徴とする郵便
物宛名読取り装置。
15. The third feature information extracting unit according to claim 13, wherein the feature information processing device extracts medium-definition binary data subjected to a binary reduction process to detect a character string in the character area. Wherein the result of the binary reduction processing in one image processing apparatus is directly output to the display apparatus without compression processing.
JP10174630A 1998-06-22 1998-06-22 Method for exracting feature information of read image, image processor and mail address reader Pending JP2000011088A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10174630A JP2000011088A (en) 1998-06-22 1998-06-22 Method for exracting feature information of read image, image processor and mail address reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10174630A JP2000011088A (en) 1998-06-22 1998-06-22 Method for exracting feature information of read image, image processor and mail address reader

Publications (1)

Publication Number Publication Date
JP2000011088A true JP2000011088A (en) 2000-01-14

Family

ID=15981962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10174630A Pending JP2000011088A (en) 1998-06-22 1998-06-22 Method for exracting feature information of read image, image processor and mail address reader

Country Status (1)

Country Link
JP (1) JP2000011088A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284502A (en) * 2004-03-29 2005-10-13 Toshiba Corp Video coding system
EP2075741A2 (en) 2007-12-17 2009-07-01 Nec Corporation Image comparing method, apparatus and program
GB2464723A (en) * 2008-10-24 2010-04-28 Ian Smith Product Identification and Authentication
CN110998597A (en) * 2017-07-31 2020-04-10 株式会社爱考斯研究 Image data generation device, image recognition device, image data generation program, and image recognition program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284502A (en) * 2004-03-29 2005-10-13 Toshiba Corp Video coding system
EP2075741A2 (en) 2007-12-17 2009-07-01 Nec Corporation Image comparing method, apparatus and program
JP2009146245A (en) * 2007-12-17 2009-07-02 Nec Corp Image comparing method, apparatus and program
JP4518141B2 (en) * 2007-12-17 2010-08-04 日本電気株式会社 Image collation method, image collation apparatus, and image collation program
US8401310B2 (en) 2007-12-17 2013-03-19 Nec Corporation Image comparing method, apparatus and program
GB2464723A (en) * 2008-10-24 2010-04-28 Ian Smith Product Identification and Authentication
CN110998597A (en) * 2017-07-31 2020-04-10 株式会社爱考斯研究 Image data generation device, image recognition device, image data generation program, and image recognition program
CN110998597B (en) * 2017-07-31 2023-12-19 株式会社爱信 Image data generation device, image recognition device, image data generation program, and image recognition program

Similar Documents

Publication Publication Date Title
JP3215768B2 (en) Image processing device
JP3749282B2 (en) Image processing device
US5341227A (en) Dot image discrimination circuit for discriminating a dot image from other types of images
JP3014252B2 (en) Image processing method and image processing apparatus
US4996602A (en) Image-processing apparatus
JP2000011088A (en) Method for exracting feature information of read image, image processor and mail address reader
JP2000092327A (en) Image forming device
EP0649246B1 (en) A method of reducing document size for optical display
JP3073837B2 (en) Image region separation device and image region separation method
KR100213472B1 (en) Image data processing device
JP4035696B2 (en) Line segment detection apparatus and image processing apparatus
JP3066154B2 (en) Selective binarization method
KR100238027B1 (en) Apparatus and method for decimation transform of image in image system
JP3006460B2 (en) Binary image processing device
JP2757868B2 (en) Image information binarization processing circuit
JPS61234170A (en) Picture area separator
JP2001144954A (en) Image processing unit and image processing method
JPH0413371A (en) Picture processor
JPH1115965A (en) Image processor
JPH02238774A (en) Picture processing unit
JPH05282489A (en) Method for deciding attribute of document image
JPH099044A (en) Picture reader and processing method for read picture
JPH09167227A (en) Image processor
JPH06303424A (en) Dot area discrimination device
JPH04189069A (en) Picture processor