JPH0962782A - Document reader - Google Patents
Document readerInfo
- Publication number
- JPH0962782A JPH0962782A JP7221595A JP22159595A JPH0962782A JP H0962782 A JPH0962782 A JP H0962782A JP 7221595 A JP7221595 A JP 7221595A JP 22159595 A JP22159595 A JP 22159595A JP H0962782 A JPH0962782 A JP H0962782A
- Authority
- JP
- Japan
- Prior art keywords
- area
- data
- image
- memory
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Character Input (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、文書上に記録され
た文字とイメージ(文字以外の図形、絵、写真および罫
線など)を読み取る文書読取装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a document reading device for reading characters and images (graphics other than characters, pictures, photographs, ruled lines, etc.) recorded on a document.
【0002】[0002]
【従来の技術】図7は従来の文書読取装置における読み
取り処理のフローチャートであり、特にプレスキャンな
しで最初から高解像度でスキャンする処理のフローチャ
ートである。図7に基づいて、従来の文書読取装置にお
ける読み取り処理を説明する。まず、高解像度で読み取
り対象文書を画像入力する(S101)。S101で入
力した高解像度画像を表示装置に表示して読み取りに必
要な範囲をオペレータが枠で指定する(S103)。な
お、読み取り範囲がページ全体の場合はこの枠指定の処
理は不要である。2. Description of the Related Art FIG. 7 is a flow chart of a reading process in a conventional document reading apparatus, particularly a process of scanning with high resolution from the beginning without prescanning. The reading process in the conventional document reading device will be described with reference to FIG. First, an image of a document to be read is input with high resolution (S101). The high-resolution image input in S101 is displayed on the display device, and the operator specifies a range necessary for reading with a frame (S103). If the reading range is the entire page, this frame designation process is unnecessary.
【0003】次に、領域解析のために必要となる縮小画
像を作成する(S105)。図8は縮小画像の作成を説
明する説明図である。図8において210はS101の
処理で入力した高解像度画像データであり、211はS
105の処理で作成した縮小画像データである。この縮
小処理は、例えば8×8ドットの高解像度画像に1ドッ
ト以上黒画素があれば縮小画像1ドットは黒とし、高解
像度画像の全部が白画素ならば縮小画像1ドットは白と
する。すなわち、領域解析には高解像度画像データは不
要であり、おおまかな(低解像度)画像データがあれば
良いのである。次に、S105で作成した縮小画像から
領域を抽出し、さらに、この領域について画像特徴から
文字とイメージに識別する領域解析をする(S10
7)。そして、この領域解析の結果に基づいて、高解像
度画像データの文字を認識する(S109)。さらに、
この認識結果をメモリに格納したり、プリンタに印刷し
たりして認識結果の出力をして、処理を終了する(S1
11)。Next, a reduced image required for area analysis is created (S105). FIG. 8 is an explanatory diagram illustrating the creation of a reduced image. In FIG. 8, 210 is the high resolution image data input in the processing of S101, and 211 is the S resolution.
It is the reduced image data created in the process of 105. In this reduction processing, for example, if the high resolution image of 8 × 8 dots has one or more black pixels, the reduced image 1 dot is black, and if the high resolution image is all white pixels, the reduced image 1 dot is white. That is, high resolution image data is not required for area analysis, and rough (low resolution) image data is sufficient. Next, a region is extracted from the reduced image created in S105, and a region analysis is performed for this region to distinguish characters and images from image features (S10).
7). Then, the character of the high resolution image data is recognized based on the result of the area analysis (S109). further,
The recognition result is output by storing the recognition result in the memory or printing the result on the printer (S1).
11).
【0004】図9は従来の他の文書読取装置における読
み取り処理のフローチャートであり、特に低解像度でプ
レスキャンして読み取り枠を指定するものである。図9
に基づいて、従来り文書読取装置における読み取り処理
を概説する。まず、低解像度でプレスキャンして低解像
度画像を入力し(S121)、入力された低解像度画像
を表示装置に表示して読み取り範囲をオペレータが枠で
指定する(S123)。次に、読み取り枠部分をスキャ
ンして高解像度で画像入力する(S125)。これ以降
は図7に示したS105〜S111と同様の処理を行
う。FIG. 9 is a flowchart of a reading process in another conventional document reading apparatus, in which a reading frame is designated by prescanning at a low resolution. FIG.
Based on the above, the reading process in the conventional document reading device will be outlined. First, a low-resolution image is pre-scanned to input a low-resolution image (S121), the input low-resolution image is displayed on a display device, and the operator designates a reading range with a frame (S123). Next, the reading frame portion is scanned to input an image with high resolution (S125). After this, the same processing as S105 to S111 shown in FIG. 7 is performed.
【0005】[0005]
【発明が解決しようとする課題】しかし、以上述べた従
来の方法では、以下のような問題点がある。すなわち、
S105の処理である縮小画像作成の処理が必要であ
る。また、認識処理(S109)以降の処理で必要とな
る高解像度画像以外の画像(多値、カラーなど)を得る
ためには、再スキャンが必要であるが、領域解析後に再
スキャンする場合は、再スキャン時間が長くかかってし
まう。さらに、図7に示した処理フローでは必要な領域
以外の高解像度画像を入力することとなり、無駄な時間
を要することになる。However, the conventional method described above has the following problems. That is,
It is necessary to perform processing for creating a reduced image, which is the processing in S105. Further, rescanning is necessary in order to obtain an image (multivalue, color, etc.) other than the high resolution image necessary for the processing after the recognition processing (S109), but when rescanning after area analysis, It takes a long time to rescan. Furthermore, in the processing flow shown in FIG. 7, a high-resolution image other than the necessary area is input, which wastes time.
【0006】[0006]
【課題を解決するための手段】本発明に係る文書読取装
置は、記録媒体上に記録された文字あるいはイメージを
走査し画像信号に変換し、この画像信号をデジタル変換
して低解像度の画像データを作成する低解像度画像入力
手段と、この画像データを格納する低解像度画像メモリ
と、この低解像度画像メモリ内の低解像度画像データに
基づいて領域データを作成する領域解析手段と、この領
域データを格納する領域メモリと、この領域メモリ内の
領域データに従って前記記録媒体上に記録された文字あ
るいはイメージを再走査して各領域毎にその必要な画像
データを作成する領域画像入力手段と、この画像データ
を格納する領域画像メモリと、前記領域メモリ内の領域
データに従い、前記領域画像メモリ内の文字領域の画像
データを認識して認識データを作成する文字認識手段
と、この認識データを格納する認識メモリと、前記領域
画像メモリ内の画像データ、前記領域メモリ内の領域デ
ータ、および前記認識メモリ内の認識データから任意の
文書データを作成し、この文書データを出力媒体に出力
する結果出力手投とを備えたものである。A document reading apparatus according to the present invention scans a character or an image recorded on a recording medium, converts it into an image signal, and digitally converts this image signal to obtain low-resolution image data. A low-resolution image input means, a low-resolution image memory that stores this image data, an area analysis means that creates area data based on the low-resolution image data in this low-resolution image memory, and this area data An area memory for storing, area image input means for rescanning a character or an image recorded on the recording medium according to area data in the area memory to create necessary image data for each area, and this image According to the area image memory for storing the data and the area data in the area memory, the image data of the character area in the area image memory is recognized. Character recognition means for creating identification data, a recognition memory for storing this recognition data, image data in the area image memory, area data in the area memory, and arbitrary document data from the recognition data in the recognition memory And a result output procedure for outputting this document data to an output medium.
【0007】上記のように構成された文書読取装置にお
いては、記録媒体上に記録された文字あるいはイメージ
を走査し低解像度の画像データを作成し、この低解像度
画像データに基づいて領域データを作成する。そして、
この領域データに従って前記記録媒体上に記録された文
字あるいはイメージを再走査して各領域毎にその必要な
画像データを作成する。さらに、前記領域データに従
い、文字領域の画像データを認識して認識データを作成
する。またさらに、画像データ、領域データ、および認
識データから任意の文書データを作成し、この文書デー
タを出力媒体に出力する。In the document reading apparatus configured as described above, a character or an image recorded on a recording medium is scanned to create low resolution image data, and area data is created based on the low resolution image data. To do. And
The characters or images recorded on the recording medium are rescanned in accordance with the area data to create the necessary image data for each area. Further, according to the area data, the image data of the character area is recognized and recognition data is created. Furthermore, arbitrary document data is created from image data, area data, and recognition data, and this document data is output to an output medium.
【0008】[0008]
実施の形態1.図1は、本発明の第1の実施の形態の構
成を示すブロック図である。図において、1は画像入力
部であり、読み取り対象の文書の全部/一部を光学的に
走査し、文書上に記録された文字とイメージを光電変換
により画像信号に変換し、さらに、この画像信号を二値
/多値/疑似多値/カラーの画像データに変換する。2
は画像メモリであり、面像入力部1から出力される画像
データを格納する。3は領域解析部であり、画像メモリ
2内の(低解像度二値)画像データから領域を抽出し、
それぞれの領域を文字とイメージに識別して領域データ
を作成する。4は領域メモリであり、領域解析部3から
出力される領域データを格納する。Embodiment 1. FIG. 1 is a block diagram showing a configuration of the first exemplary embodiment of the present invention. In the figure, reference numeral 1 denotes an image input unit, which optically scans all / a part of a document to be read, converts characters and images recorded on the document into an image signal by photoelectric conversion, and further, this image The signal is converted into binary / multi-value / pseudo multi-value / color image data. Two
Is an image memory, which stores image data output from the surface image input unit 1. An area analysis unit 3 extracts an area from (low resolution binary) image data in the image memory 2,
Region data is created by identifying each region as a character and an image. An area memory 4 stores area data output from the area analysis unit 3.
【0009】5は文字認識部であり、領域メモリ4内の
領域データと、画像メモリ2内の画像データとから、こ
の画像データの文字画像を一文字毎に切り出し、文字認
識して文字コードに変換する。そして、この文字コード
を認識データとする。さらに、文字認識部5は、この認
識データを知識処理して修正することもできる。6は認
識メモリであり、文字認識部5から出力される認識デー
タを格納する。7は結果出力部であり、画像メモリ2内
の画像データと、領域メモリ4内の領域データと、認識
メモリ6内の認識データと(画像データ、領域データ、
認識データの少なくとも一つ)から文書データを作成
し、この文書データをプリンタ8で印刷し、または、出
力メモリ9に格納する。そして、この出力メモリ9を介
して、他の文書データ処理システム(ワープロ、DTP
システム、文書管理システムなど(図示せず)に文書デ
ータを渡す。または、通信により他の文書データ処理シ
ステムに文書データを渡すこともできる(図示せず)。A character recognition unit 5 cuts out a character image of this image data for each character from the area data in the area memory 4 and the image data in the image memory 2, recognizes the character, and converts it into a character code. To do. Then, this character code is used as recognition data. Further, the character recognition unit 5 can also perform knowledge processing on the recognition data and correct it. A recognition memory 6 stores the recognition data output from the character recognition unit 5. A result output unit 7 includes image data in the image memory 2, area data in the area memory 4, recognition data in the recognition memory 6 (image data, area data,
Document data is created from at least one of the recognition data), and this document data is printed by the printer 8 or stored in the output memory 9. Then, via this output memory 9, another document data processing system (word processor, DTP
The document data is passed to a system, a document management system, etc. (not shown). Alternatively, the document data can be passed to another document data processing system by communication (not shown).
【0010】10はCRTなどからなる表示部である。
11はキーボード、マウスなどからなる操作部であり、
読み取り処理(全体、一部)の開始・終了指示、処理結
果(画像データ、領域データ、および認識データ)の表
示およびその確認・修正などの処理といったオペレータ
と文書読取装置とのインタフェースをとるものである。Reference numeral 10 is a display unit composed of a CRT or the like.
Reference numeral 11 denotes an operation unit including a keyboard and a mouse,
The interface between the operator and the document reading device is used to start / end the reading process (whole or part), display the processing result (image data, area data, and recognition data) and confirm / correct the process. is there.
【0011】図2は上記のように構成された実施の形態
の動作のフローチャートである。以下、図2に基づいて
本実施形態の動作を説明する。まず、画像入力部1によ
り低解像度で画像入力するプレスキャンをする(S
1)。プレスキャンは画像入力部1により、読み取り対
象の入力文書を走査し、文書上に記録された文字、およ
びイメージを光電変換により画像信号に変換し、さらに
この画像信号を二値低解像度(たとえば50DPI)の
画像データに変換する。そして、この画像データを画像
メモリ2に格納する。FIG. 2 is a flowchart of the operation of the embodiment configured as described above. The operation of this embodiment will be described below with reference to FIG. First, the image input unit 1 performs a prescan for inputting an image at a low resolution (S
1). In the prescan, the image input unit 1 scans an input document to be read, converts characters and images recorded on the document into an image signal by photoelectric conversion, and further converts the image signal into a binary low resolution (for example, 50 DPI). ) Image data. Then, this image data is stored in the image memory 2.
【0012】画像入力が終わると、表示部10と操作部
11を使ってオペレータが読み取り枠を指定する(S
2)。すなわち、画像メモリ2内の画像データを表示部
10に表示し、この表示をオペレータが見て読み取りに
必要な部分を操作部11を使って読み取り枠(矩形、多
角形)として指定するのである。なお、この読み取り枠
指定は、コピーによる影を避けたり、新聞の一つの記事
だけを読み取る場合など、画像データの一部を読み取る
ときに使うものである。また、操作を簡単にするため、
読み取り枠を指定しない場合は全画像データを読み取り
対象とする。When the image input is completed, the operator uses the display unit 10 and the operation unit 11 to specify the reading frame (S).
2). That is, the image data in the image memory 2 is displayed on the display unit 10, and the operator views the display and designates a portion required for reading as a reading frame (rectangle, polygon) using the operation unit 11. The reading frame designation is used when a part of the image data is read, such as avoiding a shadow caused by copying or reading only one article of a newspaper. Also, in order to simplify the operation,
If no reading frame is specified, all image data will be read.
【0013】読み取り枠指定が終わると、領域解析部3
により領域解析する(S3)。領域解析は、まず、領域
解析部3により、前記読み取り枠に対応する画像メモリ
2内の画像データから文字とイメージを、黒画素の周辺
分布ヒストグラムを利用する方式、または、ランレング
スを利用する方式を使って領域枠を抽出する。そして、
それぞれの領域の幾何学的特徴により領域を(和文/英
文、和文/英文の識別はオペレータの指定に従い、自動
的に識別しなくても良い)文字領域とイメージ(図形/
写真)領域に識別する。そして、この領域枠とその種類
を領域データとする。When the reading frame designation is completed, the area analysis unit 3
The area is analyzed by (S3). In the area analysis, first, the area analysis unit 3 uses the marginal distribution histogram of black pixels or characters and images from the image data in the image memory 2 corresponding to the reading frame, or the run length method. Use to extract the region frame. And
Character regions and images (figure / figure / figure / figure / figure / figure)
(Photo) area. Then, this area frame and its type are used as area data.
【0014】この領域解析方法は縮小画像に対する領域
解析と同様である。この領域データと画像データを表示
部10に重ねて表示し、オペレータが領域データを確認
・修正する。確認・修正後の領域データを領域メモリ4
に格納する。領域データのうちの画像データ(読み取り
枠は指定しない:読み取り対象は全画像データ)の一例
を図3に示す。この画像データを領域解析して、和文領
域21、英文領域22、図形領域23および写真領域2
4を抽出する。表1は、この領域データを表で表わした
ものである。This area analysis method is the same as the area analysis for the reduced image. The area data and the image data are overlapped and displayed on the display unit 10, and the operator confirms / corrects the area data. Area data after confirmation / correction is stored in area memory 4
To be stored. FIG. 3 shows an example of the image data (the reading frame is not specified: the reading target is all the image data) in the area data. The image data is subjected to area analysis, and a Japanese area 21, an English area 22, a graphic area 23 and a photograph area 2
Extract 4. Table 1 shows this area data in a table.
【0015】[0015]
【表1】 [Table 1]
【0016】表1において、「Xs、Ys」は領域の左
上の頂点の座標、「Xe、Ye」は領域の右下の頂点の
座標であり(領域は矩形で表わし、プレスキャン時の解
像度50DPIでのドット数で表現している)、「種
類」は領域の識別結果である。領域解析が終わると、画
像入力部1により領域ごとに対応するモードで画像入力
するスキャンをする(S4)。このスキャンは画像入力
部1により、領域メモリ4内の領域データに対応する部
分を対応する画像入カモードで画像入力するのである。In Table 1, "Xs, Ys" is the coordinates of the upper left apex of the area, and "Xe, Ye" is the coordinates of the lower right apex of the area (the area is represented by a rectangle, and the resolution is 50 DPI during prescan). (Represented by the number of dots in), "Type" is the identification result of the area. When the area analysis is completed, the image input section 1 performs image input scanning in a mode corresponding to each area (S4). In this scan, the image input unit 1 inputs the image of the portion corresponding to the area data in the area memory 4 in the corresponding image input mode.
【0017】図4はこのスキャンの例のフローチャート
であり、以下このスキャンを図4に基づいて説明する。
まず、領域メモリ4内の領域データから全領域を含む矩
形(39,59)、(374,492)を算出する(S
21)。表2は読取り対象の種類とこれに対する画像入
力モードを示した表である。FIG. 4 is a flow chart of an example of this scan, and this scan will be described below with reference to FIG.
First, rectangles (39, 59) and (374, 492) including the entire area are calculated from the area data in the area memory 4 (S).
21). Table 2 is a table showing the types of objects to be read and the image input modes corresponding thereto.
【0018】[0018]
【表2】 [Table 2]
【0019】表2に示すように、図3に示した画像デー
タの画像入力モードの最大解像度は和文に対する400
DPIであり、前記矩形を400DPIで換算すると
(312,472)、(2992,3936)となる
(S22)。この矩形(312,472)、(299
2,3936)を最大解像度400DPI、多値で画像
入力する(S23)。As shown in Table 2, the maximum resolution in the image input mode of the image data shown in FIG. 3 is 400 for a Japanese sentence.
It is DPI, and when the above rectangle is converted into 400 DPI, (312, 472) becomes (2992, 3936) (S22). This rectangle (312, 472), (299
2, 3936) with a maximum resolution of 400 DPI and multi-valued image input (S23).
【0020】表3は表1に示した各領域の頂点を最大解
像度400DPIで換算したものである。Table 3 shows the vertices of each area shown in Table 1 converted at the maximum resolution of 400 DPI.
【表3】 [Table 3]
【0021】表3に従いS22で入力した多値画像デー
タを四つの領域ごとに抽出する(S24)。抽出した画
像データを領域ごとに表2の解像度と変換方式に従い変
換する(S25)。変換した画像データを領域毎に画像
メモリ2に格納し(S26)、スキャンの処理を終了す
る。スキャン(S4)が柊わると、文字認識部5により
文字を認識する(S5)。この文字認識の方法を概説す
ると次の通りである。まず、領域メモリ4内の領域デー
タの文字領域に対応する画像メモリ2内の画像データか
ら、黒画素の周辺分布ヒストグラムを利用する方法、ま
たは、ランレングスを利用する方法を使って行を切り出
し、さらに、行から文字を切り出す。つぎに、切り出し
た文字画像を文字認識部5内にある標準的な文字の認識
特徴を格納した認識辞書を用いたパターンマッチングに
より文字コード(候補文字、候補文字の確信度を含む)
に変換する。さらに、この文字コードを文字認識部5内
にある単語辞書、文法ルールを格納した知識辞書を使っ
て知識処理して文字コードを修正(侯補単語、候補単語
の確信度を作成)することもできる。According to Table 3, the multi-valued image data input in S22 is extracted for every four areas (S24). The extracted image data is converted for each area according to the resolution and conversion method shown in Table 2 (S25). The converted image data is stored in the image memory 2 for each area (S26), and the scanning process ends. When the scan (S4) changes, the character recognition unit 5 recognizes the character (S5). The outline of this character recognition method is as follows. First, a line is cut out from the image data in the image memory 2 corresponding to the character area of the area data in the area memory 4 by using the peripheral distribution histogram of black pixels or the run length method. In addition, cut out characters from the line. Next, the cut-out character image is subjected to a character code (including a candidate character and a certainty factor of the candidate character) by pattern matching using a recognition dictionary that stores the standard character recognition features in the character recognition unit 5.
Convert to Further, the character code can be knowledge-processed using a word dictionary in the character recognition unit 5 or a knowledge dictionary storing grammatical rules to correct the character code (compliance of candidate words and candidate words is created). it can.
【0022】この文字コード(候補文字、候補単語を含
む)や確信度を認識データとする。この認識データを表
示部10に表示し(文字領域の画像と比較し)、オペレ
ータが認識データを確認・修正する。確認・修正後の認
識データを認識メモリ6に格納する。認識が終わると、
結果出力部7により読み取り結果を出力する(S6)。
すなわち、結果出力部7は、画像メモリ2内の画像デー
タと、領域メモリ4内の領域データと、認識メモリ6内
の認識データと(画像データ、領域データ、認識データ
の少なくても一つ)から文書データを作成し、この文書
データをプリンタ8で印刷し、または、出力メモリ9に
格納するのである。The character code (including candidate characters and candidate words) and the certainty factor are used as recognition data. This recognition data is displayed on the display unit 10 (compared with the image in the character area), and the operator confirms / corrects the recognition data. The recognition data after confirmation / correction is stored in the recognition memory 6. When recognition is over,
The result output unit 7 outputs the reading result (S6).
That is, the result output unit 7 includes the image data in the image memory 2, the area data in the area memory 4, and the recognition data in the recognition memory 6 (at least one of the image data, the area data, and the recognition data). Document data is created from the data, and this document data is printed by the printer 8 or stored in the output memory 9.
【0023】以上のように実施の形態1によれば、つぎ
に示す効果を得ることができる。 (1)低解像度で入力した画像データを領域解析するこ
とにより画像縮小が不要になるので、処理時間の短縮と
文書読取装置の処理負荷の軽減が可能になる。 (2)領域解析後に領域部分だけを画像入力するので、
領域以外の空白部分の画像データが不要になり画像メモ
リ容量を削減でき、また、スキャン以降の処理時間を短
縮できる。 (3)領域解析後に領域種類に対応したモードで画像入
力するので、認識以降の処理に適した画像データを得ら
れ、処理工程の削減と(例:写真部分を疑似多値で画像
入力などが不要)、処理時間の短縮が可能になる。 (4)プレスキャンから領域解析までの処理で画像の誤
り(例えば、読み取り対象でない文書を入力した、用紙
方向を間違えた、スキューが大き過ぎたなど)をオペレ
ータが発見し、再プレスキャンする場合、従来の方法に
比較して処理時間を短くできる。As described above, according to the first embodiment, the following effects can be obtained. (1) Since image reduction is unnecessary by performing area analysis on image data input at low resolution, it is possible to reduce processing time and the processing load of the document reading apparatus. (2) Since only the area is input as an image after area analysis,
It is possible to reduce the image memory capacity because the image data of the blank portion other than the area is not necessary, and it is possible to shorten the processing time after the scan. (3) Since the image is input in the mode corresponding to the area type after the area analysis, image data suitable for the processing after the recognition can be obtained, and the processing steps can be reduced (for example, the image input by the pseudo multi-valued image of the photograph portion can be performed). Unnecessary), and processing time can be shortened. (4) When the operator finds an image error (for example, inputting a document not to be read, wrong paper orientation, excessive skew, etc.) in the processing from prescan to area analysis, and represcan. The processing time can be shortened as compared with the conventional method.
【0024】実施の形態2.本実施の形態は実施の形態
1における「スキャン」処理(S4)を異なる方法で行
うものであり、その他の処理は実施の形態1と同様であ
る。図5は本発明の実施の形態2にかかる「スキャン」
のフローチャートである。以下、図5に基づいて実施の
形態2を説明する。まず、領域メモリ4内の領域データ
から全領域を含む矩形(39,59)、(374,49
2)を算出する(S31)。この処理は実施の形態1と
同様である。表2と領域データから画像入力モードの最
大解像度は400DPIであり、前記矩形を400DP
Iで換算する。この換算値は(312,472)、(2
992,3936)となる。そして、この座標によって
示される矩形より一回り大きい矩形、たとえば、上下左
右に約5mmずつ大きい矩形(232,392)、(3
072,4016)を設定する(S32)。Embodiment 2. In this embodiment, the "scan" process (S4) in the first embodiment is performed by a different method, and the other processes are the same as those in the first embodiment. FIG. 5 is a "scan" according to the second embodiment of the present invention.
It is a flowchart of FIG. Hereinafter, the second embodiment will be described with reference to FIG. First, from the area data in the area memory 4, rectangles (39, 59), (374, 49) including the entire area are included.
2) is calculated (S31). This processing is the same as in the first embodiment. From Table 2 and the area data, the maximum resolution in the image input mode is 400 DPI, and the rectangle is 400 DP
Convert with I. This converted value is (312, 472), (2
992, 3936). Then, a rectangle that is slightly larger than the rectangle indicated by these coordinates, for example, rectangles (232, 392), (3 that are larger by about 5 mm vertically and horizontally).
072, 4016) is set (S32).
【0025】この矩形を最大解像度400DPI、多値
で画像入力する(S33)。この処理は実施の形態1と
同様である。表3に従い、S33で入力した多値画像デ
ータを四つの領域毎にずれを補正して画像データを抽出
する(S34)。図6はずれの補正方法を説明する説明
図である。図6に基づいてずれの補正の方法を説明す
る。表3に示す座標によって形成される矩形について各
辺(走査ライン)ごとにデータの確認を行い、各辺上に
白画素でない(ゼロでない)ものが一つでも存在すれは
枠を広げる方向に走査ラインを移動し、各辺のデータが
白画素のみになるまで走査ラインを移動する。一方、各
辺に白画素のみが存在する場合は枠を狭める方向に走査
ラインを移動し、走査ラインに白画素でないものが現れ
るまで走査ラインを移動するのである。An image of this rectangle is input with a maximum resolution of 400 DPI and multiple values (S33). This processing is the same as in the first embodiment. According to Table 3, the multi-valued image data input in S33 is corrected for the deviation in each of four areas to extract the image data (S34). FIG. 6 is an explanatory diagram illustrating a method of correcting the deviation. A method of correcting the deviation will be described with reference to FIG. Data is checked for each side (scanning line) of the rectangle formed by the coordinates shown in Table 3, and if there is any non-white pixel (non-zero) on each side, scanning is performed in the direction to expand the frame. The line is moved, and the scanning line is moved until the data on each side is only white pixels. On the other hand, when only white pixels are present on each side, the scanning line is moved in the direction of narrowing the frame, and the scanning line is moved until a non-white pixel appears on the scanning line.
【0026】領域メモリ4内の矩形データをS34の処
理によりずれを補正したものに更新する(S35)。抽
出した画像データを領域毎に表2の解像度と変換方式に
従い変換する(S36)。この処理は実施の形態1と同
様である。次に、変換した画像データを領域毎に画像メ
モリ2に格納する(S37)。この処理も実施の形態1
と同様である。The rectangular data in the area memory 4 is updated to the one in which the deviation is corrected by the process of S34 (S35). The extracted image data is converted for each area according to the resolution and conversion method shown in Table 2 (S36). This processing is the same as in the first embodiment. Next, the converted image data is stored in the image memory 2 for each area (S37). This process is also the first embodiment
Is the same as
【0027】以上のように、実施の形態2によれば、プ
レスキャンとスキャンとの画像データのずれ(ずれの原
因:解像度の違い、入力文書の移動、スキャナ部の経時
変化など)を補正し、正確に領域の画像データを抽出で
きるので、画像データの欠如、余白を避けられる。この
ため、正確に読み取り処理ができる。As described above, according to the second embodiment, the deviation of the image data between the prescan and the scan (the cause of the deviation: the difference in resolution, the movement of the input document, the temporal change of the scanner unit, etc.) is corrected. Since the image data of the area can be accurately extracted, the lack of image data and blank spaces can be avoided. Therefore, the reading process can be performed accurately.
【0028】なお、上記の実施の形態1,2において
は、多値でスキャンする例を示したが結果出力で必要な
画像入カモード(カラー、二値)でスキャンすることも
できる。また、領域ごとに指定の画像入力モードでスキ
ャンすることもできる。この場合にはこの機能がスキャ
ナ部に必要となる。また、実施の形態2で、S34の処
理におけるずれの補正で多値の画像データで処理した
が、一度、多値を二値に変換をしてから二値の画像デー
タに対してずれの補正をすることもできる。In the above-described first and second embodiments, an example in which multi-value scanning is performed has been described, but it is also possible to scan in the image input mode (color, binary) required for result output. It is also possible to scan in a designated image input mode for each area. In this case, this function is required in the scanner section. Further, in the second embodiment, the multivalued image data is processed by the deviation correction in the processing of S34. However, once the multivalue is converted into binary, the deviation correction is performed on the binary image data. You can also do
【0029】[0029]
【発明の効果】以上説明したように本発明によれば、つ
ぎに示す効果を得ることができる。低解像度で入力した
画像データを領域解析することにより画像縮小が不要に
なるので、処理時間の短縮と文書読取装置の処理負荷の
軽減が可能になる。また、領域解析後に領域部分だけを
画像入力するので、領域以外の空白部分の画像データが
不要になり画像メモリ容量を削減でき、また、スキャン
以降の処理時間を短縮できる。さらに、領域解析後に領
域種類に対応したモードで画像入力するので、認識以降
の処理に適した画像データを得られ、処理工程の削減と
処理時間の短縮が可能になる。As described above, according to the present invention, the following effects can be obtained. By performing area analysis of image data input at low resolution, image reduction is not necessary, so that it is possible to reduce the processing time and the processing load of the document reading device. Further, since only the area part is image-inputted after the area analysis, the image data of the blank part other than the area is unnecessary, the image memory capacity can be reduced, and the processing time after scanning can be shortened. Furthermore, since the image is input in the mode corresponding to the area type after the area analysis, image data suitable for the processing after recognition can be obtained, and the processing steps and the processing time can be reduced.
【図1】本発明の実施形態のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.
【図2】本発明の実施形態の処理フローチャートであ
る。FIG. 2 is a processing flowchart of an embodiment of the present invention.
【図3】本発明の実施形態における画像データの例を示
す図である。FIG. 3 is a diagram showing an example of image data according to the embodiment of the present invention.
【図4】本発明の実施形態1におけるスキャン処理のフ
ローチャートである。FIG. 4 is a flowchart of scan processing according to the first embodiment of the present invention.
【図5】本発明の実施形態2におけるスキャン処理のフ
ローチャートである。FIG. 5 is a flowchart of scan processing according to the second embodiment of the present invention.
【図6】本発明の実施形態2におけるずれ補正を説明す
る説明図である。FIG. 6 is an explanatory diagram illustrating a shift correction according to the second embodiment of the present invention.
【図7】従来の文書読取装置における読み取り処理のフ
ローチャートである。FIG. 7 is a flowchart of a reading process in a conventional document reading device.
【図8】従来の文書読取装置における縮小画像の作成を
説明する説明図である。FIG. 8 is an explanatory diagram illustrating generation of a reduced image in a conventional document reading device.
【図9】従来の他の文書読取装置における読み取り処理
のフローチャートである。FIG. 9 is a flowchart of a reading process in another conventional document reading device.
1 画像入力部 2 画像メモリ 3 領域解析部 4 領域メモリ 5 文字認識部 6 認識メモリ 7 結果出力部 8 プリンタ 9 出力メモリ 10 表示部 11 操作部 12 制御部 1 image input unit 2 image memory 3 region analysis unit 4 region memory 5 character recognition unit 6 recognition memory 7 result output unit 8 printer 9 output memory 10 display unit 11 operation unit 12 control unit
Claims (2)
メージを走査し画像信号に変換し、この画像信号をデジ
タル変換して低解像度の画像データを作成する低解像度
画像入力手段と、 この画像データを格納する低解像度画像メモリと、 この低解像度画像メモリ内の低解像度画像データに基づ
いて領域データを作成する領域解析手段と、 この領域データを格納する領域メモリと、 この領域メモリ内の領域データに従って前記記録媒体上
に記録された文字あるいはイメージを再走査して各領域
毎にその必要な画像データを作成する領域画像入力手段
と、 この画像データを格納する領域画像メモリと、 前記領域メモリ内の領域データに従い、前記領域画像メ
モリ内の文字領域の画像データを認識して認識データを
作成する文字認識手段と、 この認識データを格納する認識メモリと、 前記領域画像メモリ内の画像データ、前記領域メモリ内
の領域データ、および前記認識メモリ内の認識データか
ら任意の文書データを作成し、この文書データを出力媒
体に出力する結果出力手投とを備えたことを特徴とする
文書読取装置。1. A low resolution image input means for scanning a character or an image recorded on a recording medium to convert the image signal into an image signal, and digitally converting the image signal to generate low resolution image data, and the image data. A low-resolution image memory, area analysis means for creating area data based on the low-resolution image data in the low-resolution image memory, an area memory for storing the area data, and area data in the area memory. Area image input means for rescanning the characters or images recorded on the recording medium according to the above to create necessary image data for each area, an area image memory for storing the image data, and an area image memory Character recognition means for recognizing the image data of the character area in the area image memory and creating recognition data according to the area data of A recognition memory for storing recognition data, image data in the area image memory, area data in the area memory, and arbitrary document data is created from the recognition data in the recognition memory, and the document data is used as an output medium. A document reading device comprising: a result output manual output.
領域データと再走査した画像データとのずれを補正する
機能を備えていることを特徴とする請求項1記載の文書
読取装置。2. The document reading apparatus according to claim 1, wherein the area image input means has a function of correcting a deviation between the area data in the area memory and the rescanned image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7221595A JPH0962782A (en) | 1995-08-30 | 1995-08-30 | Document reader |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7221595A JPH0962782A (en) | 1995-08-30 | 1995-08-30 | Document reader |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0962782A true JPH0962782A (en) | 1997-03-07 |
Family
ID=16769227
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP7221595A Withdrawn JPH0962782A (en) | 1995-08-30 | 1995-08-30 | Document reader |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0962782A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007157046A (en) * | 2005-12-08 | 2007-06-21 | Nippon Telegr & Teleph Corp <Ntt> | Registration method for content characteristic quantity, and content retrieval method, device and program |
US7805003B1 (en) | 2003-11-18 | 2010-09-28 | Adobe Systems Incorporated | Identifying one or more objects within an image |
-
1995
- 1995-08-30 JP JP7221595A patent/JPH0962782A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7805003B1 (en) | 2003-11-18 | 2010-09-28 | Adobe Systems Incorporated | Identifying one or more objects within an image |
JP2007157046A (en) * | 2005-12-08 | 2007-06-21 | Nippon Telegr & Teleph Corp <Ntt> | Registration method for content characteristic quantity, and content retrieval method, device and program |
JP4563313B2 (en) * | 2005-12-08 | 2010-10-13 | 日本電信電話株式会社 | Content feature registration method, content search method, apparatus, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5111514A (en) | Apparatus for converting handwritten characters onto finely shaped characters of common size and pitch, aligned in an inferred direction | |
JP4772888B2 (en) | Image processing apparatus, image forming apparatus, image processing method, program, and recording medium thereof | |
JP3883696B2 (en) | Method for scanning and detecting multiple photos and removing artificial edges | |
JP2001297303A (en) | Method and device for recognizing document image and computer readable recording medium | |
JP4582204B2 (en) | Image processing apparatus, image conversion method, and computer program | |
JP4582200B2 (en) | Image processing apparatus, image conversion method, and computer program | |
JP3090848B2 (en) | In-frame area rectangularization device | |
JPH07322057A (en) | Increase of resolution of binary input picture and its increasing device together with improvement of appearance ofbinary input picture | |
US6983077B2 (en) | Image processor | |
JPH0962782A (en) | Document reader | |
EP0600613A2 (en) | Improvements in image processing | |
JP2010287178A (en) | Image processing device, image reading apparatus, multifunction machine, image processing method, program and recording medium | |
JPH08123901A (en) | Character extraction device and character recognition device using this device | |
JPH07168938A (en) | Digital copying machine | |
JP2003032480A (en) | Device and method for processing image | |
KR20140063378A (en) | Image forminag apparatus, method for image forming and computer-readable recording medium | |
JPH08237404A (en) | Selection of optical character recognition mode | |
JP3014257B2 (en) | Document reading device | |
JP3754721B2 (en) | Image processing apparatus and method | |
JP3367982B2 (en) | Image recognition device and image recognition method | |
JP3363684B2 (en) | Image processing method and apparatus, and image forming apparatus | |
JP2725859B2 (en) | Character line detection method | |
JPH09153111A (en) | Optical character reader | |
JPH10336454A (en) | Image data processor | |
JP2683711B2 (en) | How to recognize / correct character / symbol data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20021105 |