JPH09218922A - Character recognition device and method therefor - Google Patents

Character recognition device and method therefor

Info

Publication number
JPH09218922A
JPH09218922A JP8026767A JP2676796A JPH09218922A JP H09218922 A JPH09218922 A JP H09218922A JP 8026767 A JP8026767 A JP 8026767A JP 2676796 A JP2676796 A JP 2676796A JP H09218922 A JPH09218922 A JP H09218922A
Authority
JP
Japan
Prior art keywords
character
recognition
partial image
text string
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8026767A
Other languages
Japanese (ja)
Inventor
Yasumasa Sakai
康真 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8026767A priority Critical patent/JPH09218922A/en
Publication of JPH09218922A publication Critical patent/JPH09218922A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate operations such as the connection and separation of character segmentation frames or the like by instructing the correction of the character segmentation frame to a character image which is the object of character recognition. SOLUTION: When a text string to be corrected is specified from the text strings by character recognized results, the specified text string (shown by Figure) is displayed in a text window 3b and partial images corresponding to the text string are displayed in an image window 3a. In the image window 3a, the character segmentation frames 31, 32 and 33 set in the character recognition for the character images in the partial images are displayed together. In the state, when it is instructed to connect the character segmentation frames 31, 32 and 33, the character images inside the character frames 31, 32 and 33 are segmented as one character and recognized as the Chinese character shown by Figure by performing character recognition to it.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は文字認識装置及びそ
の方法に関するものである。特に、文字の切り出しミス
による誤認識に対する修正操作を可能とする文字認識装
置及びその方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device and method thereof. In particular, the present invention relates to a character recognition device and method capable of performing a correction operation for erroneous recognition due to a character cutout error.

【0002】[0002]

【従来の技術】従来、文字認識用アプリケーションソフ
トウエア(以下、文字認識ソフトという)では、前処理
として文字の切り出しを行い、切出された画像に対し
て、文字認識を行っている。従って、この文字の切り出
しを誤った場合には、その認識結果も当然誤ったものと
なる。
2. Description of the Related Art Conventionally, character recognition application software (hereinafter referred to as character recognition software) cuts out characters as preprocessing and performs character recognition on the cut out image. Therefore, if the character is cut out incorrectly, the recognition result is also wrong.

【0003】上記のような場合、一般的な文字認識ソフ
トでは結果のテキストを修正することになる。また、一
部の文字認識ソフトでは、文字の切り出しによって1つ
の文字が2つ以上に分離されてしまった場合、テキスト
側を結合する操作によって文字切り枠を修正することが
試みられている。
In the above case, general character recognition software corrects the resulting text. Further, in some character recognition software, when one character is separated into two or more by cutting out the character, it is attempted to correct the character cutting frame by an operation of connecting the text sides.

【0004】[0004]

【発明が解決しようとする課題】上述のように、テキス
ト側で文字切り枠を修正しようとする手法は、文字の切
り出しの誤りが一つの文字を二つ以上に分離してしまっ
た際の結合操作に限られてしまう。即ち、2つ以上の文
字あるいは罫線等を含んで一文字としてしまった際に
は、テキスト側で分離操作を行うことはできない。例え
ば、「働」という文字を2つ以上に分離しようとする場
合、「イ」と「動」の組み合わせ、或は「イ」と「重」
と「力」の組み合わせ等が存在するが、テキスト側で文
字切り枠を修正しようとした場合はし、どのように文字
の切り出しを行うかを指定することができない。
As described above, the method of correcting the character cutting frame on the text side is a combination when a character cutting error separates one character into two or more. It is limited to operations. That is, when two or more characters or ruled lines are included in one character, the text cannot be separated. For example, when trying to separate the character "work" into two or more, a combination of "a" and "motion" or "i" and "heavy"
There is a combination of and "force", but if you try to modify the character cutting frame on the text side, you cannot specify how to cut out the character.

【0005】本発明は上記の問題に鑑みてなされたもの
であり、文字認識の対象となっている文字画像に対して
文字切り枠の修正を指示することを可能とし、文字切り
枠の結合、分離等を容易に行える文字認識装置及びその
方法を提供することを目的とする。
The present invention has been made in view of the above problems, and makes it possible to instruct correction of a character cutting frame for a character image which is a target of character recognition, and to combine the character cutting frames, An object of the present invention is to provide a character recognition device and a method thereof that can easily separate the characters.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
めの本発明による文字認識装置は以下の構成を備える。
即ち、原画像データを記憶する第1記憶手段と、前記原
画像データより文字の切り出しを行って文字認識を行う
認識手段と、前記認識手段によって得られた認識結果を
記憶する第2記憶手段と、前記原画像データの、前記認
識結果中の修正すべきテキスト列に対応する部分を抽出
し、部分画像として表示する表示手段と、前記表示手段
で表示された部分画像について、文字の切り出しを変更
する変更手段と、前記変更手段で変更された文字の切り
出しに基づいて、前記部分画像の文字認識を行う再認識
手段とを備える。
A character recognition apparatus according to the present invention for achieving the above object has the following configuration.
That is, a first storage means for storing the original image data, a recognition means for performing character recognition by cutting out a character from the original image data, and a second storage means for storing the recognition result obtained by the recognition means. , A portion of the original image data corresponding to a text string to be corrected in the recognition result is extracted and displayed as a partial image, and a character cutout is changed for the partial image displayed by the display portion. And a re-recognition unit for recognizing the character of the partial image based on the cut-out of the character changed by the changing unit.

【0007】また、好ましくは、前記認識手段による文
字の切り出しによって得られる文字切り枠の位置と大き
さを示す枠情報を記憶する第3記憶手段を更に備え、前
記表示手段は、前記修正すべきテキスト列の各文字に対
応する枠情報で示される文字切り枠を含む領域を前記原
画像データより抽出し、これを部分画像として表示す
る。認識手段による文字認識処理で得られた文字切り枠
を用いて、認識結果と原画像データとの関連付けを行
う。このため、修正すべきテキスト列に対して、適切な
位置及び範囲で原画像データを抽出することが可能とな
り、文字切り枠の修正を行うのに適切な部分画像を生成
することができる。
[0007] Preferably, the display means further comprises a third storage means for storing frame information indicating a position and a size of a character cutting frame obtained by cutting out the character by the recognition means. An area including a character cutting frame indicated by frame information corresponding to each character of the text string is extracted from the original image data and displayed as a partial image. The recognition result and the original image data are associated with each other by using the character cutting frame obtained by the character recognition processing by the recognition means. Therefore, the original image data can be extracted at an appropriate position and range for the text string to be corrected, and a partial image suitable for correcting the character cutting frame can be generated.

【0008】また、好ましくは、前記表示手段は、前記
部分画像の表示に際して前記枠情報で示される文字切り
枠を付加して表示する。認識処理によって得られた文字
切り枠を把握でき、操作性が向上するからである。
[0008] Further, preferably, the display means adds and displays a character cutting frame indicated by the frame information when displaying the partial image. This is because the character cutting frame obtained by the recognition processing can be grasped and the operability is improved.

【0009】また、好ましくは、前記変更手段は、前記
部分画像中の複数の文字切り枠を指定する指定手段と、
指定された複数の文字切り枠を1つの文字切り枠に結合
する結合手段とを備える。部分画像中の所望の文字切り
枠を指定して結合させることができ、操作性が向上する
からである。
Further, preferably, the changing means includes a specifying means for specifying a plurality of character cutting frames in the partial image,
A combining unit that combines a plurality of designated character cutting frames into one character cutting frame. This is because desired character cutting frames in the partial images can be specified and combined, and operability is improved.

【0010】また、好ましくは、前記変更手段は、前記
部分画像中の1つの文字切り枠を複数の文字切り枠に分
割するための分割位置を指定する指定手段と、前記指定
手段で指定された分割位置で前記1つの文字切り枠を複
数の文字切り枠へ分離する分離手段とを備える。部分画
像中の所望の文字切り枠について、所望の文字切り枠へ
分離することが可能となるからである。
Further, preferably, the changing means is designated by the designating means for designating a dividing position for dividing one character cutting frame in the partial image into a plurality of character cutting frames, and the designating means. Separation means for separating the one character cutting frame into a plurality of character cutting frames at a dividing position. This is because the desired character cutting frame in the partial image can be separated into the desired character cutting frame.

【0011】また、好ましくは、前記表示手段は、前記
部分画像を表示すると共に前記修正すべきテキスト列を
表示する。
Further, preferably, the display means displays the partial image and the text string to be corrected.

【0012】また、好ましくは、前記表示手段によって
表示された修正すべきテキスト列を前記再認識手段で認
識された結果で更新する表示更新手段を更に備える。
[0012] Preferably, it further comprises display updating means for updating the text string to be corrected displayed by the displaying means with the result recognized by the re-recognizing means.

【0013】また、好ましくは、前記第2記憶手段に記
憶された認識結果に基づくテキスト列表示中より、所望
のテキスト列を指定することで前記修正すべきテキスト
列の指定を行う指定手段を更に備える。修正すべきテキ
スト列を容易に指定することができるからである。
Further, it is preferable that a designation means for designating the text string to be modified by designating a desired text string from the text string display based on the recognition result stored in the second storage means is further provided. Prepare This is because the text string to be modified can be easily specified.

【0014】[0014]

【発明の実施の形態】以下に添付の図面を参照して本発
明の好適な一実施形態を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT A preferred embodiment of the present invention will be described below with reference to the accompanying drawings.

【0015】図1は本実施形態による文字認識装置の構
成を表すブロック図である。同図において、1はCPU
であり、本文字認識装置における各種の処理を実行す
る。2は、スキャナ21との通信を行うためのインター
フェースである。21は原稿等に記載された画像を光学
的に読み取るスキャナである。スキャナ21で原稿画像
を読み取って得られた原画像データは、インターフェー
ス21を介してバス7上へ供給される。
FIG. 1 is a block diagram showing the arrangement of the character recognition apparatus according to this embodiment. In the figure, 1 is a CPU
And executes various processes in the character recognition device. Reference numeral 2 is an interface for communicating with the scanner 21. Reference numeral 21 is a scanner for optically reading an image written on a document or the like. Original image data obtained by reading an original image with the scanner 21 is supplied to the bus 7 via the interface 21.

【0016】3は表示部であり、CPU1の制御によっ
て種々の表示を行う。4は外部記憶装置であり、原画像
データに対して文字認識を行う認識処理プログラム41
や、その認識処理において参照される認識辞書42を格
納する。これら認識処理プログラム41や認識辞書42
は、必要に応じてRAM5へ読み出され、CPU1によ
って実行される。
Reference numeral 3 denotes a display unit, which displays various displays under the control of the CPU 1. An external storage device 4 is a recognition processing program 41 for performing character recognition on original image data.
Alternatively, the recognition dictionary 42 referred to in the recognition processing is stored. These recognition processing program 41 and recognition dictionary 42
Are read out to the RAM 5 as necessary and executed by the CPU 1.

【0017】5はRAMであり、CPU1のメインメモ
リや作業領域等を提供する。また、RAM5には、原画
像データ51、切り出しデータ52、認識データ53が
格納される。原画像データ51は、スキャナ21よりイ
ンターフェース2を介して供給される原画像データであ
る。また、認識処理プログラム41を実行することによ
って原画像データより文字が切り出されるが、このとき
の切り出し枠の情報(以下、枠データという)が切り出
しデータ52として格納される。また、この文字の切り
だし結果に従って認識処理を行った結果が認識結果デー
タ53として保持される。
Reference numeral 5 denotes a RAM, which provides a main memory of the CPU 1 and a work area. The RAM 5 also stores original image data 51, cutout data 52, and recognition data 53. The original image data 51 is original image data supplied from the scanner 21 via the interface 2. Further, the character is cut out from the original image data by executing the recognition processing program 41, and the information of the cutout frame at this time (hereinafter referred to as frame data) is stored as the cutout data 52. Further, the result of performing the recognition process according to the result of cutting out the character is held as the recognition result data 53.

【0018】6はROMであり、ブートプログラムや、
各種データを格納する。また、7は上記各構成を通信可
能に接続するバスである。8は入力部であり、キーボー
ドやポインティングデバイスで構成される。
Reference numeral 6 denotes a ROM, which is a boot program and
Stores various data. Reference numeral 7 is a bus for communicatively connecting the above-mentioned components. An input unit 8 is composed of a keyboard and a pointing device.

【0019】図2は、RAM5に格納される原画像デー
タ51、切り出しデータ52、認識データ53のそれぞ
れのデータ構成を説明する図である。同図では、原稿画
像をスキャナ21で読み取った結果として得られた原画
像データ51の一例が示されている。この原画像データ
51について文字の切出しを行い、切り出された各文字
について認識処理を実行することにより、切り出しデー
タ52、認識結果データ53が得られる。
FIG. 2 is a diagram for explaining the respective data structures of the original image data 51, the cutout data 52, and the recognition data 53 stored in the RAM 5. In the figure, an example of the original image data 51 obtained as a result of reading the original image with the scanner 21 is shown. By cutting out characters from the original image data 51 and executing recognition processing on each of the cut out characters, cutout data 52 and recognition result data 53 are obtained.

【0020】図2に示されるように、切り出しデータ5
2は、原画像データ51に対して文字の切り出し処理を
行った結果得られた各文字切り枠の原画像データにおけ
る位置と大きさを示す枠データで構成される。また、認
識結果データ53は、各文字切り枠内の文字画像を認識
して得られるテキストコードで構成される。なお、認識
結果データ53の各テキストコードは、切り出しデータ
52の各枠データに対応する。
As shown in FIG. 2, the cut-out data 5
Reference numeral 2 is composed of frame data indicating the position and size in the original image data of each character cutting frame obtained as a result of performing the character cutting process on the original image data 51. The recognition result data 53 is composed of a text code obtained by recognizing the character image in each character cutting frame. Each text code of the recognition result data 53 corresponds to each frame data of the cutout data 52.

【0021】以上のような構成を有する本実施形態の文
字認識装置における、認識結果の修正操作を説明する。
なお、文字認識処理を実行した結果として、図2に示さ
れるような原画像データ51、切り出しデータ52、認
識結果データ53が得られた場合について説明する。
The operation of correcting the recognition result in the character recognition apparatus of this embodiment having the above-mentioned configuration will be described.
The case where the original image data 51, the cutout data 52, and the recognition result data 53 as shown in FIG. 2 are obtained as a result of the character recognition processing will be described.

【0022】図3は、本実施形態による修正処理時の処
理手順を表すフローチャートである。なお、本処理が実
行される前に、表示部3上に認識結果データ53に従っ
たテキスト表示がなされているものとする。従って、本
例では、図4に示すように「ここに動がイ重力き…」と
いうテキスト列が表示されることになる。ここでは、文
字切り枠の切り出しミスによって、「働」と認識すべき
文字画像が「イ重力」と認識され、「重力」と認識すべ
き文字画像が「動」と認識されている。
FIG. 3 is a flowchart showing a processing procedure at the time of correction processing according to this embodiment. It is assumed that the text display according to the recognition result data 53 is performed on the display unit 3 before this processing is executed. Therefore, in this example, as shown in FIG. 4, a text string “Motion is moving here and gravity ...” is displayed. Here, a character image that should be recognized as "working" is recognized as "a gravity" and a character image that should be recognized as "gravity" is recognized as "moving" due to a cutout error in the character cutting frame.

【0023】先ず、ステップS11において、表示部3
に表示されたテキスト列から修正すべきテキスト列を指
定する。ここで、テキスト列とは、1つ又は複数のテキ
ストで構成されるものとする。また、テキスト列の指定
方法としては、ポインティングデバイス等の入力部8を
用いて行う。
First, in step S11, the display unit 3
Specify the text string to be modified from the text string displayed in. Here, the text string is composed of one or a plurality of texts. The text string is specified using the input unit 8 such as a pointing device.

【0024】続いてステップS12では、切り出しデー
タ52の中から、指定されたテキスト列の各テキストに
対応する枠データを獲得する。例えば、図4のテキスト
表示中の「イ重力」が選択されると、図2のテキストコ
ード531、532、533が選択されたことが検出さ
れ、これに対応する枠データ521、522、523が
獲得される。
Subsequently, in step S12, frame data corresponding to each text of the designated text string is obtained from the cut-out data 52. For example, when "a gravity" in the text display of FIG. 4 is selected, it is detected that the text codes 531, 532, 533 of FIG. 2 are selected, and the corresponding frame data 521, 522, 523 are displayed. Be won.

【0025】次に、ステップS13では、ステップS1
2で獲得された枠データを含む範囲の画像データが原画
像データより抽出され、抽出された画像データによって
部分画像が生成される。ここでは、原画像データ51か
ら枠データ521〜523で示される文字切り枠を含む
領域が部分画像として抽出されることになる。
Next, in step S13, step S1
Image data in a range including the frame data acquired in 2 is extracted from the original image data, and a partial image is generated by the extracted image data. Here, the area including the character cutting frame indicated by the frame data 521 to 523 is extracted as the partial image from the original image data 51.

【0026】ステップS14では、テキストウインドウ
を生成して表示部3に表示し、この中にステップS11
で指定された修正すべきテキスト列を表示する。また、
ステップS15では、画像ウインドウを生成して表示部
3に表示し、この中にステップS13で生成した部分画
像を表示する。また、部分画像には、枠データ521〜
523に基づいて文字切り枠も表示される。
In step S14, a text window is generated and displayed on the display unit 3, and in this step, step S11.
Display the text string to be modified specified by. Also,
In step S15, an image window is generated and displayed on the display unit 3, and the partial image generated in step S13 is displayed therein. In addition, in the partial image, the frame data 521 to
A character cutting frame is also displayed based on 523.

【0027】図5は、本実施形態による結合処理時の表
示状態を表す図である。ここでは、図2の認識結果デー
タ53に従ったテキスト表示(「ここに動がイ重力き
…」)と、テキストウインドウ3b、画像ウインドウ3
aの表示状態が示されている。テキストウインドウ3b
及び画像ウインドウ3aの各表示は、上述のステップS
14、S15によってなされたものである。ここで、画
像ウインドウ3a内の枠31、32、33は、認識に使
用された文字切り枠である。また、テキスト列中の「イ
重力」には、ステップS11の指定操作によって、修正
処理対象として指定中である旨を示す下線が付与されて
いる。
FIG. 5 is a diagram showing a display state during the combining process according to this embodiment. Here, the text display according to the recognition result data 53 in FIG. 2 (“the movement is gravitational ...”), the text window 3b, and the image window 3 are displayed.
The display state of a is shown. Text window 3b
And each display of the image window 3a is performed in the above step S
14 and S15. Here, the frames 31, 32, and 33 in the image window 3a are the character cutting frames used for recognition. Further, "a gravity" in the text string is underlined to indicate that it is being designated as a correction processing target by the designation operation in step S11.

【0028】以上のような表示状態において、「結合」
もしくは「分離」の修正処理内容を指示することによ
り、結合処理もしくは分離処理が実行される(ステップ
S16〜S19)。
In the above display state, "combine"
Alternatively, the combining process or the separating process is executed by instructing the correction process content of "separating" (steps S16 to S19).

【0029】図6は本実施形態による結合処理を説明す
るフローチャートである。ステップS31では、画像ウ
インドウ3aにおいて結合したい文字切り枠を選択す
る。ここでは、画像ウインドウ3aの文字切り枠31〜
33を選択したものとする。次に、ステップS32にお
いて、結合が指示されると、選択されていた文字切り枠
の結合処理が行われ、新たな文字切り枠が設定される。
なお、「結合」の指示は、メニューあるいはツールボタ
ン等を用いて行えば良い。そして、ステップS33にお
いて、ステップS32で生成された文字切り枠に対して
一文字認識を行い、得られた結果をテキストウインドウ
3bに表示する。
FIG. 6 is a flow chart for explaining the combining process according to this embodiment. In step S31, the character cutting frame to be combined is selected in the image window 3a. Here, the character cutting frames 31 to 31 of the image window 3a
It is assumed that 33 is selected. Next, in step S32, when the combining is instructed, the combining process of the selected character cutting frames is performed, and a new character cutting frame is set.
The instruction of “coupling” may be performed using a menu, a tool button, or the like. Then, in step S33, one character is recognized for the character cutting frame generated in step S32, and the obtained result is displayed in the text window 3b.

【0030】図7は、図5の各文字切り枠を結合して新
たな文字切り枠20が生成された状態を示す図である。
文字切り枠31〜33を結合して得られた文字切り枠2
0内の文字画像について文字認識が行われることによ
り、3文字のテキスト列であった「イ重力」が1文字の
「働」として認識され、その結果がテキストウインドウ
3bに表示されている。
FIG. 7 is a diagram showing a state in which the character cutting frames of FIG. 5 are combined to generate a new character cutting frame 20.
Character cutting frame 2 obtained by combining the character cutting frames 31 to 33
By performing the character recognition on the character image within 0, the three-character text string "a gravity" is recognized as one character "work", and the result is displayed in the text window 3b.

【0031】なお、この修正結果は、切り出しデータ5
2、認識結果データ53に反映されることは言うまでも
ない。そして、この結果、表示されるテキスト列は、
「ここに動が働き…」となる。
The correction result is the cut-out data 5
2. Needless to say, it is reflected in the recognition result data 53. And as a result, the displayed text string is
"The movement works here ..."

【0032】次に、複数の文字切り枠とすべきところを
1つの文字切り枠で切り出された部分を修正するための
分離処理を説明する。図8は、本実施形態による分離処
理時の表示状態を表す図である。
Next, a separation process for correcting a portion cut out by one character cutting frame from a plurality of character cutting frames will be described. FIG. 8 is a diagram showing a display state during the separation processing according to this embodiment.

【0033】上記の結合処理によって修正された、「こ
こに動が働き…」というテキスト列の中の「動」という
テキスト列が指定された場合を例に挙げて説明する。修
正すべきテキスト列(ここでは「動」)が指定される
と、上述のステップS11〜S15の処理により、図8
のような表示が得られる。テキストウインドウ3bには
「動」というテキストが表示され、画像ウインドウ3a
にはこれに対応する部分画像が表示されている。
An example will be described in which the text string "movement" in the text string "movement works here ..." that is modified by the above-described combining processing is designated. When a text string to be modified (here, "movement") is designated, the processing in steps S11 to S15 described above causes the text shown in FIG.
Is obtained. The text "moving" is displayed in the text window 3b, and the image window 3a is displayed.
Shows a partial image corresponding to this.

【0034】このような状態で分離処理が指示される
と、図9に示す分離処理が実行される(ステップS1
7、S19)。図9は本実施形態における分離処理の手
順を示すフローチャートである。
When the separation process is instructed in such a state, the separation process shown in FIG. 9 is executed (step S1).
7, S19). FIG. 9 is a flowchart showing the procedure of the separation process in this embodiment.

【0035】まず、ステップS71において、分離を行
うべき文字切り枠をポインティングデバイス等で指定す
る。図8の例では、文字切り枠40が指定される。次
に、ステップS71において、「分離」が指示されると
図10の如く表示される。図10は分離操作の途中の画
像ウィンドウとテキストウィンドウを示す図である。4
1は文字切り枠40内の分離位置を決めるための分離線
であり、マウスカーソルによって移動させられる。な
お、「分離」の指示は、メニューあるいはツールバーの
ボタンを操作することで行うようすれば良い。
First, in step S71, a character cutting frame to be separated is designated by a pointing device or the like. In the example of FIG. 8, the character cutting frame 40 is designated. Next, in step S71, when "separation" is instructed, the display is as shown in FIG. FIG. 10 is a diagram showing an image window and a text window in the middle of a separating operation. Four
Reference numeral 1 is a separation line for determining the separation position in the character cutting frame 40, which is moved by the mouse cursor. The “separation” instruction may be given by operating a button on the menu or toolbar.

【0036】次に、ステップS73において、分離線4
0をマウスカーソル等で移動させて、分離位置を決定す
る。本例では、「動」の「重」と「カ」の間に分離線を
決定している。ステップS74では、分離位置の確定が
指示されると、文字切り枠を分離する。文字切り枠40
に対する分離線41の位置を図10の如く決定して分離
位置の確定を指示すると、文字切り枠40が分離され、
図11の如く表示される。なお、図11は文字切り枠の
分離、認識後における画像ウィンドウとテキストウィン
ドウの表示状態を示す図である。ここで、61、62
は、文字切り枠40を分離線41にて分離して得られた
新たな文字切り枠である。図11に示されるように、文
字切り枠40に対して分離後の新たな文字切り枠61、
62が生成、表示される。なお、分離位置の確定は、マ
ウスボタンのクリック等で行うようにすれば良い。
Next, in step S73, the separation line 4
The separation position is determined by moving 0 with a mouse cursor or the like. In this example, a separation line is determined between “heavy” and “mosquito” of “movement”. In step S74, when the confirmation of the separation position is instructed, the character cutting frame is separated. Character cutting frame 40
When the position of the separation line 41 with respect to is determined as shown in FIG. 10 and the confirmation of the separation position is instructed, the character cutting frame 40 is separated,
It is displayed as shown in FIG. Note that FIG. 11 is a diagram showing a display state of the image window and the text window after the character cutting frame is separated and recognized. Where 61 and 62
Is a new character cutting frame obtained by separating the character cutting frame 40 by a separating line 41. As shown in FIG. 11, with respect to the character cutting frame 40, a new character cutting frame 61 after separation,
62 is generated and displayed. The separation position may be confirmed by clicking a mouse button or the like.

【0037】続いて、ステップS75において、図11
の各文字切り枠61,62内の文字画像に対して、一文
字認識を行い、正しいテキストを得て、この結果がテキ
ストウインドウ3bに表示される。即ち、図11に示さ
れるように、「動」と誤認識されていた文字は「重力」
と正しく修正されて、テキストウインドウ3bに表示さ
れる。
Then, in step S75, as shown in FIG.
One character is recognized for the character image in each of the character cutting frames 61 and 62, correct text is obtained, and the result is displayed in the text window 3b. That is, as shown in FIG. 11, the character misidentified as "movement" is "gravity".
Is corrected and displayed in the text window 3b.

【0038】以上説明したように、本実施形態によれ
ば、認識前の画像に対して、文字切り枠を修正すること
により、分離文字の結合のみならず、接触文字の分離を
可能とし、一連の文字認識操作の効率向上を図れる。
As described above, according to the present embodiment, by correcting the character cutting frame in the image before recognition, it is possible not only to combine the separated characters but also to separate the contact characters. The efficiency of the character recognition operation can be improved.

【0039】なお、Windows上での実施形態をあ
げたが、OS/2(商標),Mac(商標),UNIX
(商標)等のウィンドウ表示のできるOSでは何れを使
っても実施できる。
Although the embodiment on Windows has been described, OS / 2 (trademark), Mac (trademark), UNIX
Any OS can be used for displaying windows such as (trademark).

【0040】また、本実施形態では、修正すべきテキス
ト列のみを指定して画像ウインドウ3a及びテキストウ
インドウ3bに表示したが、これらに修正対象とならな
いテキストが含まれていてもよい。例えば、図4の表示
において「イ重力」が修正対象である場合に、テキスト
列の指定時に「イ重力き」と指定してしまうと、画像ウ
インドウ3aにはこれらを含む部分画像が表示される。
しかしながら、上記ステップS32において結合すべき
文字切り枠を指定する際に、「イ」と「重」と「力」の
文字切り枠のみを指示すれば、「き」については何の影
響も無く文字切り枠を結合できることは明らかである。
Further, in the present embodiment, only the text string to be corrected is designated and displayed in the image window 3a and the text window 3b, but these may include text that is not the correction target. For example, in the display of FIG. 4, when "a gravity" is the correction target, if "a gravity" is specified when the text string is specified, a partial image including these is displayed in the image window 3a. .
However, when the character cutting frames to be combined are specified in step S32, if only the character cutting frames of "a", "heavy", and "force" are designated, the character "ki" has no effect. Obviously, the cutting frames can be joined.

【0041】また、上記実施形態において、文字の分離
位置を1ヶ所指定して1つの文字切り枠を2つに分離す
る場合を説明したが、分離の数はこれに限らない。例え
ば、「働」と言う文字をイ、重、力の3つに分離するの
であれば、2つの分離線を用いることになる。更に、例
えば「国」という文字を、「玉」とこれを囲む四角の罫
線「□」に分離する場合は、玉という文字を囲むべく分
離線で矩形を形成することになる。このような複数の分
離線、或は分離線による矩形の形成を実現する構成は、
上述の実施形態の説明より当業者には明らかであろう。
In the above embodiment, the case where one character separation position is designated and one character cutting frame is separated into two has been described, but the number of separations is not limited to this. For example, if the character "work" is to be separated into three, i, heavy, and force, two separation lines will be used. Furthermore, for example, when the character "country" is separated into a "ball" and a square ruled line "□" that surrounds the character, a rectangle is formed by a separation line to surround the character "ball". The configuration for realizing the formation of such a plurality of separation lines or a rectangle by the separation lines is
It will be apparent to those skilled in the art from the above description of the embodiments.

【0042】なお、本発明は、複数の機器(例えばホス
トコンピュータ,インタフェイス機器,リーダ,プリン
タなど)から構成されるシステムに適用しても、一つの
機器からなる装置(例えば、複写機,ファクシミリ装置
など)に適用してもよい。
Even if the present invention is applied to a system composed of a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus (for example, a copying machine, a facsimile, etc.) comprising one device Device).

【0043】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
Another object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or apparatus, and to provide a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0044】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.

【0045】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0046】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0047】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instructions of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

【0048】本発明を上記記憶媒体に適用する場合、そ
の記憶媒体には、先に説明したフローチャートに対応す
るプログラムコードを格納することになるが、簡単に説
明すると、図12のメモリマップ例に示す各モジュール
を記憶媒体に格納することになる。
When the present invention is applied to the above-mentioned storage medium, the storage medium stores the program code corresponding to the above-mentioned flow chart. Briefly, in the memory map example of FIG. Each module shown will be stored in the storage medium.

【0049】すなわち、少なくとも「第1記憶処理モジ
ュール」「認識処理モジュール」「第2記憶処理モジュ
ール」「表示処理モジュール」「変更処理モジュール」
および「再認識処理モジュール」の各モジュールのプロ
グラムコードを記憶媒体に格納すればよい。
That is, at least "first storage processing module""recognition processing module""second storage processing module""display processing module""change processing module".
The program code of each module of the “re-recognition processing module” may be stored in the storage medium.

【0050】ここで、第1記憶処理モジュールは、原画
像データを第1メモリに記憶する第1記憶処理を実現す
る。また、認識処理モジュールは、前記原画像データよ
り文字の切り出しを行って文字認識を行う認識処理を実
現する。また、第2記憶処理モジュールは、前記認識処
理によって得られた認識結果を第2メモリに記憶する第
2記憶処理を実現する。また、表示処理モジュールは、
前記原画像データの、前記認識結果中の修正すべきテキ
スト列に対応する部分を抽出し、部分画像として表示す
る表示処理を実現する。また、変更処理モジュールは、
前記表示処理で表示された部分画像について、文字の切
り出しを変更する変更処理を実現する。更に、再認識処
理は、前記変更処理で変更された文字の切り出しに基づ
いて、前記部分画像の文字認識を行う再認識処理を実現
する。
Here, the first storage processing module realizes a first storage processing for storing the original image data in the first memory. Further, the recognition processing module realizes a recognition processing of cutting out characters from the original image data and performing character recognition. Further, the second storage processing module realizes a second storage processing of storing the recognition result obtained by the recognition processing in the second memory. In addition, the display processing module
A display process of extracting a portion of the original image data corresponding to a text string to be corrected in the recognition result and displaying it as a partial image is realized. In addition, the change processing module
A change process for changing the cutout of characters is realized for the partial image displayed in the display process. Further, the re-recognition process realizes a re-recognition process for recognizing the character of the partial image based on the cut-out of the character changed in the changing process.

【0051】[0051]

【発明の効果】以上説明したように、本発明によれば、
文字認識の対象となっている文字画像に対して文字切り
枠の修正を指示することが可能となり、文字切り枠の結
合、分離等が容易に行えるようになる。
As described above, according to the present invention,
It is possible to instruct the correction of the character cutting frame for the character image that is the object of character recognition, and it is possible to easily combine and separate the character cutting frames.

【0052】[0052]

【図面の簡単な説明】[Brief description of drawings]

【図1】本実施形態による文字認識装置の構成を表すブ
ロック図である。
FIG. 1 is a block diagram showing the configuration of a character recognition device according to the present embodiment.

【図2】RAM5に格納される原画像データ51、切り
出しデータ52、認識データ53のデータ構成を説明す
る図である。
FIG. 2 is a diagram illustrating a data configuration of original image data 51, cutout data 52, and recognition data 53 stored in a RAM 5.

【図3】本実施形態による修正処理時の処理手順を表す
フローチャートである。
FIG. 3 is a flowchart showing a processing procedure at the time of correction processing according to the present embodiment.

【図4】図2の認識データに従ってテキスト列を表示し
た状態を示す図である。
FIG. 4 is a diagram showing a state in which a text string is displayed according to the recognition data of FIG.

【図5】本実施形態による結合処理時の表示状態を表す
図である。
FIG. 5 is a diagram showing a display state during a combining process according to the present embodiment.

【図6】本実施形態による結合処理を説明するフローチ
ャートである。
FIG. 6 is a flowchart illustrating a combining process according to this embodiment.

【図7】図5の各文字切り枠を結合して新たな文字切り
枠20が生成された状態を示す図である。
FIG. 7 is a diagram showing a state where a new character cutting frame 20 is generated by combining the character cutting frames of FIG.

【図8】本実施形態による分離処理時の表示状態を表す
図である。
FIG. 8 is a diagram showing a display state during separation processing according to the present embodiment.

【図9】本実施形態における分離処理の手順を示すフロ
ーチャートである。
FIG. 9 is a flowchart showing a procedure of separation processing in the present embodiment.

【図10】分離操作の途中の画像ウィンドウとテキスト
ウィンドウを示す図である。
FIG. 10 is a diagram showing an image window and a text window in the middle of a separating operation.

【図11】文字切り枠の分離、認識後における画像ウィ
ンドウとテキストウィンドウの表示状態を示す図であ
る。
FIG. 11 is a diagram showing a display state of an image window and a text window after separating and recognizing a character cutting frame.

【図12】本発明に係る制御プログラムを格納する記憶
媒体のメモリマップ例を示す図である。
FIG. 12 is a diagram showing an example of a memory map of a storage medium storing a control program according to the present invention.

【符号の説明】[Explanation of symbols]

1 CPU 2 インターフェース 3 表示部 4 外部記憶装置 5 RAM 6 ROM 7 バス 8 入力部 21 スキャナ 41 認識処理ポログラム 42 認識辞書 51 原画像データ 52 切り出しデータ 53 認識結果データ 1 CPU 2 Interface 3 Display Unit 4 External Storage Device 5 RAM 6 ROM 7 Bus 8 Input Unit 21 Scanner 41 Recognition Processing Program 42 Recognition Dictionary 51 Original Image Data 52 Cutout Data 53 Recognition Result Data

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】 原画像データを記憶する第1記憶手段
と、 前記原画像データより文字の切り出しを行って文字認識
を行う認識手段と、 前記認識手段によって得られた認識結果を記憶する第2
記憶手段と、 前記原画像データの、前記認識結果中の修正すべきテキ
スト列に対応する部分を抽出し、部分画像として表示す
る表示手段と、 前記表示手段で表示された部分画像について、文字の切
り出しを変更する変更手段と、 前記変更手段で変更された文字の切り出しに基づいて、
前記部分画像の文字認識を行う再認識手段とを備えるこ
とを特徴とする文字認識装置。
1. A first storage means for storing original image data, a recognition means for performing character recognition by cutting out characters from the original image data, and a second storage means for storing a recognition result obtained by the recognition means.
A storage unit, a display unit for extracting a portion of the original image data corresponding to a text string to be corrected in the recognition result and displaying it as a partial image, and a character string for the partial image displayed by the display unit. Change means for changing the cutout, based on the cutout of the character changed by the changing means,
A character recognition device, comprising: a re-recognition unit that performs character recognition of the partial image.
【請求項2】 前記認識手段による文字の切り出しによ
って得られる文字切り枠の位置と大きさを示す枠情報を
記憶する第3記憶手段を更に備え、 前記表示手段は、前記修正すべきテキスト列の各文字に
対応する枠情報で示される文字切り枠を含む領域を前記
原画像データより抽出し、これを部分画像として表示す
ることを特徴とする請求項1に記載の文字認識装置。
2. A third storage means for storing frame information indicating a position and a size of a character cutting frame obtained by cutting out a character by the recognition means, wherein the display means stores the text string to be corrected. The character recognition device according to claim 1, wherein an area including a character cutting frame indicated by frame information corresponding to each character is extracted from the original image data and is displayed as a partial image.
【請求項3】 前記表示手段は、前記部分画像の表示に
際して前記枠情報で示される文字切り枠を付加して表示
することを特徴とする請求項2に記載の文字認識装置。
3. The character recognition device according to claim 2, wherein the display unit adds and displays a character cutting frame indicated by the frame information when displaying the partial image.
【請求項4】 前記変更手段は、前記部分画像中の複数
の文字切り枠を指定する指定手段と、指定された複数の
文字切り枠を1つの文字切り枠に結合する結合手段とを
備えることを特徴とする請求項2に記載の文字認識装
置。
4. The changing unit includes a specifying unit that specifies a plurality of character cutting frames in the partial image, and a combining unit that combines the specified plurality of character cutting frames into one character cutting frame. The character recognition device according to claim 2.
【請求項5】 前記変更手段は、前記部分画像中の1つ
の文字切り枠を複数の文字切り枠に分割するための分割
位置を指定する指定手段と、前記指定手段で指定された
分割位置で前記1つの文字切り枠を複数の文字切り枠へ
分離する分離手段とを備えることを特徴とする請求項2
に記載の文字認識装置。
5. The changing unit selects a dividing position for dividing one character cutting frame in the partial image into a plurality of character cutting frames, and a dividing position specified by the specifying unit. 3. A separating unit that separates the one character cutting frame into a plurality of character cutting frames.
The character recognition device according to 1.
【請求項6】 前記表示手段は、前記部分画像を表示す
ると共に前記修正すべきテキスト列を表示することを特
徴とする請求項1に記載の文字認識装置。
6. The character recognition device according to claim 1, wherein the display unit displays the partial image and the text string to be corrected.
【請求項7】 前記表示手段によって表示された修正す
べきテキスト列を前記再認識手段で認識された結果で更
新する表示更新手段を更に備えることを特徴とする請求
項6に記載の文字認識装置。
7. The character recognition device according to claim 6, further comprising display updating means for updating the text string to be corrected displayed by the display means with a result recognized by the re-recognition means. .
【請求項8】 前記第2記憶手段に記憶された認識結果
に基づくテキスト列表示中より、所望のテキスト列を指
定することで前記修正すべきテキスト列の指定を行う指
定手段を更に備えることを特徴とする請求項1に記載の
文字認識装置。
8. The display device further comprises designation means for designating the text string to be corrected by designating a desired text string from among the text strings displayed based on the recognition result stored in the second storage means. The character recognition device according to claim 1, wherein the character recognition device is a character recognition device.
【請求項9】 原画像データを第1メモリに記憶する第
1記憶工程と、 前記原画像データより文字の切り出しを行って文字認識
を行う認識工程と、 前記認識工程によって得られた認識結果を第2メモリに
記憶する第2記憶工程と、 前記原画像データの、前記認識結果中の修正すべきテキ
スト列に対応する部分を抽出し、部分画像として表示す
る表示工程と、 前記表示工程で表示された部分画像について、文字の切
り出しを変更する変更工程と、 前記変更工程で変更された文字の切り出しに基づいて、
前記部分画像の文字認識を行う再認識工程とを備えるこ
とを特徴とする文字認識方法。
9. A first storage step of storing original image data in a first memory; a recognition step of slicing characters from the original image data to perform character recognition; and a recognition result obtained by the recognition step. A second storage step of storing in a second memory; a display step of extracting a portion of the original image data corresponding to a text string to be corrected in the recognition result and displaying it as a partial image; A changing step of changing the cutout of the character for the partial image that has been made, and based on the cutout of the character changed in the changing step,
And a re-recognition step of recognizing the character of the partial image.
【請求項10】 前記認識工程による文字の切り出しに
よって得られる文字切り枠の位置と大きさを示す枠情報
を第3メモリに記憶する第3記憶工程を更に備え、 前記表示工程は、前記修正すべきテキスト列の各文字に
対応する枠情報で示される文字切り枠を含む領域を前記
原画像データより抽出し、これを部分画像として表示す
ることを特徴とする請求項9に記載の文字認識方法。
10. A third storage step of storing, in a third memory, frame information indicating a position and a size of a character cutting frame obtained by cutting out a character in the recognition step, the display step including the correction 10. The character recognition method according to claim 9, wherein a region including a character cutting frame indicated by frame information corresponding to each character of the power sequence is extracted from the original image data and displayed as a partial image. .
【請求項11】 前記表示工程は、前記部分画像の表示
に際して前記枠情報で示される文字切り枠を付加して表
示することを特徴とする請求項10に記載の文字認識方
法。
11. The character recognition method according to claim 10, wherein, in the displaying step, a character cutting frame indicated by the frame information is added and displayed when the partial image is displayed.
【請求項12】 前記変更工程は、前記部分画像中の複
数の文字切り枠を指定する指定工程と、指定された複数
の文字切り枠を1つの文字切り枠に結合する結合工程と
を備えることを特徴とする請求項10に記載の文字認識
方法。
12. The changing step includes a specifying step of specifying a plurality of character cutting frames in the partial image, and a combining step of combining the specified plurality of character cutting frames into one character cutting frame. The character recognition method according to claim 10, wherein:
【請求項13】 前記変更工程は、前記部分画像中の1
つの文字切り枠を複数の文字切り枠に分割するための分
割位置を指定する指定工程と、前記指定工程で指定され
た分割位置で前記1つの文字切り枠を複数の文字切り枠
へ分離する分離工程とを備えることを特徴とする請求項
10に記載の文字認識方法。
13. The changing step is performed in 1 of the partial images.
A step of designating a dividing position for dividing one character cutting frame into a plurality of character cutting frames, and a separation for separating the one character cutting frame into a plurality of character cutting frames at the dividing position specified in the designating step. The character recognition method according to claim 10, further comprising a step.
【請求項14】 前記表示工程は、前記部分画像を表示
すると共に前記修正すべきテキスト列を表示することを
特徴とする請求項9に記載の文字認識方法。
14. The character recognition method according to claim 9, wherein the displaying step displays the partial image and the text string to be corrected.
【請求項15】 前記表示工程によって表示された修正
すべきテキスト列を前記再認識工程で認識された結果で
更新する表示更新工程を更に備えることを特徴とする請
求項14に記載の文字認識方法。
15. The character recognition method according to claim 14, further comprising a display update step of updating the text string to be corrected displayed in the display step with the result recognized in the re-recognition step. .
【請求項16】 前記第2メモリに記憶された認識結果
に基づくテキスト列表示中より、所望のテキスト列を指
定することで前記修正すべきテキスト列の指定を行う指
定工程を更に備えることを特徴とする請求項9に記載の
文字認識方法。
16. The method further comprises a designating step of designating the text string to be corrected by designating a desired text string from the text string display based on the recognition result stored in the second memory. The character recognition method according to claim 9.
【請求項17】 文字認識処理を行うためのプログラム
コードを格納するコンピュータ可読メモリであって、 原画像データを第1メモリに記憶する第1記憶工程のコ
ードと、 前記原画像データより文字の切り出しを行って文字認識
を行う認識工程のコードと、 前記認識工程によって得られた認識結果を第2メモリに
記憶する第2記憶工程のコードと、 前記原画像データの、前記認識結果中の修正すべきテキ
スト列に対応する部分を抽出し、部分画像として表示す
る表示工程のコードと、 前記表示工程で表示された部分画像について、文字の切
り出しを変更する変更工程のコードと、 前記変更工程で変更された文字の切り出しに基づいて、
前記部分画像の文字認識を行う再認識工程のコードとを
備えることを特徴とするコンピュータ可読メモリ。
17. A computer-readable memory that stores a program code for performing character recognition processing, the code of a first storing step of storing original image data in a first memory, and cutting out characters from the original image data. A code of a recognition step for performing character recognition, a code of a second storage step of storing the recognition result obtained by the recognition step in a second memory, and a correction of the original image data in the recognition result. The code of the display step of extracting the part corresponding to the text string to be displayed and displaying it as a partial image, the code of the changing step of changing the cutout of the characters for the partial image displayed in the display step, and the change of the changing step Based on the cut out characters
And a code for a re-recognition process for recognizing characters of the partial image, the computer-readable memory.
JP8026767A 1996-02-14 1996-02-14 Character recognition device and method therefor Pending JPH09218922A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8026767A JPH09218922A (en) 1996-02-14 1996-02-14 Character recognition device and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8026767A JPH09218922A (en) 1996-02-14 1996-02-14 Character recognition device and method therefor

Publications (1)

Publication Number Publication Date
JPH09218922A true JPH09218922A (en) 1997-08-19

Family

ID=12202450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8026767A Pending JPH09218922A (en) 1996-02-14 1996-02-14 Character recognition device and method therefor

Country Status (1)

Country Link
JP (1) JPH09218922A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033960A (en) * 2007-10-03 2008-02-14 Fujitsu Ltd Apparatus and method for document image processing
JP2008077667A (en) * 2007-10-03 2008-04-03 Fujitsu Ltd Document image processing apparatus and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008033960A (en) * 2007-10-03 2008-02-14 Fujitsu Ltd Apparatus and method for document image processing
JP2008077667A (en) * 2007-10-03 2008-04-03 Fujitsu Ltd Document image processing apparatus and method
JP4589370B2 (en) * 2007-10-03 2010-12-01 富士通株式会社 Document image processing apparatus and method
JP4633773B2 (en) * 2007-10-03 2011-02-16 富士通株式会社 Document image processing apparatus and method

Similar Documents

Publication Publication Date Title
JP2003308480A (en) On-line handwritten character pattern recognizing editing device and method, and computer-aided program to realize method
JPH06274680A (en) Method and system recognizing document
JP2835178B2 (en) Document reading device
JPH09218922A (en) Character recognition device and method therefor
JP2003256770A (en) Mathematical formula recognizing device and mathematical formula recognizing method
JPH0991371A (en) Character display device
JPH103516A (en) Method and device for processing information
JPH09218918A (en) Character recognition device and control method therefor
JP2890788B2 (en) Document recognition device
JPH11203402A (en) Image processor and its method
JPH09114916A (en) Optical character reader
JPH1011530A (en) Image input and output method and device therefor
JPH11203400A (en) Character inputting device and method therefor, and machine readable recording medium for recording program for allowing computer to execute the same method
JPH117493A (en) Character recognition processor
JPS61198376A (en) Optical character reader
JPH09114919A (en) Device, and method for recognizing character, and storage medium
JP3093366B2 (en) Image processing method and apparatus
JPH01292586A (en) Back-up device for recognition of character
JPH0991082A (en) Information processor and method therefor and storage medium
JPH04302070A (en) Character recognizing device
JPH05120471A (en) Character recognizing device
JPH07192079A (en) Character recognition device
JPH05120472A (en) Character recognizing device
JPH06282677A (en) Candidate character correction system for optical character reader
JPH07182344A (en) Machine translation system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060110

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060203