JP2012190357A - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP2012190357A JP2012190357A JP2011054752A JP2011054752A JP2012190357A JP 2012190357 A JP2012190357 A JP 2012190357A JP 2011054752 A JP2011054752 A JP 2011054752A JP 2011054752 A JP2011054752 A JP 2011054752A JP 2012190357 A JP2012190357 A JP 2012190357A
- Authority
- JP
- Japan
- Prior art keywords
- character
- data
- handwritten
- unit
- screen area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Character Discrimination (AREA)
Abstract
Description
本発明は、手書き文字および活字の文字認識を行う画像処理装置、画像処理方法、およびプログラムに関するものである。 The present invention relates to an image processing apparatus, an image processing method, and a program for recognizing handwritten characters and printed characters.
従来、画像データから手書き文字と活字とを認識する画像処理、いわゆる光学文字認識(OCR:Optical Character Recognition)処理がある。手書き文字に対するOCR処理の精度は、人ごとに筆跡が異なるために、活字文字の場合よりも大幅に悪い。そこで、特許文献1の技術では、手書き文字と活字とを区別して認識させることにより、手書き文字の検索精度の向上を図っている。
2. Description of the Related Art Conventionally, there is image processing for recognizing handwritten characters and type characters from image data, so-called optical character recognition (OCR: Optical Character Recognition) processing. The accuracy of OCR processing for handwritten characters is significantly worse than for printed characters because the handwriting varies from person to person. Therefore, in the technique of
しかしながら、特許文献1のように手書き文字のOCR処理として活字のOCR処理とは異なる処理を行わせると、一つの手書き文字に対して複数のOCR処理結果を候補として記憶しておく必要があり、手書き文字ごとに記憶されるOCR処理結果の量が膨大になる。また、手書き文字の文字パターンとして多くのパターンを記憶させることにより手書き文字の認識精度を向上させると、手書き文字の文字パターンを多く記憶しておく必要があるため文字パターンを参照する処理の量が膨大になる。このように、手書き文字に対してOCR処理精度を向上させようとする場合に、OCR処理にかかる負荷が膨大になり、処理時間が長くなってしまう。また、OCR処理にかかる時間が少ない画像処理装置を製造しようとする場合に、演算速度の速い中央処理装置(CPU:Central Processing Unit)、または、容量の大きいメモリを採用する必要がある。このため、これを実現するのに、製造コストが多くかかってしまうという問題がある。
However, if a process different from the OCR process of type is performed as the OCR process of handwritten characters as in
また、特に手書き文字の割合が多い原稿に対して文字認識処理を行わせる場合に、多くの処理負荷がかかることになり、このような原稿に対してOCR処理装置を導入して効率化を図ってもほとんど効果がない。例えば、手書き文字の割合が多い原稿には、元の活字の書類に対して手書きで修正の指示(原稿の校正など)を書きこむ場合がある。このように手書き文字の割合が多い原稿に対してOCR処理装置を導入する際に、手書き文字のOCR処理結果に対しては人による確認または修正を行うことは有効であり、そのニーズはある。 In addition, when a character recognition process is performed on a manuscript with a large proportion of handwritten characters, a large processing load is applied. For this manuscript, an OCR processing device is introduced to improve efficiency. But it has little effect. For example, in a manuscript with a high percentage of handwritten characters, a correction instruction (such as proofreading of the manuscript) may be written by hand on the original type document. When an OCR processing apparatus is introduced for a document having a large proportion of handwritten characters as described above, it is effective to check or correct the OCR processing result of handwritten characters by humans, and there is a need for it.
ところが、手書き文字のOCR処理結果について人が確認および修正を行うことになると、手書き文字の量が多くなるほど確認漏れまたは修正漏れが生じやすくなるという問題が生じる。 However, when a person checks and corrects the OCR processing result of a handwritten character, there arises a problem that an omission of confirmation or correction is more likely to occur as the amount of handwritten characters increases.
そこで、本発明は、このような状況に鑑みてなされたものであり、手書き文字のOCR処理結果を、人が修正または確認を行う際に、修正漏れおよび確認漏れが生じにくい画像処理装置を提供することを目的とする。 Therefore, the present invention has been made in view of such a situation, and provides an image processing apparatus that is less likely to cause omission of correction and omission of confirmation when a person corrects or confirms an OCR processing result of a handwritten character. The purpose is to do.
上記目的を達成するために、本発明の一形態に係る画像処理装置は、文書を光学的に読み取って得られる画像データに対して処理を行う画像処理装置であって、表示部と、前記画像データから文字候補領域を認識して、前記文字候補領域に含まれる文字が手書き文字であるか否かを判定して、手書き文字と判定した場合に当該判定の結果を手書き文字判定結果として出力する文字判定部と、前記文字判定部により手書き文字であると判定された文字を文字認識の候補となる文字パターンと関連付けて、当該関連付けた結果を手書き文字認識結果として出力する文字データ処理部と、前記画像データを前記表示部の第1画面領域に表示させ、前記文字判定部により出力された手書き文字判定結果を前記第1画面領域とは異なる前記表示部の第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記手書き文字判定結果に対応する前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記表示部の第3画面領域に表示させる表示制御部と、ユーザからの修正の指示に基づいて、前記第3画面領域に表示された前記文字パターンの修正を受け付けて、前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンの変更を行う修正部とを備える。 In order to achieve the above object, an image processing apparatus according to an aspect of the present invention is an image processing apparatus that performs processing on image data obtained by optically reading a document, the display unit, and the image The character candidate area is recognized from the data, it is determined whether or not the character included in the character candidate area is a handwritten character, and when it is determined to be a handwritten character, the determination result is output as a handwritten character determination result. A character determination unit, a character data processing unit that associates the character determined to be a handwritten character by the character determination unit with a character pattern that is a candidate for character recognition, and outputs the associated result as a handwritten character recognition result; The image data is displayed in the first screen area of the display unit, and the handwritten character determination result output by the character determination unit is different from the first screen area in the second of the display unit. A character pattern associated with the character data processing unit among the handwritten character recognition results corresponding to the handwritten character determination result selected by the user in the second screen region. Based on the display control unit to be displayed in the three-screen area and the correction instruction from the user, the correction of the character pattern displayed in the third screen area is accepted, and the character data among the handwritten character recognition results A correction unit that changes the character pattern associated by the processing unit.
これによれば、文書を光学的に読み取って得られた画像データから認識された手書き文字を抽出して、認識された手書き文字判定結果を、画像データが表示される第1画面領域とは異なる第2画面領域に表示させる。そして、修正部が、ユーザからの修正の指示に基づいて、第3画面領域に表示される文字データ処理部により関連付けられた文字パターン(いわゆる、OCR処理結果)の変更を行う。 According to this, the recognized handwritten character is extracted from the image data obtained by optically reading the document, and the recognized handwritten character determination result is different from the first screen area where the image data is displayed. It is displayed in the second screen area. And a correction part changes the character pattern (what is called OCR process result) linked | related by the character data processing part displayed on a 3rd screen area | region based on the instruction | indication of a correction from a user.
このため、ユーザが、手書き文字認識結果と元の画像データの中の手書き文字とを見比べて修正することができる。また、誤認識が発生しやすい手書き文字のみを抽出して第2画面領域に表示させるため、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。 For this reason, the user can compare and correct the handwritten character recognition result and the handwritten character in the original image data. Further, since only handwritten characters that are likely to be erroneously recognized are extracted and displayed in the second screen area, it is possible to prevent omission of confirmation or omission of erroneously recognized OCR processing results. Thereby, the user can work efficiently when correcting the OCR processing result.
また、好ましくは、前記文字判定部は、さらに、前記文字候補領域に含まれる文字が、活字であるか否かを判定して、活字であると判定した場合に当該判定の結果を活字判定結果として出力し、前記文字データ処理部は、さらに、前記文字判定部により判定された活字を前記文字パターンと関連付けて、当該関連付けた結果を活字認識結果として出力し、前記表示制御部は、さらに、前記文字判定部により出力された活字判定結果を前記第2画面領域に表示させ、前記活字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記第3画面領域に表示させる。 Preferably, the character determination unit further determines whether or not the character included in the character candidate area is a type, and determines that the character is a type, and the result of the determination is a type determination result. The character data processing unit further associates the type determined by the character determination unit with the character pattern, outputs the associated result as a type recognition result, and the display control unit further includes: The type determination result output by the character determination unit is displayed in the second screen area, and the character pattern associated by the character data processing unit among the type recognition results is displayed in the third screen area.
これによれば、文字判定部が活字の文字候補領域に対しても活字判定結果を出力し、また、文字データ処理部が活字認識結果を出力している。つまり、画像処理装置は、活字に対してもOCR処理を行う。 According to this, the character determination unit outputs the type determination result also for the character candidate area of the type, and the character data processing unit outputs the type recognition result. In other words, the image processing apparatus performs OCR processing on type characters.
このため、抽出された活字判定結果は、手書き文字判定結果と選択可能な状態で表示させることができる。また、例えば、修正部が、ユーザからの修正の指示に基づいて、活字認識結果のうちで活字のOCR処理結果の修正を行っても良い。このように、ユーザは、活字に対しても、OCR処理結果を確認または修正することができる。 For this reason, the extracted character determination result can be displayed in a selectable state with the handwritten character determination result. Further, for example, the correction unit may correct the OCR processing result of the type in the type recognition result based on the correction instruction from the user. In this way, the user can check or correct the OCR processing result even for the type.
また、好ましくは、画像処理装置はさらに、第1画像データに基づいて前記文字判定部により判定された第1活字判定結果と前記文字パターンとが前記文字データ処理部により関連付けられた第1活字認識結果と、第2画像データに基づいて前記文字判定部により判定された第2活字判定結果と前記文字パターンとが前記文字データ処理部により関連付けられた第2活字認識結果とが、所定の割合以上で一致するか否かを判定する活字一致判定部と、前記第1活字認識結果と前記第2活字認識結果とが前記所定の割合以上で一致すると前記活字一致判定部が判定した場合に、前記第1画像データに基づいて前記文字判定部により判定された第1手書き文字と前記文字パターンとが前記文字データ処理部により関連付けられた第1手書き文字認識結果と、第2画像データに基づいて前記文字判定部により判定された第2手書き文字と前記文字パターンとが前記文字データ処理部により関連付けられた第2手書き文字認識結果とを統合させて統合手書き文字認識結果として出力するデータ統合部と、を備え、前記表示制御部は、前記統合手書き文字認識結果を前記第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記第3画面領域に表示させ、前記修正部は、ユーザからの修正指示に基づいて、前記第1手書き文字認識結果のうちで前記文字データ処理部により関連付けられた第1文字パターンの修正を受け付けて、前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた前記第1文字パターンの変更を行う、または、前記第2手書き文字認識結果のうちで前記文字データ処理部により関連付けられた第2文字パターンの修正を受け付けて、前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた前記第2文字パターンの変更を行う。 Preferably, the image processing apparatus further includes a first type recognition in which the first character determination result determined by the character determination unit based on the first image data and the character pattern are associated by the character data processing unit. A result and a second type recognition result obtained by associating the second character determination result determined by the character determination unit based on the second image data and the character pattern by the character data processing unit are a predetermined ratio or more. When the type match determination unit determines that the first type recognition result and the second type recognition result match at the predetermined ratio or more, A first handwritten character recognition in which the first handwritten character determined by the character determining unit based on the first image data and the character pattern are associated by the character data processing unit. Integrated handwriting by integrating the result and the second handwritten character recognition result in which the second handwritten character determined by the character determining unit based on the second image data and the character pattern are associated by the character data processing unit A data integration unit that outputs as a character recognition result, wherein the display control unit displays the integrated handwritten character recognition result in the second screen region, and the integrated handwriting selected by the user in the second screen region Among the character recognition results, the character pattern associated with the character data processing unit is displayed in the third screen area, and the correction unit is configured to display the first handwritten character recognition result based on a correction instruction from a user. Accepting correction of the first character pattern associated by the character data processing unit in the integrated handwritten character recognition result Change the first character pattern associated by the data processing unit, or accept the correction of the second character pattern associated by the character data processing unit in the second handwritten character recognition result, In the integrated handwritten character recognition result, the second character pattern associated with the character data processing unit is changed.
手書き文字を書類に書き込む修正者には、文章の内容のみを修正する修正者もいれば、誤字脱字のみを修正する修正者もいる。このように、修正者が複数人いる場合に、同一の書類を複数印刷し、複数人の修正者がそれぞれの書類に対して手書きで修正する場合に、一部の書類を複数人の修正者で使い回して修正するよりも効率が良い。 Among the correctors who write handwritten characters in the document, there are correctors who correct only the content of the text, and there are correctors who correct only typographical errors. In this way, when there are multiple correctors, the same document is printed multiple times, and when multiple correctors modify each document by handwriting, some of the documents are corrected by multiple correctors. It is more efficient than reusing and correcting.
複数の書類毎に手書き修正箇所(手書き文字の文字列)が抽出されると、ユーザは、同一の書類であるのに、複数の書類毎に処理された結果に基づいてOCR処理結果の確認または修正を行わなくてはならず、作業効率が悪い。また、修正者が複数人いると、画像データも修正者の数だけ作成されることになるため、複数の画像データの保存先が画像データ毎に異なってしまう可能性があり、例えばある一人の修正者の修正すべてを反映できなくなるなどのリスクを伴う。さらに、同一の書類に対して画像データを複数作成することになるため、画像処理後のデータが記憶される容量を多く消費してしまう。 When a handwritten correction portion (character string of handwritten characters) is extracted for each of a plurality of documents, the user confirms an OCR processing result based on a result processed for each of the plurality of documents even though they are the same document. It must be corrected and work efficiency is poor. In addition, when there are a plurality of correctors, image data is also created by the number of correctors, and therefore the storage destination of the plurality of image data may be different for each image data. There is a risk that all corrections by the corrector cannot be reflected. Furthermore, since a plurality of image data are created for the same document, a large amount of capacity for storing the data after image processing is consumed.
この課題を解決するためになされたものであり、複数の画像データに対する複数の活字認識結果が所定の割合以上で一致する場合に、文字データ処理部により出力された複数の画像データに対する複数の手書き文字認識結果を統合する。つまり、画像処理装置は、活字のOCR処理結果が所定の割合以上で一致する場合に、複数の画像データが同一の書類に対して修正が行われたものであるとみなして、手書き文字のOCR処理結果を統合する。そして、表示制御部は、統合された統合手書き文字認識結果を、表示部の第2画面領域に表示させる。 In order to solve this problem, when a plurality of type recognition results for a plurality of image data match at a predetermined ratio or more, a plurality of handwritings for a plurality of image data output by the character data processing unit Integrate character recognition results. In other words, the image processing apparatus regards that a plurality of image data has been corrected for the same document when the OCR processing result of the type matches at a predetermined ratio or more, and the OCR of the handwritten character is considered. Integrate processing results. And a display control part displays the integrated integrated handwritten character recognition result on the 2nd screen area | region of a display part.
これにより、修正者が複数いるような場合であっても、ユーザは、統合手書き文字認識結果と元の画像データの中の手書き文字とを見比べて修正することができる。また、誤認識が発生しやすい手書き文字のみを抽出して第2画面領域に表示させるため、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。また、複数の修正者による手書きの書き込みを統合して表示させることができるため、1つの書類に対する作業効率を向上させることができる。 As a result, even when there are a plurality of correctors, the user can compare and correct the integrated handwritten character recognition result with the handwritten characters in the original image data. Further, since only handwritten characters that are likely to be erroneously recognized are extracted and displayed in the second screen area, it is possible to prevent omission of confirmation or omission of erroneously recognized OCR processing results. Thereby, the user can work efficiently when correcting the OCR processing result. In addition, since handwritten writing by a plurality of correctors can be displayed in an integrated manner, work efficiency for one document can be improved.
また、好ましくは、前記第3画面領域は、前記第1画面領域および前記第2画面領域とは異なる画面領域である。 Preferably, the third screen area is a screen area different from the first screen area and the second screen area.
これによれば、第2画面領域に表示された手書き文字判定結果に対応するOCR処理結果の修正状況を表示させる画面領域としてさらに別の画面領域である第3画面領域に表示させる。これにより、ユーザは、元の画像データによる手書き文字を参照しながら、手書き文字のOCR処理結果の確認または修正を行うことができる。 According to this, as a screen area for displaying the correction status of the OCR processing result corresponding to the handwritten character determination result displayed in the second screen area, it is displayed in a third screen area, which is another screen area. Thereby, the user can confirm or correct the OCR processing result of the handwritten character while referring to the handwritten character based on the original image data.
また、好ましくは、前記表示制御部は、前記第1手書き文字認識結果を第1表示形態により前記第2画面領域に表示させ、前記第2手書き文字認識結果を前記第1表示形態とは異なる第2表示形態により前記第2画面領域に表示させる。 Preferably, the display control unit displays the first handwritten character recognition result on the second screen area in a first display form, and the second handwritten character recognition result is different from the first display form. It is displayed in the second screen area in the two display mode.
これによれば、表示制御部は、例えば複数の修正者が書き込んだ手書き文字である、第1手書き文字判定結果と第2手書き文字判定結果とを異なる表示形態により第2画面領域に表示させる。このため、例えば複数の修正者が、上述したような文章の内容の修正、誤字脱字の修正等のように修正の内容の種別毎に役割分担されている場合に、役割毎の手書き文字による修正をユーザは把握できる。これにより、例えば、ユーザは、手書き文字のOCR処理結果の修正を行う時間が限られるなどの制限がある場合に、優先度の高い役割と認識された手書き文字による修正を選んで手書き文字のOCR処理結果の修正を行うことができる。 According to this, the display control unit displays the first handwritten character determination result and the second handwritten character determination result, which are handwritten characters written by a plurality of correctors, for example, in the second screen area in different display forms. For this reason, for example, when a plurality of correctors are assigned roles for each type of correction content, such as correction of text content and correction of typographical errors as described above, correction by handwritten characters for each role Can be grasped by the user. Thereby, for example, when there is a restriction such as a time limit for correcting the OCR processing result of the handwritten character, the user selects correction by the handwritten character recognized as a role having a high priority and performs OCR of the handwritten character. The processing result can be corrected.
また、好ましくは、前記文字判定部は、前記手書き文字判定結果としてさらに、手書き文字が含まれると判定された文字候補領域の表示位置および表示範囲を出力する。 Preferably, the character determination unit further outputs a display position and a display range of a character candidate area determined to include a handwritten character as the handwritten character determination result.
これによれば、文字判定部は、文字候補領域の表示位置および表示範囲を手書き文字判定結果として出力する。このため、例えば、ユーザが、第2画面領域において表示される文字判定結果を選択したときに、選択された文字判定結果に対応する文字候補領域の表示形態を変更するなどの処理に利用することができる。 According to this, a character determination part outputs the display position and display range of a character candidate area | region as a handwritten character determination result. For this reason, for example, when the user selects a character determination result displayed in the second screen area, it is used for processing such as changing the display form of the character candidate area corresponding to the selected character determination result. Can do.
また、好ましくは、前記文字判定部は、さらに、前記文字候補領域に含まれる文字が、活字であるか否かを判定して、活字であると判定した場合に当該判定の結果を前記画像データにおける活字の表示位置および活字の表示範囲とともに活字判定結果として出力し、前記表示制御部は、前記手書き文字判定結果および前記活字判定結果に基づいて、前記文字判定部により活字が含まれると判定された文字候補領域を第3表示形態により前記第1画面領域に表示させ、前記文字判定部により手書き文字が含まれると判定された文字候補領域を前記第3表示形態とは異なる第4表示形態により前記第1画面領域に表示させる。 Preferably, the character determination unit further determines whether or not the character included in the character candidate area is a type, and determines that the character is a type, the result of the determination is the image data. Are output as a type determination result together with the display position of the type and the display range of the type, and the display control unit is determined by the character determination unit to include a type based on the handwritten character determination result and the type determination result The character candidate area is displayed on the first screen area in a third display form, and the character candidate area determined by the character determination unit to include a handwritten character is displayed in a fourth display form different from the third display form. The first screen area is displayed.
これによれば、表示制御部は、表示される活字の文字候補領域の表示形態と手書き文字の文字候補領域の表示形態とを異なる表示形態で第1画面領域に表示させる。このため、ユーザは、第1画面領域において、画像データにおける活字の文字候補領域と手書きの文字候補領域とを瞬時に見分けることができる。 According to this, a display control part displays the display form of the character candidate area | region of the displayed type character, and the display form of the character candidate area | region of a handwritten character on a 1st screen area | region with a different display form. For this reason, the user can instantly distinguish between a character candidate area for printed characters and a handwritten character candidate area in the image data in the first screen area.
また、好ましくは、前記表示制御部は、前記第2画面領域に表示される手書き文字判定結果に対して第1の選択をユーザが行った場合に、前記第1の選択の対象となった手書き文字判定結果に対応する文字候補領域を第5表示形態により前記第1画面領域に表示させる。 In addition, preferably, the display control unit, when a user makes a first selection with respect to a handwritten character determination result displayed in the second screen area, the handwriting that is the target of the first selection A character candidate area corresponding to the character determination result is displayed in the first screen area in the fifth display form.
これによれば、第2画面領域において表示される手書き文字判定結果に対して、第1の選択をユーザが行った場合に、第1の選択が行われた手書き文字判定結果に対応する文字候補領域を第5表示形態により第1画面領域に表示させる。具体的には、ユーザが、第2画面領域に表示される手書き文字判定結果の中から修正部によって第1の選択として、例えば、手書き文字判定結果に対応するチェックボックスにチェックを入れる。この場合に、表示制御部は、チェックされた手書き文字判定結果に対応する文字候補領域の表示形態を変更して第1画面領域に表示させる。 According to this, when the user makes the first selection with respect to the handwritten character determination result displayed in the second screen area, the character candidate corresponding to the handwritten character determination result in which the first selection has been made. The area is displayed on the first screen area in the fifth display mode. Specifically, the user checks, for example, a check box corresponding to the handwritten character determination result as the first selection by the correction unit from the handwritten character determination results displayed in the second screen area. In this case, a display control part changes the display form of the character candidate area | region corresponding to the checked handwritten character determination result, and displays it on a 1st screen area | region.
このため、ユーザは、例えば、OCR処理結果の確認または修正が終了した手書き文字判定結果に対して第1の選択を行うことにより、第1の選択が行われた文字候補領域の表示を変更することができる。これにより、ユーザは、OCR処理結果の確認または修正が終了した手書き文字判定結果に対応する文字候補領域を瞬時に見分けることができ、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。このため、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。 For this reason, for example, the user changes the display of the character candidate area in which the first selection has been performed by performing the first selection on the handwritten character determination result for which the confirmation or correction of the OCR processing result has been completed. be able to. Thereby, the user can instantly identify the character candidate region corresponding to the handwritten character determination result for which the confirmation or correction of the OCR processing result has been completed, and prevent the erroneous recognition or the omission of correction of the erroneously recognized OCR processing result. Can do. For this reason, the user can work efficiently when correcting the OCR processing result.
また、好ましくは、前記表示制御部は、さらに、前記第2画面領域に表示される手書き文字判定結果に対して第2の選択をユーザが行った場合に、部前記第2の選択の対象となった手書き文字判定結果に対応する文字候補領域を前記第5表示形態とは異なる第6表示形態により前記第1画面領域に表示させる。 Preferably, the display control unit further sets the second selection target when the user makes a second selection on the handwritten character determination result displayed in the second screen area. The candidate character area corresponding to the handwritten character determination result is displayed on the first screen area in a sixth display form different from the fifth display form.
これによれば、第2画面領域において表示される手書き文字判定結果に対して、第2の選択をユーザが行った場合に、第2の選択が行われた手書き文字判定結果に対応する文字候補領域を第5表示形態とは異なる第6表示形態により第1画面領域に表示させる。具体的には、ユーザが、第2画面領域に表示される手書き文字判定結果の中から修正部によって第2の選択として、例えば、手書き文字判定結果をマウスなどのポインティングデバイスでクリックして反転表示させる。この場合に、表示制御部は、反転表示された手書き文字判定結果に対応する文字候補領域の表示を第5表示形態とは異なるものにさらに変更して第1表示領域に表示させる。 According to this, when the user performs the second selection on the handwritten character determination result displayed in the second screen area, the character candidate corresponding to the handwritten character determination result on which the second selection has been performed. The area is displayed on the first screen area in a sixth display form different from the fifth display form. Specifically, as a second selection by the correction unit from among the handwritten character determination results displayed in the second screen area, for example, the user clicks and highlights the handwritten character determination result with a pointing device such as a mouse. Let In this case, the display control unit further changes the display of the character candidate area corresponding to the highlighted handwritten character determination result to a display different from the fifth display form, and displays it in the first display area.
このため、ユーザは、例えば、手書き文字判定結果をマウスなどのポインティングデバイスをクリックするなどして選択することにより、当該選択された手書き文字判定結果に対応する文字候補領域を、第1画面領域において瞬時に見分けることができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。 For this reason, for example, the user selects a character candidate area corresponding to the selected handwritten character determination result in the first screen area by, for example, selecting a handwritten character determination result by clicking a pointing device such as a mouse. Can be identified instantly. Thereby, the user can work efficiently when correcting the OCR processing result.
また、好ましくは、画像処理装置はさらに、文書から光学的に前記画像データを取得する画像取得部を備える。 Preferably, the image processing apparatus further includes an image acquisition unit that optically acquires the image data from a document.
これによれば、画像取得部をさらに備えるため、スキャナまたはデジタルカメラなどの画像取得装置を別に用意しなくとも、単独で書類から画像データを取得することができ請求項1から請求項9に対応する処理を行うことができる。 According to this, since the image acquisition unit is further provided, the image data can be acquired independently from the document without separately preparing an image acquisition device such as a scanner or a digital camera. Can be processed.
また、好ましくは、画像処理装置はさらに、前記文字パターンを記憶している記憶部を備える。 Preferably, the image processing apparatus further includes a storage unit that stores the character pattern.
これによれば、記憶部をさらに備えるため、ハードディスクまたはメモリなどの記憶装置を別に用意しなくとも、単独でOCR処理を行うことができ請求項1から請求項10に対応する処理を行うことができる。
According to this, since the storage unit is further provided, the OCR processing can be performed independently without preparing a separate storage device such as a hard disk or a memory, and the processing corresponding to
また、本発明は、このような画像処理装置として実現できるだけでなく、画像処理装置が備える特徴的な処理部のそれぞれの動作をステップとして方法として実現することもでき、また、本発明は、各処理部の処理を行う集積回路として実現することもできる。さらに、本発明は、コンピュータに上記各ステップを実行させるためのプログラムとして実現することもできる。そのようなプログラムは、CD−ROM等の記録媒体またはインターネット等の伝送媒体を介して配信することもできる。また、本発明は、このような画像処理装置を内蔵するネットワーク複合機として実現することもできる。 In addition, the present invention can be realized not only as such an image processing apparatus but also as a method using each operation of a characteristic processing unit included in the image processing apparatus as a step. It can also be realized as an integrated circuit that performs processing of the processing unit. Furthermore, the present invention can also be realized as a program for causing a computer to execute the above steps. Such a program can also be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet. In addition, the present invention can be realized as a network complex machine incorporating such an image processing apparatus.
本発明に係る画像処理装置によれば、ユーザは、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができ、OCR処理結果を修正する際に効率よく作業することができる。 According to the image processing apparatus of the present invention, the user can prevent omission of confirmation or omission of erroneously recognized OCR processing results, and can efficiently work when correcting the OCR processing results.
以下、本発明の実施の形態について、図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
まず、図1および図2を用いて、本発明の実施の形態における画像処理装置を備えるワークフローシステムの構成の概要について説明する。 First, an outline of a configuration of a workflow system including an image processing apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2.
このワークフローシステムには、作成者と、修正者と、作成者と修正者とを補助する補助者とが介在する。作成者は、PCやワードプロセッサなどにより印字された書類(以下、印字書類とする)を作成する。修正者は、作成者により作成された印字書類を手書きで修正する。このとき修正者により修正された書類を修正書類とする。補助者は、修正者により作成された手書き文字を含む修正書類を、ネットワーク複合機1、2のスキャナ機能やデジタルカメラ7を利用して画像ファイルを取得し、本願の画像処理装置によりOCR処理を行う。補助者は、書類をOCR処理することにより、誤認識されやすい手書き文字の認識処理結果が元の書類に書きこまれた内容と合致しているか否かを確認し、合致していなければ手書き文字の認識処理結果を修正する。つまり、本実施形態のワークフローシステムは補助者が主に利用するため、以下からは補助者をユーザとして説明する。
This workflow system includes a creator, a corrector, and an assistant who assists the creator and the corrector. The creator creates a document printed by a PC or a word processor (hereinafter referred to as a print document). The corrector manually corrects the print document created by the creator. At this time, the document corrected by the corrector is set as the corrected document. The assistant uses the scanner function of the
図1は、本実施の形態における画像処理装置を含むワークフローシステムの構成の一例を示す図である。 FIG. 1 is a diagram illustrating an example of a configuration of a workflow system including an image processing apparatus according to the present embodiment.
同図に示すように、このワークフローシステムは、ネットワーク複合機1および2、端末装置3および4、PSTN(Public Switched Telephone Networks:公衆電話交換回線網)5、並びにLAN(Local Area Network)6から構成される。このワークフローシステムは、ネットワーク複合機1、2あるいはデジタルカメラ7から取得された書類の画像データ53のOCR処理を行うことが可能なシステムである。
As shown in the figure, this workflow system includes
端末装置3、4は、本実施の形態における画像処理装置として機能するコンピュータである。端末装置3、4は、本実施の形態では、ネットワーク複合機1、2を利用するユーザ(主に、補助者)が使用するパーソナルコンピュータである。
The
ネットワーク複合機1は、スキャナで読み取った書類を、例えば、PSTN5を介してネットワーク複合機2へファクシミリ送信すること、LAN6を介して端末装置3および4へ送信すること、内蔵されるプリンタでプリントアウトすること等ができる。
The
図2は、本実施の形態におけるネットワーク複合機1のハードウェア構成を示すブロック図である。 FIG. 2 is a block diagram illustrating a hardware configuration of the network multifunction peripheral 1 according to the present embodiment.
同図に示すように、ネットワーク複合機1は、CPU(Central Processing Unit)10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、モデム13、NCU(Network Control Unit)14、操作パネル15、ディスプレイ16、スキャナ17、プリンタ18、およびLANI/F(LAN Interface)19を備えている。
As shown in the figure, the
CPU10は、ROM11に格納された制御プログラム50を実行することにより、ネットワーク複合機1の全体を制御する。
The
ROM11は、CPU10が実行する制御プログラム50を保持する読み出し専用メモリである。
The
RAM12は、CPU10が制御プログラム50を実行する際に用いられるワークデータ、およびスキャナ17から得られた画像データ等を保持する読み書き可能なメモリである。
The
モデム13は、RAM12に保持された画像データ等をファクシミリ信号に変調して送信し、また外部から受信されたファクシミリ信号をラインデータに復調する。モデム13は、例えばG3規格に準拠したファックスモデムである。
The
NCU14は、モデム13とPSTN5との接続を制御する網制御装置である。
The
操作パネル15は、ユーザからの操作を受け付けるタッチパネルである。
The
ディスプレイ16は、ユーザへの操作ガイド、またはネットワーク複合機1の動作状態を表示する表示装置であり、例えばLCD(Liquit Crystal Display:液晶表示装置)である。
The
スキャナ17は、画像読み取り装置であり、CPU10の制御下で、CCDを用いて原稿を光学的に読み取ることによって画像データを生成する。
The
プリンタ18は、印刷装置であり、CPU10の制御下で、例えばRAM12に保持された画像データによって表される画像イメージを印刷出力する。
The
LANI/F19は、ネットワーク複合機1とLAN6とを接続する通信アダプタであり、CPU10の制御下で、例えばRAM12に保持された画像データを端末装置3等へ送信する。
The LAN I /
図3は、本実施の形態のおける端末装置3、4のハードウェア構成を示すブロック図である。
FIG. 3 is a block diagram showing a hardware configuration of
端末装置3は、図3に示されるように、主に、CPU20、ハードディスク21、RAM22、入力装置23、ディスプレイ24、LANI/F25、およびUSBI/F(Universal Serial Bus Interface)26から構成される。なお、ここでは端末装置3についてのみ説明するが、端末装置4についても同様の構成となる。
As shown in FIG. 3, the
CPU20は、ハードディスク21に格納されたアプリケーションプログラムを実行することにより、端末装置3の全体を制御する。
The
ハードディスク21は、画像処理プログラム51等のプログラム、文字パターンデータ52、スキャナまたはデジタルカメラから得られた画像データ53、文字判定結果データ54、文字認識結果データ55、統合文字認識結果データ60統合文字認識結果データ60等が格納されている。
The
なお、「画像処理プログラム51」とは、画像データに対して後述する画像処理を行うアプリケーションプログラムである。また、「文字パターンデータ52」とは、手書き文字または活字のOCR処理を行うための文字認識の候補となる文字パターンのデータである。「文字パターンデータ52」には、図示しないが手書き文字のOCR処理を行うための手書き文字パターンと、活字のOCR処理を行うための活字パターンとがある。すなわち、活字のOCR処理と手書き文字のOCR処理とは、異なる文字パターンを用いて行われる。また、「画像データ53」とは、ネットワーク複合機1のスキャナ17またはデジタルカメラ7等の画像取得装置により書類から取得される画像データである。また、「文字認識結果データ55」とは、後述する文字データ処理部32によって画像処理中に作成されるデータである。また、「統合文字認識結果データ60」とは、後述するデータ統合部38によって統合処理中に作成されるデータである。
The “
RAM22は、CPU20がハードディスク21に格納されているプログラムを実行する際に用いられる文字判定結果データ54、一致データテーブル59等、およびスキャナ17から得られた画像データ53を一時的に保持する読み書き可能なメモリである。なお、「文字判定結果データ54」は、後述する文字判定部31によって画像処理中に作成されるデータである。また、「一致データテーブル59」とは、後述する活字一致判定部37により作成されるデータである。
The
入力装置23は、ユーザからの操作を受け付ける装置であって、キーボードあるいは、マウスやタッチパネル等のポインティングデバイス等である。
The
ディスプレイ24は、RAM22から送信されてきたデータを文字や画像として表示するためのCRTディスプレイ、液晶ディスプレイ、プラズマディスプレイ、あるいは有機ELディスプレイ等である。
The
LANI/F25は、端末装置3とLAN6とを接続する通信アダプタである。LANI/F25は、CPU20の制御下で、例えば端末装置のハードディスク21に保持された画像データ53、文字認識結果データ55、または統合文字認識結果データ60を端末装置4に送信する。LANI/F25はまた、端末装置4およびネットワーク複合機1から端末装置3に送信されてきた画像データ53、文字認識結果データ55等を受信する。
The LAN I /
USBI/F26は、端末装置3とデジタルカメラ7等とを接続する通信アダプタである。USBI/F26を介することにより、例えばデジタルカメラ7により取得された画像データ53を端末装置3が受信しハードディスク21に記憶させる。
The USB I /
図4は、本実施の形態における画像処理装置100の画像処理に係る機能構成を示すブロック図である。つまり、図2および図3に示されるハードウェア構成によって発揮されるネットワーク複合機1および端末装置3、4の機能のうち、主に本実施の形態の画像処理装置100の画像処理に関わる機能の構成を示すブロック図である。
FIG. 4 is a block diagram illustrating a functional configuration related to image processing of the
画像処理装置100は、機能的には、記憶部30と、文字判定部31と、文字データ処理部32と、表示制御部33と、修正部34と、入力部35と、表示部36とを備え、画像取得装置110としてのネットワーク複合機1またはデジタルカメラ7と通信可能な状態(例えば、LAN、USB等)で接続されている。
Functionally, the
記憶部30は、図3におけるハードディスク21、RAM22等によって実現される。記憶部30は、文字パターンデータ52を記憶している。記憶部30はまた、画像取得装置110から送信されてきた画像データ53、後述する文字判定部31により出力される文字判定結果データ54、文字データ処理部32により出力される文字認識結果データ55等を記憶する。
The
文字判定部31は、図3におけるCPU20、プログラム等によって実現される判定部である。文字判定部31は、記憶部30に記憶されている画像データ53に基づいて、部分領域切出処理と、手活判定処理とを行う。部分領域切出処理は、画像データから文字候補領域を認識する処理であって、例えば一行等の文字の塊である部分領域毎に画像データ53の文字候補領域を分解して、画像データにおける部分領域の位置および範囲を認識する処理である。手活判定処理は、部分領域切出処理によって分解された部分領域に含まれる文字が手書き文字であるか活字であるかを判定し、手書き文字と判定した場合に手書き文字判定結果データとして出力し、活字であると判定した場合に活字判定結果データとして出力する処理である。以下、部分領域切出処理によって分解された部分領域に含まれる文字のようなOCR処理前の画像として表示される文字のことを「文字画像」と呼ぶ。
The
なお、文字判定部31によって出力される手書き文字判定結果データと活字判定結果データとは、文字判定結果データ54として出力される。つまり、文字判定結果データ54には、図示しないが、手書き文字の文字画像を含む部分領域に対して文字判定部31が出力した手書き文字判定結果データと、活字の文字画像を含む部分領域に対して文字判定部31が出力した活字判定結果データとがある。文字判定部31は、判定された部分領域に対して手書き文字の属性データまたは活字の属性データを追加し、その結果を文字判定結果データ54として出力する。なお、ここで出力される文字判定結果データ54とは、元の画像データ53に対して、部分領域切出処理によって導出された部分領域の位置および範囲の情報と、手書き文字の属性データまたは活字の属性データとが追加されたデータである。
The handwritten character determination result data and the type determination result data output by the
文字データ処理部32は、図3におけるCPU20、プログラム等によって実現される処理部である。文字データ処理部32は、記憶部30に格納されている文字パターンデータ52と、文字判定部31により出力された文字判定結果データ54とに基づいて、文字パターン関連付け処理を行う。文字パターン関連付け処理は、文字判定結果データ54の各部分領域に含まれる文字画像に対して文字パターンデータ52を関連付ける処理である。文字パターン関連付け処理では、部分領域毎に処理が行われ、各部分領域に含まれる文字画像に対応する文字列が文字パターンデータから抽出され、文字列データとして各部分領域に含まれる文字画像に関連付けられる。つまり、文字列データは、いわゆるOCR処理である。文字データ処理部32は、文字パターン関連付け処理の結果を文字認識結果データ55として出力する。なお、ここで出力される文字認識結果データ55とは、文字判定結果データ54に対して、文字パターン関連付け処理によって関連付けられた文字列データが追加されたデータである。
The character
文字認識結果データ55は、図5に示されるように、部分領域ID、部分領域のデータサイズ、部分領域の位置情報、部分領域の属性データ、部分領域の文字数、および、部分領域に関連付けられた文字列データを保持する。なお、「部分領域ID」とは、S10において区別された部分領域を識別するための識別子である。「部分領域ID」は、位置情報の数値に基づいて所定の演算により算出される値が小さい順に決定される番号である。本実施形態では例えば、位置情報の開始座標の内でY座標が小さいものから順番に決定され、Y座標が同じものではX座標が小さいものから順番に降順に番号が振られることになる。また、「位置情報」とは、画像データにおいて当該部分領域が表示される位置および範囲を示すデータであり、図4に示すように例えば座標データである。座標データは、開始座標と終了座標とにより囲まれる領域をX座標とY座標により数値化されて、位置情報として表している。座標データは、例えば具体的には画素単位で導きだされる数値である。また、「文字列データ」とは、部分領域に含まれる文字画像に対して、文字パターンデータに基づいて関連付けられた文字列である。なお、文字認識結果データ55には、図示しないが、手書き文字について文字パターン関連付け処理を行った手書き文字認識結果データと、活字について文字パターン関連付け処理を行った活字認識結果データとがある。図5に示す文字認識結果データ55は、手書き文字認識結果データと活字認識結果データとが統合されたものである。
As shown in FIG. 5, the character
表示制御部33は、図3におけるCPU20、プログラム等によって実現される処理部である。表示制御部33は、画像データを表示部36の第1画面領域40に表示させる。また、表示制御部33は、文字データ処理部32により出力された文字認識結果データ55を表示部36の第2画面領域41に表示させる。また、表示制御部33は、第2画面領域41においてユーザが入力部35を操作することにより選択した文字認識結果データ55に対応する文字列データを表示部36の第3画面領域42に表示させる。なお、第1画面領域40と、第2画面領域41と、第3画面領域42とは、表示部36において表示される画面領域であって、図7に示すように表示部36の画面内の別々の領域である。
The
修正部34は、ユーザが入力部35を操作することにより送信される入力信号に基づいて、第3画面領域42に表示された文字列データの修正を受け付けて、文字認識結果データ55の各部分領域に関連付けられた文字列データの変更を行う。例えば、画像データから抽出された文字候補領域の各部分領域に含まれる文字画像に対して関連付けられた文字列データが、誤認識によって本来意図していた文字とは異なる文字列データとなる場合がある。このような場合に、修正部34は、ユーザが入力部35を操作することにより、文字認識結果データ55を読み込んで、誤って関連付けられた文字パターンを正しい文字パターンに修正することができる。なお、修正された文字認識結果データ55は、記憶部30に上書き保存される。
The
入力部35は、図3における入力装置23によって実現される。入力部35は、上述したように、ユーザに操作されることにより、表示制御部33または修正部34に対して入力信号を送信して、文字認識結果データ55の文字列データを修正することができる。
The
表示部36は、図3におけるディスプレイ24によって実現される。表示部36は、表示制御部33を介して文字認識結果データ55を表示する。すなわち、表示部36は、入力部35によって修正される前の文字認識結果データ55、入力部35によって修正中である文字認識結果データ55などを表示することにより、ユーザによる文字列データの修正を支援する。表示部36はまた、上述したように、文字認識結果データ55の文字画像と文字列データとを、第1画面領域40と、第2画面領域41と、第3画面領域42とに分けて表示する。
The
次に、以上のように構成された本実施の形態における画像処理の処理手順について説明する。 Next, a processing procedure of image processing in the present embodiment configured as described above will be described.
図6は、本実施の形態におけるワークフローシステムによる画像データ53の画像処理における処理手順を示すフローチャートである。
FIG. 6 is a flowchart showing a processing procedure in image processing of the
図6に示すように、文字判定部31は、記憶部30に記憶されている画像データ53が文字判定部31に入力されると画像処理を開始する。文字判定部31は、入力された画像データ53のページ毎に部分領域切出処理を行う(S10)。
As illustrated in FIG. 6, the
次に、文字判定部31は、分解した部分領域毎に、部分領域IDと、位置情報とを追加する(S11)。
Next, the
そして、文字判定部31は、部分領域に含まれる文字画像に対して手活判定処理を行う(S12)。
And the
手活判定処理において文字判定部31により手書き文字であると判定された部分領域には、手書き文字の属性データが追加される(S13)。文字判定部31は、手書き文字の属性データが追加された部分領域を手書き文字判定結果データとして出力する。文字判定部31により出力された手書き文字判定結果データは、記憶部30にバッファされる。
The attribute data of the handwritten character is added to the partial area determined to be a handwritten character by the
そして、文字データ処理部32は、記憶部30に格納されている文字パターンデータ52のうちの手書き文字パターンデータと、文字判定部31により出力された手書き文字判定結果データとに基づいて、手書き文字パターン関連付け処理を行う(S14)。なお、この手書き文字パターン関連付け処理とは、いわゆる、手書き文字の部分領域用のOCR処理である。文字データ処理部32により出力された手書き文字認識結果データは、記憶部30にバッファされる。
And the character
一方、手活判定処理において文字判定部31により活字であると判定された部分領域には、活字の属性データが追加される(S15)。文字判定部31は、活字の属性データが追加された部分領域を活字判定結果データとして出力する。文字判定部31により出力された活字判定結果データは、記憶部30にバッファされる。
On the other hand, type attribute data is added to the partial area determined to be a type by the
そして、文字データ処理部32は、記憶部30に格納されている文字パターンデータ52のうちの活字パターンデータと、文字判定部31により出力された活字判定結果データとに基づいて、活字パターン関連付け処理を行う(S16)。なお、この活字パターン関連付け処理とは、いわゆる、活字の部分領域用のOCR処理である。文字データ処理部32により出力された活字認識結果データは、記憶部30にバッファされる。
The character
文字判定部31は、手書き文字関連付け処理または活字関連付け処理が行われていない未処理の部分領域があるか否かを判定する(S17)。未処理の部分領域がある場合には、再度、未処理の部分領域に対して画像処理(S11〜S16)を行う。
The
文字データ処理部32は、未処理の部分領域がない場合に、文字パターン関連付け処理が終了したページの画像データに属する全ての部分領域に対応する手書き文字認識結果データと活字認識結果データとを統合する(S18)。
When there is no unprocessed partial area, the character
文字データ処理部32は、文字パターン関連付け処理が終了していないページがあるか否かを確認する(S19)。ここで、未処理の画像データのページがある場合には、再度、画像処理(S10〜S18)を行う。
The character
文字データ処理部32は、未処理の画像データのページがない場合には画像データの全てのページに対して処理が終了したと判断し、全てのページに対して行った画像処理(S10〜S18)の結果を文字認識結果データ55として出力する(S20)。出力された文字認識結果データ55は、記憶部30に記憶されるこの画像処理を終了する。
If there is no page of unprocessed image data, the character
記憶部30に記憶された文字認識結果データ55は、ユーザが入力部35を操作することにより修正部34を動作させると、修正部34に読み込まれて表示部36に表示される。修正部34は、文字認識結果データ55に基づいて、元の画像データ53の部分領域に含まれる文字画像と、当該文字画像に関連付けられた文字列データとを別々に表示部36に表示させる。修正部34はまた、入力部35からの入力信号に基づいて各部分領域に関連付けられた文字列データの修正を受け付ける。
The character
以下に、図7に基づいて、具体的な修正部34の処理によって表示部36に表示される画面について説明する。
Below, based on FIG. 7, the screen displayed on the
表示部36に表示される画面は、主に第1画面領域40と、第2画面領域41と、第3画面領域42の3つの画面領域に分けられる。
The screen displayed on the
第1画面領域40は、メインの画面領域であり、主に元の画像データ53に基づいた表示を行う画像データ表示領域である。第1画面領域40には、元の画像データ53の他に、各部分領域を示す罫線と、各部分領域の部分領域IDとが表示される。すなわち、第1画面領域40には、文字判定部31によって分解された部分領域が、可視化された状態で表示されることになる。また、第1画面領域40では、手書き文字の属性データが追加された部分領域と、活字の属性データが追加された部分領域とにおいて、その表示形態を異なるものとして表示される。本実施の形態では、図7のように、第1画面領域40において表示される手書き属性の文字候補領域を赤色(図7ではグレー表示)で、第1画面領域40において表示される活字属性の文字候補領域を黒色で表示する。
The
第2画面領域41は、第1画面領域40の右側において縦長に表示(サイド表示)される画面領域であり、文字認識結果データ55の文字列データが表示される。第2画面領域41には、第1画面領域40に表示されるページの画像データに含まれる各部分領域に対して関連付けられた文字列データが当該部分領域の部分領域IDと共に表示される。
The
また、第2画面領域41においては、第1画面領域40に表示されるページの画像データに含まれる全ての部分領域に関連付けられている文字列データが表示され、これらの文字列データは部分領域の属性データごとに表示される。例えば、図6においては、プルダウンリスト43において「文字列全て」と、「手書きのみ」と、「活字のみ」とを選択可能である。ユーザが、「文字列全て」をプルダウンリスト43から選択する場合に、複数の文字列データのうちで手書き文字または活字のいずれかの属性データをもつ文字列データが表示されることになり、第2画面領域41において全ての文字パターンが表示される。また、ユーザが、「手書きのみ」をプルダウンリスト43から選択する場合に、複数の文字列データのうちで手書き文字の属性データを有する文字列データのみが第2画面領域41において表示される。また、ユーザが、「活字のみ」をプルダウンリスト43から選択する場合に、複数の文字列データのうちで活字の属性データを有する文字列データのみが第2画面領域41において表示される。
In the
また、第2画面領域41においては、表示される文字列データの左側にチェックボックス44が表示される。ユーザは、このチェックボックス44には、ポインティングデバイス等の入力装置23によって選択することによりチェックマークを入力することができるようになっている。そして、チェックボックス44にチェックマークが入力された文字列データに対応する部分領域は、第1画面領域40における表示に取り消し線が表示される。具体的には、図7のように、第2画面領域41の「2:追加!!」のチェックボックス44にチェックマークを入力する場合に、対応する第1画面領域40の「2:追加!!」の表示部分に取り消し線が表示される事になる。
In the
また、第2画面領域41においては、表示される複数の文字列データの文字部分を入力部35(具体的にはマウスなどのポインティングデバイス)により選択する場合に図7に示すように白黒が反転表示される。このように反転表示されることにより選択された文字列データに対応する文字列データが第3画面領域42に修正可能な状態で表示される。具体的には、図7に示すように、第2画面領域41の「6:この部分の・・・」を選択して反転表示させると、該当する文字列データが修正可能な状態で第3画面領域42に表示される。さらに、第1画面領域40において、第2画面領域41において選択して反転表示させた文字列データに対応する「6:この部分の図、」で表示される部分領域を示す罫線の枠が太枠で表示されることになる。
In the
第3画面領域42は、上述したように、第2画面領域41において入力部35(具体的にはマウスなどのポインティングデバイス)により選択されて反転表示された文字列データが表示される。そして、第3画面領域42においては、入力部35(具体的にはキーボードなどの文字入力装置)によって第2画面領域41において選択された文字列データの修正を受け付ける。すなわち、実際の部分領域に含まれる文字画像と、関連付けられた文字列データとが誤認識により異なる結果となった場合に、ユーザは、第3画面領域42において誤りを含む文字列データを正しい文字列データに修正することができる。
As described above, in the
図8は、ユーザが文字認識結果データを修正する際の修正作業の作業手順の一例を示すフローチャートである。 FIG. 8 is a flowchart showing an example of the work procedure of the correction work when the user corrects the character recognition result data.
まず、ユーザが端末装置3、4によって文字認識結果データ55を読み込むと、図7に示すような画像がディスプレイに表示される(S30)。
First, when the user reads the character
ユーザは、入力部35を操作することにより、プルダウンリスト43から「手書きのみ」を選択して、第2画面領域41において手書き文字の属性データが追加された文字列データのみを表示させる(S31)。
The user operates the
ユーザは、入力部35を操作することにより、読み込まれた文字認識結果データ55から第2画面領域41に抽出された複数の文字列データの一つを選択して、反転表示させる(S32)。
The user operates the
そして、第2画面領域41において選択されて反転表示となった文字列データは、修正部34により、ユーザの入力部35の操作による修正を受け付ける状態で第3画面領域42に表示される。それと共に、第1画面領域40において、第2画面領域41において選択されて反転表示となった文字列データに対応する部分領域の罫線の枠が太枠で表示される(S33)。
Then, the character string data selected and highlighted in the
ユーザは、第1画面領域40において罫線の枠が太枠で表示される部分領域に表示される文字画像を視認しながら、当該部分領域に関連付けられた文字列データが正しいか否かを第3画面領域42に表示される文字列データと当該文字画像とを比較することにより判定する(S34)。
While viewing the character image displayed in the partial area in which the border of the ruled line is displayed as a thick frame in the
ユーザは、当該部分領域に関連付けられた文字列データが正しいと判定する場合に、第3画面領域42において修正入力を行わずにチェックボックス44にチェックマークを入力する(S35)。
When the user determines that the character string data associated with the partial area is correct, the user inputs a check mark in the
ユーザは、当該部分領域に関連付けられた文字列データが誤っていると判定する場合に、第3画面領域42において修正入力を行って正しい文字列データに修正した上でチェックボックス44にチェックマークを入力する(S36)。
When determining that the character string data associated with the partial area is incorrect, the user performs correction input in the
ユーザは、第2画面領域41において表示される文字列データに対応するチェックボックス44の全てにチェックマークが入力されているか否かを判定する(S37)。ここで、ユーザは、全てにチェックマークが入力されていない場合に、チェックマークが未入力のチェックボックス44に対応する文字列データの修正作業(S31〜S36)を繰り返す。
The user determines whether or not check marks have been input to all the
ユーザは、全てのチェックボックス44にチェックマークが入力されている場合に、当該ページの修正作業が終了したと判断して、全てのページにおいて修正作業が行われたか否かを確認する(S38)。ユーザは、未修正のページがある場合には、未修正のページに対して修正作業(S31〜S37)を繰り返す。
When all the
ユーザは、全てのページに対して修正作業が行われていれば修正作業を終了する。 If the correction work has been performed on all pages, the user ends the correction work.
本実施の形態における画像処理装置100は、上記の画像処理として統合処理をさらに行う。統合処理は、同一の書類に対して複数の修正者が手書きで修正した場合に読み込まれた複数の画像データに対して行われるものであって、書類の活字部分が共通する場合に、OCR処理結果を統合する処理である。
The
図9は、本実施の形態における画像処理装置100の統合処理に係る機能構成を示すブロック図である。つまり、図2および図3に示されるハードウェア構成によって発揮されるネットワーク複合機1および端末装置3、4の機能のうち、画像処理装置100の統合処理に関わる機能の構成を示すブロック図である。
FIG. 9 is a block diagram illustrating a functional configuration related to the integration processing of the
画像処理装置100は、機能的には、記憶部30と、文字判定部31と、文字データ処理部32と、表示制御部33と、修正部34と、入力部35と、表示部36と、活字一致判定部37と、データ統合部38とを備える。以下、画像処理に係る機能構成の説明と異なる処理部である活字一致判定部37およびデータ統合部38のみについて説明する。
Functionally, the
活字一致判定部37は、図3におけるCPU、プログラム等によって実現される判定部である。活字一致判定部37は、第1活字認識結果データと第2活字認識結果データとが所定の割合(例えば90%)以上で一致するか否かを判定する。第1活字判定結果データとは、第1画像データに基づいて文字判定部31により判定された第1活字判定結果データと文字パターンとが文字データ処理部32により関連付けられたデータである。第2活字認識結果データとは、第2画像データに基づいて文字判定部31により判定された第2活字判定結果と文字パターンとが文字データ処理部32により関連付けられたデータである。具体的には、活字一致判定部37は、新たに記憶された文字認識結果データ55(以下、新文字認識結果データ56)の活字認識結果データ(以下、新活字認識結果データとする)に基づいて、既に記憶部30に記憶されている複数の文字認識結果データ55(以下、文字認識結果データ群57とする)に含まれる全ての活字認識結果データを照合する。すなわち、新活字認識結果データは、上述の第1活字認識結果データに該当する。そして、活字一致判定部37は、文字認識結果データ群57の中から、新活字認識結果データと一致する活字認識結果データを含む文字認識結果データ55があるか否かを判定する活字一致判定処理を行う。すなわち、文字認識結果データ群57のそれぞれの活字認識結果データが上述の第2活字認識結果データに該当する。
The type
なお、活字一致判定処理では、活字認識結果データ同士が所定の割合以上で一致する場合に、一致すると判定する。例えば、活字一致判定処理では、活字の属性データを有する各部分領域の位置情報が一致することと、当該各部分領域に関連付けられた文字列データが一致することの少なくとも2つの要素で判定される。これにより、2つの文字認識結果データの活字認識結果データが一致すると判定される。 In the type match determination process, when the type recognition result data match at a predetermined ratio or more, it is determined that they match. For example, in the type match determination process, determination is made based on at least two elements: the position information of each partial area having type attribute data matches, and the character string data associated with each partial area match. . Thereby, it is determined that the character recognition result data of the two character recognition result data match.
そして、活字一致判定部37は、活字一致判定処理において一致すると判定された文字認識結果データ55(以下、被一致文字認識結果データ58とする)と新文字認識結果データ56とを関連付けるための一致データテーブル59を出力する。なお、この場合に、被一致文字認識結果データ58が複数ある場合には、全ての被一致文字認識結果データ58と新文字認識結果データ56とが関連付けられるための一致データテーブル59が出力される。
The type
データ統合部38は、図3におけるCPU20、プログラム等によって実現される処理部である。データ統合部38は、第1活字認識結果と第2活字認識結果とが所定の割合以上で一致すると活字一致判定部が判定した場合に、第1手書き文字認識結果データと第2手書き文字認識結果データとを統合させて統合手書き文字認識結果データとして出力する。第1手書き文字認識結果データは、第1画像データに基づいて文字判定部31により判定された第1手書き文字と文字パターンとが文字データ処理部32により関連付けられたデータである。第2手書き文字認識結果データは、第2画像データに基づいて文字判定部31により判定された第2手書き文字と文字パターンとが文字データ処理部32により関連付けられたデータである。具体的には、データ統合部38は、記憶部30に格納されている一致データテーブル59に基づいて、活字一致判定部が一致すると判定した新文字認識結果データ56と被一致文字認識結果データ58とを記憶部30から抽出する。そして、データ統合部38は、抽出した新文字認識結果データ56に含まれる手書き文字認識結果データと、被一致文字認識結果データ58に含まれる手書き文字認識結果データとを統合して、統合した結果を統合文字認識結果データ60として出力する。ここで、新文字認識結果データ56に含まれる手書き文字認識結果データは、上述の第1手書き文字認識結果データに該当する。また、被一致文字認識結果データ58に含まれる手書き文字認識結果データは、上述の第2手書き文字認識結果に該当する。統合文字認識結果データ60は、基本的には図5に示す文字認識結果データ55と同じであるが、部分領域の属性データが異なる。統合文字認識結果データ60の部分領域の属性データでは、統合前の手書き文字認識結果データ別に部分領域の属性データが分類される。これについては、例えば第1の文字認識結果データ55と第2の文字認識結果データ55とが統合される場合で説明する。第1の文字認識結果データ55に属する第1手書き文字認識結果データに対応する部分領域の属性データは「第1手書き文字」に分類され、第2の文字認識結果データ55に属する第2手書き文字認識結果データに対応する部分領域の属性データは「第2手書き文字」に分類される。このように、統合文字認識結果データ60では、元の文字認識結果データ55毎に手書き文字認識結果データの部分領域の属性データが分類される。
The
なお、記憶部30は、画像処理に係る機能構成において説明したものと同様であり、さらに、活字一致判定部37により出力される一致データテーブル59と、データ統合部38により出力される統合文字認識結果データ60とを記憶する。
The
また、表示制御部33は、画像処理に係る機能構成において説明したものと同様であり、統合文字認識結果データ60の部分領域に含まれる文字画像と、当該文字画像に関連付けられた文字列データとを別々に表示部36に表示される。
The
修正部34はユーザが入力部35を操作することにより送信される入力信号に基づいて、第3画面領域42に表示された文字列データの修正を受け付けて、統合文字認識結果データ60の各部分領域に関連付けられた文字列データの変更を行う。
The
次に、以上のように構成された本実施の形態における統合処理の処理手順について説明する。 Next, a processing procedure of integration processing in the present embodiment configured as described above will be described.
図10は、本実施の形態におけるワークフローシステムにおける文字認識結果データ55の統合処理における処理手順を示すフローチャートである。
FIG. 10 is a flowchart showing a processing procedure in the integration processing of the character
図10に示すように、統合処理は、文字データ処理部32が新文字認識結果データ56を出力した時(画像処理終了時)に開始される。
As shown in FIG. 10, the integration process is started when the character
活字一致判定部37は、新文字認識結果データ56が入力されると、記憶部30に文字認識結果データ群57が記憶されているか否かを確認する(S40)。
When the new character
活字一致判定部37は、文字認識結果データ群57がある場合に、記憶部30から新文字認識結果データ56と文字認識結果データ群57とを読み込んで、活字一致判定処理を行う(S41)。
When there is a character recognition
活字一致判定部37は一方で、記憶部30に文字認識結果データ群57が記憶されていない場合に、読み込んだ新文字認識結果データ56を文字認識結果データ群57とするための情報を追加する。当該情報を追加された文字認識結果データ55は、文字認識結果データ群57として記憶部30に格納される(S42)。そして、この統合処理を終了する。
On the other hand, if the character recognition
活字一致判定部37は、活字一致判定処理(S41)において新活字認識結果データと一致する活字認識結果データがあると判定した場合に、被一致文字認識結果データ58と新文字認識結果データ56とを関連付ける(S43)。活字一致判定部37は、当該関連付け処理の結果を一致データテーブル59として出力する。活字一致判定部37により出力された一致データテーブル59は、記憶部30にバッファされる。なお、当該関連付け処理が行われた新文字認識結果データ56には、文字認識結果データ群57とするための情報が追加され、当該情報が追加された文字認識結果データ55は文字認識結果データ群57として記憶部30に格納される。
When the type
一方、活字一致判定部37は、活字一致判定処理(S41)において新活字認識結果データと一致する活字認識結果データがないと判定した場合に、読み込んだ新文字認識結果データ56を文字認識結果データ群57とするための情報を追加する。当該情報を追加された文字認識結果データ55は、文字認識結果データ群57として記憶部30に格納される(S44)。そして、この統合処理を終了する。
On the other hand, when it is determined that there is no type recognition result data that matches the new type recognition result data in the type match determination process (S41), the type
そして、データ統合部38は、活字一致判定部37により出力された一致データテーブル59に基づいて、関連付け処理が行われた複数の文字認識結果データ55を記憶部30から抽出する。データ統合部38は、抽出した複数の文字認識結果データ55(すなわち、新文字認識結果データ56および被一致文字認識結果データ58)の各手書き文字認識結果データを統合して、統合した結果を統合文字認識結果データ60として出力する(S45)。データ統合部38に出力された統合文字認識結果データ60は、記憶部に格納されて、統合処理は終了する。
Then, the
表示制御部33は、統合文字認識結果データ60を表示部36に表示させる場合に、次のように表示部36を制御する。統合文字認識結果データ60は、部分領域の属性データが、文字認識結果データ55では「手書き文字」と「活字」との2種類であったのが、「第1手書き文字」、「第2手書き文字」、「活字」の3種類もしくはそれを超える。部分領域の属性データが3種類を超える場合には、活字データが同一と判断される書類の数に応じて異なり、当該書類の数と手書き文字の属性の数とが一致するように増加する。例えば活字データが同一と判断される書類の数が3つであれば、部分領域の属性データは、「第1手書き文字」、「第2手書き文字」、「第3手書き文字」、「活字」の4種類となる。
The
部分領域の属性データが3種類となる場合には、文字認識結果データのプルダウンリスト43の表示は、統合文字認識結果データ60では、「文字列全て」、「手書きのみ」、「手書き1のみ」、「手書き2のみ」、「活字のみ」となる。ここで、「手書きのみ」が選択された場合に、部分領域の属性データが第1手書き文字または第2手書き文字にかかわらず、全ての手書き文字が第2画面領域41において表示される。「手書き1のみ」が選択された場合に、部分領域の属性データが第1手書き文字のみの文字列データが第2画面領域41において表示される。「手書き2のみ」が選択された場合に、部分領域の属性データが第2手書き文字のみの文字列データが第2画面領域41において表示される。
When there are three types of attribute data of the partial area, the character recognition result data pull-
さらに、第1画面領域40において表示される文字の色についても、第1手書き文字は赤色、第2手書き文字は青色、活字は黒色に表示される。また、第2画面領域において表示される文字の色についても同様である。ただし、これに限定するものではなく、第1手書き文字、第2手書き文字に関わらず手書き文字全般が赤色で表示されるようにしても良い。
Further, regarding the color of the character displayed in the
以上のように本実施形態の画像処理装置100によれば、文書を光学的に読み取って得られた画像データ53から認識された手書き文字認識結果データを抽出して、手書き文字認識結果データの文字列データを元の画像データ53が表示される第1画面領域40とは異なる第2画面領域41に表示させる。そして、修正部34ユーザからの修正の指示に基づいて、第3画面領域42に表示される文字データ処理部32により関連付けられた文字列データの変更を行う。
As described above, according to the
このため、ユーザが、手書き文字認識結果データと、元の画像データ53の中の手書き文字の属性データを有する文字画像とを見比べて修正することができる。また、誤認識が発生しやすい手書き文字認識結果データのみを抽出して第2画面領域41に表示させるため、手書き文字のOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に、効率よく作業することができる。
For this reason, the user can compare and correct the handwritten character recognition result data and the character image having the handwritten character attribute data in the
また、本実施形態に係る画像処理装置100によれば、活字の文字候補領域に対してもOCR処理を行なっている。このため、表示制御部33は、活字を抽出して手書き文字と選択可能な状態で表示させることができる。また、修正部34は、ユーザからの修正の指示に基づいて、活字のOCR処理結果に対しても、修正を受け付けて、文字列データの変更を行う。このため、ユーザは、活字に対してもOCR処理結果を修正することができる。
Further, according to the
また、本実施形態に係る画像処理装置100によれば、複数の画像データ53に対する活字認識結果データが所定の割合以上で一致する場合に、複数の画像データ53が同一の書類に対して修正が行われたものであるとみなす。そして、当該複数の画像データ53に係る複数の手書き文字認識結果データを統合する。統合された統合手書き文字認識結果は、第2画面領域41に表示される。
Also, according to the
これにより、修正者が複数いるような場合であっても、ユーザは、第2画面領域41に表示される手書き文字認識結果データと第1画面領域40において表示される元の画像データ53の中の部分領域に含まれる文字画像とを見比べて修正することができる。また、誤認識が発生しやすい手書き文字のみを抽出して第2画面領域41に表示させるため、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。また、複数の修正者による手書きの書き込みを統合して表示させることができるため、1つの原稿に対する作業効率を向上させることができる。
As a result, even if there are a plurality of correctors, the user can add the handwritten character recognition result data displayed in the
また、本実施形態に係る画像処理装置100によれば、第2画面領域41に表示された手書き文字認識結果データの文字列データ(すなわち手書き文字のOCR処理結果)を修正可能なフィールドをさらに別の第3画面領域42に表示させる。これにより、ユーザは、元の画像データ53による手書き文字を参照しながら、手書き文字のOCR処理結果の確認または修正を行うことができる。
Further, according to the
また、本実施形態に係る画像処理装置100によれば、第1画面領域40において、第1手書き文字認識結果データに対応する文字画像が赤色で表示され、第2手書き文字認識結果データに対応する文字画像が青色で表示される。このことは、第2画面領域41において表示される文字の色についても同様である。
Further, according to the
このため、複数の修正者が、例えば文章の内容の修正、誤字脱字の修正等の役割毎に分けられている場合に、役割毎の手書き文字による修正をユーザは把握できる。これにより、例えばユーザが手書き文字のOCR処理結果の修正を行う時間が限られるなどの制限がある場合に、優先度の高い役割と認識された手書き文字による修正を選んで手書き文字のOCR処理結果の修正を行うことができる。 For this reason, when a plurality of correctors are divided for each role such as correction of sentence content, correction of typographical error, etc., the user can grasp correction by handwritten characters for each role. Thereby, for example, when there is a restriction such as the time for the user to correct the OCR processing result of the handwritten character is limited, the correction by the handwritten character recognized as the role with high priority is selected and the OCR processing result of the handwritten character Corrections can be made.
また、本実施形態に係る画像処理装置100によれば、文字判定部31は、各部分領域の表示位置および表示範囲を文字判定結果データ54として出力する。このため、ユーザが、例えば第2画面領域41において抽出された文字列データを選択したときに、選択された文字列データに対応する部分領域の表示を変更できる。
Further, according to the
また、本実施形態に係る画像処理装置100によれば、第1画面領域40において、表示される活字の属性データを有する部分領域の文字画像が黒色で表示され、手書き文字の属性データを有する部分領域の文字画像が赤色で表示される。このため、ユーザは、第1画面領域40において、画像データ53における活字の文字画像と手書きの文字画像とを瞬時に見分けることができる。
In addition, according to the
また、本実施形態に係る画像処理装置100によれば、ユーザが、第2画面領域41に表示される文字列データに対応するチェックボックスにチェックを入れると、チェックされた文字列データに対応する部分領域の文字画像の上に取り消し線が表示される。
Further, according to the
このため、ユーザは、例えばOCR処理結果の確認または修正が終了した文字列データに対応するチェックボックスにチェックを入れることにより、当該文字列データに対応する部分領域の文字画像の表示を変更することができる。これにより、ユーザは、OCR処理結果の確認または修正が終了した文字列データに対応する部分領域の文字画像を瞬時に見分けることができ、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。 For this reason, for example, the user can change the display of the character image in the partial area corresponding to the character string data by checking a check box corresponding to the character string data for which the confirmation or correction of the OCR processing result is completed. Can do. Thereby, the user can instantly identify the character image of the partial area corresponding to the character string data for which the confirmation or correction of the OCR processing result has been completed, thereby preventing an erroneously recognized OCR processing result from being checked or corrected. be able to. Thereby, the user can work efficiently when correcting the OCR processing result.
また、本実施形態に係る画像処理装置100によれば、ユーザが、第2画面領域41に表示される文字列データをマウスなどのポインティングデバイスでクリックして反転表示させると、反転表示された文字列データに対応する部分領域の文字画像が反転表示される。
Further, according to the
このため、ユーザは、上述のような選択を第2画面領域41の文字列データに対して行うことにより、当該選択された文字列データに対応する部分領域の文字画像を第1画面領域40において瞬時に見分けることができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。
For this reason, the user performs the above-described selection on the character string data in the
また、本発明は、このような画像処理装置として実現できるだけでなく、画像処理装置が備える特徴的な処理部のそれぞれの動作をステップとして方法として実現することもでき、また、本発明は、各処理部の処理を行う集積回路として実現することもできる。さらに、本発明は、コンピュータに上記各ステップを実行させるためのプログラムとして実現することもできる。そのようなプログラムは、CD−ROM等の記録媒体またはインターネット等の伝送媒体を介して配信することもできる。また、本発明は、このような画像処理装置を内蔵するネットワーク複合機として実現することもできる。 In addition, the present invention can be realized not only as such an image processing apparatus but also as a method using each operation of a characteristic processing unit included in the image processing apparatus as a step. It can also be realized as an integrated circuit that performs processing of the processing unit. Furthermore, the present invention can also be realized as a program for causing a computer to execute the above steps. Such a program can also be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet. In addition, the present invention can be realized as a network complex machine incorporating such an image processing apparatus.
以上、本発明に係る画像処理装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。 Although the image processing apparatus according to the present invention has been described based on the embodiment, the present invention is not limited to this embodiment.
つまり、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 That is, the embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
例えば、上記実施の形態では、第1画面領域において表示される手書き文字の属性データに対応する部分領域の色が赤色で表示され、第1画面領域において表示される活字の属性データに対応する部分領域の色が黒色で表示される。このように、手書き文字の属性データに対応する部分領域と活字の属性データに対応する部分領域との表示形態を異なるものとしているが、これに限らない。例えば、手書き文字の属性データに対応する部分領域を囲う罫線の枠が太線の実線で表示され、活字の属性データに対応する部分領域を囲う罫線の枠が点線で表示されるように、文字候補領域を囲う罫線の枠の表示形態を異なるものとしても良い。また、例えば、手書き文字の属性データに対応する部分領域の文字が斜体表示され、活字の属性データに対応する部分領域の文字が元の画像データ53のままで表示されように、文字のフォントを異なるものとしても良い。
For example, in the above-described embodiment, the color of the partial area corresponding to the handwritten character attribute data displayed in the first screen area is displayed in red, and the part corresponding to the type attribute data displayed in the first screen area The color of the area is displayed in black. Thus, although the display form of the partial area | region corresponding to the attribute data of a handwritten character differs from the partial area | region corresponding to the attribute data of a type character, it is not restricted to this. For example, character candidates such that a ruled line frame surrounding a partial area corresponding to handwritten character attribute data is displayed as a bold solid line, and a ruled line frame surrounding a partial area corresponding to type attribute data is displayed as a dotted line The display form of the frame of the ruled line surrounding the area may be different. Further, for example, the character font is changed so that the characters in the partial area corresponding to the attribute data of the handwritten character are displayed in italics and the characters in the partial area corresponding to the attribute data of the type are displayed as the
また、上記実施の形態では、画像処理装置100には画像取得部39が含まれていないが、これに限らずに図11に示すように、画像取得部39が含まれる構成の画像処理装置200であっても良い。この画像処理装置200によれば、画像取得部39をさらに備えるため、スキャナまたはデジタルカメラなどの画像取得装置を別に用意しなくとも、上述の画像処理を行うことができる。
In the above embodiment, the
また、本実施の形態では、文字判定部31が文字候補領域の切出処理と手活判定処理とを行っており、文字データ処理部32が文字パターン関連付け処理を行っているが、これに限らない。文字候補領域の切出処理と、手活判定処理と、文字パターン関連付け処理とは、これらの3つの処理を3つの異なる処理部が単独により行っても良いし、1つの処理部が一括して行っても良いし、3つの処理のうちの2つの処理を1つの処理部が行い残りの1つの処理を別の1つの処理部が行っても良い。
In the present embodiment, the
また、上記実施の形態では、画像処理装置100として端末装置3、4を構成するハードウェアが機能しているが、これに限らずに、ネットワーク複合機1が画像処理装置100として機能しても良い。なお、この場合に、記憶部30は、図2におけるRAM12等によって実現される。文字判定部31、文字データ処理部32、表示制御部33、および修正部34は、図2におけるCPU10、制御プログラム50等によって実現される。入力部35は、図2における操作パネル15によって実現される。表示部36は、図2におけるディスプレイ16によって実現される。また、ネットワーク複合機1が文字認識結果データ55を作成するまでの処理を行い、その後の修正部34による処理を端末装置3、4が行うようにしても良い。
In the above embodiment, the hardware configuring the
また、上記実施の形態では、ユーザのワークフロー処理のステップS21において、ユーザはプルダウンリスト43から「手書きのみ」を選択しているが、これに限らずに、ユーザの必要に応じて「文字列全て」を選択しても良いし、「活字のみ」を選択しても良い。
In the above embodiment, the user selects “only handwriting” from the pull-
また、上記実施の形態では、統合処理において新文字認識結果データ56が生じると自動的に統合処理が行われているが、これに限らずに、ユーザが選択した複数の文字認識結果データ55に関してのみ統合処理を行うようにしても良い。また、統合処理を行うデータとしては、文字認識結果データに限らずに画像データであっても良く、この場合には、ユーザは画像データを複数選択し画像処理(S10〜S20)の結果として出力される文字認識結果データが利用されることになる。
In the above embodiment, the integration process is automatically performed when new character
これにより、この場合の画像処理装置は、活字一致判定部37が選択された文字認識結果データ55のみに対して活字一致判定処理を行うこととなる。このため、この場合の画像処理装置は、既に記憶部30に記憶されている全ての文字認識結果データ55に対して活字一致判定処理を行わなくとも良くなり、システムに係る負荷を軽減させることができる。
As a result, the image processing apparatus in this case performs the type match determination process only for the character
また、上記実施の形態では、各処理部において作成されるデータは、記憶部30(すなわちハードディスク)に記憶されるようにしているが、これに限らずに、例えば記憶部30にバッファされるものについてはRAM22に記憶されるようにしても良い。
Moreover, in the said embodiment, although the data produced in each process part are memorize | stored in the memory | storage part 30 (namely, hard disk), it is not restricted to this, For example, what is buffered by the memory |
また、上記実施の形態では、修正部34は、ユーザがプルダウンリスト43から属性データの区分を選択することにより、選択的に手書き文字または活字のいずれかの属性データを有する部分領域の文字列データを表示部36に表示させている。しかし、これに限らず、プルダウンリスト43が無くとも良く、自動的に手書き文字の属性データを有する部分領域の文字列データを表示させても良い。このように、少なくとも手書き文字の属性データを有する部分領域の文字列データを表示させることにより、OCR処理の認識精度が低い手書き文字のOCR処理結果を修正できるため、十分に誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐ効果を得ることができる。
In the above-described embodiment, the
また、上記実施の形態では、表示制御部33は、部分領域の文字列データを抽出して第2画面領域41に表示させているが、第2画面領域41に表示させるのは文字列データに限らない。例えば、文字判定部31が部分領域切出処理を行うことにより画像データ53から分解された部分領域の文字画像を表示させても良い。すなわち、文字判定部31によって処理された文字判定結果データ54に基づいて、第2画面領域41に手書き文字の部分領域に関する文字情報(文字画像)を抽出して表示すれば良く、上記実施の形態のように文字判定結果データ54がさらに文字データ処理部32によって処理された文字認識結果データ55に基づいて、第2画面領域41に手書き文字の部分領域に関する文字情報(すなわち、文字画像)が抽出されて表示されてもよいし、文字列データが抽出されて表示されても良い。
In the above embodiment, the
また、上記実施の形態では、修正部34は、ユーザからの修正の指示に基づいて、第3画面領域42において部分領域の文字列データの修正を受け付けて、文字列データの変更を行っているが、この表示を行う画面領域は第3画面領域42に限らない。例えば、ユーザからの文字列データの修正状況を表示する画面領域は、第1画面領域40であってもよいし第2画面領域41であっても良い。
Moreover, in the said embodiment, the correction |
本発明は、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる画像処理装置または当該画像処理装置を内蔵したネットワーク複合機等として利用することができる。 INDUSTRIAL APPLICABILITY The present invention can be used as an image processing apparatus that can prevent a misrecognized OCR processing result from being omitted from being confirmed or corrected, or as a network complex machine that incorporates the image processing apparatus.
1、2 ネットワーク複合機
3、4 端末装置
5 PSTN
6 LAN
7 デジタルカメラ
10 CPU
11 ROM
12 RAM
13 モデム
14 NCU
15 操作パネル
16 ディスプレイ
17 スキャナ
18 プリンタ
19 LANI/F
20 CPU
21 ハードディスク
22 RAM
23 入力装置
24 ディスプレイ
25 LANI/F
26 USBI/F
30 記憶部
31 文字判定部
32 文字データ処理部
33 表示制御部
34 修正部
35 入力部
36 表示部
37 活字一致判定部
38 データ統合部
39 画像取得部
40 第1画面領域
41 第2画面領域
42 第3画面領域
43 プルダウンリスト
44 チェックボックス
50 制御プログラム
51 画像処理プログラム
52 文字パターンデータ
53 画像データ
54 文字判定結果データ
55 文字認識結果データ
56 新文字認識結果データ
57 文字認識結果データ群
58 被一致文字認識結果データ
59 一致データテーブル
60 統合文字認識結果データ
100 画像処理装置
110 画像取得装置
200 画像処理装置
1, 2
6 LAN
7
11 ROM
12 RAM
13
15
20 CPU
21
23
26 USB I / F
DESCRIPTION OF
Claims (13)
表示部と、
前記画像データから文字候補領域を認識して、前記文字候補領域に含まれる文字が手書き文字であるか否かを判定して、手書き文字と判定した場合に当該判定の結果を手書き文字判定結果として出力する文字判定部と、
前記文字判定部により手書き文字であると判定された文字を文字認識の候補となる文字パターンと関連付けて、当該関連付けた結果を手書き文字認識結果として出力する文字データ処理部と、
前記画像データを前記表示部の第1画面領域に表示させ、前記文字判定部により出力された手書き文字判定結果を前記第1画面領域とは異なる前記表示部の第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記手書き文字判定結果に対応する前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記表示部の第3画面領域に表示させる表示制御部と、
ユーザからの修正の指示に基づいて、前記第3画面領域に表示された前記文字パターンの修正を受け付けて、前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンの変更を行う修正部と
を備える画像処理装置。 An image processing apparatus that processes image data obtained by optically reading a document,
A display unit;
When the character candidate area is recognized from the image data, it is determined whether or not the character included in the character candidate area is a handwritten character, and when the handwritten character is determined, the determination result is used as the handwritten character determination result. A character determination unit to output;
A character data processing unit that associates a character that is determined to be a handwritten character by the character determination unit with a character pattern that is a candidate for character recognition, and outputs the associated result as a handwritten character recognition result;
The image data is displayed on the first screen area of the display unit, and the handwritten character determination result output by the character determination unit is displayed on the second screen area of the display unit different from the first screen area, The display which displays the character pattern linked | related by the said character data process part among the said handwritten character recognition results corresponding to the said handwritten character determination result selected by the user in the 2nd screen area on the 3rd screen area of the said display part A control unit;
Based on the correction instruction from the user, the correction of the character pattern displayed in the third screen area is accepted, and the character pattern associated with the character data processing unit in the handwritten character recognition result is changed. An image processing apparatus comprising: a correction unit that performs the processing.
前記文字データ処理部は、さらに、前記文字判定部により判定された活字を前記文字パターンと関連付けて、当該関連付けた結果を活字認識結果として出力し、
前記表示制御部は、さらに、前記文字判定部により出力された活字判定結果を前記第2画面領域に表示させ、前記活字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記第3画面領域に表示させる
請求項1に記載の画像処理装置。 The character determination unit further determines whether or not the character included in the character candidate area is a type, and outputs the result of the determination as a type determination result when determining that the character is a type.
The character data processing unit further associates the type determined by the character determination unit with the character pattern, and outputs the associated result as a type recognition result,
The display control unit further displays the character determination result output by the character determination unit in the second screen area, and the character pattern associated by the character data processing unit among the character recognition results is displayed in the second screen area. The image processing apparatus according to claim 1, wherein the image processing apparatus is displayed in a three-screen area.
第1画像データに基づいて前記文字判定部により判定された第1活字判定結果と前記文字パターンとが前記文字データ処理部により関連付けられた第1活字認識結果と、第2画像データに基づいて前記文字判定部により判定された第2活字判定結果と前記文字パターンとが前記文字データ処理部により関連付けられた第2活字認識結果とが、所定の割合以上で一致するか否かを判定する活字一致判定部と、
前記第1活字認識結果と前記第2活字認識結果とが前記所定の割合以上で一致すると前記活字一致判定部が判定した場合に、前記第1画像データに基づいて前記文字判定部により判定された第1手書き文字と前記文字パターンとが前記文字データ処理部により関連付けられた第1手書き文字認識結果と、第2画像データに基づいて前記文字判定部により判定された第2手書き文字と前記文字パターンとが前記文字データ処理部により関連付けられた第2手書き文字認識結果とを統合させて統合手書き文字認識結果として出力するデータ統合部と
を備え、
前記表示制御部は、前記統合手書き文字認識結果を前記第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記第3画面領域に表示させ、
前記修正部は、ユーザからの修正指示に基づいて、前記第1手書き文字認識結果のうちで前記文字データ処理部により関連付けられた第1文字パターンの修正を受け付けて、前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた前記第1文字パターンの変更を行う、または、前記第2手書き文字認識結果のうちで前記文字データ処理部により関連付けられた第2文字パターンの修正を受け付けて、前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた前記第2文字パターンの変更を行う
請求項2に記載の画像処理装置。 further,
The first type recognition result determined by the character determining unit based on the first image data and the character pattern are associated with each other by the character data processing unit, and the second image data based on the second image data. Type match for determining whether the second type recognition result determined by the character determination unit matches the second type recognition result associated with the character pattern by the character data processing unit at a predetermined ratio or more. A determination unit;
When the type match determination unit determines that the first type recognition result and the second type recognition result match at the predetermined ratio or more, the character determination unit determines based on the first image data The first handwritten character and the character pattern determined by the character determining unit based on the first handwritten character recognition result in which the first handwritten character and the character pattern are associated by the character data processing unit, and the second image data. And a data integration unit that integrates the second handwritten character recognition result associated by the character data processing unit and outputs the result as an integrated handwritten character recognition result,
The display control unit displays the integrated handwritten character recognition result in the second screen region, and is associated with the character data processing unit among the integrated handwritten character recognition results selected by the user in the second screen region. The displayed character pattern in the third screen area,
The correction unit receives correction of the first character pattern associated by the character data processing unit among the first handwritten character recognition results based on a correction instruction from a user, and The first character pattern associated with the character data processing unit is changed, or the modification of the second character pattern associated with the character data processing unit among the second handwritten character recognition results is accepted. The image processing apparatus according to claim 2, wherein the second character pattern associated with the character data processing unit in the integrated handwritten character recognition result is changed.
請求項1から3のいずれか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the third screen area is a screen area different from the first screen area and the second screen area.
請求項4に記載の画像処理装置。 The display control unit displays the first handwritten character recognition result on the second screen area in a first display form, and displays the second handwritten character recognition result in a second display form different from the first display form. The image processing apparatus according to claim 4, wherein the image processing apparatus is displayed in the second screen area.
請求項1から5のいずれか1項に記載の画像処理装置。 The image processing according to any one of claims 1 to 5, wherein the character determination unit further outputs a display position and a display range of a character candidate area determined to include a handwritten character as the handwritten character determination result. apparatus.
前記表示制御部は、前記手書き文字判定結果および前記活字判定結果に基づいて、前記文字判定部により活字が含まれると判定された文字候補領域を第3表示形態により前記第1画面領域に表示させ、前記文字判定部により手書き文字が含まれると判定された文字候補領域を前記第3表示形態とは異なる第4表示形態により前記第1画面領域に表示させる
請求項6に記載の画像処理装置。 The character determination unit further determines whether or not the character included in the character candidate area is a type, and when determining that the character is a type, the result of the determination is the display position of the type in the image data. And output as a result of type judgment together with the display range of type,
The display control unit displays, in the first screen area, a character candidate area determined to include a type by the character determination unit based on the handwritten character determination result and the type determination result. The image processing apparatus according to claim 6, wherein the character candidate area determined by the character determination unit to include a handwritten character is displayed on the first screen area by a fourth display form different from the third display form.
請求項6または7に記載の画像処理装置。 The display control unit corresponds to a handwritten character determination result that is a target of the first selection when the user makes a first selection with respect to the handwritten character determination result displayed in the second screen area. The image processing apparatus according to claim 6, wherein a character candidate area to be displayed is displayed on the first screen area in a fifth display form.
請求項8に記載の画像処理装置。 The display control unit further determines the handwritten character that is the target of the second selection when the user makes a second selection with respect to the handwritten character determination result displayed in the second screen area. The image processing apparatus according to claim 8, wherein a character candidate area corresponding to the result is displayed on the first screen area in a sixth display form different from the fifth display form.
文書から光学的に前記画像データを取得する画像取得部を備える
請求項1から9のいずれか1項に記載の画像処理装置。 further,
The image processing apparatus according to claim 1, further comprising an image acquisition unit that optically acquires the image data from a document.
前記文字パターンを記憶している記憶部を備える
請求項1から10のいずれか1項に記載の画像処理装置。 further,
The image processing apparatus according to claim 1, further comprising a storage unit that stores the character pattern.
前記画像データから文字候補領域を認識して、前記文字候補領域に含まれる文字が手書き文字であるか否かを判定して、手書き文字と判定した場合に当該判定の結果を手書き文字判定結果として出力する文字判定ステップと、
前記文字判定ステップにより判定された手書き文字を文字認識の候補となる文字パターンと関連付けて、当該関連付けた結果を手書き文字認識結果として出力する文字データ処理ステップと、
前記画像データを表示部の第1画面領域に表示させ、前記文字判定ステップにより出力された手書き文字判定結果を前記第1画面領域とは異なる前記表示部の第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記手書き文字判定結果に対応する前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記表示部の第3画面領域に表示させる表示制御ステップと、
ユーザからの修正の指示に基づいて、前記第3画面領域に表示された前記文字パターンの修正を受け付けて、前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンの変更を行う修正ステップと
を備える画像処理方法。 An image processing method for processing image data obtained by optically reading a document,
When the character candidate area is recognized from the image data, it is determined whether or not the character included in the character candidate area is a handwritten character, and when the handwritten character is determined, the determination result is used as the handwritten character determination result. A character determination step to output;
A character data processing step of associating the handwritten character determined in the character determining step with a character pattern as a candidate for character recognition, and outputting the associated result as a handwritten character recognition result;
The image data is displayed in a first screen area of a display unit, the handwritten character determination result output in the character determination step is displayed in a second screen area of the display unit different from the first screen area, and the first Display control for displaying the character pattern associated by the character data processing unit in the handwritten character recognition result corresponding to the handwritten character determination result selected by the user in the two-screen region in the third screen region of the display unit Steps,
Based on the correction instruction from the user, the correction of the character pattern displayed in the third screen area is accepted, and the character pattern associated with the character data processing unit in the handwritten character recognition result is changed. An image processing method comprising: a correction step to be performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011054752A JP2012190357A (en) | 2011-03-11 | 2011-03-11 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011054752A JP2012190357A (en) | 2011-03-11 | 2011-03-11 | Image processing device, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012190357A true JP2012190357A (en) | 2012-10-04 |
Family
ID=47083410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011054752A Withdrawn JP2012190357A (en) | 2011-03-11 | 2011-03-11 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012190357A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017162033A (en) * | 2016-03-07 | 2017-09-14 | キヤノン株式会社 | Information processing device and control method and program thereof |
JP2020141332A (en) * | 2019-02-28 | 2020-09-03 | キヤノン株式会社 | Image processing device, control method thereof, and program |
-
2011
- 2011-03-11 JP JP2011054752A patent/JP2012190357A/en not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017162033A (en) * | 2016-03-07 | 2017-09-14 | キヤノン株式会社 | Information processing device and control method and program thereof |
JP2020141332A (en) * | 2019-02-28 | 2020-09-03 | キヤノン株式会社 | Image processing device, control method thereof, and program |
JP7282550B2 (en) | 2019-02-28 | 2023-05-29 | キヤノン株式会社 | IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8610929B2 (en) | Image processing apparatus, control method therefor, and program | |
JP5712487B2 (en) | Image processing apparatus, image processing system, image processing method, and program | |
EP1995686B1 (en) | Document processing device and document processing method | |
US20010043740A1 (en) | Character recognizing device, image reading device, character recognizing method, and program product | |
JP6762722B2 (en) | Information processing equipment, control methods, and programs | |
US11418658B2 (en) | Image processing apparatus, image processing system, image processing method, and storage medium | |
JP2016139982A (en) | Image processing apparatus and image forming system | |
JP2008059157A (en) | Document confirmation support system, document confirmation support device and program | |
US20230206672A1 (en) | Image processing apparatus, control method of image processing apparatus, and storage medium | |
US20220189186A1 (en) | Image processing apparatus, image processing method, and non-transitory storage medium | |
JP2014044620A (en) | Information processor, information processing method and program | |
US7738703B2 (en) | Image processing apparatus, image processing method and computer readable medium storing image processing program | |
US11503170B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2022162908A (en) | Image processing apparatus, image processing method, and program | |
JP2012190357A (en) | Image processing device, image processing method and program | |
JP5089524B2 (en) | Document processing apparatus, document processing system, document processing method, and document processing program | |
JP2009026075A (en) | Image processing device | |
US20110134494A1 (en) | Image scanning apparatus, control method for image scanning apparatus, and storage medium | |
JP5381225B2 (en) | Information processing apparatus and program | |
JP2019074875A (en) | Information processor, control method and program | |
JP2020052480A (en) | Information processing apparatus and program | |
US11659106B2 (en) | Information processing apparatus, non-transitory computer readable medium, and character recognition system | |
JP4280939B2 (en) | Position plane image recognition computer software | |
US7831093B2 (en) | Method for calculating and adjusting photo and text separation performance | |
JP2001202471A (en) | Data entry system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20140513 |