JP2012190357A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2012190357A
JP2012190357A JP2011054752A JP2011054752A JP2012190357A JP 2012190357 A JP2012190357 A JP 2012190357A JP 2011054752 A JP2011054752 A JP 2011054752A JP 2011054752 A JP2011054752 A JP 2011054752A JP 2012190357 A JP2012190357 A JP 2012190357A
Authority
JP
Japan
Prior art keywords
character
data
handwritten
unit
screen area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011054752A
Other languages
Japanese (ja)
Inventor
Kenji Dokoku
賢治 堂國
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Murata Machinery Ltd
Original Assignee
Murata Machinery Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Machinery Ltd filed Critical Murata Machinery Ltd
Priority to JP2011054752A priority Critical patent/JP2012190357A/en
Publication of JP2012190357A publication Critical patent/JP2012190357A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device that hardly causes incomplete correction and incomplete checks when a person corrects or checks the result of OCR processing on handwritten characters.SOLUTION: An image processing device includes: a display unit; a character determination unit for recognizing a character candidate area in image data, determining whether or not a character in the character candidate area is a handwritten character, and outputting the determination result as a handwritten character determination result when determining that the character is a handwritten character; a character data processing unit for associating the handwritten character determined by the character determination unit with a character pattern of a character recognition candidate, and outputting the association result as a handwritten character recognition result; a display control unit for displaying the image data in a first screen area of the display unit, displaying the handwritten character determination result in a second screen area of the display unit, and displaying the character pattern of the handwritten character recognition result in a third screen area of the display unit; and a correction unit for changing the character pattern in response to correction of the character pattern displayed in the third screen area on the basis of correction instruction by a user.

Description

本発明は、手書き文字および活字の文字認識を行う画像処理装置、画像処理方法、およびプログラムに関するものである。   The present invention relates to an image processing apparatus, an image processing method, and a program for recognizing handwritten characters and printed characters.

従来、画像データから手書き文字と活字とを認識する画像処理、いわゆる光学文字認識(OCR:Optical Character Recognition)処理がある。手書き文字に対するOCR処理の精度は、人ごとに筆跡が異なるために、活字文字の場合よりも大幅に悪い。そこで、特許文献1の技術では、手書き文字と活字とを区別して認識させることにより、手書き文字の検索精度の向上を図っている。   2. Description of the Related Art Conventionally, there is image processing for recognizing handwritten characters and type characters from image data, so-called optical character recognition (OCR: Optical Character Recognition) processing. The accuracy of OCR processing for handwritten characters is significantly worse than for printed characters because the handwriting varies from person to person. Therefore, in the technique of Patent Literature 1, the handwritten character search accuracy is improved by distinguishing and recognizing handwritten characters and printed characters.

しかしながら、特許文献1のように手書き文字のOCR処理として活字のOCR処理とは異なる処理を行わせると、一つの手書き文字に対して複数のOCR処理結果を候補として記憶しておく必要があり、手書き文字ごとに記憶されるOCR処理結果の量が膨大になる。また、手書き文字の文字パターンとして多くのパターンを記憶させることにより手書き文字の認識精度を向上させると、手書き文字の文字パターンを多く記憶しておく必要があるため文字パターンを参照する処理の量が膨大になる。このように、手書き文字に対してOCR処理精度を向上させようとする場合に、OCR処理にかかる負荷が膨大になり、処理時間が長くなってしまう。また、OCR処理にかかる時間が少ない画像処理装置を製造しようとする場合に、演算速度の速い中央処理装置(CPU:Central Processing Unit)、または、容量の大きいメモリを採用する必要がある。このため、これを実現するのに、製造コストが多くかかってしまうという問題がある。   However, if a process different from the OCR process of type is performed as the OCR process of handwritten characters as in Patent Document 1, it is necessary to store a plurality of OCR process results as candidates for one handwritten character. The amount of OCR processing results stored for each handwritten character is enormous. Moreover, if the recognition accuracy of handwritten characters is improved by storing many patterns as character patterns of handwritten characters, it is necessary to store many character patterns of handwritten characters. Become enormous. Thus, when trying to improve the OCR processing accuracy for handwritten characters, the load on the OCR processing becomes enormous and the processing time becomes long. In addition, when an image processing apparatus that takes less time for OCR processing is to be manufactured, it is necessary to employ a central processing unit (CPU) having a high calculation speed or a memory having a large capacity. For this reason, there is a problem that the manufacturing cost is high to realize this.

また、特に手書き文字の割合が多い原稿に対して文字認識処理を行わせる場合に、多くの処理負荷がかかることになり、このような原稿に対してOCR処理装置を導入して効率化を図ってもほとんど効果がない。例えば、手書き文字の割合が多い原稿には、元の活字の書類に対して手書きで修正の指示(原稿の校正など)を書きこむ場合がある。このように手書き文字の割合が多い原稿に対してOCR処理装置を導入する際に、手書き文字のOCR処理結果に対しては人による確認または修正を行うことは有効であり、そのニーズはある。   In addition, when a character recognition process is performed on a manuscript with a large proportion of handwritten characters, a large processing load is applied. For this manuscript, an OCR processing device is introduced to improve efficiency. But it has little effect. For example, in a manuscript with a high percentage of handwritten characters, a correction instruction (such as proofreading of the manuscript) may be written by hand on the original type document. When an OCR processing apparatus is introduced for a document having a large proportion of handwritten characters as described above, it is effective to check or correct the OCR processing result of handwritten characters by humans, and there is a need for it.

特開2002−312398号公報JP 2002-312398 A

ところが、手書き文字のOCR処理結果について人が確認および修正を行うことになると、手書き文字の量が多くなるほど確認漏れまたは修正漏れが生じやすくなるという問題が生じる。   However, when a person checks and corrects the OCR processing result of a handwritten character, there arises a problem that an omission of confirmation or correction is more likely to occur as the amount of handwritten characters increases.

そこで、本発明は、このような状況に鑑みてなされたものであり、手書き文字のOCR処理結果を、人が修正または確認を行う際に、修正漏れおよび確認漏れが生じにくい画像処理装置を提供することを目的とする。   Therefore, the present invention has been made in view of such a situation, and provides an image processing apparatus that is less likely to cause omission of correction and omission of confirmation when a person corrects or confirms an OCR processing result of a handwritten character. The purpose is to do.

上記目的を達成するために、本発明の一形態に係る画像処理装置は、文書を光学的に読み取って得られる画像データに対して処理を行う画像処理装置であって、表示部と、前記画像データから文字候補領域を認識して、前記文字候補領域に含まれる文字が手書き文字であるか否かを判定して、手書き文字と判定した場合に当該判定の結果を手書き文字判定結果として出力する文字判定部と、前記文字判定部により手書き文字であると判定された文字を文字認識の候補となる文字パターンと関連付けて、当該関連付けた結果を手書き文字認識結果として出力する文字データ処理部と、前記画像データを前記表示部の第1画面領域に表示させ、前記文字判定部により出力された手書き文字判定結果を前記第1画面領域とは異なる前記表示部の第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記手書き文字判定結果に対応する前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記表示部の第3画面領域に表示させる表示制御部と、ユーザからの修正の指示に基づいて、前記第3画面領域に表示された前記文字パターンの修正を受け付けて、前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンの変更を行う修正部とを備える。   In order to achieve the above object, an image processing apparatus according to an aspect of the present invention is an image processing apparatus that performs processing on image data obtained by optically reading a document, the display unit, and the image The character candidate area is recognized from the data, it is determined whether or not the character included in the character candidate area is a handwritten character, and when it is determined to be a handwritten character, the determination result is output as a handwritten character determination result. A character determination unit, a character data processing unit that associates the character determined to be a handwritten character by the character determination unit with a character pattern that is a candidate for character recognition, and outputs the associated result as a handwritten character recognition result; The image data is displayed in the first screen area of the display unit, and the handwritten character determination result output by the character determination unit is different from the first screen area in the second of the display unit. A character pattern associated with the character data processing unit among the handwritten character recognition results corresponding to the handwritten character determination result selected by the user in the second screen region. Based on the display control unit to be displayed in the three-screen area and the correction instruction from the user, the correction of the character pattern displayed in the third screen area is accepted, and the character data among the handwritten character recognition results A correction unit that changes the character pattern associated by the processing unit.

これによれば、文書を光学的に読み取って得られた画像データから認識された手書き文字を抽出して、認識された手書き文字判定結果を、画像データが表示される第1画面領域とは異なる第2画面領域に表示させる。そして、修正部が、ユーザからの修正の指示に基づいて、第3画面領域に表示される文字データ処理部により関連付けられた文字パターン(いわゆる、OCR処理結果)の変更を行う。   According to this, the recognized handwritten character is extracted from the image data obtained by optically reading the document, and the recognized handwritten character determination result is different from the first screen area where the image data is displayed. It is displayed in the second screen area. And a correction part changes the character pattern (what is called OCR process result) linked | related by the character data processing part displayed on a 3rd screen area | region based on the instruction | indication of a correction from a user.

このため、ユーザが、手書き文字認識結果と元の画像データの中の手書き文字とを見比べて修正することができる。また、誤認識が発生しやすい手書き文字のみを抽出して第2画面領域に表示させるため、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。   For this reason, the user can compare and correct the handwritten character recognition result and the handwritten character in the original image data. Further, since only handwritten characters that are likely to be erroneously recognized are extracted and displayed in the second screen area, it is possible to prevent omission of confirmation or omission of erroneously recognized OCR processing results. Thereby, the user can work efficiently when correcting the OCR processing result.

また、好ましくは、前記文字判定部は、さらに、前記文字候補領域に含まれる文字が、活字であるか否かを判定して、活字であると判定した場合に当該判定の結果を活字判定結果として出力し、前記文字データ処理部は、さらに、前記文字判定部により判定された活字を前記文字パターンと関連付けて、当該関連付けた結果を活字認識結果として出力し、前記表示制御部は、さらに、前記文字判定部により出力された活字判定結果を前記第2画面領域に表示させ、前記活字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記第3画面領域に表示させる。   Preferably, the character determination unit further determines whether or not the character included in the character candidate area is a type, and determines that the character is a type, and the result of the determination is a type determination result. The character data processing unit further associates the type determined by the character determination unit with the character pattern, outputs the associated result as a type recognition result, and the display control unit further includes: The type determination result output by the character determination unit is displayed in the second screen area, and the character pattern associated by the character data processing unit among the type recognition results is displayed in the third screen area.

これによれば、文字判定部が活字の文字候補領域に対しても活字判定結果を出力し、また、文字データ処理部が活字認識結果を出力している。つまり、画像処理装置は、活字に対してもOCR処理を行う。   According to this, the character determination unit outputs the type determination result also for the character candidate area of the type, and the character data processing unit outputs the type recognition result. In other words, the image processing apparatus performs OCR processing on type characters.

このため、抽出された活字判定結果は、手書き文字判定結果と選択可能な状態で表示させることができる。また、例えば、修正部が、ユーザからの修正の指示に基づいて、活字認識結果のうちで活字のOCR処理結果の修正を行っても良い。このように、ユーザは、活字に対しても、OCR処理結果を確認または修正することができる。   For this reason, the extracted character determination result can be displayed in a selectable state with the handwritten character determination result. Further, for example, the correction unit may correct the OCR processing result of the type in the type recognition result based on the correction instruction from the user. In this way, the user can check or correct the OCR processing result even for the type.

また、好ましくは、画像処理装置はさらに、第1画像データに基づいて前記文字判定部により判定された第1活字判定結果と前記文字パターンとが前記文字データ処理部により関連付けられた第1活字認識結果と、第2画像データに基づいて前記文字判定部により判定された第2活字判定結果と前記文字パターンとが前記文字データ処理部により関連付けられた第2活字認識結果とが、所定の割合以上で一致するか否かを判定する活字一致判定部と、前記第1活字認識結果と前記第2活字認識結果とが前記所定の割合以上で一致すると前記活字一致判定部が判定した場合に、前記第1画像データに基づいて前記文字判定部により判定された第1手書き文字と前記文字パターンとが前記文字データ処理部により関連付けられた第1手書き文字認識結果と、第2画像データに基づいて前記文字判定部により判定された第2手書き文字と前記文字パターンとが前記文字データ処理部により関連付けられた第2手書き文字認識結果とを統合させて統合手書き文字認識結果として出力するデータ統合部と、を備え、前記表示制御部は、前記統合手書き文字認識結果を前記第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記第3画面領域に表示させ、前記修正部は、ユーザからの修正指示に基づいて、前記第1手書き文字認識結果のうちで前記文字データ処理部により関連付けられた第1文字パターンの修正を受け付けて、前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた前記第1文字パターンの変更を行う、または、前記第2手書き文字認識結果のうちで前記文字データ処理部により関連付けられた第2文字パターンの修正を受け付けて、前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた前記第2文字パターンの変更を行う。   Preferably, the image processing apparatus further includes a first type recognition in which the first character determination result determined by the character determination unit based on the first image data and the character pattern are associated by the character data processing unit. A result and a second type recognition result obtained by associating the second character determination result determined by the character determination unit based on the second image data and the character pattern by the character data processing unit are a predetermined ratio or more. When the type match determination unit determines that the first type recognition result and the second type recognition result match at the predetermined ratio or more, A first handwritten character recognition in which the first handwritten character determined by the character determining unit based on the first image data and the character pattern are associated by the character data processing unit. Integrated handwriting by integrating the result and the second handwritten character recognition result in which the second handwritten character determined by the character determining unit based on the second image data and the character pattern are associated by the character data processing unit A data integration unit that outputs as a character recognition result, wherein the display control unit displays the integrated handwritten character recognition result in the second screen region, and the integrated handwriting selected by the user in the second screen region Among the character recognition results, the character pattern associated with the character data processing unit is displayed in the third screen area, and the correction unit is configured to display the first handwritten character recognition result based on a correction instruction from a user. Accepting correction of the first character pattern associated by the character data processing unit in the integrated handwritten character recognition result Change the first character pattern associated by the data processing unit, or accept the correction of the second character pattern associated by the character data processing unit in the second handwritten character recognition result, In the integrated handwritten character recognition result, the second character pattern associated with the character data processing unit is changed.

手書き文字を書類に書き込む修正者には、文章の内容のみを修正する修正者もいれば、誤字脱字のみを修正する修正者もいる。このように、修正者が複数人いる場合に、同一の書類を複数印刷し、複数人の修正者がそれぞれの書類に対して手書きで修正する場合に、一部の書類を複数人の修正者で使い回して修正するよりも効率が良い。   Among the correctors who write handwritten characters in the document, there are correctors who correct only the content of the text, and there are correctors who correct only typographical errors. In this way, when there are multiple correctors, the same document is printed multiple times, and when multiple correctors modify each document by handwriting, some of the documents are corrected by multiple correctors. It is more efficient than reusing and correcting.

複数の書類毎に手書き修正箇所(手書き文字の文字列)が抽出されると、ユーザは、同一の書類であるのに、複数の書類毎に処理された結果に基づいてOCR処理結果の確認または修正を行わなくてはならず、作業効率が悪い。また、修正者が複数人いると、画像データも修正者の数だけ作成されることになるため、複数の画像データの保存先が画像データ毎に異なってしまう可能性があり、例えばある一人の修正者の修正すべてを反映できなくなるなどのリスクを伴う。さらに、同一の書類に対して画像データを複数作成することになるため、画像処理後のデータが記憶される容量を多く消費してしまう。   When a handwritten correction portion (character string of handwritten characters) is extracted for each of a plurality of documents, the user confirms an OCR processing result based on a result processed for each of the plurality of documents even though they are the same document. It must be corrected and work efficiency is poor. In addition, when there are a plurality of correctors, image data is also created by the number of correctors, and therefore the storage destination of the plurality of image data may be different for each image data. There is a risk that all corrections by the corrector cannot be reflected. Furthermore, since a plurality of image data are created for the same document, a large amount of capacity for storing the data after image processing is consumed.

この課題を解決するためになされたものであり、複数の画像データに対する複数の活字認識結果が所定の割合以上で一致する場合に、文字データ処理部により出力された複数の画像データに対する複数の手書き文字認識結果を統合する。つまり、画像処理装置は、活字のOCR処理結果が所定の割合以上で一致する場合に、複数の画像データが同一の書類に対して修正が行われたものであるとみなして、手書き文字のOCR処理結果を統合する。そして、表示制御部は、統合された統合手書き文字認識結果を、表示部の第2画面領域に表示させる。   In order to solve this problem, when a plurality of type recognition results for a plurality of image data match at a predetermined ratio or more, a plurality of handwritings for a plurality of image data output by the character data processing unit Integrate character recognition results. In other words, the image processing apparatus regards that a plurality of image data has been corrected for the same document when the OCR processing result of the type matches at a predetermined ratio or more, and the OCR of the handwritten character is considered. Integrate processing results. And a display control part displays the integrated integrated handwritten character recognition result on the 2nd screen area | region of a display part.

これにより、修正者が複数いるような場合であっても、ユーザは、統合手書き文字認識結果と元の画像データの中の手書き文字とを見比べて修正することができる。また、誤認識が発生しやすい手書き文字のみを抽出して第2画面領域に表示させるため、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。また、複数の修正者による手書きの書き込みを統合して表示させることができるため、1つの書類に対する作業効率を向上させることができる。   As a result, even when there are a plurality of correctors, the user can compare and correct the integrated handwritten character recognition result with the handwritten characters in the original image data. Further, since only handwritten characters that are likely to be erroneously recognized are extracted and displayed in the second screen area, it is possible to prevent omission of confirmation or omission of erroneously recognized OCR processing results. Thereby, the user can work efficiently when correcting the OCR processing result. In addition, since handwritten writing by a plurality of correctors can be displayed in an integrated manner, work efficiency for one document can be improved.

また、好ましくは、前記第3画面領域は、前記第1画面領域および前記第2画面領域とは異なる画面領域である。   Preferably, the third screen area is a screen area different from the first screen area and the second screen area.

これによれば、第2画面領域に表示された手書き文字判定結果に対応するOCR処理結果の修正状況を表示させる画面領域としてさらに別の画面領域である第3画面領域に表示させる。これにより、ユーザは、元の画像データによる手書き文字を参照しながら、手書き文字のOCR処理結果の確認または修正を行うことができる。   According to this, as a screen area for displaying the correction status of the OCR processing result corresponding to the handwritten character determination result displayed in the second screen area, it is displayed in a third screen area, which is another screen area. Thereby, the user can confirm or correct the OCR processing result of the handwritten character while referring to the handwritten character based on the original image data.

また、好ましくは、前記表示制御部は、前記第1手書き文字認識結果を第1表示形態により前記第2画面領域に表示させ、前記第2手書き文字認識結果を前記第1表示形態とは異なる第2表示形態により前記第2画面領域に表示させる。   Preferably, the display control unit displays the first handwritten character recognition result on the second screen area in a first display form, and the second handwritten character recognition result is different from the first display form. It is displayed in the second screen area in the two display mode.

これによれば、表示制御部は、例えば複数の修正者が書き込んだ手書き文字である、第1手書き文字判定結果と第2手書き文字判定結果とを異なる表示形態により第2画面領域に表示させる。このため、例えば複数の修正者が、上述したような文章の内容の修正、誤字脱字の修正等のように修正の内容の種別毎に役割分担されている場合に、役割毎の手書き文字による修正をユーザは把握できる。これにより、例えば、ユーザは、手書き文字のOCR処理結果の修正を行う時間が限られるなどの制限がある場合に、優先度の高い役割と認識された手書き文字による修正を選んで手書き文字のOCR処理結果の修正を行うことができる。   According to this, the display control unit displays the first handwritten character determination result and the second handwritten character determination result, which are handwritten characters written by a plurality of correctors, for example, in the second screen area in different display forms. For this reason, for example, when a plurality of correctors are assigned roles for each type of correction content, such as correction of text content and correction of typographical errors as described above, correction by handwritten characters for each role Can be grasped by the user. Thereby, for example, when there is a restriction such as a time limit for correcting the OCR processing result of the handwritten character, the user selects correction by the handwritten character recognized as a role having a high priority and performs OCR of the handwritten character. The processing result can be corrected.

また、好ましくは、前記文字判定部は、前記手書き文字判定結果としてさらに、手書き文字が含まれると判定された文字候補領域の表示位置および表示範囲を出力する。   Preferably, the character determination unit further outputs a display position and a display range of a character candidate area determined to include a handwritten character as the handwritten character determination result.

これによれば、文字判定部は、文字候補領域の表示位置および表示範囲を手書き文字判定結果として出力する。このため、例えば、ユーザが、第2画面領域において表示される文字判定結果を選択したときに、選択された文字判定結果に対応する文字候補領域の表示形態を変更するなどの処理に利用することができる。   According to this, a character determination part outputs the display position and display range of a character candidate area | region as a handwritten character determination result. For this reason, for example, when the user selects a character determination result displayed in the second screen area, it is used for processing such as changing the display form of the character candidate area corresponding to the selected character determination result. Can do.

また、好ましくは、前記文字判定部は、さらに、前記文字候補領域に含まれる文字が、活字であるか否かを判定して、活字であると判定した場合に当該判定の結果を前記画像データにおける活字の表示位置および活字の表示範囲とともに活字判定結果として出力し、前記表示制御部は、前記手書き文字判定結果および前記活字判定結果に基づいて、前記文字判定部により活字が含まれると判定された文字候補領域を第3表示形態により前記第1画面領域に表示させ、前記文字判定部により手書き文字が含まれると判定された文字候補領域を前記第3表示形態とは異なる第4表示形態により前記第1画面領域に表示させる。   Preferably, the character determination unit further determines whether or not the character included in the character candidate area is a type, and determines that the character is a type, the result of the determination is the image data. Are output as a type determination result together with the display position of the type and the display range of the type, and the display control unit is determined by the character determination unit to include a type based on the handwritten character determination result and the type determination result The character candidate area is displayed on the first screen area in a third display form, and the character candidate area determined by the character determination unit to include a handwritten character is displayed in a fourth display form different from the third display form. The first screen area is displayed.

これによれば、表示制御部は、表示される活字の文字候補領域の表示形態と手書き文字の文字候補領域の表示形態とを異なる表示形態で第1画面領域に表示させる。このため、ユーザは、第1画面領域において、画像データにおける活字の文字候補領域と手書きの文字候補領域とを瞬時に見分けることができる。   According to this, a display control part displays the display form of the character candidate area | region of the displayed type character, and the display form of the character candidate area | region of a handwritten character on a 1st screen area | region with a different display form. For this reason, the user can instantly distinguish between a character candidate area for printed characters and a handwritten character candidate area in the image data in the first screen area.

また、好ましくは、前記表示制御部は、前記第2画面領域に表示される手書き文字判定結果に対して第1の選択をユーザが行った場合に、前記第1の選択の対象となった手書き文字判定結果に対応する文字候補領域を第5表示形態により前記第1画面領域に表示させる。   In addition, preferably, the display control unit, when a user makes a first selection with respect to a handwritten character determination result displayed in the second screen area, the handwriting that is the target of the first selection A character candidate area corresponding to the character determination result is displayed in the first screen area in the fifth display form.

これによれば、第2画面領域において表示される手書き文字判定結果に対して、第1の選択をユーザが行った場合に、第1の選択が行われた手書き文字判定結果に対応する文字候補領域を第5表示形態により第1画面領域に表示させる。具体的には、ユーザが、第2画面領域に表示される手書き文字判定結果の中から修正部によって第1の選択として、例えば、手書き文字判定結果に対応するチェックボックスにチェックを入れる。この場合に、表示制御部は、チェックされた手書き文字判定結果に対応する文字候補領域の表示形態を変更して第1画面領域に表示させる。   According to this, when the user makes the first selection with respect to the handwritten character determination result displayed in the second screen area, the character candidate corresponding to the handwritten character determination result in which the first selection has been made. The area is displayed on the first screen area in the fifth display mode. Specifically, the user checks, for example, a check box corresponding to the handwritten character determination result as the first selection by the correction unit from the handwritten character determination results displayed in the second screen area. In this case, a display control part changes the display form of the character candidate area | region corresponding to the checked handwritten character determination result, and displays it on a 1st screen area | region.

このため、ユーザは、例えば、OCR処理結果の確認または修正が終了した手書き文字判定結果に対して第1の選択を行うことにより、第1の選択が行われた文字候補領域の表示を変更することができる。これにより、ユーザは、OCR処理結果の確認または修正が終了した手書き文字判定結果に対応する文字候補領域を瞬時に見分けることができ、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。このため、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。   For this reason, for example, the user changes the display of the character candidate area in which the first selection has been performed by performing the first selection on the handwritten character determination result for which the confirmation or correction of the OCR processing result has been completed. be able to. Thereby, the user can instantly identify the character candidate region corresponding to the handwritten character determination result for which the confirmation or correction of the OCR processing result has been completed, and prevent the erroneous recognition or the omission of correction of the erroneously recognized OCR processing result. Can do. For this reason, the user can work efficiently when correcting the OCR processing result.

また、好ましくは、前記表示制御部は、さらに、前記第2画面領域に表示される手書き文字判定結果に対して第2の選択をユーザが行った場合に、部前記第2の選択の対象となった手書き文字判定結果に対応する文字候補領域を前記第5表示形態とは異なる第6表示形態により前記第1画面領域に表示させる。   Preferably, the display control unit further sets the second selection target when the user makes a second selection on the handwritten character determination result displayed in the second screen area. The candidate character area corresponding to the handwritten character determination result is displayed on the first screen area in a sixth display form different from the fifth display form.

これによれば、第2画面領域において表示される手書き文字判定結果に対して、第2の選択をユーザが行った場合に、第2の選択が行われた手書き文字判定結果に対応する文字候補領域を第5表示形態とは異なる第6表示形態により第1画面領域に表示させる。具体的には、ユーザが、第2画面領域に表示される手書き文字判定結果の中から修正部によって第2の選択として、例えば、手書き文字判定結果をマウスなどのポインティングデバイスでクリックして反転表示させる。この場合に、表示制御部は、反転表示された手書き文字判定結果に対応する文字候補領域の表示を第5表示形態とは異なるものにさらに変更して第1表示領域に表示させる。   According to this, when the user performs the second selection on the handwritten character determination result displayed in the second screen area, the character candidate corresponding to the handwritten character determination result on which the second selection has been performed. The area is displayed on the first screen area in a sixth display form different from the fifth display form. Specifically, as a second selection by the correction unit from among the handwritten character determination results displayed in the second screen area, for example, the user clicks and highlights the handwritten character determination result with a pointing device such as a mouse. Let In this case, the display control unit further changes the display of the character candidate area corresponding to the highlighted handwritten character determination result to a display different from the fifth display form, and displays it in the first display area.

このため、ユーザは、例えば、手書き文字判定結果をマウスなどのポインティングデバイスをクリックするなどして選択することにより、当該選択された手書き文字判定結果に対応する文字候補領域を、第1画面領域において瞬時に見分けることができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。   For this reason, for example, the user selects a character candidate area corresponding to the selected handwritten character determination result in the first screen area by, for example, selecting a handwritten character determination result by clicking a pointing device such as a mouse. Can be identified instantly. Thereby, the user can work efficiently when correcting the OCR processing result.

また、好ましくは、画像処理装置はさらに、文書から光学的に前記画像データを取得する画像取得部を備える。   Preferably, the image processing apparatus further includes an image acquisition unit that optically acquires the image data from a document.

これによれば、画像取得部をさらに備えるため、スキャナまたはデジタルカメラなどの画像取得装置を別に用意しなくとも、単独で書類から画像データを取得することができ請求項1から請求項9に対応する処理を行うことができる。   According to this, since the image acquisition unit is further provided, the image data can be acquired independently from the document without separately preparing an image acquisition device such as a scanner or a digital camera. Can be processed.

また、好ましくは、画像処理装置はさらに、前記文字パターンを記憶している記憶部を備える。   Preferably, the image processing apparatus further includes a storage unit that stores the character pattern.

これによれば、記憶部をさらに備えるため、ハードディスクまたはメモリなどの記憶装置を別に用意しなくとも、単独でOCR処理を行うことができ請求項1から請求項10に対応する処理を行うことができる。   According to this, since the storage unit is further provided, the OCR processing can be performed independently without preparing a separate storage device such as a hard disk or a memory, and the processing corresponding to claims 1 to 10 can be performed. it can.

また、本発明は、このような画像処理装置として実現できるだけでなく、画像処理装置が備える特徴的な処理部のそれぞれの動作をステップとして方法として実現することもでき、また、本発明は、各処理部の処理を行う集積回路として実現することもできる。さらに、本発明は、コンピュータに上記各ステップを実行させるためのプログラムとして実現することもできる。そのようなプログラムは、CD−ROM等の記録媒体またはインターネット等の伝送媒体を介して配信することもできる。また、本発明は、このような画像処理装置を内蔵するネットワーク複合機として実現することもできる。   In addition, the present invention can be realized not only as such an image processing apparatus but also as a method using each operation of a characteristic processing unit included in the image processing apparatus as a step. It can also be realized as an integrated circuit that performs processing of the processing unit. Furthermore, the present invention can also be realized as a program for causing a computer to execute the above steps. Such a program can also be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet. In addition, the present invention can be realized as a network complex machine incorporating such an image processing apparatus.

本発明に係る画像処理装置によれば、ユーザは、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができ、OCR処理結果を修正する際に効率よく作業することができる。   According to the image processing apparatus of the present invention, the user can prevent omission of confirmation or omission of erroneously recognized OCR processing results, and can efficiently work when correcting the OCR processing results.

本発明の一実施形態における画像処理装置を含むワークフローシステムの構成を示す図である。It is a figure which shows the structure of the workflow system containing the image processing apparatus in one Embodiment of this invention. 本発明の一実施形態におけるネットワーク複合機のハードウェア構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of a network multifunction peripheral according to an embodiment of the present invention. FIG. 本発明の一実施形態における端末装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the terminal device in one Embodiment of this invention. 本発明の一実施形態における画像処理装置の画像処理に係る機能構成を示すブロック図である。It is a block diagram which shows the function structure which concerns on the image processing of the image processing apparatus in one Embodiment of this invention. 本発明の一実施形態における文字認識結果データの一例を示す図である。It is a figure which shows an example of the character recognition result data in one Embodiment of this invention. 本発明の一実施形態におけるワークフローシステムによる画像データの画像処理における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the image process of the image data by the workflow system in one Embodiment of this invention. 本発明の一実施形態における修正作業画面の一例を示す図である。It is a figure which shows an example of the correction work screen in one Embodiment of this invention. 本発明の一実施形態におけるユーザが文字認識結果データを修正する際の修正作業の作業手順の一例を示すフローチャートである。It is a flowchart which shows an example of the work procedure of the correction operation | work when the user corrects character recognition result data in one Embodiment of this invention. 本発明の一実施形態における画像処理装置の統合処理に係る機能構成を示すブロック図である。It is a block diagram which shows the function structure which concerns on the integration process of the image processing apparatus in one Embodiment of this invention. 本実施の一実施形態におけるワークフローシステムにおける文字認識結果データの統合処理における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the integration process of the character recognition result data in the workflow system in one Embodiment of this embodiment. 本発明の他の実施形態における画像処理装置の画像処理に係る機能構成を示すブロック図である。It is a block diagram which shows the function structure which concerns on the image processing of the image processing apparatus in other embodiment of this invention.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

まず、図1および図2を用いて、本発明の実施の形態における画像処理装置を備えるワークフローシステムの構成の概要について説明する。   First, an outline of a configuration of a workflow system including an image processing apparatus according to an embodiment of the present invention will be described with reference to FIGS. 1 and 2.

このワークフローシステムには、作成者と、修正者と、作成者と修正者とを補助する補助者とが介在する。作成者は、PCやワードプロセッサなどにより印字された書類(以下、印字書類とする)を作成する。修正者は、作成者により作成された印字書類を手書きで修正する。このとき修正者により修正された書類を修正書類とする。補助者は、修正者により作成された手書き文字を含む修正書類を、ネットワーク複合機1、2のスキャナ機能やデジタルカメラ7を利用して画像ファイルを取得し、本願の画像処理装置によりOCR処理を行う。補助者は、書類をOCR処理することにより、誤認識されやすい手書き文字の認識処理結果が元の書類に書きこまれた内容と合致しているか否かを確認し、合致していなければ手書き文字の認識処理結果を修正する。つまり、本実施形態のワークフローシステムは補助者が主に利用するため、以下からは補助者をユーザとして説明する。   This workflow system includes a creator, a corrector, and an assistant who assists the creator and the corrector. The creator creates a document printed by a PC or a word processor (hereinafter referred to as a print document). The corrector manually corrects the print document created by the creator. At this time, the document corrected by the corrector is set as the corrected document. The assistant uses the scanner function of the network multifunction peripherals 1 and 2 and the digital camera 7 to acquire an image file including a handwritten character created by the corrector, and performs an OCR process with the image processing apparatus of the present application. Do. The assistant checks whether the recognition processing result of handwritten characters that are easily misrecognized matches the content written in the original document by performing OCR processing on the document. Correct the recognition processing result. That is, since the workflow system of the present embodiment is mainly used by an assistant, the assistant will be described as a user from the following.

図1は、本実施の形態における画像処理装置を含むワークフローシステムの構成の一例を示す図である。   FIG. 1 is a diagram illustrating an example of a configuration of a workflow system including an image processing apparatus according to the present embodiment.

同図に示すように、このワークフローシステムは、ネットワーク複合機1および2、端末装置3および4、PSTN(Public Switched Telephone Networks:公衆電話交換回線網)5、並びにLAN(Local Area Network)6から構成される。このワークフローシステムは、ネットワーク複合機1、2あるいはデジタルカメラ7から取得された書類の画像データ53のOCR処理を行うことが可能なシステムである。   As shown in the figure, this workflow system includes network multifunction peripherals 1 and 2, terminal devices 3 and 4, PSTN (Public Switched Telephone Networks) 5, and LAN (Local Area Network) 6. Is done. This workflow system is a system capable of performing OCR processing of document image data 53 acquired from the network multifunction peripherals 1 and 2 or the digital camera 7.

端末装置3、4は、本実施の形態における画像処理装置として機能するコンピュータである。端末装置3、4は、本実施の形態では、ネットワーク複合機1、2を利用するユーザ(主に、補助者)が使用するパーソナルコンピュータである。   The terminal devices 3 and 4 are computers that function as image processing devices in the present embodiment. In the present embodiment, the terminal devices 3 and 4 are personal computers used by users (mainly assistants) who use the network multifunction peripherals 1 and 2.

ネットワーク複合機1は、スキャナで読み取った書類を、例えば、PSTN5を介してネットワーク複合機2へファクシミリ送信すること、LAN6を介して端末装置3および4へ送信すること、内蔵されるプリンタでプリントアウトすること等ができる。   The network multifunction device 1 transmits, for example, a document read by the scanner by facsimile to the network multifunction device 2 via the PSTN 5, transmits it to the terminal devices 3 and 4 via the LAN 6, and prints out with a built-in printer. You can do it.

図2は、本実施の形態におけるネットワーク複合機1のハードウェア構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a hardware configuration of the network multifunction peripheral 1 according to the present embodiment.

同図に示すように、ネットワーク複合機1は、CPU(Central Processing Unit)10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、モデム13、NCU(Network Control Unit)14、操作パネル15、ディスプレイ16、スキャナ17、プリンタ18、およびLANI/F(LAN Interface)19を備えている。   As shown in the figure, the network MFP 1 includes a CPU (Central Processing Unit) 10, a ROM (Read Only Memory) 11, a RAM (Random Access Memory) 12, a modem 13, an NCU (Network Control Unit) 14, and an operation panel. 15, a display 16, a scanner 17, a printer 18, and a LAN I / F (LAN Interface) 19.

CPU10は、ROM11に格納された制御プログラム50を実行することにより、ネットワーク複合機1の全体を制御する。   The CPU 10 controls the entire network multifunction peripheral 1 by executing a control program 50 stored in the ROM 11.

ROM11は、CPU10が実行する制御プログラム50を保持する読み出し専用メモリである。   The ROM 11 is a read-only memory that holds a control program 50 executed by the CPU 10.

RAM12は、CPU10が制御プログラム50を実行する際に用いられるワークデータ、およびスキャナ17から得られた画像データ等を保持する読み書き可能なメモリである。   The RAM 12 is a readable / writable memory that holds work data used when the CPU 10 executes the control program 50, image data obtained from the scanner 17, and the like.

モデム13は、RAM12に保持された画像データ等をファクシミリ信号に変調して送信し、また外部から受信されたファクシミリ信号をラインデータに復調する。モデム13は、例えばG3規格に準拠したファックスモデムである。   The modem 13 modulates the image data and the like held in the RAM 12 into a facsimile signal and transmits it, and demodulates the facsimile signal received from the outside into line data. The modem 13 is a fax modem compliant with the G3 standard, for example.

NCU14は、モデム13とPSTN5との接続を制御する網制御装置である。   The NCU 14 is a network control device that controls the connection between the modem 13 and the PSTN 5.

操作パネル15は、ユーザからの操作を受け付けるタッチパネルである。   The operation panel 15 is a touch panel that receives an operation from the user.

ディスプレイ16は、ユーザへの操作ガイド、またはネットワーク複合機1の動作状態を表示する表示装置であり、例えばLCD(Liquit Crystal Display:液晶表示装置)である。   The display 16 is a display device that displays an operation guide to the user or an operation state of the network multifunction peripheral 1, and is, for example, an LCD (Liquid Crystal Display).

スキャナ17は、画像読み取り装置であり、CPU10の制御下で、CCDを用いて原稿を光学的に読み取ることによって画像データを生成する。   The scanner 17 is an image reading device, and generates image data by optically reading a document using a CCD under the control of the CPU 10.

プリンタ18は、印刷装置であり、CPU10の制御下で、例えばRAM12に保持された画像データによって表される画像イメージを印刷出力する。   The printer 18 is a printing device, and prints out an image image represented by, for example, image data held in the RAM 12 under the control of the CPU 10.

LANI/F19は、ネットワーク複合機1とLAN6とを接続する通信アダプタであり、CPU10の制御下で、例えばRAM12に保持された画像データを端末装置3等へ送信する。   The LAN I / F 19 is a communication adapter that connects the network multifunction device 1 and the LAN 6, and transmits, for example, image data held in the RAM 12 to the terminal device 3 or the like under the control of the CPU 10.

図3は、本実施の形態のおける端末装置3、4のハードウェア構成を示すブロック図である。   FIG. 3 is a block diagram showing a hardware configuration of terminal devices 3 and 4 in the present embodiment.

端末装置3は、図3に示されるように、主に、CPU20、ハードディスク21、RAM22、入力装置23、ディスプレイ24、LANI/F25、およびUSBI/F(Universal Serial Bus Interface)26から構成される。なお、ここでは端末装置3についてのみ説明するが、端末装置4についても同様の構成となる。   As shown in FIG. 3, the terminal device 3 mainly includes a CPU 20, a hard disk 21, a RAM 22, an input device 23, a display 24, a LAN I / F 25, and a USB I / F (Universal Serial Bus Interface) 26. Although only the terminal device 3 is described here, the terminal device 4 has the same configuration.

CPU20は、ハードディスク21に格納されたアプリケーションプログラムを実行することにより、端末装置3の全体を制御する。   The CPU 20 controls the entire terminal device 3 by executing an application program stored in the hard disk 21.

ハードディスク21は、画像処理プログラム51等のプログラム、文字パターンデータ52、スキャナまたはデジタルカメラから得られた画像データ53、文字判定結果データ54、文字認識結果データ55、統合文字認識結果データ60統合文字認識結果データ60等が格納されている。   The hard disk 21 is a program such as an image processing program 51, character pattern data 52, image data 53 obtained from a scanner or digital camera, character determination result data 54, character recognition result data 55, integrated character recognition result data 60, integrated character recognition. Result data 60 and the like are stored.

なお、「画像処理プログラム51」とは、画像データに対して後述する画像処理を行うアプリケーションプログラムである。また、「文字パターンデータ52」とは、手書き文字または活字のOCR処理を行うための文字認識の候補となる文字パターンのデータである。「文字パターンデータ52」には、図示しないが手書き文字のOCR処理を行うための手書き文字パターンと、活字のOCR処理を行うための活字パターンとがある。すなわち、活字のOCR処理と手書き文字のOCR処理とは、異なる文字パターンを用いて行われる。また、「画像データ53」とは、ネットワーク複合機1のスキャナ17またはデジタルカメラ7等の画像取得装置により書類から取得される画像データである。また、「文字認識結果データ55」とは、後述する文字データ処理部32によって画像処理中に作成されるデータである。また、「統合文字認識結果データ60」とは、後述するデータ統合部38によって統合処理中に作成されるデータである。   The “image processing program 51” is an application program that performs image processing to be described later on image data. The “character pattern data 52” is data of character patterns that are candidates for character recognition for performing OCR processing of handwritten characters or printed characters. The “character pattern data 52” includes a handwritten character pattern for performing OCR processing of handwritten characters and a type pattern for performing OCR processing of printed characters, although not shown. In other words, the OCR processing for type characters and the OCR processing for handwritten characters are performed using different character patterns. The “image data 53” is image data acquired from a document by an image acquisition device such as the scanner 17 or the digital camera 7 of the network multifunction peripheral 1. The “character recognition result data 55” is data created during image processing by the character data processing unit 32 described later. The “integrated character recognition result data 60” is data created during the integration process by the data integration unit 38 described later.

RAM22は、CPU20がハードディスク21に格納されているプログラムを実行する際に用いられる文字判定結果データ54、一致データテーブル59等、およびスキャナ17から得られた画像データ53を一時的に保持する読み書き可能なメモリである。なお、「文字判定結果データ54」は、後述する文字判定部31によって画像処理中に作成されるデータである。また、「一致データテーブル59」とは、後述する活字一致判定部37により作成されるデータである。   The RAM 22 is a readable / writable memory that temporarily holds the character determination result data 54 used when the CPU 20 executes a program stored in the hard disk 21, the matching data table 59, and the image data 53 obtained from the scanner 17. Memory. The “character determination result data 54” is data created during image processing by the character determination unit 31 described later. The “match data table 59” is data created by a type match determination unit 37 described later.

入力装置23は、ユーザからの操作を受け付ける装置であって、キーボードあるいは、マウスやタッチパネル等のポインティングデバイス等である。   The input device 23 is a device that receives an operation from a user, and is a keyboard or a pointing device such as a mouse or a touch panel.

ディスプレイ24は、RAM22から送信されてきたデータを文字や画像として表示するためのCRTディスプレイ、液晶ディスプレイ、プラズマディスプレイ、あるいは有機ELディスプレイ等である。   The display 24 is a CRT display, a liquid crystal display, a plasma display, an organic EL display, or the like for displaying data transmitted from the RAM 22 as characters or images.

LANI/F25は、端末装置3とLAN6とを接続する通信アダプタである。LANI/F25は、CPU20の制御下で、例えば端末装置のハードディスク21に保持された画像データ53、文字認識結果データ55、または統合文字認識結果データ60を端末装置4に送信する。LANI/F25はまた、端末装置4およびネットワーク複合機1から端末装置3に送信されてきた画像データ53、文字認識結果データ55等を受信する。   The LAN I / F 25 is a communication adapter that connects the terminal device 3 and the LAN 6. The LAN I / F 25 transmits, for example, image data 53, character recognition result data 55, or integrated character recognition result data 60 held in the hard disk 21 of the terminal device to the terminal device 4 under the control of the CPU 20. The LAN I / F 25 also receives image data 53, character recognition result data 55, and the like transmitted from the terminal device 4 and the network multifunction device 1 to the terminal device 3.

USBI/F26は、端末装置3とデジタルカメラ7等とを接続する通信アダプタである。USBI/F26を介することにより、例えばデジタルカメラ7により取得された画像データ53を端末装置3が受信しハードディスク21に記憶させる。   The USB I / F 26 is a communication adapter that connects the terminal device 3 to the digital camera 7 or the like. Through the USB I / F 26, for example, the image data 53 acquired by the digital camera 7 is received by the terminal device 3 and stored in the hard disk 21.

図4は、本実施の形態における画像処理装置100の画像処理に係る機能構成を示すブロック図である。つまり、図2および図3に示されるハードウェア構成によって発揮されるネットワーク複合機1および端末装置3、4の機能のうち、主に本実施の形態の画像処理装置100の画像処理に関わる機能の構成を示すブロック図である。   FIG. 4 is a block diagram illustrating a functional configuration related to image processing of the image processing apparatus 100 according to the present embodiment. That is, of the functions of the network multifunction peripheral 1 and the terminal devices 3 and 4 that are exhibited by the hardware configuration shown in FIGS. 2 and 3, the functions mainly related to the image processing of the image processing apparatus 100 of the present embodiment. It is a block diagram which shows a structure.

画像処理装置100は、機能的には、記憶部30と、文字判定部31と、文字データ処理部32と、表示制御部33と、修正部34と、入力部35と、表示部36とを備え、画像取得装置110としてのネットワーク複合機1またはデジタルカメラ7と通信可能な状態(例えば、LAN、USB等)で接続されている。   Functionally, the image processing apparatus 100 includes a storage unit 30, a character determination unit 31, a character data processing unit 32, a display control unit 33, a correction unit 34, an input unit 35, and a display unit 36. And is connected in a communicable state (for example, LAN, USB, etc.) with the network multifunction device 1 or the digital camera 7 as the image acquisition device 110.

記憶部30は、図3におけるハードディスク21、RAM22等によって実現される。記憶部30は、文字パターンデータ52を記憶している。記憶部30はまた、画像取得装置110から送信されてきた画像データ53、後述する文字判定部31により出力される文字判定結果データ54、文字データ処理部32により出力される文字認識結果データ55等を記憶する。   The storage unit 30 is realized by the hard disk 21, the RAM 22, and the like in FIG. The storage unit 30 stores character pattern data 52. The storage unit 30 also includes image data 53 transmitted from the image acquisition device 110, character determination result data 54 output by a character determination unit 31 described later, character recognition result data 55 output by a character data processing unit 32, and the like. Remember.

文字判定部31は、図3におけるCPU20、プログラム等によって実現される判定部である。文字判定部31は、記憶部30に記憶されている画像データ53に基づいて、部分領域切出処理と、手活判定処理とを行う。部分領域切出処理は、画像データから文字候補領域を認識する処理であって、例えば一行等の文字の塊である部分領域毎に画像データ53の文字候補領域を分解して、画像データにおける部分領域の位置および範囲を認識する処理である。手活判定処理は、部分領域切出処理によって分解された部分領域に含まれる文字が手書き文字であるか活字であるかを判定し、手書き文字と判定した場合に手書き文字判定結果データとして出力し、活字であると判定した場合に活字判定結果データとして出力する処理である。以下、部分領域切出処理によって分解された部分領域に含まれる文字のようなOCR処理前の画像として表示される文字のことを「文字画像」と呼ぶ。   The character determination unit 31 is a determination unit realized by the CPU 20, the program, and the like in FIG. The character determination unit 31 performs a partial region extraction process and a hand activity determination process based on the image data 53 stored in the storage unit 30. The partial area extraction process is a process for recognizing a character candidate area from image data. For example, the character candidate area of the image data 53 is decomposed for each partial area that is a lump of characters such as one line, and a part of the image data This is processing for recognizing the position and range of an area. The hand activity determination process determines whether the character included in the partial area decomposed by the partial area extraction process is a handwritten character or a printed character, and outputs it as handwritten character determination result data when it is determined as a handwritten character. , A process of outputting as character determination result data when it is determined that the character is a character. Hereinafter, a character displayed as an image before the OCR process, such as a character included in the partial area decomposed by the partial area cutting process, is referred to as a “character image”.

なお、文字判定部31によって出力される手書き文字判定結果データと活字判定結果データとは、文字判定結果データ54として出力される。つまり、文字判定結果データ54には、図示しないが、手書き文字の文字画像を含む部分領域に対して文字判定部31が出力した手書き文字判定結果データと、活字の文字画像を含む部分領域に対して文字判定部31が出力した活字判定結果データとがある。文字判定部31は、判定された部分領域に対して手書き文字の属性データまたは活字の属性データを追加し、その結果を文字判定結果データ54として出力する。なお、ここで出力される文字判定結果データ54とは、元の画像データ53に対して、部分領域切出処理によって導出された部分領域の位置および範囲の情報と、手書き文字の属性データまたは活字の属性データとが追加されたデータである。   The handwritten character determination result data and the type determination result data output by the character determination unit 31 are output as character determination result data 54. That is, in the character determination result data 54, although not illustrated, for the handwritten character determination result data output by the character determining unit 31 for the partial region including the handwritten character image and the partial region including the printed character image. Type determination result data output by the character determination unit 31. The character determination unit 31 adds handwritten character attribute data or type attribute data to the determined partial area, and outputs the result as character determination result data 54. It should be noted that the character determination result data 54 output here is information on the position and range of the partial area derived by the partial area extraction process and the attribute data or type of handwritten characters with respect to the original image data 53. Is added to the attribute data.

文字データ処理部32は、図3におけるCPU20、プログラム等によって実現される処理部である。文字データ処理部32は、記憶部30に格納されている文字パターンデータ52と、文字判定部31により出力された文字判定結果データ54とに基づいて、文字パターン関連付け処理を行う。文字パターン関連付け処理は、文字判定結果データ54の各部分領域に含まれる文字画像に対して文字パターンデータ52を関連付ける処理である。文字パターン関連付け処理では、部分領域毎に処理が行われ、各部分領域に含まれる文字画像に対応する文字列が文字パターンデータから抽出され、文字列データとして各部分領域に含まれる文字画像に関連付けられる。つまり、文字列データは、いわゆるOCR処理である。文字データ処理部32は、文字パターン関連付け処理の結果を文字認識結果データ55として出力する。なお、ここで出力される文字認識結果データ55とは、文字判定結果データ54に対して、文字パターン関連付け処理によって関連付けられた文字列データが追加されたデータである。   The character data processing unit 32 is a processing unit realized by the CPU 20, the program, etc. in FIG. The character data processing unit 32 performs character pattern association processing based on the character pattern data 52 stored in the storage unit 30 and the character determination result data 54 output by the character determination unit 31. The character pattern association process is a process of associating the character pattern data 52 with the character image included in each partial area of the character determination result data 54. In the character pattern association processing, processing is performed for each partial area, and a character string corresponding to the character image included in each partial area is extracted from the character pattern data, and is associated with the character image included in each partial area as character string data. It is done. That is, the character string data is a so-called OCR process. The character data processing unit 32 outputs the result of the character pattern association process as character recognition result data 55. The character recognition result data 55 output here is data obtained by adding character string data associated by the character pattern association process to the character determination result data 54.

文字認識結果データ55は、図5に示されるように、部分領域ID、部分領域のデータサイズ、部分領域の位置情報、部分領域の属性データ、部分領域の文字数、および、部分領域に関連付けられた文字列データを保持する。なお、「部分領域ID」とは、S10において区別された部分領域を識別するための識別子である。「部分領域ID」は、位置情報の数値に基づいて所定の演算により算出される値が小さい順に決定される番号である。本実施形態では例えば、位置情報の開始座標の内でY座標が小さいものから順番に決定され、Y座標が同じものではX座標が小さいものから順番に降順に番号が振られることになる。また、「位置情報」とは、画像データにおいて当該部分領域が表示される位置および範囲を示すデータであり、図4に示すように例えば座標データである。座標データは、開始座標と終了座標とにより囲まれる領域をX座標とY座標により数値化されて、位置情報として表している。座標データは、例えば具体的には画素単位で導きだされる数値である。また、「文字列データ」とは、部分領域に含まれる文字画像に対して、文字パターンデータに基づいて関連付けられた文字列である。なお、文字認識結果データ55には、図示しないが、手書き文字について文字パターン関連付け処理を行った手書き文字認識結果データと、活字について文字パターン関連付け処理を行った活字認識結果データとがある。図5に示す文字認識結果データ55は、手書き文字認識結果データと活字認識結果データとが統合されたものである。   As shown in FIG. 5, the character recognition result data 55 is associated with the partial area ID, the partial area data size, the partial area position information, the partial area attribute data, the number of characters in the partial area, and the partial area. Holds string data. The “partial area ID” is an identifier for identifying the partial area distinguished in S10. The “partial area ID” is a number determined in ascending order of values calculated by a predetermined calculation based on the numerical value of the position information. In the present embodiment, for example, the start coordinates of the position information are determined in order from the smallest Y coordinate, and the numbers having the same Y coordinate are numbered in descending order from the smallest X coordinate. “Position information” is data indicating the position and range where the partial area is displayed in the image data, and is, for example, coordinate data as shown in FIG. In the coordinate data, a region surrounded by the start coordinate and the end coordinate is digitized by the X coordinate and the Y coordinate and expressed as position information. The coordinate data is, for example, a numerical value derived in units of pixels. The “character string data” is a character string associated with a character image included in the partial area based on the character pattern data. Although not shown, the character recognition result data 55 includes handwritten character recognition result data obtained by performing character pattern association processing on handwritten characters and type recognition result data obtained by performing character pattern association processing on characters. Character recognition result data 55 shown in FIG. 5 is obtained by integrating handwritten character recognition result data and type recognition result data.

表示制御部33は、図3におけるCPU20、プログラム等によって実現される処理部である。表示制御部33は、画像データを表示部36の第1画面領域40に表示させる。また、表示制御部33は、文字データ処理部32により出力された文字認識結果データ55を表示部36の第2画面領域41に表示させる。また、表示制御部33は、第2画面領域41においてユーザが入力部35を操作することにより選択した文字認識結果データ55に対応する文字列データを表示部36の第3画面領域42に表示させる。なお、第1画面領域40と、第2画面領域41と、第3画面領域42とは、表示部36において表示される画面領域であって、図7に示すように表示部36の画面内の別々の領域である。   The display control unit 33 is a processing unit realized by the CPU 20, the program, and the like in FIG. The display control unit 33 displays the image data in the first screen area 40 of the display unit 36. Further, the display control unit 33 displays the character recognition result data 55 output by the character data processing unit 32 in the second screen area 41 of the display unit 36. Further, the display control unit 33 displays character string data corresponding to the character recognition result data 55 selected by the user operating the input unit 35 in the second screen region 41 in the third screen region 42 of the display unit 36. . The first screen area 40, the second screen area 41, and the third screen area 42 are screen areas that are displayed on the display unit 36, and are displayed on the screen of the display unit 36 as shown in FIG. It is a separate area.

修正部34は、ユーザが入力部35を操作することにより送信される入力信号に基づいて、第3画面領域42に表示された文字列データの修正を受け付けて、文字認識結果データ55の各部分領域に関連付けられた文字列データの変更を行う。例えば、画像データから抽出された文字候補領域の各部分領域に含まれる文字画像に対して関連付けられた文字列データが、誤認識によって本来意図していた文字とは異なる文字列データとなる場合がある。このような場合に、修正部34は、ユーザが入力部35を操作することにより、文字認識結果データ55を読み込んで、誤って関連付けられた文字パターンを正しい文字パターンに修正することができる。なお、修正された文字認識結果データ55は、記憶部30に上書き保存される。   The correction unit 34 receives correction of character string data displayed in the third screen area 42 based on an input signal transmitted by the user operating the input unit 35, and each part of the character recognition result data 55. The character string data associated with the area is changed. For example, the character string data associated with the character image included in each partial area of the character candidate area extracted from the image data may become character string data different from the originally intended character due to erroneous recognition. is there. In such a case, the correction unit 34 can read the character recognition result data 55 by the user operating the input unit 35, and can correct the erroneously associated character pattern to the correct character pattern. The corrected character recognition result data 55 is overwritten and stored in the storage unit 30.

入力部35は、図3における入力装置23によって実現される。入力部35は、上述したように、ユーザに操作されることにより、表示制御部33または修正部34に対して入力信号を送信して、文字認識結果データ55の文字列データを修正することができる。   The input unit 35 is realized by the input device 23 in FIG. As described above, the input unit 35 can be operated by the user to transmit an input signal to the display control unit 33 or the correction unit 34 to correct the character string data of the character recognition result data 55. it can.

表示部36は、図3におけるディスプレイ24によって実現される。表示部36は、表示制御部33を介して文字認識結果データ55を表示する。すなわち、表示部36は、入力部35によって修正される前の文字認識結果データ55、入力部35によって修正中である文字認識結果データ55などを表示することにより、ユーザによる文字列データの修正を支援する。表示部36はまた、上述したように、文字認識結果データ55の文字画像と文字列データとを、第1画面領域40と、第2画面領域41と、第3画面領域42とに分けて表示する。   The display unit 36 is realized by the display 24 in FIG. The display unit 36 displays the character recognition result data 55 via the display control unit 33. That is, the display unit 36 displays the character recognition result data 55 before being corrected by the input unit 35, the character recognition result data 55 being corrected by the input unit 35, and the like, thereby correcting the character string data by the user. Support. As described above, the display unit 36 also displays the character image and the character string data of the character recognition result data 55 separately in the first screen area 40, the second screen area 41, and the third screen area 42. To do.

次に、以上のように構成された本実施の形態における画像処理の処理手順について説明する。   Next, a processing procedure of image processing in the present embodiment configured as described above will be described.

図6は、本実施の形態におけるワークフローシステムによる画像データ53の画像処理における処理手順を示すフローチャートである。   FIG. 6 is a flowchart showing a processing procedure in image processing of the image data 53 by the workflow system according to the present embodiment.

図6に示すように、文字判定部31は、記憶部30に記憶されている画像データ53が文字判定部31に入力されると画像処理を開始する。文字判定部31は、入力された画像データ53のページ毎に部分領域切出処理を行う(S10)。   As illustrated in FIG. 6, the character determination unit 31 starts image processing when image data 53 stored in the storage unit 30 is input to the character determination unit 31. The character determination unit 31 performs a partial area extraction process for each page of the input image data 53 (S10).

次に、文字判定部31は、分解した部分領域毎に、部分領域IDと、位置情報とを追加する(S11)。   Next, the character determination part 31 adds partial area ID and position information for every decomposed partial area (S11).

そして、文字判定部31は、部分領域に含まれる文字画像に対して手活判定処理を行う(S12)。   And the character determination part 31 performs a hand activity determination process with respect to the character image contained in a partial area (S12).

手活判定処理において文字判定部31により手書き文字であると判定された部分領域には、手書き文字の属性データが追加される(S13)。文字判定部31は、手書き文字の属性データが追加された部分領域を手書き文字判定結果データとして出力する。文字判定部31により出力された手書き文字判定結果データは、記憶部30にバッファされる。   The attribute data of the handwritten character is added to the partial area determined to be a handwritten character by the character determining unit 31 in the hand activity determining process (S13). The character determination unit 31 outputs a partial region to which handwritten character attribute data is added as handwritten character determination result data. The handwritten character determination result data output by the character determination unit 31 is buffered in the storage unit 30.

そして、文字データ処理部32は、記憶部30に格納されている文字パターンデータ52のうちの手書き文字パターンデータと、文字判定部31により出力された手書き文字判定結果データとに基づいて、手書き文字パターン関連付け処理を行う(S14)。なお、この手書き文字パターン関連付け処理とは、いわゆる、手書き文字の部分領域用のOCR処理である。文字データ処理部32により出力された手書き文字認識結果データは、記憶部30にバッファされる。   And the character data processing part 32 is based on the handwritten character pattern data of the character pattern data 52 stored in the memory | storage part 30, and the handwritten character determination result data output by the character determination part 31. Pattern association processing is performed (S14). The handwritten character pattern association process is a so-called OCR process for a partial region of handwritten characters. The handwritten character recognition result data output by the character data processing unit 32 is buffered in the storage unit 30.

一方、手活判定処理において文字判定部31により活字であると判定された部分領域には、活字の属性データが追加される(S15)。文字判定部31は、活字の属性データが追加された部分領域を活字判定結果データとして出力する。文字判定部31により出力された活字判定結果データは、記憶部30にバッファされる。   On the other hand, type attribute data is added to the partial area determined to be a type by the character determination unit 31 in the hand type determination process (S15). The character determination unit 31 outputs a partial area to which type attribute data is added as type determination result data. The character determination result data output by the character determination unit 31 is buffered in the storage unit 30.

そして、文字データ処理部32は、記憶部30に格納されている文字パターンデータ52のうちの活字パターンデータと、文字判定部31により出力された活字判定結果データとに基づいて、活字パターン関連付け処理を行う(S16)。なお、この活字パターン関連付け処理とは、いわゆる、活字の部分領域用のOCR処理である。文字データ処理部32により出力された活字認識結果データは、記憶部30にバッファされる。   The character data processing unit 32 then performs type pattern association processing based on the type pattern data in the character pattern data 52 stored in the storage unit 30 and the type determination result data output by the character determination unit 31. (S16). This type pattern association process is a so-called OCR process for a partial region of type. The type recognition result data output by the character data processing unit 32 is buffered in the storage unit 30.

文字判定部31は、手書き文字関連付け処理または活字関連付け処理が行われていない未処理の部分領域があるか否かを判定する(S17)。未処理の部分領域がある場合には、再度、未処理の部分領域に対して画像処理(S11〜S16)を行う。   The character determination unit 31 determines whether or not there is an unprocessed partial area that has not been subjected to the handwritten character association process or the type association process (S17). If there is an unprocessed partial area, image processing (S11 to S16) is performed again on the unprocessed partial area.

文字データ処理部32は、未処理の部分領域がない場合に、文字パターン関連付け処理が終了したページの画像データに属する全ての部分領域に対応する手書き文字認識結果データと活字認識結果データとを統合する(S18)。   When there is no unprocessed partial area, the character data processing unit 32 integrates handwritten character recognition result data and type recognition result data corresponding to all partial areas belonging to the image data of the page for which the character pattern association process has been completed. (S18).

文字データ処理部32は、文字パターン関連付け処理が終了していないページがあるか否かを確認する(S19)。ここで、未処理の画像データのページがある場合には、再度、画像処理(S10〜S18)を行う。   The character data processing unit 32 checks whether or not there is a page for which the character pattern association process has not been completed (S19). If there is a page of unprocessed image data, image processing (S10 to S18) is performed again.

文字データ処理部32は、未処理の画像データのページがない場合には画像データの全てのページに対して処理が終了したと判断し、全てのページに対して行った画像処理(S10〜S18)の結果を文字認識結果データ55として出力する(S20)。出力された文字認識結果データ55は、記憶部30に記憶されるこの画像処理を終了する。   If there is no page of unprocessed image data, the character data processing unit 32 determines that the processing has been completed for all pages of the image data, and performs image processing (S10 to S18) performed on all pages. ) Is output as character recognition result data 55 (S20). The output character recognition result data 55 ends the image processing stored in the storage unit 30.

記憶部30に記憶された文字認識結果データ55は、ユーザが入力部35を操作することにより修正部34を動作させると、修正部34に読み込まれて表示部36に表示される。修正部34は、文字認識結果データ55に基づいて、元の画像データ53の部分領域に含まれる文字画像と、当該文字画像に関連付けられた文字列データとを別々に表示部36に表示させる。修正部34はまた、入力部35からの入力信号に基づいて各部分領域に関連付けられた文字列データの修正を受け付ける。   The character recognition result data 55 stored in the storage unit 30 is read by the correction unit 34 and displayed on the display unit 36 when the correction unit 34 is operated by operating the input unit 35 by the user. Based on the character recognition result data 55, the correction unit 34 causes the display unit 36 to separately display the character image included in the partial region of the original image data 53 and the character string data associated with the character image. The correction unit 34 also receives correction of character string data associated with each partial area based on an input signal from the input unit 35.

以下に、図7に基づいて、具体的な修正部34の処理によって表示部36に表示される画面について説明する。   Below, based on FIG. 7, the screen displayed on the display part 36 by the process of the specific correction part 34 is demonstrated.

表示部36に表示される画面は、主に第1画面領域40と、第2画面領域41と、第3画面領域42の3つの画面領域に分けられる。   The screen displayed on the display unit 36 is mainly divided into three screen areas: a first screen area 40, a second screen area 41, and a third screen area 42.

第1画面領域40は、メインの画面領域であり、主に元の画像データ53に基づいた表示を行う画像データ表示領域である。第1画面領域40には、元の画像データ53の他に、各部分領域を示す罫線と、各部分領域の部分領域IDとが表示される。すなわち、第1画面領域40には、文字判定部31によって分解された部分領域が、可視化された状態で表示されることになる。また、第1画面領域40では、手書き文字の属性データが追加された部分領域と、活字の属性データが追加された部分領域とにおいて、その表示形態を異なるものとして表示される。本実施の形態では、図7のように、第1画面領域40において表示される手書き属性の文字候補領域を赤色(図7ではグレー表示)で、第1画面領域40において表示される活字属性の文字候補領域を黒色で表示する。   The first screen area 40 is a main screen area, and is an image data display area that performs display based mainly on the original image data 53. In the first screen area 40, in addition to the original image data 53, a ruled line indicating each partial area and a partial area ID of each partial area are displayed. That is, the partial area decomposed by the character determination unit 31 is displayed in the first screen area 40 in a visualized state. Further, in the first screen area 40, the partial area to which the handwritten character attribute data is added and the partial area to which the type attribute data is added are displayed with different display forms. In the present embodiment, as shown in FIG. 7, the character candidate area of the handwritten attribute displayed in the first screen area 40 is red (displayed in gray in FIG. 7), and the type attribute displayed in the first screen area 40 The character candidate area is displayed in black.

第2画面領域41は、第1画面領域40の右側において縦長に表示(サイド表示)される画面領域であり、文字認識結果データ55の文字列データが表示される。第2画面領域41には、第1画面領域40に表示されるページの画像データに含まれる各部分領域に対して関連付けられた文字列データが当該部分領域の部分領域IDと共に表示される。   The second screen area 41 is a screen area that is displayed vertically (side-displayed) on the right side of the first screen area 40, and character string data of the character recognition result data 55 is displayed. In the second screen area 41, character string data associated with each partial area included in the image data of the page displayed in the first screen area 40 is displayed together with the partial area ID of the partial area.

また、第2画面領域41においては、第1画面領域40に表示されるページの画像データに含まれる全ての部分領域に関連付けられている文字列データが表示され、これらの文字列データは部分領域の属性データごとに表示される。例えば、図6においては、プルダウンリスト43において「文字列全て」と、「手書きのみ」と、「活字のみ」とを選択可能である。ユーザが、「文字列全て」をプルダウンリスト43から選択する場合に、複数の文字列データのうちで手書き文字または活字のいずれかの属性データをもつ文字列データが表示されることになり、第2画面領域41において全ての文字パターンが表示される。また、ユーザが、「手書きのみ」をプルダウンリスト43から選択する場合に、複数の文字列データのうちで手書き文字の属性データを有する文字列データのみが第2画面領域41において表示される。また、ユーザが、「活字のみ」をプルダウンリスト43から選択する場合に、複数の文字列データのうちで活字の属性データを有する文字列データのみが第2画面領域41において表示される。   In the second screen area 41, character string data associated with all partial areas included in the image data of the page displayed in the first screen area 40 is displayed, and these character string data are displayed in the partial area. Displayed for each attribute data. For example, in FIG. 6, “all character strings”, “only handwriting”, and “only type” can be selected in the pull-down list 43. When the user selects “all character strings” from the pull-down list 43, character string data having attribute data of either handwritten characters or type characters is displayed among the plurality of character string data. All character patterns are displayed in the two-screen area 41. When the user selects “handwriting only” from the pull-down list 43, only character string data having handwritten character attribute data among a plurality of character string data is displayed in the second screen area 41. In addition, when the user selects “type only” from the pull-down list 43, only character string data having type attribute data among a plurality of character string data is displayed in the second screen area 41.

また、第2画面領域41においては、表示される文字列データの左側にチェックボックス44が表示される。ユーザは、このチェックボックス44には、ポインティングデバイス等の入力装置23によって選択することによりチェックマークを入力することができるようになっている。そして、チェックボックス44にチェックマークが入力された文字列データに対応する部分領域は、第1画面領域40における表示に取り消し線が表示される。具体的には、図7のように、第2画面領域41の「2:追加!!」のチェックボックス44にチェックマークを入力する場合に、対応する第1画面領域40の「2:追加!!」の表示部分に取り消し線が表示される事になる。   In the second screen area 41, a check box 44 is displayed on the left side of the displayed character string data. The user can input a check mark in the check box 44 by selecting it with the input device 23 such as a pointing device. The partial area corresponding to the character string data in which a check mark is input in the check box 44 is displayed with a strikethrough in the display in the first screen area 40. Specifically, as shown in FIG. 7, when a check mark is input to the check box 44 of “2: Add!” In the second screen area 41, “2: Add! Strikethrough will be displayed in the display part of “!”.

また、第2画面領域41においては、表示される複数の文字列データの文字部分を入力部35(具体的にはマウスなどのポインティングデバイス)により選択する場合に図7に示すように白黒が反転表示される。このように反転表示されることにより選択された文字列データに対応する文字列データが第3画面領域42に修正可能な状態で表示される。具体的には、図7に示すように、第2画面領域41の「6:この部分の・・・」を選択して反転表示させると、該当する文字列データが修正可能な状態で第3画面領域42に表示される。さらに、第1画面領域40において、第2画面領域41において選択して反転表示させた文字列データに対応する「6:この部分の図、」で表示される部分領域を示す罫線の枠が太枠で表示されることになる。   In the second screen area 41, when a character portion of a plurality of character string data to be displayed is selected by the input unit 35 (specifically, a pointing device such as a mouse), black and white are inverted as shown in FIG. Is displayed. Thus, the character string data corresponding to the selected character string data is displayed in the third screen area 42 in a modifiable state. Specifically, as shown in FIG. 7, when “6: this part...” In the second screen area 41 is selected and highlighted, the third character string data can be corrected in a third state. It is displayed in the screen area 42. Further, in the first screen area 40, the border of the ruled line indicating the partial area displayed as “6: This part drawing,” corresponding to the character string data selected and highlighted in the second screen area 41 is thick. It will be displayed in a frame.

第3画面領域42は、上述したように、第2画面領域41において入力部35(具体的にはマウスなどのポインティングデバイス)により選択されて反転表示された文字列データが表示される。そして、第3画面領域42においては、入力部35(具体的にはキーボードなどの文字入力装置)によって第2画面領域41において選択された文字列データの修正を受け付ける。すなわち、実際の部分領域に含まれる文字画像と、関連付けられた文字列データとが誤認識により異なる結果となった場合に、ユーザは、第3画面領域42において誤りを含む文字列データを正しい文字列データに修正することができる。   As described above, in the third screen area 42, the character string data selected and highlighted in the second screen area 41 by the input unit 35 (specifically, a pointing device such as a mouse) is displayed. In the third screen area 42, correction of the character string data selected in the second screen area 41 by the input unit 35 (specifically, a character input device such as a keyboard) is accepted. That is, when the character image included in the actual partial area and the associated character string data are different from each other due to misrecognition, the user replaces the character string data including the error in the third screen area 42 with the correct character. Can be modified to column data.

図8は、ユーザが文字認識結果データを修正する際の修正作業の作業手順の一例を示すフローチャートである。   FIG. 8 is a flowchart showing an example of the work procedure of the correction work when the user corrects the character recognition result data.

まず、ユーザが端末装置3、4によって文字認識結果データ55を読み込むと、図7に示すような画像がディスプレイに表示される(S30)。   First, when the user reads the character recognition result data 55 by the terminal devices 3 and 4, an image as shown in FIG. 7 is displayed on the display (S30).

ユーザは、入力部35を操作することにより、プルダウンリスト43から「手書きのみ」を選択して、第2画面領域41において手書き文字の属性データが追加された文字列データのみを表示させる(S31)。   The user operates the input unit 35 to select “handwriting only” from the pull-down list 43 to display only character string data to which handwritten character attribute data is added in the second screen area 41 (S31). .

ユーザは、入力部35を操作することにより、読み込まれた文字認識結果データ55から第2画面領域41に抽出された複数の文字列データの一つを選択して、反転表示させる(S32)。   The user operates the input unit 35 to select one of a plurality of character string data extracted in the second screen area 41 from the read character recognition result data 55 and to reverse-display it (S32).

そして、第2画面領域41において選択されて反転表示となった文字列データは、修正部34により、ユーザの入力部35の操作による修正を受け付ける状態で第3画面領域42に表示される。それと共に、第1画面領域40において、第2画面領域41において選択されて反転表示となった文字列データに対応する部分領域の罫線の枠が太枠で表示される(S33)。   Then, the character string data selected and highlighted in the second screen area 41 is displayed in the third screen area 42 by the correction unit 34 in a state where the correction by the operation of the user input unit 35 is accepted. At the same time, in the first screen area 40, the border lines of the partial areas corresponding to the character string data selected and highlighted in the second screen area 41 are displayed as thick frames (S33).

ユーザは、第1画面領域40において罫線の枠が太枠で表示される部分領域に表示される文字画像を視認しながら、当該部分領域に関連付けられた文字列データが正しいか否かを第3画面領域42に表示される文字列データと当該文字画像とを比較することにより判定する(S34)。   While viewing the character image displayed in the partial area in which the border of the ruled line is displayed as a thick frame in the first screen area 40, the user determines whether the character string data associated with the partial area is correct. The determination is made by comparing the character string data displayed in the screen area 42 with the character image (S34).

ユーザは、当該部分領域に関連付けられた文字列データが正しいと判定する場合に、第3画面領域42において修正入力を行わずにチェックボックス44にチェックマークを入力する(S35)。   When the user determines that the character string data associated with the partial area is correct, the user inputs a check mark in the check box 44 without performing correction input in the third screen area 42 (S35).

ユーザは、当該部分領域に関連付けられた文字列データが誤っていると判定する場合に、第3画面領域42において修正入力を行って正しい文字列データに修正した上でチェックボックス44にチェックマークを入力する(S36)。   When determining that the character string data associated with the partial area is incorrect, the user performs correction input in the third screen area 42 to correct the character string data, and then puts a check mark in the check box 44. Input (S36).

ユーザは、第2画面領域41において表示される文字列データに対応するチェックボックス44の全てにチェックマークが入力されているか否かを判定する(S37)。ここで、ユーザは、全てにチェックマークが入力されていない場合に、チェックマークが未入力のチェックボックス44に対応する文字列データの修正作業(S31〜S36)を繰り返す。   The user determines whether or not check marks have been input to all the check boxes 44 corresponding to the character string data displayed in the second screen area 41 (S37). Here, the user repeats the character string data correction operation (S31 to S36) corresponding to the check box 44 in which no check mark is input when no check mark is input in all.

ユーザは、全てのチェックボックス44にチェックマークが入力されている場合に、当該ページの修正作業が終了したと判断して、全てのページにおいて修正作業が行われたか否かを確認する(S38)。ユーザは、未修正のページがある場合には、未修正のページに対して修正作業(S31〜S37)を繰り返す。   When all the check boxes 44 are checked, the user determines that the correction work for the page has been completed, and confirms whether the correction work has been performed on all pages (S38). . When there is an uncorrected page, the user repeats the correction work (S31 to S37) for the uncorrected page.

ユーザは、全てのページに対して修正作業が行われていれば修正作業を終了する。   If the correction work has been performed on all pages, the user ends the correction work.

本実施の形態における画像処理装置100は、上記の画像処理として統合処理をさらに行う。統合処理は、同一の書類に対して複数の修正者が手書きで修正した場合に読み込まれた複数の画像データに対して行われるものであって、書類の活字部分が共通する場合に、OCR処理結果を統合する処理である。   The image processing apparatus 100 according to the present embodiment further performs integration processing as the image processing described above. The integration processing is performed on a plurality of image data read when a plurality of correctors modify the same document by handwriting, and the OCR processing is performed when the type parts of the documents are common. It is a process of integrating the results.

図9は、本実施の形態における画像処理装置100の統合処理に係る機能構成を示すブロック図である。つまり、図2および図3に示されるハードウェア構成によって発揮されるネットワーク複合機1および端末装置3、4の機能のうち、画像処理装置100の統合処理に関わる機能の構成を示すブロック図である。   FIG. 9 is a block diagram illustrating a functional configuration related to the integration processing of the image processing apparatus 100 according to the present embodiment. That is, FIG. 4 is a block diagram illustrating a configuration of functions related to integration processing of the image processing apparatus 100 among the functions of the network multifunction peripheral 1 and the terminal devices 3 and 4 that are exhibited by the hardware configuration illustrated in FIGS. 2 and 3. .

画像処理装置100は、機能的には、記憶部30と、文字判定部31と、文字データ処理部32と、表示制御部33と、修正部34と、入力部35と、表示部36と、活字一致判定部37と、データ統合部38とを備える。以下、画像処理に係る機能構成の説明と異なる処理部である活字一致判定部37およびデータ統合部38のみについて説明する。   Functionally, the image processing apparatus 100 includes a storage unit 30, a character determination unit 31, a character data processing unit 32, a display control unit 33, a correction unit 34, an input unit 35, a display unit 36, A type match determination unit 37 and a data integration unit 38 are provided. Hereinafter, only the type match determination unit 37 and the data integration unit 38, which are processing units different from the description of the functional configuration related to image processing, will be described.

活字一致判定部37は、図3におけるCPU、プログラム等によって実現される判定部である。活字一致判定部37は、第1活字認識結果データと第2活字認識結果データとが所定の割合(例えば90%)以上で一致するか否かを判定する。第1活字判定結果データとは、第1画像データに基づいて文字判定部31により判定された第1活字判定結果データと文字パターンとが文字データ処理部32により関連付けられたデータである。第2活字認識結果データとは、第2画像データに基づいて文字判定部31により判定された第2活字判定結果と文字パターンとが文字データ処理部32により関連付けられたデータである。具体的には、活字一致判定部37は、新たに記憶された文字認識結果データ55(以下、新文字認識結果データ56)の活字認識結果データ(以下、新活字認識結果データとする)に基づいて、既に記憶部30に記憶されている複数の文字認識結果データ55(以下、文字認識結果データ群57とする)に含まれる全ての活字認識結果データを照合する。すなわち、新活字認識結果データは、上述の第1活字認識結果データに該当する。そして、活字一致判定部37は、文字認識結果データ群57の中から、新活字認識結果データと一致する活字認識結果データを含む文字認識結果データ55があるか否かを判定する活字一致判定処理を行う。すなわち、文字認識結果データ群57のそれぞれの活字認識結果データが上述の第2活字認識結果データに該当する。   The type match determination unit 37 is a determination unit realized by a CPU, a program, and the like in FIG. The type match determination unit 37 determines whether or not the first type recognition result data and the second type recognition result data match at a predetermined ratio (for example, 90%) or more. The first character determination result data is data in which the character data processing unit 32 associates the first character determination result data determined by the character determination unit 31 with the character pattern based on the first image data. The second type recognition result data is data in which the second type determination result determined by the character determination unit 31 based on the second image data is associated with the character pattern by the character data processing unit 32. Specifically, the type match determination unit 37 is based on type recognition result data (hereinafter referred to as new type recognition result data) of newly stored character recognition result data 55 (hereinafter referred to as new character recognition result data 56). Thus, all type recognition result data included in a plurality of character recognition result data 55 (hereinafter referred to as character recognition result data group 57) already stored in the storage unit 30 are collated. That is, the new type recognition result data corresponds to the first type recognition result data described above. Then, the type match determination unit 37 determines whether there is character recognition result data 55 including type recognition result data that matches the new type recognition result data from the character recognition result data group 57. I do. That is, each type recognition result data of the character recognition result data group 57 corresponds to the above-described second type recognition result data.

なお、活字一致判定処理では、活字認識結果データ同士が所定の割合以上で一致する場合に、一致すると判定する。例えば、活字一致判定処理では、活字の属性データを有する各部分領域の位置情報が一致することと、当該各部分領域に関連付けられた文字列データが一致することの少なくとも2つの要素で判定される。これにより、2つの文字認識結果データの活字認識結果データが一致すると判定される。   In the type match determination process, when the type recognition result data match at a predetermined ratio or more, it is determined that they match. For example, in the type match determination process, determination is made based on at least two elements: the position information of each partial area having type attribute data matches, and the character string data associated with each partial area match. . Thereby, it is determined that the character recognition result data of the two character recognition result data match.

そして、活字一致判定部37は、活字一致判定処理において一致すると判定された文字認識結果データ55(以下、被一致文字認識結果データ58とする)と新文字認識結果データ56とを関連付けるための一致データテーブル59を出力する。なお、この場合に、被一致文字認識結果データ58が複数ある場合には、全ての被一致文字認識結果データ58と新文字認識結果データ56とが関連付けられるための一致データテーブル59が出力される。   The type match determination unit 37 then matches the character recognition result data 55 determined to match in the type match determination process (hereinafter referred to as matched character recognition result data 58) and the new character recognition result data 56. The data table 59 is output. In this case, when there are a plurality of matched character recognition result data 58, a match data table 59 for associating all the matched character recognition result data 58 with the new character recognition result data 56 is output. .

データ統合部38は、図3におけるCPU20、プログラム等によって実現される処理部である。データ統合部38は、第1活字認識結果と第2活字認識結果とが所定の割合以上で一致すると活字一致判定部が判定した場合に、第1手書き文字認識結果データと第2手書き文字認識結果データとを統合させて統合手書き文字認識結果データとして出力する。第1手書き文字認識結果データは、第1画像データに基づいて文字判定部31により判定された第1手書き文字と文字パターンとが文字データ処理部32により関連付けられたデータである。第2手書き文字認識結果データは、第2画像データに基づいて文字判定部31により判定された第2手書き文字と文字パターンとが文字データ処理部32により関連付けられたデータである。具体的には、データ統合部38は、記憶部30に格納されている一致データテーブル59に基づいて、活字一致判定部が一致すると判定した新文字認識結果データ56と被一致文字認識結果データ58とを記憶部30から抽出する。そして、データ統合部38は、抽出した新文字認識結果データ56に含まれる手書き文字認識結果データと、被一致文字認識結果データ58に含まれる手書き文字認識結果データとを統合して、統合した結果を統合文字認識結果データ60として出力する。ここで、新文字認識結果データ56に含まれる手書き文字認識結果データは、上述の第1手書き文字認識結果データに該当する。また、被一致文字認識結果データ58に含まれる手書き文字認識結果データは、上述の第2手書き文字認識結果に該当する。統合文字認識結果データ60は、基本的には図5に示す文字認識結果データ55と同じであるが、部分領域の属性データが異なる。統合文字認識結果データ60の部分領域の属性データでは、統合前の手書き文字認識結果データ別に部分領域の属性データが分類される。これについては、例えば第1の文字認識結果データ55と第2の文字認識結果データ55とが統合される場合で説明する。第1の文字認識結果データ55に属する第1手書き文字認識結果データに対応する部分領域の属性データは「第1手書き文字」に分類され、第2の文字認識結果データ55に属する第2手書き文字認識結果データに対応する部分領域の属性データは「第2手書き文字」に分類される。このように、統合文字認識結果データ60では、元の文字認識結果データ55毎に手書き文字認識結果データの部分領域の属性データが分類される。   The data integration unit 38 is a processing unit realized by the CPU 20, the program, and the like in FIG. The data integration unit 38, when the type match determination unit determines that the first type recognition result and the second type recognition result match at a predetermined ratio or more, the first handwritten character recognition result data and the second handwritten character recognition result. Data is integrated and output as integrated handwritten character recognition result data. The first handwritten character recognition result data is data in which the first handwritten character determined by the character determination unit 31 based on the first image data is associated with the character pattern by the character data processing unit 32. The second handwritten character recognition result data is data in which the character data processing unit 32 associates the second handwritten character determined by the character determining unit 31 with the character pattern based on the second image data. Specifically, the data integration unit 38, based on the matching data table 59 stored in the storage unit 30, the new character recognition result data 56 and the matched character recognition result data 58 determined that the type match determination unit matches. Are extracted from the storage unit 30. Then, the data integration unit 38 integrates and integrates the handwritten character recognition result data included in the extracted new character recognition result data 56 and the handwritten character recognition result data included in the matched character recognition result data 58. Is output as integrated character recognition result data 60. Here, the handwritten character recognition result data included in the new character recognition result data 56 corresponds to the first handwritten character recognition result data described above. The handwritten character recognition result data included in the matched character recognition result data 58 corresponds to the above-described second handwritten character recognition result. The integrated character recognition result data 60 is basically the same as the character recognition result data 55 shown in FIG. 5, but the attribute data of the partial area is different. In the partial region attribute data of the integrated character recognition result data 60, the partial region attribute data is classified according to the handwritten character recognition result data before integration. This will be described, for example, when the first character recognition result data 55 and the second character recognition result data 55 are integrated. The attribute data of the partial area corresponding to the first handwritten character recognition result data belonging to the first character recognition result data 55 is classified as “first handwritten character” and the second handwritten character belonging to the second character recognition result data 55. The attribute data of the partial area corresponding to the recognition result data is classified as “second handwritten character”. Thus, in the integrated character recognition result data 60, the attribute data of the partial region of the handwritten character recognition result data is classified for each original character recognition result data 55.

なお、記憶部30は、画像処理に係る機能構成において説明したものと同様であり、さらに、活字一致判定部37により出力される一致データテーブル59と、データ統合部38により出力される統合文字認識結果データ60とを記憶する。   The storage unit 30 is the same as that described in the functional configuration relating to image processing, and further includes a match data table 59 output by the type match determination unit 37 and an integrated character recognition output by the data integration unit 38. The result data 60 is stored.

また、表示制御部33は、画像処理に係る機能構成において説明したものと同様であり、統合文字認識結果データ60の部分領域に含まれる文字画像と、当該文字画像に関連付けられた文字列データとを別々に表示部36に表示される。   The display control unit 33 is the same as that described in the functional configuration related to image processing, and includes a character image included in the partial area of the integrated character recognition result data 60, and character string data associated with the character image. Are displayed on the display unit 36 separately.

修正部34はユーザが入力部35を操作することにより送信される入力信号に基づいて、第3画面領域42に表示された文字列データの修正を受け付けて、統合文字認識結果データ60の各部分領域に関連付けられた文字列データの変更を行う。   The correction unit 34 receives correction of the character string data displayed in the third screen area 42 based on an input signal transmitted by the user operating the input unit 35, and each part of the integrated character recognition result data 60. The character string data associated with the area is changed.

次に、以上のように構成された本実施の形態における統合処理の処理手順について説明する。   Next, a processing procedure of integration processing in the present embodiment configured as described above will be described.

図10は、本実施の形態におけるワークフローシステムにおける文字認識結果データ55の統合処理における処理手順を示すフローチャートである。   FIG. 10 is a flowchart showing a processing procedure in the integration processing of the character recognition result data 55 in the workflow system according to this embodiment.

図10に示すように、統合処理は、文字データ処理部32が新文字認識結果データ56を出力した時(画像処理終了時)に開始される。   As shown in FIG. 10, the integration process is started when the character data processing unit 32 outputs the new character recognition result data 56 (at the end of image processing).

活字一致判定部37は、新文字認識結果データ56が入力されると、記憶部30に文字認識結果データ群57が記憶されているか否かを確認する(S40)。   When the new character recognition result data 56 is input, the type match determination unit 37 checks whether the character recognition result data group 57 is stored in the storage unit 30 (S40).

活字一致判定部37は、文字認識結果データ群57がある場合に、記憶部30から新文字認識結果データ56と文字認識結果データ群57とを読み込んで、活字一致判定処理を行う(S41)。   When there is a character recognition result data group 57, the type match determination unit 37 reads the new character recognition result data 56 and the character recognition result data group 57 from the storage unit 30, and performs a type match determination process (S41).

活字一致判定部37は一方で、記憶部30に文字認識結果データ群57が記憶されていない場合に、読み込んだ新文字認識結果データ56を文字認識結果データ群57とするための情報を追加する。当該情報を追加された文字認識結果データ55は、文字認識結果データ群57として記憶部30に格納される(S42)。そして、この統合処理を終了する。   On the other hand, if the character recognition result data group 57 is not stored in the storage unit 30, the type match determination unit 37 adds information for setting the read new character recognition result data 56 as the character recognition result data group 57. . The character recognition result data 55 to which the information is added is stored in the storage unit 30 as a character recognition result data group 57 (S42). And this integration process is complete | finished.

活字一致判定部37は、活字一致判定処理(S41)において新活字認識結果データと一致する活字認識結果データがあると判定した場合に、被一致文字認識結果データ58と新文字認識結果データ56とを関連付ける(S43)。活字一致判定部37は、当該関連付け処理の結果を一致データテーブル59として出力する。活字一致判定部37により出力された一致データテーブル59は、記憶部30にバッファされる。なお、当該関連付け処理が行われた新文字認識結果データ56には、文字認識結果データ群57とするための情報が追加され、当該情報が追加された文字認識結果データ55は文字認識結果データ群57として記憶部30に格納される。   When the type match determination unit 37 determines that there is type recognition result data that matches the new type recognition result data in the type match determination processing (S41), the matched character recognition result data 58 and the new character recognition result data 56 (S43). The type match determination unit 37 outputs the result of the association processing as a match data table 59. The match data table 59 output by the type match determination unit 37 is buffered in the storage unit 30. The new character recognition result data 56 subjected to the association process is added with information for making the character recognition result data group 57, and the character recognition result data 55 to which the information is added is the character recognition result data group. 57 is stored in the storage unit 30.

一方、活字一致判定部37は、活字一致判定処理(S41)において新活字認識結果データと一致する活字認識結果データがないと判定した場合に、読み込んだ新文字認識結果データ56を文字認識結果データ群57とするための情報を追加する。当該情報を追加された文字認識結果データ55は、文字認識結果データ群57として記憶部30に格納される(S44)。そして、この統合処理を終了する。   On the other hand, when it is determined that there is no type recognition result data that matches the new type recognition result data in the type match determination process (S41), the type match determination unit 37 uses the read new character recognition result data 56 as the character recognition result data. Information for group 57 is added. The character recognition result data 55 to which the information is added is stored in the storage unit 30 as a character recognition result data group 57 (S44). And this integration process is complete | finished.

そして、データ統合部38は、活字一致判定部37により出力された一致データテーブル59に基づいて、関連付け処理が行われた複数の文字認識結果データ55を記憶部30から抽出する。データ統合部38は、抽出した複数の文字認識結果データ55(すなわち、新文字認識結果データ56および被一致文字認識結果データ58)の各手書き文字認識結果データを統合して、統合した結果を統合文字認識結果データ60として出力する(S45)。データ統合部38に出力された統合文字認識結果データ60は、記憶部に格納されて、統合処理は終了する。   Then, the data integration unit 38 extracts a plurality of character recognition result data 55 subjected to the association process from the storage unit 30 based on the match data table 59 output by the type match determination unit 37. The data integration unit 38 integrates the handwritten character recognition result data of the plurality of extracted character recognition result data 55 (that is, the new character recognition result data 56 and the matched character recognition result data 58), and integrates the integrated results. It outputs as the character recognition result data 60 (S45). The integrated character recognition result data 60 output to the data integration unit 38 is stored in the storage unit, and the integration process ends.

表示制御部33は、統合文字認識結果データ60を表示部36に表示させる場合に、次のように表示部36を制御する。統合文字認識結果データ60は、部分領域の属性データが、文字認識結果データ55では「手書き文字」と「活字」との2種類であったのが、「第1手書き文字」、「第2手書き文字」、「活字」の3種類もしくはそれを超える。部分領域の属性データが3種類を超える場合には、活字データが同一と判断される書類の数に応じて異なり、当該書類の数と手書き文字の属性の数とが一致するように増加する。例えば活字データが同一と判断される書類の数が3つであれば、部分領域の属性データは、「第1手書き文字」、「第2手書き文字」、「第3手書き文字」、「活字」の4種類となる。   The display control unit 33 controls the display unit 36 as follows when displaying the integrated character recognition result data 60 on the display unit 36. In the integrated character recognition result data 60, there are two types of attribute data of the partial area, “handwritten characters” and “printed characters” in the character recognition result data 55, “first handwritten characters” and “second handwritten characters”. Three or more of “character” and “type”. When there are more than three types of attribute data in the partial area, the number varies depending on the number of documents for which the type data is determined to be the same, and the number of the document and the number of handwritten character attributes increase. For example, if the number of documents determined to have the same type data is three, the attribute data of the partial area is “first handwritten character”, “second handwritten character”, “third handwritten character”, “type”. There are four types.

部分領域の属性データが3種類となる場合には、文字認識結果データのプルダウンリスト43の表示は、統合文字認識結果データ60では、「文字列全て」、「手書きのみ」、「手書き1のみ」、「手書き2のみ」、「活字のみ」となる。ここで、「手書きのみ」が選択された場合に、部分領域の属性データが第1手書き文字または第2手書き文字にかかわらず、全ての手書き文字が第2画面領域41において表示される。「手書き1のみ」が選択された場合に、部分領域の属性データが第1手書き文字のみの文字列データが第2画面領域41において表示される。「手書き2のみ」が選択された場合に、部分領域の属性データが第2手書き文字のみの文字列データが第2画面領域41において表示される。   When there are three types of attribute data of the partial area, the character recognition result data pull-down list 43 is displayed in the integrated character recognition result data 60 as “all character strings”, “handwriting only”, and “handwriting 1 only”. , “Handwriting 2 only” and “Type only”. Here, when “handwriting only” is selected, all handwritten characters are displayed in the second screen region 41 regardless of whether the attribute data of the partial region is the first handwritten character or the second handwritten character. When “only handwriting 1” is selected, character string data in which the partial region attribute data is only the first handwritten character is displayed in the second screen region 41. When “only handwritten 2” is selected, character string data in which the partial region attribute data is only the second handwritten character is displayed in the second screen region 41.

さらに、第1画面領域40において表示される文字の色についても、第1手書き文字は赤色、第2手書き文字は青色、活字は黒色に表示される。また、第2画面領域において表示される文字の色についても同様である。ただし、これに限定するものではなく、第1手書き文字、第2手書き文字に関わらず手書き文字全般が赤色で表示されるようにしても良い。   Further, regarding the color of the character displayed in the first screen area 40, the first handwritten character is displayed in red, the second handwritten character is displayed in blue, and the printed character is displayed in black. The same applies to the color of characters displayed in the second screen area. However, the present invention is not limited to this, and the whole handwritten character may be displayed in red regardless of the first handwritten character and the second handwritten character.

以上のように本実施形態の画像処理装置100によれば、文書を光学的に読み取って得られた画像データ53から認識された手書き文字認識結果データを抽出して、手書き文字認識結果データの文字列データを元の画像データ53が表示される第1画面領域40とは異なる第2画面領域41に表示させる。そして、修正部34ユーザからの修正の指示に基づいて、第3画面領域42に表示される文字データ処理部32により関連付けられた文字列データの変更を行う。   As described above, according to the image processing apparatus 100 of the present embodiment, the handwritten character recognition result data recognized from the image data 53 obtained by optically reading a document is extracted, and the characters of the handwritten character recognition result data are extracted. The column data is displayed in a second screen area 41 different from the first screen area 40 in which the original image data 53 is displayed. Then, based on a correction instruction from the correction unit 34 user, the character string data associated with the character data processing unit 32 displayed in the third screen area 42 is changed.

このため、ユーザが、手書き文字認識結果データと、元の画像データ53の中の手書き文字の属性データを有する文字画像とを見比べて修正することができる。また、誤認識が発生しやすい手書き文字認識結果データのみを抽出して第2画面領域41に表示させるため、手書き文字のOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に、効率よく作業することができる。   For this reason, the user can compare and correct the handwritten character recognition result data and the character image having the handwritten character attribute data in the original image data 53. In addition, since only the handwritten character recognition result data that is likely to be erroneously recognized is extracted and displayed in the second screen area 41, it is possible to prevent omission of confirmation or omission of the OCR processing result of the handwritten character. Thereby, the user can work efficiently when correcting the OCR processing result.

また、本実施形態に係る画像処理装置100によれば、活字の文字候補領域に対してもOCR処理を行なっている。このため、表示制御部33は、活字を抽出して手書き文字と選択可能な状態で表示させることができる。また、修正部34は、ユーザからの修正の指示に基づいて、活字のOCR処理結果に対しても、修正を受け付けて、文字列データの変更を行う。このため、ユーザは、活字に対してもOCR処理結果を修正することができる。   Further, according to the image processing apparatus 100 according to the present embodiment, the OCR process is performed also on the character candidate area of the type. For this reason, the display control part 33 can extract a character and can display it in the state which can be selected as a handwritten character. In addition, the correction unit 34 accepts correction for the OCR processing result of the type based on the correction instruction from the user, and changes the character string data. For this reason, the user can correct the OCR processing result for the type characters.

また、本実施形態に係る画像処理装置100によれば、複数の画像データ53に対する活字認識結果データが所定の割合以上で一致する場合に、複数の画像データ53が同一の書類に対して修正が行われたものであるとみなす。そして、当該複数の画像データ53に係る複数の手書き文字認識結果データを統合する。統合された統合手書き文字認識結果は、第2画面領域41に表示される。   Also, according to the image processing apparatus 100 according to the present embodiment, when the type recognition result data for a plurality of image data 53 match at a predetermined ratio or more, the plurality of image data 53 is corrected for the same document. It is considered to have been done. Then, a plurality of handwritten character recognition result data related to the plurality of image data 53 are integrated. The integrated integrated handwritten character recognition result is displayed in the second screen area 41.

これにより、修正者が複数いるような場合であっても、ユーザは、第2画面領域41に表示される手書き文字認識結果データと第1画面領域40において表示される元の画像データ53の中の部分領域に含まれる文字画像とを見比べて修正することができる。また、誤認識が発生しやすい手書き文字のみを抽出して第2画面領域41に表示させるため、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。また、複数の修正者による手書きの書き込みを統合して表示させることができるため、1つの原稿に対する作業効率を向上させることができる。   As a result, even if there are a plurality of correctors, the user can add the handwritten character recognition result data displayed in the second screen area 41 and the original image data 53 displayed in the first screen area 40. The character image included in the partial area can be compared and corrected. Further, since only handwritten characters that are likely to be erroneously recognized are extracted and displayed in the second screen area 41, it is possible to prevent omission of confirmation or omission of erroneously recognized OCR processing results. Thereby, the user can work efficiently when correcting the OCR processing result. Further, since handwritten writing by a plurality of correctors can be displayed in an integrated manner, the working efficiency for one original can be improved.

また、本実施形態に係る画像処理装置100によれば、第2画面領域41に表示された手書き文字認識結果データの文字列データ(すなわち手書き文字のOCR処理結果)を修正可能なフィールドをさらに別の第3画面領域42に表示させる。これにより、ユーザは、元の画像データ53による手書き文字を参照しながら、手書き文字のOCR処理結果の確認または修正を行うことができる。   Further, according to the image processing apparatus 100 according to the present embodiment, the field that can correct the character string data of the handwritten character recognition result data displayed in the second screen area 41 (that is, the OCR processing result of the handwritten character) is further separated. Are displayed in the third screen area 42. Thereby, the user can confirm or correct the OCR processing result of the handwritten character while referring to the handwritten character by the original image data 53.

また、本実施形態に係る画像処理装置100によれば、第1画面領域40において、第1手書き文字認識結果データに対応する文字画像が赤色で表示され、第2手書き文字認識結果データに対応する文字画像が青色で表示される。このことは、第2画面領域41において表示される文字の色についても同様である。   Further, according to the image processing apparatus 100 according to the present embodiment, in the first screen area 40, the character image corresponding to the first handwritten character recognition result data is displayed in red, and corresponds to the second handwritten character recognition result data. The character image is displayed in blue. The same applies to the color of the character displayed in the second screen area 41.

このため、複数の修正者が、例えば文章の内容の修正、誤字脱字の修正等の役割毎に分けられている場合に、役割毎の手書き文字による修正をユーザは把握できる。これにより、例えばユーザが手書き文字のOCR処理結果の修正を行う時間が限られるなどの制限がある場合に、優先度の高い役割と認識された手書き文字による修正を選んで手書き文字のOCR処理結果の修正を行うことができる。   For this reason, when a plurality of correctors are divided for each role such as correction of sentence content, correction of typographical error, etc., the user can grasp correction by handwritten characters for each role. Thereby, for example, when there is a restriction such as the time for the user to correct the OCR processing result of the handwritten character is limited, the correction by the handwritten character recognized as the role with high priority is selected and the OCR processing result of the handwritten character Corrections can be made.

また、本実施形態に係る画像処理装置100によれば、文字判定部31は、各部分領域の表示位置および表示範囲を文字判定結果データ54として出力する。このため、ユーザが、例えば第2画面領域41において抽出された文字列データを選択したときに、選択された文字列データに対応する部分領域の表示を変更できる。   Further, according to the image processing apparatus 100 according to the present embodiment, the character determination unit 31 outputs the display position and display range of each partial area as the character determination result data 54. For this reason, when the user selects the character string data extracted in the second screen area 41, for example, the display of the partial area corresponding to the selected character string data can be changed.

また、本実施形態に係る画像処理装置100によれば、第1画面領域40において、表示される活字の属性データを有する部分領域の文字画像が黒色で表示され、手書き文字の属性データを有する部分領域の文字画像が赤色で表示される。このため、ユーザは、第1画面領域40において、画像データ53における活字の文字画像と手書きの文字画像とを瞬時に見分けることができる。   In addition, according to the image processing apparatus 100 according to the present embodiment, in the first screen area 40, the character image of the partial area having the displayed print attribute data is displayed in black, and the part having the handwritten character attribute data The character image of the area is displayed in red. Therefore, the user can instantly distinguish between a printed character image and a handwritten character image in the image data 53 in the first screen area 40.

また、本実施形態に係る画像処理装置100によれば、ユーザが、第2画面領域41に表示される文字列データに対応するチェックボックスにチェックを入れると、チェックされた文字列データに対応する部分領域の文字画像の上に取り消し線が表示される。   Further, according to the image processing apparatus 100 according to the present embodiment, when the user checks the check box corresponding to the character string data displayed in the second screen area 41, it corresponds to the checked character string data. A strikethrough is displayed on the character image in the partial area.

このため、ユーザは、例えばOCR処理結果の確認または修正が終了した文字列データに対応するチェックボックスにチェックを入れることにより、当該文字列データに対応する部分領域の文字画像の表示を変更することができる。これにより、ユーザは、OCR処理結果の確認または修正が終了した文字列データに対応する部分領域の文字画像を瞬時に見分けることができ、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。   For this reason, for example, the user can change the display of the character image in the partial area corresponding to the character string data by checking a check box corresponding to the character string data for which the confirmation or correction of the OCR processing result is completed. Can do. Thereby, the user can instantly identify the character image of the partial area corresponding to the character string data for which the confirmation or correction of the OCR processing result has been completed, thereby preventing an erroneously recognized OCR processing result from being checked or corrected. be able to. Thereby, the user can work efficiently when correcting the OCR processing result.

また、本実施形態に係る画像処理装置100によれば、ユーザが、第2画面領域41に表示される文字列データをマウスなどのポインティングデバイスでクリックして反転表示させると、反転表示された文字列データに対応する部分領域の文字画像が反転表示される。   Further, according to the image processing apparatus 100 according to the present embodiment, when the user clicks the character string data displayed in the second screen area 41 with a pointing device such as a mouse to highlight it, the highlighted character is displayed. The character image of the partial area corresponding to the column data is displayed in reverse video.

このため、ユーザは、上述のような選択を第2画面領域41の文字列データに対して行うことにより、当該選択された文字列データに対応する部分領域の文字画像を第1画面領域40において瞬時に見分けることができる。これにより、ユーザは、OCR処理結果を修正する際に効率よく作業することができる。   For this reason, the user performs the above-described selection on the character string data in the second screen area 41, so that the character image of the partial area corresponding to the selected character string data is displayed in the first screen area 40. Can be identified instantly. Thereby, the user can work efficiently when correcting the OCR processing result.

また、本発明は、このような画像処理装置として実現できるだけでなく、画像処理装置が備える特徴的な処理部のそれぞれの動作をステップとして方法として実現することもでき、また、本発明は、各処理部の処理を行う集積回路として実現することもできる。さらに、本発明は、コンピュータに上記各ステップを実行させるためのプログラムとして実現することもできる。そのようなプログラムは、CD−ROM等の記録媒体またはインターネット等の伝送媒体を介して配信することもできる。また、本発明は、このような画像処理装置を内蔵するネットワーク複合機として実現することもできる。   In addition, the present invention can be realized not only as such an image processing apparatus but also as a method using each operation of a characteristic processing unit included in the image processing apparatus as a step. It can also be realized as an integrated circuit that performs processing of the processing unit. Furthermore, the present invention can also be realized as a program for causing a computer to execute the above steps. Such a program can also be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet. In addition, the present invention can be realized as a network complex machine incorporating such an image processing apparatus.

以上、本発明に係る画像処理装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。   Although the image processing apparatus according to the present invention has been described based on the embodiment, the present invention is not limited to this embodiment.

つまり、今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   That is, the embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

例えば、上記実施の形態では、第1画面領域において表示される手書き文字の属性データに対応する部分領域の色が赤色で表示され、第1画面領域において表示される活字の属性データに対応する部分領域の色が黒色で表示される。このように、手書き文字の属性データに対応する部分領域と活字の属性データに対応する部分領域との表示形態を異なるものとしているが、これに限らない。例えば、手書き文字の属性データに対応する部分領域を囲う罫線の枠が太線の実線で表示され、活字の属性データに対応する部分領域を囲う罫線の枠が点線で表示されるように、文字候補領域を囲う罫線の枠の表示形態を異なるものとしても良い。また、例えば、手書き文字の属性データに対応する部分領域の文字が斜体表示され、活字の属性データに対応する部分領域の文字が元の画像データ53のままで表示されように、文字のフォントを異なるものとしても良い。   For example, in the above-described embodiment, the color of the partial area corresponding to the handwritten character attribute data displayed in the first screen area is displayed in red, and the part corresponding to the type attribute data displayed in the first screen area The color of the area is displayed in black. Thus, although the display form of the partial area | region corresponding to the attribute data of a handwritten character differs from the partial area | region corresponding to the attribute data of a type character, it is not restricted to this. For example, character candidates such that a ruled line frame surrounding a partial area corresponding to handwritten character attribute data is displayed as a bold solid line, and a ruled line frame surrounding a partial area corresponding to type attribute data is displayed as a dotted line The display form of the frame of the ruled line surrounding the area may be different. Further, for example, the character font is changed so that the characters in the partial area corresponding to the attribute data of the handwritten character are displayed in italics and the characters in the partial area corresponding to the attribute data of the type are displayed as the original image data 53. It may be different.

また、上記実施の形態では、画像処理装置100には画像取得部39が含まれていないが、これに限らずに図11に示すように、画像取得部39が含まれる構成の画像処理装置200であっても良い。この画像処理装置200によれば、画像取得部39をさらに備えるため、スキャナまたはデジタルカメラなどの画像取得装置を別に用意しなくとも、上述の画像処理を行うことができる。   In the above embodiment, the image processing apparatus 100 does not include the image acquisition unit 39. However, the present invention is not limited to this, and the image processing apparatus 200 includes the image acquisition unit 39 as shown in FIG. It may be. Since the image processing apparatus 200 further includes the image acquisition unit 39, the above-described image processing can be performed without separately preparing an image acquisition apparatus such as a scanner or a digital camera.

また、本実施の形態では、文字判定部31が文字候補領域の切出処理と手活判定処理とを行っており、文字データ処理部32が文字パターン関連付け処理を行っているが、これに限らない。文字候補領域の切出処理と、手活判定処理と、文字パターン関連付け処理とは、これらの3つの処理を3つの異なる処理部が単独により行っても良いし、1つの処理部が一括して行っても良いし、3つの処理のうちの2つの処理を1つの処理部が行い残りの1つの処理を別の1つの処理部が行っても良い。   In the present embodiment, the character determination unit 31 performs the character candidate region extraction process and the hand activity determination process, and the character data processing unit 32 performs the character pattern association process. Absent. In the character candidate region extraction process, the hand activity determination process, and the character pattern association process, these three processes may be performed independently by three different processing units, or one processing unit may collectively perform the processing. Alternatively, two of the three processes may be performed by one processing unit, and the remaining one process may be performed by another one processing unit.

また、上記実施の形態では、画像処理装置100として端末装置3、4を構成するハードウェアが機能しているが、これに限らずに、ネットワーク複合機1が画像処理装置100として機能しても良い。なお、この場合に、記憶部30は、図2におけるRAM12等によって実現される。文字判定部31、文字データ処理部32、表示制御部33、および修正部34は、図2におけるCPU10、制御プログラム50等によって実現される。入力部35は、図2における操作パネル15によって実現される。表示部36は、図2におけるディスプレイ16によって実現される。また、ネットワーク複合機1が文字認識結果データ55を作成するまでの処理を行い、その後の修正部34による処理を端末装置3、4が行うようにしても良い。   In the above embodiment, the hardware configuring the terminal devices 3 and 4 functions as the image processing apparatus 100. However, the present invention is not limited to this, and the network multifunction device 1 functions as the image processing apparatus 100. good. In this case, the storage unit 30 is realized by the RAM 12 or the like in FIG. The character determination unit 31, the character data processing unit 32, the display control unit 33, and the correction unit 34 are realized by the CPU 10, the control program 50, and the like in FIG. The input unit 35 is realized by the operation panel 15 in FIG. The display unit 36 is realized by the display 16 in FIG. Alternatively, the network multifunction device 1 may perform processing until the character recognition result data 55 is created, and the terminal devices 3 and 4 may perform subsequent processing by the correction unit 34.

また、上記実施の形態では、ユーザのワークフロー処理のステップS21において、ユーザはプルダウンリスト43から「手書きのみ」を選択しているが、これに限らずに、ユーザの必要に応じて「文字列全て」を選択しても良いし、「活字のみ」を選択しても良い。   In the above embodiment, the user selects “only handwriting” from the pull-down list 43 in step S21 of the user's workflow processing. "May be selected, or" only type "may be selected.

また、上記実施の形態では、統合処理において新文字認識結果データ56が生じると自動的に統合処理が行われているが、これに限らずに、ユーザが選択した複数の文字認識結果データ55に関してのみ統合処理を行うようにしても良い。また、統合処理を行うデータとしては、文字認識結果データに限らずに画像データであっても良く、この場合には、ユーザは画像データを複数選択し画像処理(S10〜S20)の結果として出力される文字認識結果データが利用されることになる。   In the above embodiment, the integration process is automatically performed when new character recognition result data 56 is generated in the integration process. However, the present invention is not limited to this, and a plurality of character recognition result data 55 selected by the user is used. Only the integration process may be performed. Further, the data to be integrated is not limited to character recognition result data, and may be image data. In this case, the user selects a plurality of image data and outputs them as a result of image processing (S10 to S20). The character recognition result data to be used is used.

これにより、この場合の画像処理装置は、活字一致判定部37が選択された文字認識結果データ55のみに対して活字一致判定処理を行うこととなる。このため、この場合の画像処理装置は、既に記憶部30に記憶されている全ての文字認識結果データ55に対して活字一致判定処理を行わなくとも良くなり、システムに係る負荷を軽減させることができる。   As a result, the image processing apparatus in this case performs the type match determination process only for the character recognition result data 55 for which the type match determination unit 37 has been selected. For this reason, the image processing apparatus in this case does not have to perform the type match determination process for all the character recognition result data 55 already stored in the storage unit 30, and can reduce the load on the system. it can.

また、上記実施の形態では、各処理部において作成されるデータは、記憶部30(すなわちハードディスク)に記憶されるようにしているが、これに限らずに、例えば記憶部30にバッファされるものについてはRAM22に記憶されるようにしても良い。   Moreover, in the said embodiment, although the data produced in each process part are memorize | stored in the memory | storage part 30 (namely, hard disk), it is not restricted to this, For example, what is buffered by the memory | storage part 30 May be stored in the RAM 22.

また、上記実施の形態では、修正部34は、ユーザがプルダウンリスト43から属性データの区分を選択することにより、選択的に手書き文字または活字のいずれかの属性データを有する部分領域の文字列データを表示部36に表示させている。しかし、これに限らず、プルダウンリスト43が無くとも良く、自動的に手書き文字の属性データを有する部分領域の文字列データを表示させても良い。このように、少なくとも手書き文字の属性データを有する部分領域の文字列データを表示させることにより、OCR処理の認識精度が低い手書き文字のOCR処理結果を修正できるため、十分に誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐ効果を得ることができる。   In the above-described embodiment, the correction unit 34 selects the attribute data classification from the pull-down list 43 so that the character string data of the partial area that selectively has either the handwritten character or the typed attribute data. Is displayed on the display unit 36. However, the present invention is not limited to this, and the pull-down list 43 may not be provided, and character string data of a partial area having handwritten character attribute data may be automatically displayed. Thus, since the character string data of the partial area having at least the attribute data of the handwritten character is displayed, the OCR processing result of the handwritten character with low recognition accuracy of the OCR processing can be corrected. An effect of preventing omission of confirmation of results or omission of correction can be obtained.

また、上記実施の形態では、表示制御部33は、部分領域の文字列データを抽出して第2画面領域41に表示させているが、第2画面領域41に表示させるのは文字列データに限らない。例えば、文字判定部31が部分領域切出処理を行うことにより画像データ53から分解された部分領域の文字画像を表示させても良い。すなわち、文字判定部31によって処理された文字判定結果データ54に基づいて、第2画面領域41に手書き文字の部分領域に関する文字情報(文字画像)を抽出して表示すれば良く、上記実施の形態のように文字判定結果データ54がさらに文字データ処理部32によって処理された文字認識結果データ55に基づいて、第2画面領域41に手書き文字の部分領域に関する文字情報(すなわち、文字画像)が抽出されて表示されてもよいし、文字列データが抽出されて表示されても良い。   In the above embodiment, the display control unit 33 extracts the character string data of the partial area and displays it on the second screen area 41. However, what is displayed on the second screen area 41 is the character string data. Not exclusively. For example, the character image of the partial area decomposed | disassembled from the image data 53 may be displayed by the character determination part 31 performing a partial area extraction process. That is, based on the character determination result data 54 processed by the character determination unit 31, the character information (character image) relating to the partial region of the handwritten character may be extracted and displayed in the second screen region 41. Based on the character recognition result data 55 obtained by further processing the character determination result data 54 by the character data processing unit 32 as described above, character information (that is, a character image) relating to the partial region of the handwritten character is extracted in the second screen region 41. The character string data may be extracted and displayed.

また、上記実施の形態では、修正部34は、ユーザからの修正の指示に基づいて、第3画面領域42において部分領域の文字列データの修正を受け付けて、文字列データの変更を行っているが、この表示を行う画面領域は第3画面領域42に限らない。例えば、ユーザからの文字列データの修正状況を表示する画面領域は、第1画面領域40であってもよいし第2画面領域41であっても良い。   Moreover, in the said embodiment, the correction | amendment part 34 receives the correction of the character string data of a partial area in the 3rd screen area | region 42 based on the correction instruction | indication from a user, and changes the character string data. However, the screen area on which this display is performed is not limited to the third screen area 42. For example, the screen area for displaying the correction status of the character string data from the user may be the first screen area 40 or the second screen area 41.

本発明は、誤認識されたOCR処理結果の確認漏れまたは修正漏れを防ぐことができる画像処理装置または当該画像処理装置を内蔵したネットワーク複合機等として利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used as an image processing apparatus that can prevent a misrecognized OCR processing result from being omitted from being confirmed or corrected, or as a network complex machine that incorporates the image processing apparatus.

1、2 ネットワーク複合機
3、4 端末装置
5 PSTN
6 LAN
7 デジタルカメラ
10 CPU
11 ROM
12 RAM
13 モデム
14 NCU
15 操作パネル
16 ディスプレイ
17 スキャナ
18 プリンタ
19 LANI/F
20 CPU
21 ハードディスク
22 RAM
23 入力装置
24 ディスプレイ
25 LANI/F
26 USBI/F
30 記憶部
31 文字判定部
32 文字データ処理部
33 表示制御部
34 修正部
35 入力部
36 表示部
37 活字一致判定部
38 データ統合部
39 画像取得部
40 第1画面領域
41 第2画面領域
42 第3画面領域
43 プルダウンリスト
44 チェックボックス
50 制御プログラム
51 画像処理プログラム
52 文字パターンデータ
53 画像データ
54 文字判定結果データ
55 文字認識結果データ
56 新文字認識結果データ
57 文字認識結果データ群
58 被一致文字認識結果データ
59 一致データテーブル
60 統合文字認識結果データ
100 画像処理装置
110 画像取得装置
200 画像処理装置
1, 2 Network MFP 3, 4 Terminal device 5 PSTN
6 LAN
7 Digital camera 10 CPU
11 ROM
12 RAM
13 Modem 14 NCU
15 Operation Panel 16 Display 17 Scanner 18 Printer 19 LAN I / F
20 CPU
21 Hard disk 22 RAM
23 Input device 24 Display 25 LAN I / F
26 USB I / F
DESCRIPTION OF SYMBOLS 30 Memory | storage part 31 Character determination part 32 Character data processing part 33 Display control part 34 Correction part 35 Input part 36 Display part 37 Type match determination part 38 Data integration part 39 Image acquisition part 40 1st screen area 41 2nd screen area 42 2nd 3-screen area 43 pull-down list 44 check box 50 control program 51 image processing program 52 character pattern data 53 image data 54 character determination result data 55 character recognition result data 56 new character recognition result data 57 character recognition result data group 58 matched character recognition Result data 59 Match data table 60 Integrated character recognition result data 100 Image processing device 110 Image acquisition device 200 Image processing device

Claims (13)

文書を光学的に読み取って得られる画像データに対して処理を行う画像処理装置であって、
表示部と、
前記画像データから文字候補領域を認識して、前記文字候補領域に含まれる文字が手書き文字であるか否かを判定して、手書き文字と判定した場合に当該判定の結果を手書き文字判定結果として出力する文字判定部と、
前記文字判定部により手書き文字であると判定された文字を文字認識の候補となる文字パターンと関連付けて、当該関連付けた結果を手書き文字認識結果として出力する文字データ処理部と、
前記画像データを前記表示部の第1画面領域に表示させ、前記文字判定部により出力された手書き文字判定結果を前記第1画面領域とは異なる前記表示部の第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記手書き文字判定結果に対応する前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記表示部の第3画面領域に表示させる表示制御部と、
ユーザからの修正の指示に基づいて、前記第3画面領域に表示された前記文字パターンの修正を受け付けて、前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンの変更を行う修正部と
を備える画像処理装置。
An image processing apparatus that processes image data obtained by optically reading a document,
A display unit;
When the character candidate area is recognized from the image data, it is determined whether or not the character included in the character candidate area is a handwritten character, and when the handwritten character is determined, the determination result is used as the handwritten character determination result. A character determination unit to output;
A character data processing unit that associates a character that is determined to be a handwritten character by the character determination unit with a character pattern that is a candidate for character recognition, and outputs the associated result as a handwritten character recognition result;
The image data is displayed on the first screen area of the display unit, and the handwritten character determination result output by the character determination unit is displayed on the second screen area of the display unit different from the first screen area, The display which displays the character pattern linked | related by the said character data process part among the said handwritten character recognition results corresponding to the said handwritten character determination result selected by the user in the 2nd screen area on the 3rd screen area of the said display part A control unit;
Based on the correction instruction from the user, the correction of the character pattern displayed in the third screen area is accepted, and the character pattern associated with the character data processing unit in the handwritten character recognition result is changed. An image processing apparatus comprising: a correction unit that performs the processing.
前記文字判定部は、さらに、前記文字候補領域に含まれる文字が、活字であるか否かを判定して、活字であると判定した場合に当該判定の結果を活字判定結果として出力し、
前記文字データ処理部は、さらに、前記文字判定部により判定された活字を前記文字パターンと関連付けて、当該関連付けた結果を活字認識結果として出力し、
前記表示制御部は、さらに、前記文字判定部により出力された活字判定結果を前記第2画面領域に表示させ、前記活字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記第3画面領域に表示させる
請求項1に記載の画像処理装置。
The character determination unit further determines whether or not the character included in the character candidate area is a type, and outputs the result of the determination as a type determination result when determining that the character is a type.
The character data processing unit further associates the type determined by the character determination unit with the character pattern, and outputs the associated result as a type recognition result,
The display control unit further displays the character determination result output by the character determination unit in the second screen area, and the character pattern associated by the character data processing unit among the character recognition results is displayed in the second screen area. The image processing apparatus according to claim 1, wherein the image processing apparatus is displayed in a three-screen area.
さらに、
第1画像データに基づいて前記文字判定部により判定された第1活字判定結果と前記文字パターンとが前記文字データ処理部により関連付けられた第1活字認識結果と、第2画像データに基づいて前記文字判定部により判定された第2活字判定結果と前記文字パターンとが前記文字データ処理部により関連付けられた第2活字認識結果とが、所定の割合以上で一致するか否かを判定する活字一致判定部と、
前記第1活字認識結果と前記第2活字認識結果とが前記所定の割合以上で一致すると前記活字一致判定部が判定した場合に、前記第1画像データに基づいて前記文字判定部により判定された第1手書き文字と前記文字パターンとが前記文字データ処理部により関連付けられた第1手書き文字認識結果と、第2画像データに基づいて前記文字判定部により判定された第2手書き文字と前記文字パターンとが前記文字データ処理部により関連付けられた第2手書き文字認識結果とを統合させて統合手書き文字認識結果として出力するデータ統合部と
を備え、
前記表示制御部は、前記統合手書き文字認識結果を前記第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記第3画面領域に表示させ、
前記修正部は、ユーザからの修正指示に基づいて、前記第1手書き文字認識結果のうちで前記文字データ処理部により関連付けられた第1文字パターンの修正を受け付けて、前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた前記第1文字パターンの変更を行う、または、前記第2手書き文字認識結果のうちで前記文字データ処理部により関連付けられた第2文字パターンの修正を受け付けて、前記統合手書き文字認識結果のうちで前記文字データ処理部により関連付けられた前記第2文字パターンの変更を行う
請求項2に記載の画像処理装置。
further,
The first type recognition result determined by the character determining unit based on the first image data and the character pattern are associated with each other by the character data processing unit, and the second image data based on the second image data. Type match for determining whether the second type recognition result determined by the character determination unit matches the second type recognition result associated with the character pattern by the character data processing unit at a predetermined ratio or more. A determination unit;
When the type match determination unit determines that the first type recognition result and the second type recognition result match at the predetermined ratio or more, the character determination unit determines based on the first image data The first handwritten character and the character pattern determined by the character determining unit based on the first handwritten character recognition result in which the first handwritten character and the character pattern are associated by the character data processing unit, and the second image data. And a data integration unit that integrates the second handwritten character recognition result associated by the character data processing unit and outputs the result as an integrated handwritten character recognition result,
The display control unit displays the integrated handwritten character recognition result in the second screen region, and is associated with the character data processing unit among the integrated handwritten character recognition results selected by the user in the second screen region. The displayed character pattern in the third screen area,
The correction unit receives correction of the first character pattern associated by the character data processing unit among the first handwritten character recognition results based on a correction instruction from a user, and The first character pattern associated with the character data processing unit is changed, or the modification of the second character pattern associated with the character data processing unit among the second handwritten character recognition results is accepted. The image processing apparatus according to claim 2, wherein the second character pattern associated with the character data processing unit in the integrated handwritten character recognition result is changed.
前記第3画面領域は、前記第1画面領域および前記第2画面領域とは異なる画面領域である
請求項1から3のいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 3, wherein the third screen area is a screen area different from the first screen area and the second screen area.
前記表示制御部は、前記第1手書き文字認識結果を第1表示形態により前記第2画面領域に表示させ、前記第2手書き文字認識結果を前記第1表示形態とは異なる第2表示形態により前記第2画面領域に表示させる
請求項4に記載の画像処理装置。
The display control unit displays the first handwritten character recognition result on the second screen area in a first display form, and displays the second handwritten character recognition result in a second display form different from the first display form. The image processing apparatus according to claim 4, wherein the image processing apparatus is displayed in the second screen area.
前記文字判定部は、前記手書き文字判定結果としてさらに、手書き文字が含まれると判定された文字候補領域の表示位置および表示範囲を出力する
請求項1から5のいずれか1項に記載の画像処理装置。
The image processing according to any one of claims 1 to 5, wherein the character determination unit further outputs a display position and a display range of a character candidate area determined to include a handwritten character as the handwritten character determination result. apparatus.
前記文字判定部は、さらに、前記文字候補領域に含まれる文字が、活字であるか否かを判定して、活字であると判定した場合に当該判定の結果を前記画像データにおける活字の表示位置および活字の表示範囲とともに活字判定結果として出力し、
前記表示制御部は、前記手書き文字判定結果および前記活字判定結果に基づいて、前記文字判定部により活字が含まれると判定された文字候補領域を第3表示形態により前記第1画面領域に表示させ、前記文字判定部により手書き文字が含まれると判定された文字候補領域を前記第3表示形態とは異なる第4表示形態により前記第1画面領域に表示させる
請求項6に記載の画像処理装置。
The character determination unit further determines whether or not the character included in the character candidate area is a type, and when determining that the character is a type, the result of the determination is the display position of the type in the image data. And output as a result of type judgment together with the display range of type,
The display control unit displays, in the first screen area, a character candidate area determined to include a type by the character determination unit based on the handwritten character determination result and the type determination result. The image processing apparatus according to claim 6, wherein the character candidate area determined by the character determination unit to include a handwritten character is displayed on the first screen area by a fourth display form different from the third display form.
前記表示制御部は、前記第2画面領域に表示される手書き文字判定結果に対して第1の選択をユーザが行った場合に、前記第1の選択の対象となった手書き文字判定結果に対応する文字候補領域を第5表示形態により前記第1画面領域に表示させる
請求項6または7に記載の画像処理装置。
The display control unit corresponds to a handwritten character determination result that is a target of the first selection when the user makes a first selection with respect to the handwritten character determination result displayed in the second screen area. The image processing apparatus according to claim 6, wherein a character candidate area to be displayed is displayed on the first screen area in a fifth display form.
前記表示制御部は、さらに、前記第2画面領域に表示される手書き文字判定結果に対して第2の選択をユーザが行った場合に、部前記第2の選択の対象となった手書き文字判定結果に対応する文字候補領域を前記第5表示形態とは異なる第6表示形態により前記第1画面領域に表示させる
請求項8に記載の画像処理装置。
The display control unit further determines the handwritten character that is the target of the second selection when the user makes a second selection with respect to the handwritten character determination result displayed in the second screen area. The image processing apparatus according to claim 8, wherein a character candidate area corresponding to the result is displayed on the first screen area in a sixth display form different from the fifth display form.
さらに、
文書から光学的に前記画像データを取得する画像取得部を備える
請求項1から9のいずれか1項に記載の画像処理装置。
further,
The image processing apparatus according to claim 1, further comprising an image acquisition unit that optically acquires the image data from a document.
さらに、
前記文字パターンを記憶している記憶部を備える
請求項1から10のいずれか1項に記載の画像処理装置。
further,
The image processing apparatus according to claim 1, further comprising a storage unit that stores the character pattern.
文書を光学的に読み取って得られる画像データに対して処理を行う画像処理方法であって、
前記画像データから文字候補領域を認識して、前記文字候補領域に含まれる文字が手書き文字であるか否かを判定して、手書き文字と判定した場合に当該判定の結果を手書き文字判定結果として出力する文字判定ステップと、
前記文字判定ステップにより判定された手書き文字を文字認識の候補となる文字パターンと関連付けて、当該関連付けた結果を手書き文字認識結果として出力する文字データ処理ステップと、
前記画像データを表示部の第1画面領域に表示させ、前記文字判定ステップにより出力された手書き文字判定結果を前記第1画面領域とは異なる前記表示部の第2画面領域に表示させ、前記第2画面領域においてユーザに選択された前記手書き文字判定結果に対応する前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンを前記表示部の第3画面領域に表示させる表示制御ステップと、
ユーザからの修正の指示に基づいて、前記第3画面領域に表示された前記文字パターンの修正を受け付けて、前記手書き文字認識結果のうちで前記文字データ処理部により関連付けられた文字パターンの変更を行う修正ステップと
を備える画像処理方法。
An image processing method for processing image data obtained by optically reading a document,
When the character candidate area is recognized from the image data, it is determined whether or not the character included in the character candidate area is a handwritten character, and when the handwritten character is determined, the determination result is used as the handwritten character determination result. A character determination step to output;
A character data processing step of associating the handwritten character determined in the character determining step with a character pattern as a candidate for character recognition, and outputting the associated result as a handwritten character recognition result;
The image data is displayed in a first screen area of a display unit, the handwritten character determination result output in the character determination step is displayed in a second screen area of the display unit different from the first screen area, and the first Display control for displaying the character pattern associated by the character data processing unit in the handwritten character recognition result corresponding to the handwritten character determination result selected by the user in the two-screen region in the third screen region of the display unit Steps,
Based on the correction instruction from the user, the correction of the character pattern displayed in the third screen area is accepted, and the character pattern associated with the character data processing unit in the handwritten character recognition result is changed. An image processing method comprising: a correction step to be performed.
請求項12に記載の画像処理方法に含まれるステップをコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the steps included in the image processing method according to claim 12.
JP2011054752A 2011-03-11 2011-03-11 Image processing device, image processing method and program Withdrawn JP2012190357A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011054752A JP2012190357A (en) 2011-03-11 2011-03-11 Image processing device, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011054752A JP2012190357A (en) 2011-03-11 2011-03-11 Image processing device, image processing method and program

Publications (1)

Publication Number Publication Date
JP2012190357A true JP2012190357A (en) 2012-10-04

Family

ID=47083410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011054752A Withdrawn JP2012190357A (en) 2011-03-11 2011-03-11 Image processing device, image processing method and program

Country Status (1)

Country Link
JP (1) JP2012190357A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162033A (en) * 2016-03-07 2017-09-14 キヤノン株式会社 Information processing device and control method and program thereof
JP2020141332A (en) * 2019-02-28 2020-09-03 キヤノン株式会社 Image processing device, control method thereof, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162033A (en) * 2016-03-07 2017-09-14 キヤノン株式会社 Information processing device and control method and program thereof
JP2020141332A (en) * 2019-02-28 2020-09-03 キヤノン株式会社 Image processing device, control method thereof, and program
JP7282550B2 (en) 2019-02-28 2023-05-29 キヤノン株式会社 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM THEREOF

Similar Documents

Publication Publication Date Title
US8610929B2 (en) Image processing apparatus, control method therefor, and program
JP5712487B2 (en) Image processing apparatus, image processing system, image processing method, and program
EP1995686B1 (en) Document processing device and document processing method
US20010043740A1 (en) Character recognizing device, image reading device, character recognizing method, and program product
JP6762722B2 (en) Information processing equipment, control methods, and programs
US11418658B2 (en) Image processing apparatus, image processing system, image processing method, and storage medium
JP2016139982A (en) Image processing apparatus and image forming system
JP2008059157A (en) Document confirmation support system, document confirmation support device and program
US20230206672A1 (en) Image processing apparatus, control method of image processing apparatus, and storage medium
US20220189186A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
JP2014044620A (en) Information processor, information processing method and program
US7738703B2 (en) Image processing apparatus, image processing method and computer readable medium storing image processing program
US11503170B2 (en) Image processing apparatus, image processing method, and storage medium
JP2022162908A (en) Image processing apparatus, image processing method, and program
JP2012190357A (en) Image processing device, image processing method and program
JP5089524B2 (en) Document processing apparatus, document processing system, document processing method, and document processing program
JP2009026075A (en) Image processing device
US20110134494A1 (en) Image scanning apparatus, control method for image scanning apparatus, and storage medium
JP5381225B2 (en) Information processing apparatus and program
JP2019074875A (en) Information processor, control method and program
JP2020052480A (en) Information processing apparatus and program
US11659106B2 (en) Information processing apparatus, non-transitory computer readable medium, and character recognition system
JP4280939B2 (en) Position plane image recognition computer software
US7831093B2 (en) Method for calculating and adjusting photo and text separation performance
JP2001202471A (en) Data entry system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513