JP2022092498A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2022092498A
JP2022092498A JP2020205330A JP2020205330A JP2022092498A JP 2022092498 A JP2022092498 A JP 2022092498A JP 2020205330 A JP2020205330 A JP 2020205330A JP 2020205330 A JP2020205330 A JP 2020205330A JP 2022092498 A JP2022092498 A JP 2022092498A
Authority
JP
Japan
Prior art keywords
block
extraction
extracted
document
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020205330A
Other languages
Japanese (ja)
Inventor
昂之 川島
Takayuki Kawashima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020205330A priority Critical patent/JP2022092498A/en
Publication of JP2022092498A publication Critical patent/JP2022092498A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image processing apparatus that can accurately determine the likelihood of an extraction position of an index item extracted from a document image.SOLUTION: An image processing apparatus 100 acquires image data of a document from a scanner unit 122, extracts an extraction block from a text block of the image data, and calculates an evaluation value of the likelihood of an extraction position of the extraction block. Here, the text block has a selected block and an unselected block as a first text block group to be a reference of extraction processing, and has the selected block and the unselected block as a second text block group subjected to the extraction processing. In the calculation of the index value, the image processing apparatus calculates the evaluation value based on the similarity between the first text block group and the second text block group.SELECTED DRAWING: Figure 9

Description

本発明は、スキャンした文書を識別してファイル名等をレコメンドする画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing device, an image processing method, and a program that identify a scanned document and recommend a file name or the like.

従来、帳票等の紙文書を画像読み取り装置でスキャンして電子化し、該文書の記載内容に基づいて電子化した文書画像のファイル名やメタデータを設定し、所定のストレージに保存することで文書管理をするシステムがある。このファイル名やメタデータを設定する方法として、文書画像にOCR処理をした認識結果に基づき設定する方法がある。その際、一般的に、文書の種類と、ファイル名付けルールやメタデータ付けルール、送付先ルールといったインデックス抽出ルールを関連付けて登録しておく。同じ種類の文書がスキャンされた場合には、文書の種類を認識し、関連付けられたインデックス抽出ルールを利用して、インデックス項目を抽出する。そして、抽出されたインデックス項目に基づいて自動的にファイル名やメタデータや送付先を決定する。これにより、自動的に決定したファイル名やメタデータや送付先をユーザに対してレコメンドすることが可能となる。 Conventionally, a paper document such as a form is scanned by an image reading device and digitized, and a file name and metadata of the digitized document image are set based on the description contents of the document, and the document is saved in a predetermined storage. There is a system to manage. As a method of setting this file name and metadata, there is a method of setting based on the recognition result of OCR processing on the document image. At that time, in general, the document type is registered in association with the index extraction rule such as the file naming rule, the metadata naming rule, and the destination rule. When the same type of document is scanned, the document type is recognized and the index item is extracted by using the associated index extraction rule. Then, the file name, metadata, and destination are automatically determined based on the extracted index items. This makes it possible to recommend the automatically determined file name, metadata, and destination to the user.

上記のようなシステムにおいて、インデックス項目の抽出は、文書画像に対してOCR処理をする際に得られるテキストブロックを利用することが一般的である。しかし、文書画像に記載された文字列の並び方によっては、テキストブロックが過剰に分割されている場合がある。また、テキストブロックが余分に結合されている場合もある。これらのような場合、ユーザが意図するインデックス項目が抽出されないことがある。そこで、インデックス抽出ルールに登録された、ユーザが過去にインデックス項目として選択しなかったテキストブロックの情報を利用して、インデックス項目として抽出するテキストブロックを適切な位置で分割、結合する処理が行われている。 In a system as described above, the extraction of index items generally uses a text block obtained when OCR processing is performed on a document image. However, the text block may be excessively divided depending on how the character strings described in the document image are arranged. Also, the text blocks may be extra-combined. In these cases, the index item intended by the user may not be extracted. Therefore, using the information of the text block registered in the index extraction rule that the user did not select as an index item in the past, the text block to be extracted as an index item is divided and combined at an appropriate position. ing.

インデックス項目として抽出するテキストブロックを適切な位置で分割する方法については、以下に示す特許文献に開示されている。例えば特許文献1では、ユーザがインデックス項目として過去に選択しなかった非選択のテキストブロックに対応する入力文書のテキストブロックを分割することで、最終的なインデックス項目のテキストブロックを抽出する。 A method of dividing a text block to be extracted as an index item at an appropriate position is disclosed in the following patent documents. For example, in Patent Document 1, the text block of the final index item is extracted by dividing the text block of the input document corresponding to the non-selected text block that the user has not selected in the past as the index item.

このようなインデックス項目として抽出するテキストブロックを適切な位置で分割、結合することがあるシステムにおいて、インデックス項目として抽出されたテキストブロックの抽出位置の確からしさを知りたい場合が存在する。例えば、テキストブロックの分割、結合ができなかった場合や、分割、結合をした場合においてもユーザが意図するインデックス項目が抽出されていない場合が挙げられる。このような場合、ユーザは抽出されたインデックス項目の間違いを確認および修正する必要がある。その際、正しくインデックス項目が抽出されている個所も含めてすべての項目を確認することは、ユーザにとって負荷が大きい。そのため、抽出位置が確からしくないインデックス項目を優先的にユーザに伝える必要がある。 In a system in which a text block extracted as an index item may be divided and combined at an appropriate position, there is a case where it is desired to know the certainty of the extraction position of the text block extracted as an index item. For example, there is a case where the text block cannot be divided or combined, or a case where the index item intended by the user is not extracted even when the text block is divided or combined. In such cases, the user needs to check and correct any mistakes in the extracted index fields. At that time, it is a heavy load for the user to check all the items including the place where the index item is correctly extracted. Therefore, it is necessary to preferentially inform the user of the index item whose extraction position is not certain.

インデックス項目として抽出されたテキストブロックの確からしさを算出する方法については、以下に示す特許文献に開示されている。例えば特許文献2では、インデックス抽出ルールに登録されたテキストブロックの抽出位置と、入力文書のテキストブロックとの距離に基づいて、抽出位置の評価値を算出する方法が開示されている。 A method for calculating the certainty of a text block extracted as an index item is disclosed in the following patent documents. For example, Patent Document 2 discloses a method of calculating an evaluation value of an extraction position based on a distance between an extraction position of a text block registered in an index extraction rule and a text block of an input document.

特開2019-134364号公報Japanese Unexamined Patent Publication No. 2019-134364 特開2020-087112号公報Japanese Unexamined Patent Publication No. 2020-087112

特許文献1の方法では、ユーザがインデックス項目として過去に選択しなかった非選択のテキストブロックに対応する入力文書のテキストブロックを分割する。これにより、最終的なインデックス項目のテキストブロックを抽出することができる。しかし、インデックス項目として抽出したテキストブロックの抽出位置の確からしさについての判断がなされていない。 In the method of Patent Document 1, the text block of the input document corresponding to the non-selected text block that the user has not previously selected as an index item is divided. This allows you to extract a text block of the final index item. However, no judgment has been made regarding the certainty of the extraction position of the text block extracted as an index item.

特許文献2の方法では、インデックス抽出ルールに登録されたテキストブロックの抽出位置と入力文書のテキストブロックとの距離情報のみを用いて評価値を算出している。しかし、文書画像に記載された文字列の並び方によっては、テキストブロックが過剰に分割されている場合や、余分に結合されている場合がある。このような場合、インデックス抽出ルールに登録されたテキストブロックの抽出位置と入力文書のテキストブロックとの距離情報だけでは、抽出位置の確からしさを精度よく判断することはできない。 In the method of Patent Document 2, the evaluation value is calculated using only the distance information between the extraction position of the text block registered in the index extraction rule and the text block of the input document. However, depending on how the character strings described in the document image are arranged, the text blocks may be excessively divided or excessively combined. In such a case, the certainty of the extraction position cannot be accurately determined only by the distance information between the extraction position of the text block registered in the index extraction rule and the text block of the input document.

本発明は、上記事情に鑑みてなされたものであり、文書画像から抽出するインデックス項目の抽出位置の確からしさを精度よく判断することのできる画像処理装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an image processing apparatus capable of accurately determining the certainty of the extraction position of an index item extracted from a document image.

上記の目的を達成するために、本発明における画像処理装置は、
原稿の画像データを取得する画像取得手段と、
前記画像データのテキストブロックを取得するテキストブロック取得手段と、
前記テキストブロックから抽出ブロックを抽出する抽出手段と、
前記抽出手段で抽出された前記抽出ブロックの抽出位置の確からしさの評価値を算出する算出手段と、
を備え、
前記テキストブロックは、抽出処理の基準となる第一テキストブロック群として選択ブロックと非選択ブロックを有するとともに、前記抽出処理の対象となる第二テキストブロック群として前記抽出ブロックと非抽出ブロックとを有し、
前記算出手段は、前記第一テキストブロック群と前記第二テキストブロック群との類似度に基づいて前記評価値を算出する
ことを特徴とする。
In order to achieve the above object, the image processing apparatus in the present invention is
Image acquisition means for acquiring image data of manuscripts,
A text block acquisition means for acquiring a text block of image data,
An extraction means for extracting an extraction block from the text block,
A calculation means for calculating the evaluation value of the certainty of the extraction position of the extraction block extracted by the extraction means, and a calculation means.
Equipped with
The text block has a selected block and a non-selected block as a first text block group as a reference of the extraction process, and has the extracted block and a non-extracted block as a second text block group to be the target of the extraction process. death,
The calculation means is characterized in that the evaluation value is calculated based on the degree of similarity between the first text block group and the second text block group.

本発明によれば、文書画像から抽出するインデックス項目の抽出位置の確からしさを精度よく判断することができる。 According to the present invention, it is possible to accurately determine the certainty of the extraction position of the index item extracted from the document image.

第1実施形態に係るシステムの全体構成例を示す図。The figure which shows the whole structure example of the system which concerns on 1st Embodiment. 第1実施形態に係る画像形成装置のハードウェア構成例を示す図。The figure which shows the hardware configuration example of the image forming apparatus which concerns on 1st Embodiment. 第1実施形態に係る処理手順のフローチャート。The flowchart of the processing procedure which concerns on 1st Embodiment. 第1実施形態に係るインデックス抽出の処理手順のフローチャート。The flowchart of the index extraction processing procedure which concerns on 1st Embodiment. 第1実施形態に係るブロックセレクション処理の例を示す図。The figure which shows the example of the block selection process which concerns on 1st Embodiment. 第1実施形態に係るインデックス抽出ルールの例を示す図。The figure which shows the example of the index extraction rule which concerns on 1st Embodiment. 第1実施形態に係るテキストブロックとOCRブロックの例を示す図。The figure which shows the example of the text block and OCR block which concerns on 1st Embodiment. 第1実施形態に係るインデックス情報とレコメンドブロック抽出結果を示す図。The figure which shows the index information and the recommendation block extraction result which concerns on 1st Embodiment. 第1実施形態に係るレコメンドスコア算出の処理手順のフローチャート。The flowchart of the processing procedure of the recommendation score calculation which concerns on 1st Embodiment. 第1実施形態に係る選択、非選択ブロックと抽出、非抽出ブロックの例を示す図。The figure which shows the example of the selection, the non-selection block and the extraction, and the non-extraction block which concerns on 1st Embodiment. 第2実施形態に係るレコメンドスコア算出の処理手順のフローチャート。The flowchart of the processing procedure of the recommendation score calculation which concerns on 2nd Embodiment. 第2実施形態に係る選択、非選択ブロックと抽出、非抽出ブロックの例を示す図。The figure which shows the example of the selection, the non-selection block and the extraction, and the non-extraction block which concerns on 2nd Embodiment. 第3実施形態に係るレコメンドスコア算出の処理手順のフローチャート。The flowchart of the processing procedure of the recommendation score calculation which concerns on 3rd Embodiment. 第3実施形態に係る選択、非選択ブロックと抽出ブロックの例を示す図。The figure which shows the example of the selection, the non-selection block and the extraction block which concerns on 3rd Embodiment. 第4実施形態に係るレコメンドスコア算出処理方法を説明する図。The figure explaining the recommendation score calculation processing method which concerns on 4th Embodiment. 第4実施形態に係る幅類似度パラメータの数値を変化させる方法を説明する図。The figure explaining the method of changing the numerical value of the width similarity parameter which concerns on 4th Embodiment. 第5実施形態に係るレコメンドスコア算出の処理手順のフローチャート。The flowchart of the processing procedure of the recommendation score calculation which concerns on 5th Embodiment. 第5実施形態に係る選択、非選択ブロックとOCRブロックの例を示す図。The figure which shows the example of the selection, the non-selection block and the OCR block which concerns on 5th Embodiment.

以下、添付図面を参照して本発明の実施形態を詳しく説明する。なお、以下の実施形態は、特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention according to the scope of claims, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. do not have.

[第1実施形態]
<システム構成>
図1は、第1実施形態に係るシステムの全体構成例を示す図である。図1に示すように、画像形成装置(画像処理装置)100は、LAN102に接続され、Internet103等を介して、PCなどの端末101等と通信可能になっている。なお、本実施形態の実現にあたっては、PCなどの端末101は、必ずしも必要ではなく、画像形成装置100のみの構成だけでも良い。
[First Embodiment]
<System configuration>
FIG. 1 is a diagram showing an overall configuration example of the system according to the first embodiment. As shown in FIG. 1, the image forming apparatus (image processing apparatus) 100 is connected to the LAN 102 and can communicate with a terminal 101 or the like such as a PC via the Internet 103 or the like. In order to realize this embodiment, the terminal 101 such as a PC is not always necessary, and only the image forming apparatus 100 may be configured.

画像形成装置100は、表示・操作部、スキャナ部及び、プリンタ部を有する複合機(MFP:Multi Function Peripheral)である。画像形成装置100は、画像形成装置100が有するスキャナ部(画像取得手段)を用いて、文書原稿をスキャンして文書画像を取得するスキャン端末として利用することが可能である。また、画像形成装置100は、タッチパネルやハードボタンなどの表示・操作部を有する。これにより、ファイル名や格納先のレコメンド結果を表示したり、ユーザからの指示を受け付けたりするためのユーザインタフェースの表示を行う。 The image forming apparatus 100 is a multifunction device (MFP: Multifunction Peripheral) having a display / operation unit, a scanner unit, and a printer unit. The image forming apparatus 100 can be used as a scanning terminal for scanning a document document and acquiring a document image by using a scanner unit (image acquisition means) included in the image forming apparatus 100. Further, the image forming apparatus 100 has a display / operation unit such as a touch panel and a hard button. As a result, the file name and the recommendation result of the storage destination are displayed, and the user interface for receiving the instruction from the user is displayed.

なお、本実施形態では、画像形成装置100単体で、スキャン処理、インデックス抽出処理、ファイル送信を行う例について説明する。しかしながら、画像形成装置が有する機能の一部を他の端末101で行うように構成したシステムであっても構わない。例えば、まず、スキャン処理を画像形成装置100で実行して、スキャン画像を他の端末101にネットワークを介して送信する。そして、他の端末101においてインデックス抽出処理を実行し、インデックス抽出結果を画像形成装置100に返信して、画像形成装置でファイルを生成してファイル送信をしてもよい。 In this embodiment, an example of performing scan processing, index extraction processing, and file transmission with the image forming apparatus 100 alone will be described. However, a system may be configured such that a part of the functions of the image forming apparatus is performed by another terminal 101. For example, first, the scan process is executed by the image forming apparatus 100, and the scanned image is transmitted to another terminal 101 via a network. Then, the index extraction process may be executed on the other terminal 101, the index extraction result may be returned to the image forming apparatus 100, the image forming apparatus may generate a file, and the file may be transmitted.

<画像形成装置100のハードウェア構成>
図2は、第1実施形態に係る画像形成装置100のハードウェア構成例を示す図である。制御部110は、CPU111、記憶装置112、プリンタI/F部113、ネットワークI/F部114、スキャナI/F部115、表示・操作I/F部116を有する。制御部110では、これらの各部が、システムバス117を介して互いに通信可能に接続されている。記憶装置112は、ROM118,RAM119,HDD120などを有する。制御部110は、画像形成装置100全体の動作を制御する。次に、各部について詳細な説明をする。
<Hardware configuration of image forming apparatus 100>
FIG. 2 is a diagram showing a hardware configuration example of the image forming apparatus 100 according to the first embodiment. The control unit 110 includes a CPU 111, a storage device 112, a printer I / F unit 113, a network I / F unit 114, a scanner I / F unit 115, and a display / operation I / F unit 116. In the control unit 110, each of these units is communicably connected to each other via the system bus 117. The storage device 112 includes a ROM 118, a RAM 119, an HDD 120, and the like. The control unit 110 controls the operation of the entire image forming apparatus 100. Next, each part will be described in detail.

CPU111は、記憶装置112に記憶された制御プログラムを読み出し、実行する。これにより、CPU111は、後述のフローチャートにおける各処理(読取制御や画像処理、表示制御など)を実行する手段として機能する。 The CPU 111 reads and executes the control program stored in the storage device 112. As a result, the CPU 111 functions as a means for executing each process (reading control, image processing, display control, etc.) in the flowchart described later.

記憶装置112は、上記プログラム、画像データ、メタデータ、設定データ及び、処理結果データなどを格納し保持する。記憶装置112には、不揮発性メモリであるROM118、揮発性メモリであるRAM119、及び大容量記憶領域であるHDD120などがある。ROM118は、制御プログラムなどを保持する不揮発性メモリであり、CPU111はその制御プログラムを読み出し制御を行う。RAM119は、CPU111の主メモリ、ワークエリア等の一時記憶領域として用いられる揮発性メモリである。 The storage device 112 stores and holds the above program, image data, metadata, setting data, processing result data, and the like. The storage device 112 includes a ROM 118 which is a non-volatile memory, a RAM 119 which is a volatile memory, an HDD 120 which is a large capacity storage area, and the like. The ROM 118 is a non-volatile memory that holds a control program and the like, and the CPU 111 reads and controls the control program. The RAM 119 is a volatile memory used as a temporary storage area such as a main memory and a work area of the CPU 111.

プリンタI/F部113は、プリンタ部121と制御部110とを、システムバス117を介して接続する。プリンタ部121は、CPU111で生成された画像データをプリンタI/F部113を介して受信し、当該受信した画像データを用いて記録紙へのプリント処理を行う。 The printer I / F unit 113 connects the printer unit 121 and the control unit 110 via the system bus 117. The printer unit 121 receives the image data generated by the CPU 111 via the printer I / F unit 113, and performs a printing process on the recording paper using the received image data.

ネットワークI/F部114は、制御部110(画像形成装置100)を、システムバス117を介してLAN102に接続する。ネットワークI/F部114は、LAN102上の外部装置に画像データを送信したり、LAN102上の外部装置から各種情報を受信したりする。 The network I / F unit 114 connects the control unit 110 (image forming apparatus 100) to the LAN 102 via the system bus 117. The network I / F unit 114 transmits image data to an external device on the LAN 102, and receives various information from the external device on the LAN 102.

スキャナI/F部115は、スキャナ部122と制御部110とを、システムバス117を介して接続する。スキャナ部122は、文書原稿を読み取ってスキャン画像データを生成し、スキャナI/F部115を介してスキャン画像データを制御部110に入力する。なお、スキャナ部122は、原稿フィーダを備え、トレイに置かれた複数の原稿を1枚ずつフィードして、連続的に読み取ることを可能とする。 The scanner I / F unit 115 connects the scanner unit 122 and the control unit 110 via the system bus 117. The scanner unit 122 reads the document document to generate scanned image data, and inputs the scanned image data to the control unit 110 via the scanner I / F unit 115. The scanner unit 122 is provided with a document feeder, and can feed a plurality of documents placed on the tray one by one and continuously read them.

表示・操作I/F部116は、表示・操作部123と制御部110とを、システムバス117を介して接続する。表示・操作部123には、タッチパネル機能を有する液晶表示部やハードボタンなどが備えられている。 The display / operation I / F unit 116 connects the display / operation unit 123 and the control unit 110 via the system bus 117. The display / operation unit 123 is provided with a liquid crystal display unit having a touch panel function, hard buttons, and the like.

以上のように、本実施形態に係る画像形成装置100では、上記のハードウェア構成によって、画像処理機能を提供することが可能である。 As described above, the image forming apparatus 100 according to the present embodiment can provide an image processing function by the above hardware configuration.

<フローチャートを用いた本実施形態の詳細説明>
本実施形態では、画像形成装置100が文書原稿を読み取り、先頭ページのOCR結果の文字列を利用してファイル名を生成し、表示・操作部123を通じてユーザにレコメンドする。レコメンドされたインデックス項目の抽出位置が確からしくない場合、画像形成装置100は、ユーザに確からしくない旨を通知する。なお、本実施形態におけるインデックス項目とは、文書画像から取得された文字列のうち、ファイル名として使用するために抽出される文字列のことである。ユーザは、表示・操作部において、レコメンドされたファイル名が正しいかどうかを確認し、間違っている場合には、画像形成装置100に修正指示を行う。画像形成装置100は、ユーザの操作結果に基づいて、修正があった場合にはインデックス抽出ルールを更新する。
<Detailed explanation of this embodiment using a flowchart>
In the present embodiment, the image forming apparatus 100 reads the document manuscript, generates a file name using the character string of the OCR result on the first page, and recommends it to the user through the display / operation unit 123. If the extraction position of the recommended index item is not certain, the image forming apparatus 100 notifies the user that the extraction position is not certain. The index item in the present embodiment is a character string extracted for use as a file name among the character strings acquired from the document image. The user confirms whether the recommended file name is correct in the display / operation unit, and if it is incorrect, gives a correction instruction to the image forming apparatus 100. The image forming apparatus 100 updates the index extraction rule when there is a correction based on the operation result of the user.

図3は、第1実施形態に係る処理手順のフローチャートである。この処理手順は、画像形成装置100において実行される。具体的には、画像形成装置100のCPU111が、ROM118に格納されている処理プログラムをRAM119にロードして実行することにより、図3の各ステップの処理を実行する。これにより、CPU111は、処理部として機能する。 FIG. 3 is a flowchart of the processing procedure according to the first embodiment. This processing procedure is executed in the image forming apparatus 100. Specifically, the CPU 111 of the image forming apparatus 100 loads the processing program stored in the ROM 118 into the RAM 119 and executes it to execute the processing of each step of FIG. As a result, the CPU 111 functions as a processing unit.

ステップS300において、画像形成装置100は、表示・操作部123からユーザの指示を受け付けると、スキャナ部122において、原稿フィーダのトレイから複数の文書原稿を1枚ずつ読み取る。これにより、画像形成装置100は、文書原稿の画像(文書画像)を取得する画像データ取得を行う。 In step S300, when the image forming apparatus 100 receives the user's instruction from the display / operation unit 123, the scanner unit 122 reads a plurality of document documents one by one from the tray of the document feeder. As a result, the image forming apparatus 100 acquires image data for acquiring an image (document image) of the document manuscript.

ステップS301において、CPU111は、ステップS300で取得した画像データを解析し、ファイル名として使用するためのインデックス項目を抽出する。また、このとき抽出したインデックス項目の抽出位置の確からしさを示すレコメンドスコアをインデックス項目ごとに算出する。インデックス抽出の詳細については、図4を用いて後述する。 In step S301, the CPU 111 analyzes the image data acquired in step S300 and extracts an index item for use as a file name. In addition, a recommendation score indicating the certainty of the extraction position of the index item extracted at this time is calculated for each index item. The details of the index extraction will be described later with reference to FIG.

ステップS302において、CPU111は、HDD120からレコメンドスコアのしきい値をRAM119に展開した上で取得する。なお、レコメンドスコアのしきい値は、事前に表示・操作部123からユーザの指示を受け付けたものを取得しても良いし、予め決められた固定の設定を取得しても良い。そして、ステップS301で算出したインデックス項目のレコメンドスコアがしきい値未満のものが存在する場合、処理をステップS303に進める。インデックス項目のレコメンドスコアが全てしきい値以上の場合、各インデックス項目を使用したファイル名およびメタデータを決定し、処理をステップS304に進める。なお、処理をステップS303に進めるかステップS304に進めるかの判断基準は、これに限定するものではない。例えば、しきい値を複数設定してステップS303に進めるかステップS304に進めるかを判定しても良い。 In step S302, the CPU 111 acquires the threshold value of the recommendation score from the HDD 120 after expanding it to the RAM 119. The threshold value of the recommendation score may be obtained by receiving a user's instruction from the display / operation unit 123 in advance, or may obtain a predetermined fixed setting. Then, if the recommendation score of the index item calculated in step S301 is less than the threshold value, the process proceeds to step S303. If all the recommendation scores of the index items are equal to or higher than the threshold value, the file name and metadata using each index item are determined, and the process proceeds to step S304. The criteria for determining whether to proceed to step S303 or step S304 is not limited to this. For example, a plurality of threshold values may be set and it may be determined whether to proceed to step S303 or step S304.

ステップS303において、CPU111は、ステップS301で抽出したインデックス項目と、各インデックス項目を使用したファイル名およびメタデータを、表示・操作部123を用いてユーザに提示する。その後、CPU111は、ユーザによる確認を促すとともにユーザーによるファイル名等の修正を受け付ける。ユーザによる確認および修正を受け付けると、CPU111は、ファイル名およびメタデータを決定する。なお、提示するインデックス項目は、ステップS302においてレコメンドスコアがしきい値未満だったインデックス項目だけを提示しても良い。 In step S303, the CPU 111 presents the index item extracted in step S301 and the file name and metadata using each index item to the user by using the display / operation unit 123. After that, the CPU 111 prompts the user for confirmation and accepts the user to correct the file name and the like. Upon accepting confirmation and modification by the user, the CPU 111 determines the file name and metadata. As the index item to be presented, only the index item whose recommendation score is less than the threshold value in step S302 may be presented.

ステップS304において、CPU111は、ステップS300で取得した画像データからファイルを作成し、ステップS302またはステップS303で決定されたファイル名を付与する。本実施形態では、ファイル形式としてPDF(Portable Document Format)化し、保存する例を示す。PDFの場合には、画像データをページに分けて保存することが可能であり、ステップS300で複数の文書原稿をスキャンした場合には、各ページに対応する画像データを、別々のページとして1つのファイルに保存する。 In step S304, the CPU 111 creates a file from the image data acquired in step S300 and assigns the file name determined in step S302 or step S303. In this embodiment, an example of converting to PDF (Portable Document Form) as a file format and saving the file is shown. In the case of PDF, the image data can be divided into pages and saved, and when a plurality of document documents are scanned in step S300, the image data corresponding to each page is stored as one separate page. Save to file.

ステップS305において、CPU111は、ステップS304で作成したファイルを、LAN102を通じて送信先に送信する。 In step S305, the CPU 111 transmits the file created in step S304 to the destination through the LAN 102.

<インデックス抽出処理(S301)の詳細説明>
インデックス抽出処理の詳細について、図4を用いて説明する。図4は、第1実施形態に係るインデックス抽出の処理手順のフローチャートである。図4を用いて、画像データ1枚に対して、向きの補正を行い、文書の種別を判定し、文書の種別に応じたインデックス抽出を行う処理手順を説明する。以下、図4のフローチャートに基づいて処理手順を説明しつつ、必要に応じて、他の図面を参照して各処理の具体例を説明する。
<Detailed description of index extraction process (S301)>
The details of the index extraction process will be described with reference to FIG. FIG. 4 is a flowchart of the index extraction processing procedure according to the first embodiment. A processing procedure of correcting the orientation of one image data, determining the type of the document, and extracting the index according to the type of the document will be described with reference to FIG. Hereinafter, while explaining the processing procedure based on the flowchart of FIG. 4, a specific example of each processing will be described with reference to other drawings as necessary.

ステップS400において、CPU111は、画像データから傾きの角度を検出し、検出した傾きだけ逆方向に画像を回転することで、傾きを補正した画像データを取得する。傾き補正の対象となる傾きとは、スキャナ部122による読み取り時に、原稿フィーダ内のローラの摩耗などが原因でまっすぐに原稿が読み取られなかったり、原稿の印刷時にまっすぐ印字できなかったりするような傾きである。傾き検出では、まず、画像データ内に含まれるオブジェクトを検出し、水平方向あるいは鉛直方向に隣り合うオブジェクト群を連結する。そして、連結されたオブジェクトの中心位置を結んだ角度が、水平方向あるいは鉛直方向からどれだけ傾いているかを取得することで傾きを求める。なお、傾き検出は上記の方法に限るものではない。例えば、画像データ内に含まれるオブジェクトの中心座標を取得し、0.1度単位で中心座標群を回転させながら、中心座標群が水平方向あるいは垂直方向に並ぶ割合がもっとも高い角度を傾きとして求めてもよい。この傾き補正によって、画像の傾きを補正することで、後述する回転補正およびブロックセレクション処理、OCR処理のそれぞれの処理精度を上げることが可能となる。なお、OCRは、Optical Character Recognitionの略である。 In step S400, the CPU 111 detects the tilt angle from the image data and rotates the image in the opposite direction by the detected tilt to acquire the tilt-corrected image data. The tilt that is the target of tilt correction is a tilt that prevents the document from being read straight due to wear of the rollers in the document feeder when scanned by the scanner unit 122, or cannot be printed straight when printing the document. Is. In the tilt detection, first, the objects included in the image data are detected, and the adjacent object groups in the horizontal direction or the vertical direction are connected. Then, the inclination is obtained by acquiring how much the angle connecting the center positions of the connected objects is inclined from the horizontal direction or the vertical direction. The tilt detection is not limited to the above method. For example, the center coordinates of an object included in the image data are acquired, and while rotating the center coordinate group in units of 0.1 degrees, the angle at which the ratio of the center coordinate groups arranged in the horizontal or vertical direction is the highest is obtained as the inclination. You may. By correcting the tilt of the image by this tilt correction, it is possible to improve the processing accuracy of each of the rotation correction, the block selection process, and the OCR process, which will be described later. OCR is an abbreviation for Optical Character Recognition.

ステップS401において、CPU111は、ステップS400で取得した傾き補正後の画像に対して、原稿内の文字が正立する向きになるように、90度単位で画像を回転補正した画像を得る。ステップS400で取得した傾き補正後の画像を基準画像として、基準画像と90度回転した画像、180度回転した画像、270度回転した画像の4枚の画像を用意する。そして、それぞれの画像に対し、高速処理可能な簡易的なOCR処理を実行して、一定値以上の確信度を持って認識された文字の数が最も多い画像を回転補正後画像として取得する。なお、回転補正の方法は上記に限るものではない。 In step S401, the CPU 111 obtains an image obtained by rotating the image in 90-degree increments so that the characters in the document are oriented upright with respect to the tilt-corrected image acquired in step S400. Using the tilt-corrected image acquired in step S400 as a reference image, four images are prepared: a reference image, an image rotated by 90 degrees, an image rotated by 180 degrees, and an image rotated by 270 degrees. Then, a simple OCR process capable of high-speed processing is executed for each image, and the image having the largest number of recognized characters with a certain degree of certainty or higher is acquired as the rotation-corrected image. The rotation correction method is not limited to the above.

ステップS402において、CPU111は、ステップS401で取得した回転補正後画像からテキストブロックを取得する。テキストブロックとは、画像中において、文字属性を持つと判定されたブロックのことを指す。テキストブロック取得のために、まず、ブロックセレクション処理を実行する。ブロックセレクション処理とは、画像を前景領域と背景領域に分類した上で、前景領域をテキストブロックやそれ以外のブロックに分割する判定処理である。 In step S402, the CPU 111 acquires a text block from the rotation-corrected image acquired in step S401. The text block refers to a block determined to have a character attribute in the image. First, the block selection process is executed in order to acquire the text block. The block selection process is a determination process in which an image is classified into a foreground area and a background area, and then the foreground area is divided into a text block and other blocks.

具体的には、まず白黒に二値化されたクエリ画像に対し輪郭線追跡を行って、黒画素輪郭で囲まれる画素の塊を抽出する。そして、面積が所定の面積よりも大きい黒画素の塊については、内部にある白画素に対しても輪郭線追跡を行い、白画素の塊を抽出し、さらに一定面積以の白画素の塊の内部から再帰的に黒画素の塊を抽出する。こうして得られた黒画素の塊を前景領域とし、大きさ及び形状で分類し、異なる属性を持つ領域へ分類していく。 Specifically, first, contour line tracking is performed on a query image binarized to black and white, and a block of pixels surrounded by a black pixel contour is extracted. Then, for a mass of black pixels whose area is larger than a predetermined area, contour line tracking is also performed on the white pixels inside, the mass of white pixels is extracted, and the mass of white pixels having a certain area or more is further detected. A mass of black pixels is recursively extracted from the inside. The black pixel mass thus obtained is used as the foreground region, classified by size and shape, and classified into regions having different attributes.

例えば、縦横比が1に近く、大きさが一定の範囲のものを文字相当の画素塊とし、さらに近接する文字が整列良くグループ化され得る部分を文字領域(TEXT)とする。扁平な画素塊を線領域(LINE)とする。一定大きさ以上でかつ矩形の白画素塊を整列よく内包する黒画素塊の占める範囲を表領域(TABLE)とする。不定形の画素塊が散在している領域を写真領域(PHOTO)とする。そして、それ以外の任意形状の画素塊を図画領域(PICTURE)とする。こうしてオブジェクトの属性毎に領域分割されたものの中から、文字属性を持つと判定されたブロックがテキストブロックとして特定される。 For example, a pixel block having an aspect ratio close to 1 and a constant size is defined as a pixel block corresponding to a character, and a portion where adjacent characters can be grouped in a well-aligned manner is defined as a character area (TEXT). A flat pixel block is defined as a line region (LINE). The table area (TABLE) is a range occupied by a black pixel block having a certain size or larger and containing a rectangular white pixel block in a well-aligned manner. The area where irregular pixel clusters are scattered is referred to as a photographic area (PHOTO). Then, a pixel block having an arbitrary shape other than that is used as a drawing area (PICTURE). The block determined to have the character attribute is specified as the text block from the ones that are divided into areas for each attribute of the object in this way.

図5は、第1実施形態に係るブロックセレクション処理の例を示す図である。図5(A)は回転補正後の画像を示し、同(B)は当該クエリ画像のブロックセレクション処理結果を示している。本ステップで得られた各テキストブロックの情報(属性と各ブロックの位置を示す情報)は、後述のOCR処理や文書マッチング類似度計算等で用いられる。なお、本ステップでテキストブロックだけを取得する理由は、テキストブロックから構成される文字列の位置は、文書画像の構造を良く表現し、スキャンアシスト情報と密接に関連するためである。したがって、写真領域や表領域等、テキストブロックの属性とは異なる他の属性を持つと判定されたブロックの情報を後続の処理で利用することを制限するものではない。 FIG. 5 is a diagram showing an example of the block selection process according to the first embodiment. FIG. 5A shows an image after rotation correction, and FIG. 5B shows a block selection processing result of the query image. The information of each text block (information indicating the attribute and the position of each block) obtained in this step is used in OCR processing, document matching similarity calculation, etc., which will be described later. The reason why only the text block is acquired in this step is that the position of the character string composed of the text block expresses the structure of the document image well and is closely related to the scan assist information. Therefore, it does not limit the use of the information of the block determined to have other attributes different from the attributes of the text block, such as the photo area and the table area, in the subsequent processing.

ステップS403において、CPU111は、HDD120からインデックス抽出ルール取得を行い、RAM119に展開した上で取得する。これにより、CPU111は、所定の文書種類に関連づけられたインデックス項目(抽出ブロック)の抽出ルールを取得する。図6は、第1実施形態に係るインデックス抽出ルールの例を示す図である。図6に示すインデックス抽出ルールは、帳票ID「0001」という文書が登録されている状態を表している。インデックス抽出ルールは、登録文書1つについての、文書IDと文書識別情報とインデックス情報の組み合わせであり、登録済み文書の数だけ、これらの組み合わせを保持する。なお、登録文書(登録済み文書)とは、インデックス項目を抽出するための基準となる文書であり、登録された文書である。 In step S403, the CPU 111 acquires the index extraction rule from the HDD 120, expands it into the RAM 119, and then acquires it. As a result, the CPU 111 acquires the extraction rule of the index item (extraction block) associated with the predetermined document type. FIG. 6 is a diagram showing an example of an index extraction rule according to the first embodiment. The index extraction rule shown in FIG. 6 represents a state in which a document with a form ID “0001” is registered. The index extraction rule is a combination of the document ID, the document identification information, and the index information for one registered document, and holds these combinations as many as the number of registered documents. The registered document (registered document) is a document that serves as a reference for extracting index items, and is a registered document.

ここで、文書IDとは、文書の種類を表す個別のIDである。文書識別情報は、後述する文書マッチングで使用する文書の種類を識別するために必要な情報であり、ステップS402で取得したテキストブロックを利用する。インデックス情報とは、文書の種別が特定された後で、入力文書からインデックス項目を抽出し、ファイル名やメタデータとしてファイルに付与するルールである。なお、入力文書とは、インデックス項目を抽出する対象となる文書である。 Here, the document ID is an individual ID representing the type of document. The document identification information is information necessary for identifying the type of document used in the document matching described later, and the text block acquired in step S402 is used. Index information is a rule that extracts index items from an input document after the type of document is specified and assigns them to a file as a file name or metadata. The input document is a document to be extracted from the index item.

インデックス情報には、ステップS402で取得したテキストブロックに対して、ステップS407におけるOCR処理を実行して得られるOCRブロックを利用する。OCRブロックは、OCR結果に基づいたテキストブロックの内部的な区切り情報を表すブロックである。 For the index information, the OCR block obtained by executing the OCR process in step S407 with respect to the text block acquired in step S402 is used. The OCR block is a block that represents the internal delimiter information of the text block based on the OCR result.

図7は、第1実施形態に係るテキストブロックとOCRブロックの例を示す図である。図7(A)のテキストブロック701に対してOCR処理を実行すると、図7(B)のOCRブロック702、703、704、705、706が得られる。ユーザは文書登録時に、このOCRブロック単位で1つ以上のOCRブロックをインデックス項目として抽出するよう選択できる。図7(C)において、選択ブロック707は、OCRブロック704、705、706をインデックス項目として抽出するよう文書登録時にユーザが選択した例を示している。以降、選択ブロックは1つ以上のOCRブロックから構成されるものとして説明する。 FIG. 7 is a diagram showing an example of a text block and an OCR block according to the first embodiment. When the OCR process is executed on the text block 701 of FIG. 7A, the OCR blocks 702, 703, 704, 705, and 706 of FIG. 7B are obtained. At the time of document registration, the user can select to extract one or more OCR blocks as index items in this OCR block unit. In FIG. 7C, the selection block 707 shows an example in which the user selects the OCR blocks 704, 705, and 706 as index items at the time of document registration. Hereinafter, the selection block will be described as being composed of one or more OCR blocks.

インデックス情報は、選択ブロックを構成するOCRブロックの座標、幅、高さを保持する。また、選択ブロックだけでなく、非選択だったOCRブロックの座標、幅、高さを保持する。以降、文書登録時にユーザがインデックス項目として選択しなかったOCRブロックのことを、非選択ブロックと呼ぶ。また、非選択ブロックは1つ以上のOCRブロックから構成されるものとして説明する。図6において、テキストブロック601に対してOCR処理を実行すると、OCRブロック602、603が得られる。また、図6において、OCRブロック602は、選択ブロックを示しており、OCRブロック603は、非選択ブロックを示している。後述するレコメンドブロック抽出では、インデックス項目ごとに、インデックス情報に登録された選択ブロックと非選択ブロックの情報を利用して、入力文書内からインデックス項目として抽出するOCRブロックを推定する。 The index information holds the coordinates, width, and height of the OCR blocks constituting the selected block. Moreover, not only the selected block but also the coordinates, width, and height of the non-selected OCR block are retained. Hereinafter, the OCR block that the user did not select as an index item at the time of document registration is referred to as a non-selection block. Further, the non-selected block will be described as being composed of one or more OCR blocks. In FIG. 6, when the OCR process is executed on the text block 601 to obtain the OCR blocks 602 and 603. Further, in FIG. 6, the OCR block 602 shows a selection block, and the OCR block 603 shows a non-selection block. In the recommendation block extraction described later, the OCR block to be extracted as an index item from the input document is estimated by using the information of the selected block and the non-selected block registered in the index information for each index item.

なお、インデックス情報は、OCR結果の文字列自体を保持する必要はなく、座標、幅、高さを保持していればよい。また、インデックス情報は、OCR結果をどの順番でつなげてファイル名にするかという情報や、どのようにメタデータとして付与するかといった情報を持つ。図6では、ファイル名として(a)タイトル、(b)発行元会社名、(c)帳票番号に対応するインデックス項目を抽出し、それらをセパレータであるアンダースコアでつなげた文字列をファイル名とした例を示している。また、(d)合計金額に対応するインデックス項目を抽出し、メタデータとして利用する例を示している。 The index information does not need to hold the character string itself of the OCR result, but may hold the coordinates, width, and height. In addition, the index information has information such as in what order the OCR results are connected to form a file name and how to assign them as metadata. In FIG. 6, index items corresponding to (a) title, (b) issuing company name, and (c) form number are extracted as file names, and a character string connecting them with an underscore, which is a separator, is used as the file name. An example of this is shown. Further, (d) an example of extracting an index item corresponding to the total amount and using it as metadata is shown.

本実施形態では、抽出したインデックス項目をファイル名やメタデータとして利用する場合の例を示しているが、ファイルの送付先のフォルダ情報にインデックス項目を利用するルールを保持してもよい。また、インデックス抽出ルールとしては、図6に示したように、登録文書に対応する読み取り画像データのサムネイルを一緒に保持してもよい。 In this embodiment, an example of using the extracted index item as a file name or metadata is shown, but a rule for using the index item may be retained in the folder information of the file destination. Further, as an index extraction rule, as shown in FIG. 6, thumbnails of scanned image data corresponding to the registered document may be held together.

ステップS404において、CPU111は、文書種類識別を実行する。文書種類識別とは、文書種類を識別する処理である。文書種類識別では、入力された文書と同じ種類の文書が、インデックス抽出ルールと共に登録された登録文書群にあるかどうかを判別し、同じ種類の文書があった場合に、文書の種類を特定する。本実施形態では、まず、入力文書と各登録済み文書間で、1対1で、ステップS402で取得したテキストブロックの形状や配置がどれだけ類似しているかを表す文書類似度の算出を行う。 In step S404, the CPU 111 executes document type identification. Document type identification is a process for identifying a document type. Document type identification determines whether a document of the same type as the input document is in the registered document group registered with the index extraction rule, and if there is a document of the same type, the document type is specified. .. In the present embodiment, first, the document similarity degree indicating how similar the shapes and arrangements of the text blocks acquired in step S402 are one-to-one between the input document and each registered document is calculated.

文書類似度算出では、まず、入力文書のテキストブロック全体と、登録済み文書のテキストブロック全体で位置合わせを行う。次に、入力文書内の各テキストブロックと、登録済み文書のテキストブロックと重なる面積の総和の二乗を、入力文書のテキストブロック面積の総和と登録済み文書のテキストブロック面積の総和の積で割った値を文書類似度とする。上述した文書類似度算出を、入力文書と、ステップS403で取得したインデックス抽出ルールに含まれるすべての登録済み文書との間で行う。そして、最も高い文書類似度が一定値以上であれば、その登録済み文書と同じ種類と判定する。一方、最も高い文書類似度が一定値より小さければ、入力済み文書は登録済み文書内に無い種類であると判定する。 In the document similarity calculation, first, the entire text block of the input document and the entire text block of the registered document are aligned. Next, the square of the total area of each text block in the input document and the area overlapping the text block of the registered document is divided by the product of the total text block area of the input document and the total text block area of the registered document. Let the value be the document similarity. The document similarity calculation described above is performed between the input document and all the registered documents included in the index extraction rule acquired in step S403. Then, if the highest document similarity is a certain value or more, it is determined that the document is of the same type as the registered document. On the other hand, if the highest document similarity is smaller than a certain value, it is determined that the input document is a type that is not included in the registered document.

ステップS405において、CPU111は、ステップS404で実行した文書種類識別の結果として、入力された文書が登録済み文書であった場合には、処理をステップS406に進める。一方、登録済み文書でなかった場合には、処理を終了する。 In step S405, if the input document is a registered document as a result of the document type identification executed in step S404, the CPU 111 advances the process to step S406. On the other hand, if it is not a registered document, the process ends.

ステップS406において、CPU111は、入力文書に対し、ステップS405で同じ種類の文書であると判別された文書と同じ文書IDを付与する。以降、登録文書とは、ステップS403で取得したインデックス抽出ルールに含まれる文書のうち、ステップS406で、入力文書に付与された文書IDに対応する文書のことを指す。 In step S406, the CPU 111 assigns the input document the same document ID as the document determined to be the same type of document in step S405. Hereinafter, the registered document refers to a document corresponding to the document ID assigned to the input document in step S406 among the documents included in the index extraction rule acquired in step S403.

ステップS407において、CPU111は、ステップS402で取得したテキストブロックに対して、OCR処理を実行し、OCRブロックと文字列を結果として取得する。なお、OCR処理はすべてのテキストブロックに対して実行する必要はなく、処理の高速化のために登録文書のインデックス情報に登録されている選択ブロックおよび非選択ブロックと矩形が重なる入力文書のテキストブロックに対してのみ実行しても良い。 In step S407, the CPU 111 executes OCR processing on the text block acquired in step S402, and acquires the OCR block and the character string as a result. It is not necessary to execute OCR processing for all text blocks, and for speeding up the processing, the selected block and non-selected block registered in the index information of the registered document and the text block of the input document where the rectangle overlaps. It may be executed only for.

ステップS408において、CPU111は、登録文書のインデックス情報に登録されているインデックス項目のうちの1つを選択する。 In step S408, the CPU 111 selects one of the index items registered in the index information of the registered document.

ステップS409において、CPU111は、ステップS408で選択されたインデックス項目の選択ブロックに対応する、入力文書のOCRブロックを抽出するレコメンドブロック抽出を実行する。図8は、第1実施形態に係るインデックス情報とレコメンドブロック抽出結果を示す図である。図8(A)は、登録文書のインデックス情報に登録された発行会社名のインデックス項目に対応する選択ブロック801と非選択ブロックの例を示す。図8(B)は、図8(A)の文書と同一種類と判断された入力文書において、発行会社名のインデックス項目に対するレコメンドブロック抽出を実行した結果の例を示す。 In step S409, the CPU 111 executes a recommendation block extraction that extracts an OCR block of the input document corresponding to the selection block of the index item selected in step S408. FIG. 8 is a diagram showing index information and a recommendation block extraction result according to the first embodiment. FIG. 8A shows an example of a selection block 801 and a non-selection block corresponding to the index item of the issuing company name registered in the index information of the registered document. FIG. 8B shows an example of the result of executing the recommendation block extraction for the index item of the issuing company name in the input document determined to be the same type as the document of FIG. 8A.

レコメンドブロック抽出では、インデックス情報に登録された選択ブロックと非選択ブロックの情報を利用して、入力文書のOCRブロック単位でインデックス項目として抽出すべきブロックを抽出する。具体的には、抽出すべきブロックは、OCRブロックの高さや幅などの形状、左端や右端、上端、下端などの座標値、ブロック間の距離、ブロック数を利用して判断される。これにより、選択OCRブロックおよび非選択OCRブロックと、入力文書のOCRブロックとを対応付ける。 In the recommended block extraction, the blocks to be extracted as index items are extracted for each OCR block of the input document by using the information of the selected block and the non-selected block registered in the index information. Specifically, the block to be extracted is determined by using the shape such as the height and width of the OCR block, the coordinate values such as the left end, the right end, the upper end, and the lower end, the distance between the blocks, and the number of blocks. As a result, the selected OCR block and the non-selected OCR block are associated with the OCR block of the input document.

図8において、例えば、選択ブロック801とOCRブロック群805、非選択ブロック802とOCRブロック群804、非選択ブロック803とOCRブロック群806が対応付けられる。最終的に、選択ブロック801と対応付けられたOCRブロック群805をインデックス項目とするOCRブロック群として抽出する。以降、レコメンドブロック抽出において、インデックス項目として抽出された入力文書のOCRブロック群を抽出ブロック(抽出テキストブロック)、抽出されなかった入力文書のOCRブロック群を非抽出ブロックと呼ぶ。また、抽出ブロックおよび非抽出ブロックは、1つ以上のOCRブロックから構成されるものとして説明する。なお、レコメンドブロック抽出の手法は、前述したもの以外にも存在する。レコメンドブロック抽出の手法は、少なくとも、ステップS408で選択されたインデックス項目の選択ブロックに対応する入力文書のOCRブロック群を抽出できればよい。 In FIG. 8, for example, the selected block 801 and the OCR block group 805, the non-selected block 802 and the OCR block group 804, and the non-selected block 803 and the OCR block group 806 are associated with each other. Finally, the OCR block group 805 associated with the selection block 801 is extracted as the OCR block group having the index item as the index item. Hereinafter, in the recommendation block extraction, the OCR block group of the input document extracted as the index item is referred to as an extraction block (extracted text block), and the OCR block group of the input document not extracted is referred to as a non-extraction block. Further, the extraction block and the non-extraction block will be described as being composed of one or more OCR blocks. There are other methods for extracting recommended blocks besides those described above. As the method of extracting the recommended block, it is sufficient that at least the OCR block group of the input document corresponding to the selected block of the index item selected in step S408 can be extracted.

ステップS410において、CPU111は、抽出したインデックス項目の抽出位置の確からしさを示すレコメンドスコア(評価値)を算出する。レコメンドスコアの算出は、ステップS408で選択したインデックス項目ごとに、選択ブロックおよび非選択ブロックの情報と、抽出ブロックおよび非抽出ブロックの情報に基づいて行う。レコメンドスコア算出処理の詳細については後述する。 In step S410, the CPU 111 calculates a recommendation score (evaluation value) indicating the certainty of the extraction position of the extracted index item. The recommendation score is calculated based on the information of the selected block and the non-selected block and the information of the extracted block and the non-extracted block for each index item selected in step S408. The details of the recommendation score calculation process will be described later.

ステップS411において、CPU111は、登録文書のインデックス情報として登録されているインデックス項目すべてについて、レコメンドブロック抽出およびレコメンドスコア算出処理を完了したかどうかを判定する。すべてのインデックス項目について、レコメンドブロック抽出およびレコメンドスコア算出処理を完了していれば、処理を終える。一方、完了していなければ、ステップS408に進める。 In step S411, the CPU 111 determines whether or not the recommendation block extraction and the recommendation score calculation process have been completed for all the index items registered as the index information of the registered document. If the recommendation block extraction and the recommendation score calculation processing have been completed for all the index items, the processing is completed. On the other hand, if it is not completed, the process proceeds to step S408.

<レコメンドスコア算出処理(S410)の詳細説明>
レコメンドスコア算出処理の詳細について、図9を用いて説明する。図9は、第1実施形態に係るレコメンドスコア算出の処理手順のフローチャートである。図9を用いて、選択ブロックおよび非選択ブロックの情報と、抽出ブロックおよび非抽出ブロックの情報に基づいて、抽出したインデックス項目の抽出位置の確からしさを示すレコメンドスコアを算出する処理を説明する。以下、図9のフローチャートに基づいて処理手順を説明しつつ、必要に応じて、他の図面を参照して各処理の具体例を説明する。
<Detailed explanation of recommendation score calculation process (S410)>
The details of the recommendation score calculation process will be described with reference to FIG. FIG. 9 is a flowchart of the processing procedure for calculating the recommendation score according to the first embodiment. A process of calculating a recommendation score indicating the certainty of the extraction position of the extracted index item based on the information of the selected block and the non-selected block and the information of the extracted block and the non-extracted block will be described with reference to FIG. Hereinafter, while explaining the processing procedure based on the flowchart of FIG. 9, a specific example of each processing will be described with reference to other drawings as necessary.

ステップS900において、CPU111は、登録文書における選択ブロックを取得する。図10は、第1実施形態に係る選択ブロック、非選択ブロックと抽出ブロック、非抽出ブロックの例を示す図である。図10(A)は、登録文書における選択ブロック1001と非選択ブロック1002、1003の例を示している。ステップS900では、図10(A)における選択ブロック1001を取得する。 In step S900, the CPU 111 acquires a selection block in the registered document. FIG. 10 is a diagram showing an example of a selected block, a non-selected block and an extracted block, and a non-extracted block according to the first embodiment. FIG. 10A shows an example of the selected block 1001 and the non-selected blocks 1002 and 1003 in the registered document. In step S900, the selection block 1001 in FIG. 10A is acquired.

ステップS901において、CPU111は、登録文書における非選択ブロック1002、1003を取得する。 In step S901, the CPU 111 acquires the non-selected blocks 1002 and 1003 in the registered document.

ステップS902において、CPU111は、入力文書における抽出ブロックを取得する。図10(B)は、入力文書における抽出ブロック1004と非抽出ブロック1005、1006の例を示している。ステップS902では、図10(B)における抽出ブロック1004を取得する。 In step S902, the CPU 111 acquires an extraction block in the input document. FIG. 10B shows an example of the extraction block 1004 and the non-extraction blocks 1005 and 1006 in the input document. In step S902, the extraction block 1004 in FIG. 10B is acquired.

ステップS903において、CPU111は、入力文書における非抽出ブロック1005、1006を取得する。 In step S903, the CPU 111 acquires the non-extracted blocks 1005 and 1006 in the input document.

ステップS904において、CPU111は、選択ブロックと抽出ブロックとの類似度を算出する。図10(C)は、選択ブロックおよび非選択ブロックと、抽出ブロックおよび非抽出ブロックを重ね合わせた例を示している。図10(A)乃至(C)において、ブロック1001と1007、1002と1008、1003と1009、1004と1010、1005と1011、1006と1012はそれぞれ同じブロックを表す。 In step S904, the CPU 111 calculates the similarity between the selection block and the extraction block. FIG. 10C shows an example in which the selected block and the non-selected block and the extracted block and the non-extracted block are superimposed. In FIGS. 10A to 10C, blocks 1001 and 1007, 1002 and 1008, 1003 and 1009, 1004 and 1010, 1005 and 1011 and 1006 and 1012 represent the same block, respectively.

ステップS904では、選択ブロック1007と抽出ブロック1010の類似度パラメータを算出する。ここでは、ブロック同士の重なり、高さや幅などの形状、ブロックの左端や右端、上端、下端などの座標値、ブロックの距離、ブロック数を利用して類似度パラメータを算出する。例えば、各類似度パラメータを0~1の数値で表現して類似度が高いほど大きな数値で表現する。 In step S904, the similarity parameter between the selection block 1007 and the extraction block 1010 is calculated. Here, the similarity parameter is calculated using the overlap between blocks, the shape such as height and width, the coordinate values such as the left end, right end, upper end, and lower end of the block, the distance of the blocks, and the number of blocks. For example, each similarity parameter is expressed by a numerical value of 0 to 1, and the higher the similarity is, the larger the numerical value is expressed.

具体的には、選択ブロック1007の外接矩形(x座標、y座標、幅、高さ)が(10、5、30、15)、抽出ブロック1010の外接矩形(x座標、y座標、幅、高さ)が(5、5、70、15)の場合がある。この場合、選択ブロックと抽出ブロックの重なり率が「0.4」と求められる。これを選択ブロックと抽出ブロックの重なり類似度パラメータとする。また、選択ブロックを構成するOCRブロック数が1、抽出ブロックを構成するOCRブロック数が3の場合がある。この場合、選択ブロックと抽出ブロックのブロック数の比率が「0.3」と求められる。これを選択ブロックと抽出ブロックのブロック数類似度パラメータとする。 Specifically, the extrinsic rectangle (x coordinate, y coordinate, width, height) of the selection block 1007 is (10, 5, 30, 15), and the extrinsic rectangle (x coordinate, y coordinate, width, height) of the extraction block 1010 is (x coordinate, y coordinate, width, height). The coordinates may be (5, 5, 70, 15). In this case, the overlap rate between the selected block and the extraction block is calculated to be "0.4". This is used as the overlap similarity parameter between the selection block and the extraction block. Further, the number of OCR blocks constituting the selected block may be 1, and the number of OCR blocks constituting the extraction block may be 3. In this case, the ratio of the number of blocks of the selected block and the number of extracted blocks is calculated to be "0.3". This is used as the block number similarity parameter between the selected block and the extracted block.

このように、類似度パラメータは、1つに限定される必要はなく、複数の類似度パラメータが算出されることとしても良い。ここで算出される類似度パラメータは、数値が大きくなるほど、選択ブロック1007と抽出ブロック1010が似ている。このため、インデックス項目の抽出位置が確からしいことを示す。また、類似度パラメータの算出方法は、前述したもの以外にもさまざまな手法がある。類似度パラメータの算出方法は、少なくとも、選択ブロックと抽出ブロックの情報を利用して、類似度パラメータを算出できるものであればよい。 As described above, the similarity parameter does not have to be limited to one, and a plurality of similarity parameters may be calculated. As for the similarity parameter calculated here, the larger the numerical value is, the more similar the selection block 1007 and the extraction block 1010 are. Therefore, it is shown that the extraction position of the index item is probable. In addition, there are various methods for calculating the similarity parameter other than those described above. The method for calculating the similarity parameter may be at least one that can calculate the similarity parameter by using the information of the selection block and the extraction block.

ステップS905において、CPU111は、選択ブロック1007と非抽出ブロック1011、1012との類似度パラメータを算出する。ここでは、ブロック同士の重なり、高さや幅などの形状、ブロックの左端や右端、上端、下端などの座標値、ブロックの距離、ブロック数を利用して類似度パラメータを算出する。例えば、各類似度パラメータを0~1の数値で表現して類似度が高いほど大きな数値で表現する。 In step S905, the CPU 111 calculates the similarity parameter between the selected block 1007 and the non-extracted blocks 1011 and 1012. Here, the similarity parameter is calculated using the overlap between blocks, the shape such as height and width, the coordinate values such as the left end, right end, upper end, and lower end of the block, the distance of the blocks, and the number of blocks. For example, each similarity parameter is expressed by a numerical value of 0 to 1, and the higher the similarity is, the larger the numerical value is expressed.

具体的には、選択ブロック1007の外接矩形(x座標、y座標、幅、高さ)を(30、5、30、15)とする。また、非抽出ブロック1011、1012の外接矩形(x座標、y座標、幅、高さ)を(5、5、20、15)、(75、5、20、15)とする。この場合、選択ブロック1007と非抽出ブロック1011の重なり率が「0」と求められる。これを選択ブロック1007と非抽出ブロック1011の重なり類似度パラメータとする。また、選択ブロック1007と非抽出ブロック1012の重なり率が「0」と求められる。これを選択ブロック1007と非抽出ブロック1012の重なり類似度パラメータとする。 Specifically, the circumscribed rectangle (x coordinate, y coordinate, width, height) of the selection block 1007 is set to (30, 5, 30, 15). Further, the circumscribed rectangles (x coordinate, y coordinate, width, height) of the non-extracted blocks 1011 and 1012 are set to (5, 5, 20, 15) and (75, 5, 20, 15). In this case, the overlap ratio between the selected block 1007 and the non-extracted block 1011 is determined to be "0". This is used as the overlap similarity parameter between the selected block 1007 and the non-extracted block 1011. Further, the overlap ratio between the selected block 1007 and the non-extracted block 1012 is determined to be "0". This is used as the overlap similarity parameter of the selected block 1007 and the non-extracted block 1012.

このように、類似度パラメータは、1つに限定される必要はなく、複数の類似度パラメータが算出されることとしても良い。ここで算出される類似度パラメータは、数値が大きくなるほど、選択ブロック1007と非抽出ブロック1011、1012が似ているため、インデックス項目の抽出位置が確からしくないことを示す。 As described above, the similarity parameter does not have to be limited to one, and a plurality of similarity parameters may be calculated. The similarity parameter calculated here indicates that the larger the numerical value is, the more similar the selected blocks 1007 and the non-extracted blocks 1011 and 1012 are, so that the extraction position of the index item is not certain.

ステップS906において、CPU111は、非選択ブロック1008、1009と抽出ブロック1010との類似度パラメータを算出する。ステップS905と同様に、ブロック同士の重なり、高さや幅などの形状、ブロックの左端や右端、上端、下端などの座標値、ブロックの距離、ブロック数を利用して類似度パラメータを算出する。ここで算出される類似度パラメータの数値が大きくなるほど、非選択ブロック1008、1009と抽出ブロック1010が似ているため、インデックス項目の抽出位置が確からしくないことを示す。 In step S906, the CPU 111 calculates the similarity parameter between the non-selected blocks 1008 and 1009 and the extraction block 1010. Similar to step S905, the similarity parameter is calculated by using the overlap between blocks, the shape such as height and width, the coordinate values such as the left end, the right end, the upper end, and the lower end of the block, the distance of the blocks, and the number of blocks. The larger the numerical value of the similarity parameter calculated here is, the more similar the non-selected blocks 1008 and 1009 are to the extraction block 1010, and the more uncertain the extraction position of the index item is.

ステップS907において、CPU111は、非選択ブロック1008、1009と非抽出ブロック1011、1012との類似度パラメータを算出する。ステップS905、S906と同様に、ブロック同士の重なり、高さや幅などの形状、ブロックの左端や右端、上端、下端などの座標値、ブロックの距離、ブロック数を利用して類似度パラメータを算出する。ここで算出される類似度パラメータの数値が大きくなるほど、非選択ブロック1008、1009と非抽出ブロック1011、1012が似ているため、インデックス項目の抽出位置が確からしいことを示す。 In step S907, the CPU 111 calculates the similarity parameter between the non-selected blocks 1008 and 1009 and the non-extracted blocks 1011 and 1012. Similar to steps S905 and S906, the similarity parameter is calculated using the overlap between blocks, the shape such as height and width, the coordinate values such as the left end, right end, upper end, and lower end of the block, the distance of the blocks, and the number of blocks. .. The larger the numerical value of the similarity parameter calculated here, the more likely the extraction position of the index item is likely because the non-selected blocks 1008 and 1009 and the non-extracted blocks 1011 and 1012 are similar.

ステップS908において、CPU111は、ステップS904、S905、S906、S907で算出した各類似度パラメータの重要度を示す重みを、HDD120からRAM119に展開した上で取得する。このとき、ステップS904とS907において算出される類似度パラメータに対する重みは、類似度パラメータの数値が大きくなるほどレコメンドスコアが高くなるように定義する。一方、ステップS905とS906において算出される類似度パラメータに対する重みは、類似度パラメータの数値が大きくなるほどレコメンドスコアが低くなるように定義する。また、各類似度パラメータに対する重みは、最終的なレコメンドスコアが0~1に正規化されるように定義する。なお、重みは、予め決められた固定の設定を取得しても良いし、文書IDごとに決められた設定を取得しても良い。 In step S908, the CPU 111 acquires weights indicating the importance of each similarity parameter calculated in steps S904, S905, S906, and S907 after being expanded from the HDD 120 to the RAM 119. At this time, the weights for the similarity parameters calculated in steps S904 and S907 are defined so that the larger the numerical value of the similarity parameters, the higher the recommendation score. On the other hand, the weights for the similarity parameters calculated in steps S905 and S906 are defined so that the larger the numerical value of the similarity parameters, the lower the recommendation score. Also, the weights for each similarity parameter are defined so that the final recommendation score is normalized to 0 to 1. As the weight, a predetermined fixed setting may be acquired, or a predetermined setting for each document ID may be acquired.

ステップS909において、CPU111は、ステップS904、S905、S906、S907で算出した各類似度パラメータと、ステップS908で取得した重みを利用して、各類似度パラメータの加重和を算出する。最終的に、この加重和の値をインデックス項目に対するレコメンドスコアとして処理を終了する。 In step S909, the CPU 111 calculates the weighted sum of the similarity parameters by using the similarity parameters calculated in steps S904, S905, S906, and S907 and the weights acquired in step S908. Finally, the processing ends with the value of this weighted sum as the recommendation score for the index item.

以上、第1実施形態によれば、登録文書のOCRブロック群(第一テキストブロック群)と入力文書のOCRブロック群(第二テキストブロック群)を比較して類似度パラメータを算出する。具体的には、登録文書における選択ブロックおよび非選択ブロックと、入力文書における抽出ブロックおよび非抽出ブロックとの類似度パラメータを算出する。これらの類似度パラメータを用いて、抽出したインデックス項目の抽出位置の確からしさを示すレコメンドスコアをインデックス項目ごとに算出する。これにより、高い精度のレコメンドスコア算出が可能となる。 As described above, according to the first embodiment, the similarity parameter is calculated by comparing the OCR block group (first text block group) of the registered document and the OCR block group (second text block group) of the input document. Specifically, the similarity parameter between the selected block and the non-selected block in the registered document and the extracted block and the non-extracted block in the input document is calculated. Using these similarity parameters, a recommendation score indicating the certainty of the extraction position of the extracted index item is calculated for each index item. This makes it possible to calculate the recommendation score with high accuracy.

CPU111は、レコメンドスコアがしきい値未満のインデックス項目が存在する場合、表示・操作部123を用いて、各インデックス項目を使用したファイル名およびメタデータを、ユーザに提示する。これにより、インデックス項目の抽出位置が確からしくない場合にユーザにその旨を伝えることができる。また、ユーザによるインデックス項目の確認と修正を受け付けることができる。 When there are index items whose recommendation score is less than the threshold value, the CPU 111 presents the file name and metadata using each index item to the user by using the display / operation unit 123. This makes it possible to inform the user when the extraction position of the index item is not certain. In addition, it is possible to accept confirmation and correction of index items by the user.

[第2実施形態]
第1実施形態では、登録文書における選択ブロックおよび非選択ブロックと、入力文書における抽出ブロックおよび非抽出ブロックとの類似度パラメータを利用することでレコメンドスコアを算出する例について説明した。しかし、すべての非選択ブロックおよび非抽出ブロックを利用して類似度パラメータを算出する場合、インデックス項目に関連性が低いような遠い距離にあるブロックとの類似度パラメータがレコメンドスコアに反映されてしまうことがある。
[Second Embodiment]
In the first embodiment, an example of calculating the recommendation score by using the similarity parameter between the selected block and the non-selected block in the registered document and the extracted block and the non-extracted block in the input document has been described. However, when calculating the similarity parameter using all non-selected blocks and non-extracted blocks, the recommendation score reflects the similarity parameter with a block at a long distance that is not relevant to the index item. Sometimes.

そこで、本実施形態では、選択ブロック、抽出ブロックとの距離が遠いブロックほどレコメンドスコアへの影響を小さくするように各類似度パラメータの重み(重要度)を変更する例について説明する。なお、以下では、第1実施形態と差異がある箇所についてのみ説明する。 Therefore, in the present embodiment, an example of changing the weight (importance) of each similarity parameter so as to reduce the influence on the recommendation score as the distance from the selection block and the extraction block is longer will be described. In the following, only the parts that are different from the first embodiment will be described.

図11は、第2実施形態に係るレコメンドスコア算出の処理手順のフローチャートである。図11を用いて、抽出したインデックス項目の抽出位置の確からしさを示すレコメンドスコアを算出する処理手順を説明する。図11と、図9に示した第1実施形態のフローチャートとの差異について説明する。ステップS900からステップS909については第1実施形態と同様である。第1実施形態のフローに加えて、ステップS910からステップS912の構成がある。以下、図11のフローチャートに基づいて処理手順を説明しつつ、必要に応じて、他の図面を参照して各処理の具体例を説明する。 FIG. 11 is a flowchart of the processing procedure for calculating the recommendation score according to the second embodiment. A processing procedure for calculating a recommendation score indicating the certainty of the extraction position of the extracted index item will be described with reference to FIG. The difference between FIG. 11 and the flowchart of the first embodiment shown in FIG. 9 will be described. Steps S900 to S909 are the same as those in the first embodiment. In addition to the flow of the first embodiment, there is a configuration of steps S910 to S912. Hereinafter, while explaining the processing procedure based on the flowchart of FIG. 11, specific examples of each processing will be described with reference to other drawings as necessary.

ステップS910において、CPU111は、選択ブロックと重ならない非抽出ブロックが存在するかを判定する。存在する場合には、CPU111は、処理をステップS912に進める。存在しない場合には、CPU111は、処理をステップS911に進める。 In step S910, the CPU 111 determines whether there is a non-extracted block that does not overlap with the selected block. If present, the CPU 111 advances the process to step S912. If it does not exist, the CPU 111 advances the process to step S911.

ステップS911において、CPU111は、抽出ブロックと重ならない非選択ブロックが存在するかを判定する。存在する場合には、CPU111は、処理をステップS912に進める。存在しない場合には、CPU111は、処理をステップS909に進める。 In step S911, the CPU 111 determines whether there is a non-selected block that does not overlap with the extraction block. If present, the CPU 111 advances the process to step S912. If it does not exist, the CPU 111 advances the process to step S909.

ステップS912において、CPU111は、選択ブロックまたは抽出ブロックとの距離に応じて、非選択ブロックおよび非抽出ブロックから算出した各類似度パラメータの重みを変更する。 In step S912, the CPU 111 changes the weight of each similarity parameter calculated from the non-selected block and the non-extracted block according to the distance from the selected block or the extracted block.

図12は、第2実施形態に係る選択、非選択ブロックと抽出、非抽出ブロックの例を示す図である。図12(A)は、登録文書における選択ブロック1201と非選択ブロック1202、1203、1204の例を示している。図12(B)は、入力文書における抽出ブロック1205と非抽出ブロック1206、1207、1208の例を示している。また、図12(C)は、図12(B)とは異なる文書が入力された時の、入力文書における抽出ブロック1209と非抽出ブロック1210、1211、1212の例を示している。 FIG. 12 is a diagram showing examples of selection, non-selection blocks and extraction, and non-extraction blocks according to the second embodiment. FIG. 12A shows an example of selected blocks 1201 and non-selected blocks 1202, 1203, 1204 in a registered document. FIG. 12B shows examples of extracted blocks 1205 and non-extracted blocks 1206, 1207, 1208 in the input document. Further, FIG. 12C shows an example of the extraction block 1209 and the non-extraction blocks 1210, 1211, 1212 in the input document when a document different from that of FIG. 12B is input.

非選択ブロック1204は、選択ブロック1201との距離、抽出ブロック1205、1209との距離が離れているブロックである。また、非抽出ブロック1208、1212は、選択ブロック1201との距離、抽出ブロック1205、1209との距離が離れているブロックである。 The non-selected block 1204 is a block that is separated from the selected block 1201 and the extraction blocks 1205 and 1209. Further, the non-extracted blocks 1208 and 1212 are blocks that are separated from the selection block 1201 and the extraction blocks 1205 and 1209.

ここで、例えば、非選択ブロック1204と非抽出ブロック1208の重なり類似度パラメータが「0.1」、非選択ブロック1204と非抽出ブロック1212の重なり類似度パラメータが「0.5」と算出される場合がある。この場合、非抽出ブロック1208、1212は、抽出ブロックとの距離が離れているため、これらのブロックの類似度パラメータの重みを小さくする。これにより、インデックス項目に直接関係のないような非抽出ブロック1208、1212から算出される重なり類似度パラメータのレコメンドスコアへの影響を小さくする。このように、選択ブロックおよび抽出ブロックとの距離に応じて変化させた重みを利用して、各類似度パラメータの加重和を求めることで最終的なレコメンドスコアを算出する。 Here, for example, the overlap similarity parameter of the non-selected block 1204 and the non-extracted block 1208 is calculated as "0.1", and the overlap similarity parameter of the non-selected block 1204 and the non-extracted block 1212 is calculated as "0.5". In some cases. In this case, since the non-extracted blocks 1208 and 1212 are separated from the extracted blocks, the weight of the similarity parameter of these blocks is reduced. This reduces the effect of the overlap similarity parameter calculated from the non-extracted blocks 1208 and 1212, which are not directly related to the index item, on the recommendation score. In this way, the final recommendation score is calculated by obtaining the weighted sum of each similarity parameter by using the weights changed according to the distances from the selection block and the extraction block.

以上、第2実施形態によれば、選択ブロックおよび抽出ブロックとの距離が遠いブロックほどレコメンドスコアへの影響を小さくするように類似度パラメータの重みを変更する。これにより、インデックス項目に関係性が低いような遠い距離にあるブロックの類似度パラメータがレコメンドスコアに反映されることを防ぐことができる。この結果、レコメンドスコア算出の精度を向上させることができる。 As described above, according to the second embodiment, the weight of the similarity parameter is changed so that the longer the distance between the selection block and the extraction block is, the smaller the influence on the recommendation score is. This can prevent the similarity parameter of the block at a long distance, which is not related to the index item, from being reflected in the recommendation score. As a result, the accuracy of the recommendation score calculation can be improved.

[第3実施形態]
第1実施形態では、登録文書における選択ブロックおよび非選択ブロックと、入力文書における抽出ブロックおよび非抽出ブロックとの類似度パラメータを利用することでレコメンドスコアを算出する例について説明した。しかし、登録文書の非選択ブロックや入力文書の非抽出ブロックは、必ず存在するものではなく、存在しない場合がある。
[Third Embodiment]
In the first embodiment, an example of calculating the recommendation score by using the similarity parameter between the selected block and the non-selected block in the registered document and the extracted block and the non-extracted block in the input document has been described. However, the non-selected block of the registered document and the non-extracted block of the input document do not always exist and may not exist.

そこで、第3実施形態では、非選択ブロックや非抽出ブロックが存在しない場合に応じて、各類似度パラメータに対する重みを変化させる例について説明する。なお、以下では、第1実施形態と差異がある箇所についてのみ説明する。 Therefore, in the third embodiment, an example in which the weight for each similarity parameter is changed depending on the case where the non-selected block or the non-extracted block does not exist will be described. In the following, only the parts that are different from the first embodiment will be described.

図13は、第3実施形態に係るレコメンドスコア算出の処理手順のフローチャートである。図13を用いて、抽出したインデックス項目の抽出位置の確からしさを示すレコメンドスコアを算出する処理手順を説明する。図13と、図9に示した第1実施形態のフローチャートとの差異について説明する。ステップS900からステップS909については第1実施形態と同様である。第1実施形態のフローに加えて、ステップS913からステップS915の構成がある。以下、図13のフローチャートに基づいて処理手順を説明しつつ、必要に応じて、他の図面を参照して各処理の具体例を説明する。 FIG. 13 is a flowchart of the processing procedure for calculating the recommendation score according to the third embodiment. A processing procedure for calculating a recommendation score indicating the certainty of the extraction position of the extracted index item will be described with reference to FIG. The difference between FIG. 13 and the flowchart of the first embodiment shown in FIG. 9 will be described. Steps S900 to S909 are the same as those in the first embodiment. In addition to the flow of the first embodiment, there is a configuration of steps S913 to S915. Hereinafter, while explaining the processing procedure based on the flowchart of FIG. 13, specific examples of each processing will be described with reference to other drawings as necessary.

ステップS913において、CPU111は、非選択ブロックが存在するか否かを判定する。存在する場合、CPU111は、処理をステップS914に進める。存在しない場合、CPU111は、処理をステップS915に進める。 In step S913, the CPU 111 determines whether or not a non-selected block exists. If present, the CPU 111 advances the process to step S914. If it does not exist, the CPU 111 advances the process to step S915.

ステップS914において、CPU111は、非抽出ブロックが存在するか否かを判定する。存在する場合、CPU111は、処理をステップS909に進める。存在しない場合、CPU111は、処理をステップS915に進める。 In step S914, the CPU 111 determines whether or not the non-extracted block exists. If present, the CPU 111 advances the process to step S909. If it does not exist, the CPU 111 advances the process to step S915.

ステップS915において、CPU111は、非選択ブロックや非抽出ブロックが存在しない場合に応じて、各類似度パラメータに対する重みを変化させる。 In step S915, the CPU 111 changes the weight for each similarity parameter depending on the absence of the non-selected block or the non-extracted block.

図14は、第3実施形態に係る選択、非選択ブロックと抽出ブロックの例を示す図である。図14(A)は、登録文書における選択ブロック1401と非選択ブロック1402の例を示している。図14(B)は、登録文書において非選択ブロックが存在せず、選択ブロック1403だけが存在する場合の例を示している。また、図14(C)は、入力文書において非抽出ブロックが存在せず、抽出ブロック1404だけが存在する場合の例を示している。 FIG. 14 is a diagram showing an example of a selection, non-selection block, and an extraction block according to the third embodiment. FIG. 14A shows an example of the selected block 1401 and the non-selected block 1402 in the registered document. FIG. 14B shows an example in which the non-selected block does not exist in the registered document and only the selected block 1403 exists. Further, FIG. 14C shows an example in which the non-extracted block does not exist in the input document and only the extracted block 1404 exists.

ここで、例えば、図14(A)に示すように、登録文書には選択ブロックと非選択ブロックが存在するが、図14(C)に示すように、入力文書には非抽出ブロックが存在しない場合がある。この場合、非選択ブロック1402と抽出ブロック1404の重なり類似度パラメータの重みを大きくする。 Here, for example, as shown in FIG. 14 (A), the registered document has a selected block and a non-selected block, but as shown in FIG. 14 (C), the input document does not have a non-extracted block. In some cases. In this case, the weight of the overlap similarity parameter of the non-selected block 1402 and the extraction block 1404 is increased.

一方、例えば、図14(B)に示すように、登録文書に非選択ブロックが存在せず、図14(C)に示すように、入力文書に非抽出ブロックが存在しない場合がある。この場合、選択ブロック1403と抽出ブロック1404の形状類似度パラメータの重みを大きくする。 On the other hand, for example, as shown in FIG. 14 (B), the non-selected block may not exist in the registered document, and as shown in FIG. 14 (C), the non-extracted block may not exist in the input document. In this case, the weights of the shape similarity parameters of the selection block 1403 and the extraction block 1404 are increased.

なお、類似度パラメータに対する重みを変化させる方法は、前述したもの以外にもさまざまな手法があるが、非選択ブロックと非抽出ブロックが存在するかどうかに応じて、変化させる方法であればよい。このように、非選択ブロックや非抽出ブロックが存在しない場合に応じて変化させた重みを利用して、各類似度パラメータの加重和を求めることで最終的なレコメンドスコアを算出する。 There are various methods for changing the weight for the similarity parameter other than those described above, but any method may be used as long as it is a method of changing depending on whether or not a non-selected block and a non-extracted block exist. In this way, the final recommendation score is calculated by obtaining the weighted sum of each similarity parameter by using the weights changed according to the case where the non-selected blocks and the non-extracted blocks do not exist.

以上、第3実施形態によれば、非選択ブロックや非抽出ブロックが存在しない場合に応じて各類似度パラメータの重みを変化させる。これにより、非選択ブロックや非抽出ブロックが存在しない場合を考慮したレコメンドスコアが算出でき、レコメンドスコア算出の精度を向上させることができる。 As described above, according to the third embodiment, the weight of each similarity parameter is changed according to the case where the non-selected block or the non-extracted block does not exist. As a result, the recommendation score can be calculated in consideration of the case where the non-selected block and the non-extracted block do not exist, and the accuracy of the recommendation score calculation can be improved.

[第4実施形態]
第1実施形態では、登録文書における選択ブロックおよび非選択ブロックと、入力文書における抽出ブロックおよび非抽出ブロックとの類似度パラメータを利用することでレコメンドスコアを算出する例について説明した。しかし、登録文書のブロックと入力文書のブロックが一致する場合と、差異が大きく生じている場合で類似度パラメータの数値の算出方法を変化させることはしていない。例えば、登録文書の選択ブロックの幅と入力文書の抽出ブロックの幅が一致する場合は、そのブロックの領域は固定長文字列領域であることが想定されるため、インデックス項目の抽出位置の確からしさが高いと考えられる。したがって、このような場合には高いレコメンドスコアを算出したい。
[Fourth Embodiment]
In the first embodiment, an example of calculating the recommendation score by using the similarity parameter between the selected block and the non-selected block in the registered document and the extracted block and the non-extracted block in the input document has been described. However, the method of calculating the numerical value of the similarity parameter is not changed depending on whether the block of the registered document and the block of the input document match or when the difference is large. For example, if the width of the selected block of the registered document and the width of the extracted block of the input document match, it is assumed that the area of that block is a fixed-length character string area, so the accuracy of the extraction position of the index item is certain. Is considered to be high. Therefore, in such a case, we would like to calculate a high recommendation score.

そこで、第4実施形態では、登録文書と入力文書の差異に基づいて各類似度パラメータの数値を変化させる例について説明する。具体的には、登録文書と入力文書のブロック同士の重なり、高さや幅などの形状、ブロックの左端や右端、上端、下端などの座標値、ブロックの距離、ブロック数の差分値に基づいて、各類似度パラメータの数値を変化させる。なお、以下では、第1実施形態と差異がある箇所についてのみ説明する。 Therefore, in the fourth embodiment, an example of changing the numerical value of each similarity parameter based on the difference between the registered document and the input document will be described. Specifically, based on the overlap between blocks of the registered document and the input document, the shape such as height and width, the coordinate values such as the left end, right end, upper end, and lower end of the block, the distance of the blocks, and the difference value of the number of blocks. Change the numerical value of each similarity parameter. In the following, only the parts that are different from the first embodiment will be described.

図15は、第4実施形態に係るレコメンドスコア算出処理方法を説明する図である。図15(A)は、登録文書における選択ブロック1501と非選択ブロック1502の例を示している。図15(B)は、入力文書における抽出ブロック1503と非抽出ブロック1504の例を示している。また、図15(C)は、図15(B)とは異なる文書が入力された時の、入力文書における抽出ブロック1505と非抽出ブロック1506の例を示している。 FIG. 15 is a diagram illustrating a recommendation score calculation processing method according to the fourth embodiment. FIG. 15A shows an example of the selected block 1501 and the non-selected block 1502 in the registered document. FIG. 15B shows an example of the extraction block 1503 and the non-extraction block 1504 in the input document. Further, FIG. 15C shows an example of the extraction block 1505 and the non-extraction block 1506 in the input document when a document different from that in FIG. 15B is input.

本実施形態では、ステップS904、S905、S906、S907において、各類似度パラメータを算出する。この算出の際に、登録文書と入力文書のブロック同士の重なり、高さや幅、座標値、距離、ブロック数の差分値に基づいて各類似度パラメータの数値を変化させる。 In this embodiment, each similarity parameter is calculated in steps S904, S905, S906, and S907. At the time of this calculation, the numerical value of each similarity parameter is changed based on the overlap between the blocks of the registered document and the input document, the height and width, the coordinate value, the distance, and the difference value of the number of blocks.

図16は、第4実施形態に係る幅類似度パラメータの数値を変化させる方法を説明する図である。図16では、選択ブロックと抽出ブロック同士の幅の差分値に基づいて幅類似度パラメータの数値1601を変化させる例を示している。ここで、領域1602は、選択ブロックの幅が抽出ブロックの幅よりも大きい場合を示し、領域1603は、抽出ブロックの幅が選択ブロックの幅よりも大きい場合を示している。 FIG. 16 is a diagram illustrating a method of changing the numerical value of the width similarity parameter according to the fourth embodiment. FIG. 16 shows an example in which the numerical value 1601 of the width similarity parameter is changed based on the difference value of the width between the selected block and the extracted block. Here, the area 1602 shows the case where the width of the selected block is larger than the width of the extraction block, and the area 1603 shows the case where the width of the extraction block is larger than the width of the selection block.

ここで、図15(A)及び(B)の例を用いて説明する。図15(A)の例では、選択ブロック1501の外接矩形(x座標、y座標、幅、高さ)が(10、5、30、15)である。図15(B)の例では、抽出ブロック1503の外接矩形(x座標、y座標、幅、高さ)が(10、5、30、15)である。このとき、選択ブロックと抽出ブロックの幅の差分値が「0」になるため、幅類似度パラメータの数値1601を「1」とする。これにより、選択ブロックと抽出ブロックが一致する場合に、最終的なレコメンドスコアを大きくできる。 Here, the examples of FIGS. 15A and 15B will be described. In the example of FIG. 15A, the circumscribed rectangle (x coordinate, y coordinate, width, height) of the selection block 1501 is (10, 5, 30, 15). In the example of FIG. 15B, the circumscribed rectangle (x coordinate, y coordinate, width, height) of the extraction block 1503 is (10, 5, 30, 15). At this time, since the difference value between the widths of the selected block and the extraction block is "0", the numerical value 1601 of the width similarity parameter is set to "1". This makes it possible to increase the final recommendation score when the selected block and the extracted block match.

また、図15(A)及び(C)の例を用いて説明する。図15(A)の例では、選択ブロック1501の外接矩形(x座標、y座標、幅、高さ)が(10、5、30、15)である。図15(C)の例では、抽出ブロック1505の外接矩形(x座標、y座標、幅、高さ)が(10、5、60、15)である。このとき、選択ブロックと抽出ブロックの幅の差分値が「+30」になるため、幅類似度パラメータの数値1601を「0.4」とする。一方、選択ブロックと抽出ブロックの幅の差分値が「-30」になるような場合には、幅類似度パラメータの数値1601を「0.4」よりも大きな値とする。このように、差分値の絶対値が同じ場合、その正負に応じて幅類似度パラメータの数値を変化させても良い。 Further, it will be described with reference to the examples of FIGS. 15 (A) and 15 (C). In the example of FIG. 15A, the circumscribed rectangle (x coordinate, y coordinate, width, height) of the selection block 1501 is (10, 5, 30, 15). In the example of FIG. 15C, the circumscribed rectangle (x coordinate, y coordinate, width, height) of the extraction block 1505 is (10, 5, 60, 15). At this time, since the difference value between the widths of the selected block and the extraction block is “+30”, the numerical value 1601 of the width similarity parameter is set to “0.4”. On the other hand, when the difference value between the widths of the selected block and the extraction block is "-30", the numerical value 1601 of the width similarity parameter is set to a value larger than "0.4". In this way, when the absolute value of the difference value is the same, the numerical value of the width similarity parameter may be changed according to the positive or negative.

なお、各類似度パラメータの数値を変化させる方法は、前述したもの以外にもさまざまな手法があるが、登録文書と入力文書のブロック同士の差分値に基づいて、各類似度パラメータの数値を変化させる方法であればよい。このように、登録文書と入力文書のブロック同士の差分値に基づいて変化させた類似度パラメータの数値を利用して、各類似度パラメータの加重和を求めることで、最終的なレコメンドスコアを算出する。 There are various methods for changing the numerical value of each similarity parameter other than those described above, but the numerical value of each similarity parameter is changed based on the difference value between the blocks of the registered document and the input document. Any method can be used. In this way, the final recommendation score is calculated by obtaining the weighted sum of each similarity parameter using the numerical value of the similarity parameter changed based on the difference value between the blocks of the registered document and the input document. do.

以上、本実施形態によれば、登録文書と入力文書の差異に基づいて各類似度パラメータの数値を変化させる。具体的には、登録文書と入力文書のブロック同士の重なり、高さや幅などの形状、ブロック群の左端や右端、上端、下端などの座標値、ブロックの距離、ブロック数の差分値に基づいて、各類似度パラメータの数値を変化させる。これにより、登録文書のブロックと入力文書のブロックが一致するような場合を考慮したレコメンドスコアが算出でき、レコメンドスコア算出の精度を向上させることができる。 As described above, according to the present embodiment, the numerical value of each similarity parameter is changed based on the difference between the registered document and the input document. Specifically, based on the overlap between blocks of the registered document and the input document, the shape such as height and width, the coordinate values such as the left end, right end, upper end, and lower end of the block group, the block distance, and the difference value of the number of blocks. , Change the numerical value of each similarity parameter. As a result, the recommendation score can be calculated in consideration of the case where the block of the registered document and the block of the input document match, and the accuracy of the recommendation score calculation can be improved.

[第5実施形態]
第1実施形態では、登録文書における選択ブロックおよび非選択ブロックと、入力文書における抽出ブロックおよび非抽出ブロックとの類似度パラメータを利用することで、レコメンドスコアを算出する例について説明した。しかし、登録文書のOCRブロックと入力文書のOCRブロックを重ね合わせたときに、上下にブロックの位置がずれる場合がある。これは、ユーザが文書作成時に記載位置を微修正した場合や文書の印刷時の設定、文書のスキャン時の状況によって起こり得る。このような場合において、本来抽出したいOCRブロックの1行上や下にあるOCRブロックを抽出してしまうことがある。このような場合であっても高いレコメンドスコアが算出されてしまう可能性がある。
[Fifth Embodiment]
In the first embodiment, an example of calculating the recommendation score by using the similarity parameter between the selected block and the non-selected block in the registered document and the extracted block and the non-extracted block in the input document has been described. However, when the OCR block of the registered document and the OCR block of the input document are overlapped, the positions of the blocks may shift up and down. This can occur when the user slightly modifies the description position when creating a document, when the document is printed, or when the document is scanned. In such a case, the OCR block that is one line above or below the OCR block that is originally desired to be extracted may be extracted. Even in such a case, a high recommendation score may be calculated.

そこで、本実施形態では、登録文書の選択ブロックと重なる入力文書のOCRブロックが複数行分存在する場合に、スコアを減算する値であるペナルティ値を用いてレコメンドスコアを減算する例について説明する。なお、以下では、第1実施形態と差異がある箇所についてのみ説明する。 Therefore, in the present embodiment, when there are a plurality of lines of OCR blocks of the input document that overlap with the selection block of the registered document, an example of subtracting the recommendation score by using the penalty value which is the value for subtracting the score will be described. In the following, only the parts that are different from the first embodiment will be described.

図17は、第5実施形態に係るレコメンドスコア算出の処理手順のフローチャートである。図17を用いて、抽出したインデックス項目の抽出位置の確からしさを示すレコメンドスコアを算出する処理手順を説明する。まず、図17と、図9に示した第1実施形態のフローチャートとの差異について説明する。ステップS900からステップS909については第1実施形態と同様である。第1実施形態のフローに加えて、ステップS916からステップS918の構成がある。以下、図17のフローチャートに基づいて処理手順を説明しつつ、必要に応じて、他の図面を参照して各処理の具体例を説明する。 FIG. 17 is a flowchart of the processing procedure for calculating the recommendation score according to the fifth embodiment. A processing procedure for calculating a recommendation score indicating the certainty of the extraction position of the extracted index item will be described with reference to FIG. First, the difference between FIG. 17 and the flowchart of the first embodiment shown in FIG. 9 will be described. Steps S900 to S909 are the same as those in the first embodiment. In addition to the flow of the first embodiment, there is a configuration of steps S916 to S918. Hereinafter, while explaining the processing procedure based on the flowchart of FIG. 17, specific examples of each processing will be described with reference to other drawings as necessary.

ステップS916において、CPU111は、選択ブロックと重なる入力文書のOCRブロックの行数を算出する。図18は、第5実施形態に係る選択、非選択ブロックとOCRブロックの例を示す図である。図18(A)は、登録文書のインデックス情報に登録された選択ブロック1801と非選択ブロック1802、1803を示している。図18(B)は、入力文書のOCRブロック1804、1805、1806、1807、1807、1808を示している。図18(C)は、選択ブロックと入力文書のOCRブロックを重ね合わせた例を示している。図18(A)乃至(C)において、選択ブロック1801と1809は同じブロックを表す。また、OCRブロック1804と1810、1805と1811、1806と1812、1807と1813、1808と1814はそれぞれ同じブロックを表す。 In step S916, the CPU 111 calculates the number of lines of the OCR block of the input document that overlaps with the selection block. FIG. 18 is a diagram showing an example of a selected, non-selected block and an OCR block according to the fifth embodiment. FIG. 18A shows selected blocks 1801 and non-selected blocks 1802 and 1803 registered in the index information of the registered document. FIG. 18B shows the OCR blocks 1804, 1805, 1806, 1807, 1807, 1808 of the input document. FIG. 18C shows an example in which the selection block and the OCR block of the input document are superimposed. In FIGS. 18A to 18C, the selection blocks 1801 and 1809 represent the same block. Also, the OCR blocks 1804 and 1810, 1805 and 1811, 1806 and 1812, 1807 and 1813, and 1808 and 1814 represent the same block, respectively.

ステップS916では、選択ブロックと重なる入力文書のOCRブロックの行数を算出する。図18(C)のように、選択ブロック1809と入力文書のOCRブロック1810、1812が重なっている場合、選択ブロックと重なる入力文書のOCRブロックの行数を2と算出する。具体的な行数の算出方法としては、まず、選択ブロックと重なる入力文書のOCRブロックを求める。次に、求められたOCRブロックのうち、矩形が列方向で重複する、かつ、行方向で重複しないものを抽出する。そして、抽出されたOCRブロックの個数を、選択ブロックと重なる入力文書のOCRブロックの行数として算出する。 In step S916, the number of lines in the OCR block of the input document that overlaps with the selected block is calculated. When the selection block 1809 overlaps with the OCR blocks 1810 and 1812 of the input document as shown in FIG. 18C, the number of lines of the OCR block of the input document overlapping with the selection block is calculated as 2. As a specific method for calculating the number of lines, first, an OCR block of an input document that overlaps with the selection block is obtained. Next, among the obtained OCR blocks, those in which the rectangles overlap in the column direction and do not overlap in the row direction are extracted. Then, the number of extracted OCR blocks is calculated as the number of lines of the OCR block of the input document that overlaps with the selection block.

ステップS917において、CPU111は、ステップS916で算出した行数が2以上であるかを判定する。算出した行数が1であれば処理を終え、2以上であれば、処理をステップS918に進める。 In step S917, the CPU 111 determines whether the number of rows calculated in step S916 is 2 or more. If the calculated number of rows is 1, the process is completed, and if it is 2 or more, the process proceeds to step S918.

ステップS918において、CPU111は、HDD120からペナルティ値をRAM119に展開した上で取得する。そして、ステップS909で算出したレコメンドスコアからペナルティ値を減算する。最終的に、減算後の値をインデックス項目に対するレコメンドスコアとして更新して処理を終了する。 In step S918, the CPU 111 acquires the penalty value from the HDD 120 after expanding it to the RAM 119. Then, the penalty value is subtracted from the recommendation score calculated in step S909. Finally, the value after subtraction is updated as a recommendation score for the index item, and the process ends.

以上、本実施形態によれば、登録文書の選択ブロックと重なる入力文書のOCRブロックが複数行分存在する場合に、ペナルティ値を用いてレコメンドスコアを下げる。これにより、本来抽出したいブロックの1行上や下にあるブロックを抽出してしまう可能性を考慮したレコメンドスコア算出ができ、レコメンドスコア算出の精度を向上させることができる。 As described above, according to the present embodiment, when there are a plurality of lines of OCR blocks of the input document that overlap with the selection block of the registered document, the recommendation score is lowered by using the penalty value. As a result, the recommendation score can be calculated in consideration of the possibility of extracting the block one line above or below the block originally desired to be extracted, and the accuracy of the recommendation score calculation can be improved.

[その他の実施形態]
以上、本発明をその好適な実施形態に基づいて詳述したが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。また、上述の実施形態の一部を適宜組み合わせてもよい。
[Other embodiments]
Although the present invention has been described in detail based on the preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various embodiments within the range not deviating from the gist of the present invention are also included in the present invention. Will be. In addition, some of the above-described embodiments may be combined as appropriate.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100…画像形成装置
110…制御部
111…CPU
112…記憶装置
123…表示・操作部

100 ... Image forming apparatus 110 ... Control unit 111 ... CPU
112 ... Storage device 123 ... Display / operation unit

Claims (9)

原稿の画像データを取得する画像取得手段と、
前記画像データのテキストブロックを取得するテキストブロック取得手段と、
前記テキストブロックから抽出ブロックを抽出する抽出手段と、
前記抽出手段で抽出された前記抽出ブロックの抽出位置の確からしさの評価値を算出する算出手段と、
を備え、
前記テキストブロックは、抽出処理の基準となる第一テキストブロック群として選択ブロックと非選択ブロックを有するとともに、前記抽出処理の対象となる第二テキストブロック群として前記抽出ブロックと非抽出ブロックとを有し、
前記算出手段は、前記第一テキストブロック群と前記第二テキストブロック群との類似度に基づいて前記評価値を算出する
ことを特徴とする画像処理装置。
Image acquisition means for acquiring image data of manuscripts,
A text block acquisition means for acquiring a text block of image data,
An extraction means for extracting an extraction block from the text block,
A calculation means for calculating the evaluation value of the certainty of the extraction position of the extraction block extracted by the extraction means, and a calculation means.
Equipped with
The text block has a selected block and a non-selected block as a first text block group as a reference of the extraction process, and has the extracted block and a non-extracted block as a second text block group to be the target of the extraction process. death,
The calculation means is an image processing apparatus characterized in that the evaluation value is calculated based on the degree of similarity between the first text block group and the second text block group.
前記算出手段は、
前記選択ブロックと前記抽出ブロックとの類似度と、前記非選択ブロックと前記非抽出ブロックとの類似度と、前記選択ブロックと前記非抽出ブロックとの類似度と、前記非選択ブロックと前記抽出ブロックとの類似度と、に基づいて前記評価値を算出する
ことを特徴とする請求項1に記載の画像処理装置。
The calculation means is
The similarity between the selected block and the extracted block, the similarity between the non-selected block and the non-extracted block, the similarity between the selected block and the non-extracted block, and the non-selected block and the extracted block. The image processing apparatus according to claim 1, wherein the evaluation value is calculated based on the degree of similarity with the above.
前記算出手段は、
前記テキストブロックごとの重要度に基づいて前記評価値を算出し、
前記選択ブロックと距離が遠い前記非選択ブロックの前記重要度を小さくするとともに、前記抽出ブロックと距離が遠い前記非抽出ブロックの前記重要度を小さくする
ことを特徴とする請求項1または2に記載の画像処理装置。
The calculation means is
The evaluation value is calculated based on the importance of each text block.
The invention according to claim 1 or 2, wherein the importance of the non-selected block, which is far from the selected block, is reduced, and the importance of the non-extracted block, which is far from the extracted block, is reduced. Image processing equipment.
前記算出手段は、
前記テキストブロックごとの重要度に基づいて前記評価値を算出し、
前記非選択ブロック又は前記非抽出ブロックが存在しない場合に応じて前記重要度を変更する
ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
The calculation means is
The evaluation value is calculated based on the importance of each text block.
The image processing apparatus according to any one of claims 1 to 3, wherein the importance is changed depending on the absence of the non-selected block or the non-extracted block.
前記算出手段は、
前記第一テキストブロック群と前記第二テキストブロック群とを比較し、それらの重なり、形状、座標値、距離又はブロック数の差分値に基づいて前記類似度を算出する
ことを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
The calculation means is
A claim characterized in that the first text block group and the second text block group are compared, and the similarity is calculated based on the overlap, the shape, the coordinate value, the distance, or the difference value of the number of blocks. The image processing apparatus according to any one of 1 to 4.
前記算出手段は、
前記第一テキストブロック群と前記第二テキストブロック群とを比較し、それらの重なりに基づいて前記類似度を算出するとともに、
前記選択ブロックが前記第二テキストブロック群の複数行に重なる場合に、前記評価値を下げる
ことを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
The calculation means is
The first text block group and the second text block group are compared, and the similarity is calculated based on their overlap and the similarity is calculated.
The image processing apparatus according to any one of claims 1 to 5, wherein when the selection block overlaps a plurality of lines of the second text block group, the evaluation value is lowered.
前記画像データの文書種類を識別する識別手段と、
前記文書種類に関連づけられた前記抽出ブロックの抽出ルールを取得する抽出ルール取得手段と、を有し、
前記抽出手段は、前記抽出ルールに従って前記テキストブロックから前記抽出ブロックを抽出する
ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
An identification means for identifying the document type of the image data and
It has an extraction rule acquisition means for acquiring an extraction rule of the extraction block associated with the document type.
The image processing apparatus according to any one of claims 1 to 6, wherein the extraction means extracts the extraction block from the text block according to the extraction rule.
画像取得手段により原稿の画像データを取得する画像データ取得工程と、
前記画像データのテキストブロックを取得するテキストブロック取得工程と、
前記テキストブロックから抽出ブロックを抽出する抽出工程と、
前記抽出ブロックの抽出位置の確からしさの評価値を算出する算出工程と、
を備え、
前記テキストブロックは、抽出処理の基準となる第一テキストブロック群として選択ブロックと非選択ブロックを有するとともに、前記抽出処理の対象となる第二テキストブロック群として抽出ブロックと非抽出ブロックとを有し、
前記算出工程では、前記第一テキストブロック群と前記第二テキストブロック群との類似度に基づいて前記評価値を算出する
ことを特徴とする画像処理方法。
An image data acquisition process for acquiring image data of a manuscript by an image acquisition means,
The text block acquisition process for acquiring the text block of the image data and
An extraction process for extracting an extraction block from the text block,
A calculation process for calculating the evaluation value of the certainty of the extraction position of the extraction block, and
Equipped with
The text block has a selected block and a non-selected block as a first text block group as a reference of the extraction process, and has an extracted block and a non-extracted block as a second text block group to be the target of the extraction process. ,
The image processing method, characterized in that, in the calculation step, the evaluation value is calculated based on the degree of similarity between the first text block group and the second text block group.
コンピュータに請求項8に記載の画像処理方法を実行させることを特徴とするプログラム。

A program comprising causing a computer to execute the image processing method according to claim 8.

JP2020205330A 2020-12-10 2020-12-10 Image processing apparatus, image processing method, and program Pending JP2022092498A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020205330A JP2022092498A (en) 2020-12-10 2020-12-10 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020205330A JP2022092498A (en) 2020-12-10 2020-12-10 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2022092498A true JP2022092498A (en) 2022-06-22

Family

ID=82068199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020205330A Pending JP2022092498A (en) 2020-12-10 2020-12-10 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2022092498A (en)

Similar Documents

Publication Publication Date Title
US10984233B2 (en) Image processing apparatus, control method, and non-transitory storage medium that obtain text data for an image
JP4533273B2 (en) Image processing apparatus, image processing method, and program
US10817559B2 (en) Image processing apparatus with document similarity processing, and image processing method and storage medium therefor
EP2549735A2 (en) Method of editing static digital combined images comprising images of multiple objects
US9710524B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP6876914B2 (en) Information processing device
US20210286991A1 (en) Image processing apparatus, image processing method, and storage medium
US11908215B2 (en) Information processing apparatus, information processing method, and storage medium
US11710329B2 (en) Image processing apparatus with automated registration of previously encountered business forms, image processing method and storage medium therefor
JP2024012448A (en) Image processing device, control method of image processing device and program of the same
KR101903617B1 (en) Method for editing static digital combined images comprising images of multiple objects
JP6322086B2 (en) Display control device, display device, program, recording medium
JP2022092498A (en) Image processing apparatus, image processing method, and program
JP6700705B2 (en) Distribution system, information processing method, and program
JP2019153919A (en) Image processing device, control method thereof, and program
JP4518212B2 (en) Image processing apparatus and program
US9400926B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
JP7301671B2 (en) Image processing device, information processing method and program
CN110390323B (en) Information processing apparatus and computer readable medium
US20160044197A1 (en) Method of scanning document and image forming apparatus for performing the same
JP2021144673A (en) Image processing apparatus, image processing method and program
US20230273952A1 (en) Image processing apparatus, image processing method, and storage medium
JP4080157B2 (en) Image processing apparatus, image processing method, and recording medium
JP2019068406A (en) Information processing unit, method, and program
CN113259533A (en) Information processing apparatus, recording medium, and information processing method