JP2019133719A - Document sheet accommodating system, document sheet accommodating method, and document sheet accommodating program - Google Patents

Document sheet accommodating system, document sheet accommodating method, and document sheet accommodating program Download PDF

Info

Publication number
JP2019133719A
JP2019133719A JP2019089296A JP2019089296A JP2019133719A JP 2019133719 A JP2019133719 A JP 2019133719A JP 2019089296 A JP2019089296 A JP 2019089296A JP 2019089296 A JP2019089296 A JP 2019089296A JP 2019133719 A JP2019133719 A JP 2019133719A
Authority
JP
Japan
Prior art keywords
item
character
storage unit
item area
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019089296A
Other languages
Japanese (ja)
Other versions
JP7118923B2 (en
JP2019133719A5 (en
Inventor
龍弥 白河
Tatsuya Shirakawa
龍弥 白河
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mizuho Bank Ltd
Original Assignee
Mizuho Bank Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mizuho Bank Ltd filed Critical Mizuho Bank Ltd
Priority to JP2019089296A priority Critical patent/JP7118923B2/en
Publication of JP2019133719A publication Critical patent/JP2019133719A/en
Publication of JP2019133719A5 publication Critical patent/JP2019133719A5/ja
Application granted granted Critical
Publication of JP7118923B2 publication Critical patent/JP7118923B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Character Input (AREA)

Abstract

To provide a document sheet accommodating system, a document sheet accommodating method and a document sheet accommodating program for supporting processing using document sheets.SOLUTION: A support server 20 comprise a control part 21 connected to a learning result storage part 23 which stores a document sheet model obtained by learning an arrangement of item areas included in a document sheet and to an account information storage part 32 which stores item values included in the document sheet. For a document sheet image, the control part 21 calculates character candidates obtained by character recognition for each of the item areas predicted by the document sheet model stored in the learning result storage part 23, and also calculates accuracy rates of the character candidates; identifies an item value in each of the item areas on the basis of the accuracy rates; compares the identified item value with the item values stored in the account information storage part 32; and performs document sheet processing using the item values according to a result of the comparison.SELECTED DRAWING: Figure 1

Description

本発明は、帳票を用いた処理を支援するための帳票対応システム、帳票対応方法及び帳票対応プログラムに関する。   The present invention relates to a form correspondence system, a form correspondence method, and a form correspondence program for supporting processing using a form.

取引を依頼する場合、帳票を用いることがある。例えば、銀行口座を用いて、振込を行なう場合は、振込依頼書を用いることがある。このような振込依頼書に記載された内容は、銀行のホストシステムにデータ投入されて振込処理が行なわれる。また、振込依頼書を文字認識することにより、取引処理に必要なデータを生成する場合もある。   When requesting a transaction, a form may be used. For example, when making a transfer using a bank account, a transfer request form may be used. The contents described in such a transfer request form are input into the bank host system for transfer processing. Moreover, the data required for transaction processing may be generated by recognizing characters of the transfer request form.

例えば、OCR処理において、帳票上の罫線、及び帳票上の固有情報を利用して類似する帳票種類の判別を行ない、その帳票種類に対応する定義体を使用して文字認識を行うことにより、帳票IDで管理されていない私製帳票についても対応可能な帳票処理装置が検討されている(例えば、特許文献1を参照。)。   For example, in OCR processing, a similar form type is determined using ruled lines on the form and unique information on the form, and character recognition is performed using a definition body corresponding to the form type. A form processing apparatus that can deal with a private form that is not managed by an ID has been studied (for example, see Patent Document 1).

特開2016−81380号公報Japanese Patent Laying-Open No. 2006-81380

上述のように、振込を依頼する場合、収納機関において作成された振込依頼書を利用することがある。この場合、収納機関によって振込依頼書のレイアウトが異なり、振込に必要な各項目の記載位置が異なる。この場合、罫線や固有情報だけでは、各項目に関する情報の特定が困難なこともある。また、手書きにより作成された帳票においては、文字認識処理(OCR処理)が困難な場合もある。このような場合には、的確及び円滑な帳票対応が困難である。   As described above, when requesting a transfer, a transfer request document created in the storage organization may be used. In this case, the layout of the transfer request form differs depending on the storage organization, and the description position of each item required for the transfer is different. In this case, it may be difficult to specify information about each item only with ruled lines and unique information. In addition, in a form created by handwriting, character recognition processing (OCR processing) may be difficult. In such a case, it is difficult to accurately and smoothly respond to the form.

上記課題を解決する帳票対応システムは、帳票に含まれる項目領域の配置を学習した帳票モデルを記憶した学習結果記憶部と、帳票に含まれる項目値が記録された登録情報記憶部に接続される制御部とを備える。そして、前記制御部が、帳票画像において、前記学習結果記憶部に記録された帳票モデルにより予測した項目領域毎に文字認識した文字候補と、前記文字候補の正解率とを算出し、前記正解率に基づいて、各項目領域において項目値を特定し、前記特定した項目値と、前記登録情報記憶部に記録された項目値とを照合し、前記照合の結果に応じて、前記項目値を用いた帳票処理を行なう。   The form correspondence system that solves the above problems is connected to a learning result storage unit that stores a form model that has learned the arrangement of item areas included in a form, and a registration information storage unit that stores item values included in the form. And a control unit. Then, the control unit calculates a character candidate recognized for each item area predicted by the form model recorded in the learning result storage unit in the form image, and a correct rate of the character candidate, and the correct rate The item value is specified in each item area, the specified item value is compared with the item value recorded in the registration information storage unit, and the item value is used according to the result of the comparison. Perform the form processing that was done.

本発明によれば、的確かつ効率的に、帳票を読み取り、この帳票に基づく取引を支援することができる。   According to the present invention, a form can be read accurately and efficiently, and transactions based on the form can be supported.

本実施形態の帳票対応システムの説明図。Explanatory drawing of the form corresponding | compatible system of this embodiment. 本実施形態の処理手順の説明図。Explanatory drawing of the process sequence of this embodiment. 本実施形態の文字認識の説明図。Explanatory drawing of the character recognition of this embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment. 他の実施形態の処理手順の説明図。Explanatory drawing of the process sequence of other embodiment.

以下、図1〜図3に従って、帳票対応システム、帳票対応方法及び帳票対応プログラムを具体化した一実施形態を説明する。本実施形態では、金融機関において、口座振替依頼書等の帳票に基づく取引を支援する場合を想定する。   Hereinafter, according to FIGS. 1 to 3, an embodiment in which a form correspondence system, a form correspondence method, and a form correspondence program are embodied will be described. In the present embodiment, it is assumed that a financial institution supports a transaction based on a form such as an account transfer request form.

図1に示すように、スキャナ10、支援サーバ20、ホストシステム30及び担当者端末40を用いる。
スキャナ10は、取引に用いる口座振替依頼書(帳票)を読み取り、帳票画像を生成する処理を実行する。
As shown in FIG. 1, a scanner 10, a support server 20, a host system 30, and a person-in-charge terminal 40 are used.
The scanner 10 reads a fund transfer request form (form) used for a transaction and executes a process for generating a form image.

支援サーバ20は、帳票画像に基づいて、取引に用いる取引電文の作成を支援する金融機関のコンピュータシステムである。この支援サーバ20は、制御部21、教師情報記憶部22、学習結果記憶部23を備えている。   The support server 20 is a computer system of a financial institution that supports creation of a transaction message used for a transaction based on the form image. The support server 20 includes a control unit 21, a teacher information storage unit 22, and a learning result storage unit 23.

制御部21は、制御手段(CPUやGPU、RAM、ROM等)を備え、後述する処理(学習処理段階、項目認識段階、文字認識段階、照合処理段階等の各処理等)を行なう。そのための帳票対応プログラムを実行することにより、制御部21は、学習処理部210、項目認識部211、文字認識部212、照合処理部213として機能する。   The control unit 21 includes control means (CPU, GPU, RAM, ROM, etc.), and performs processes (each process such as a learning process stage, an item recognition stage, a character recognition stage, and a collation process stage) described later. The control unit 21 functions as a learning processing unit 210, an item recognition unit 211, a character recognition unit 212, and a matching processing unit 213 by executing the form correspondence program for that purpose.

学習処理部210は、各項目領域が設定された帳票画像を含む教師データを用いて、未知の帳票画像において帳票領域を特定するための帳票モデルを生成する学習処理を実行する。
項目認識部211は、帳票画像に含まれる項目領域の特定処理を実行する。
The learning processing unit 210 executes learning processing for generating a form model for specifying a form area in an unknown form image using teacher data including a form image in which each item area is set.
The item recognition unit 211 executes a process for specifying an item area included in the form image.

本実施形態では、機械学習により、項目領域を予測する。具体的には、学習処理部210は、帳票画像と、この帳票画像に含まれる項目領域を示した教師データを用いて学習処理(深層学習)を行なう。この学習処理において、学習処理部210は、帳票認識モデルを生成し、学習結果記憶部23に登録する。そして、予測段階では、項目認識部211は、学習結果記憶部23に記録されている帳票モデルを用いて、予測対象の帳票画像において各項目領域を予測する。   In the present embodiment, the item region is predicted by machine learning. Specifically, the learning processing unit 210 performs learning processing (deep learning) using a form image and teacher data indicating an item area included in the form image. In this learning process, the learning processing unit 210 generates a form recognition model and registers it in the learning result storage unit 23. In the prediction stage, the item recognition unit 211 predicts each item area in the prediction target form image using the form model recorded in the learning result storage unit 23.

文字認識部212は、各項目領域に含まれる文字の認識処理を実行する。本実施形態では、手書き文字の文字画像と関連付けられたテキスト文字からなる教師データを用いた機械学習(深層学習)により、文字認識モデルを生成する。そして、この文字認識モデルを用いて、項目領域から切り出した各文字を認識する。この場合、各文字について、複数の認識候補を特定するとともに、各認識候補についての可能性(正解率)を算出する。   The character recognition unit 212 executes a process for recognizing characters included in each item area. In this embodiment, a character recognition model is generated by machine learning (deep learning) using teacher data composed of text characters associated with a character image of a handwritten character. Then, using this character recognition model, each character cut out from the item area is recognized. In this case, for each character, a plurality of recognition candidates are specified, and the possibility (accuracy rate) for each recognition candidate is calculated.

照合処理部213は、帳票画像により特定した文字列を用いて、予め準備された登録情報と照合する処理を実行する。照合処理部213は、文字種類に応じて、正解率を判定するための基準値に関するデータを保持させておく。   The collation processing unit 213 executes a process of collating with registered information prepared in advance using the character string specified by the form image. The collation processing unit 213 holds data relating to a reference value for determining the accuracy rate according to the character type.

教師情報記憶部22には、機械学習に用いられる複数の教師データが記録されている。教師データは、機械学習を行なう前に記録される。教師データには、帳票種別毎に、帳票画像、項目領域、帳票項目に関するデータが記録される。   The teacher information storage unit 22 stores a plurality of teacher data used for machine learning. Teacher data is recorded before machine learning. In the teacher data, data relating to a form image, an item area, and a form item is recorded for each form type.

帳票種別は、各帳票の種類を特定するための識別子である。
帳票画像は、この帳票をスキャンした画像である。
項目領域は、帳票画像において、各帳票項目の内容が記載された領域が指定される。
帳票項目は、帳票画像の中に含まれる各項目領域に対して、項目の内容(例えば、口座番号や名義人等)が設定される。
The form type is an identifier for specifying the type of each form.
The form image is an image obtained by scanning this form.
As the item area, an area in which the content of each form item is described in the form image is designated.
In the form item, the contents of the item (for example, an account number, a name holder, etc.) are set for each item area included in the form image.

学習結果記憶部23には、帳票画像において、各項目が記載された項目領域を予測するための帳票モデルが記録されている。帳票モデルは、教師データを用いての機械学習を行なった場合に記録される。帳票モデルには、帳票画像に基づいて特定される帳票種別や、この帳票種別に設けられた帳票項目の記載領域(項目領域)を予測するためのデータが記録される。   The learning result storage unit 23 records a form model for predicting an item area in which each item is described in the form image. The form model is recorded when machine learning is performed using teacher data. In the form model, data for predicting the form type specified based on the form image and the description area (item area) of the form item provided in the form type are recorded.

支援サーバ20には、ネットワークを介してホストシステム30及び担当者端末40が接続される。
ホストシステム30は、顧客の口座を管理する金融機関のコンピュータシステムである。このため、ホストシステム30は、口座情報記憶部32を備える。本実施形態では、口座情報記憶部32が登録情報記憶部として機能する。
A host system 30 and a person-in-charge terminal 40 are connected to the support server 20 via a network.
The host system 30 is a computer system of a financial institution that manages customer accounts. For this reason, the host system 30 includes an account information storage unit 32. In the present embodiment, the account information storage unit 32 functions as a registration information storage unit.

口座情報記憶部32には、銀行の顧客の口座に関する情報を管理するための口座管理レコードが記録される。この口座管理レコードは、口座が開設された場合に登録される。この口座管理レコードには、口座番号、名義人名、入出金履歴、残高に関する情報が記録される。   The account information storage unit 32 records an account management record for managing information related to bank customer accounts. This account management record is registered when an account is opened. In this account management record, information relating to the account number, name of the holder, deposit / withdrawal history, and balance is recorded.

口座番号データ領域には、この口座を特定するための識別子(本支店コード、預金種別、口座番号)に関する情報が記録される。
名義人名データ領域には、この口座の名義人の氏名に関する情報が記録される。
入出金履歴データ領域には、この口座への入金やこの口座からの出金に関する情報(入出金日時、金額、入出金先口座等)に関する情報が記録される。
残高データ領域には、この口座の現在の残高に関する情報が記録される。
Information relating to an identifier (main branch code, deposit type, account number) for specifying the account is recorded in the account number data area.
In the nominee name data area, information related to the name of the nominee of this account is recorded.
In the deposit / withdrawal history data area, information related to depositing / withdrawing to / from this account (deposit / withdrawal date / time, amount, deposit / withdrawal destination account, etc.) is recorded.
In the balance data area, information related to the current balance of this account is recorded.

担当者端末40は、金融機関の担当者が用いるコンピュータ端末(クライアント端末)である。この担当者端末40は、制御部、入力部(ポインティングデバイスやキーボード等)、出力部(ディスプレイ等)を備えている。   The person-in-charge terminal 40 is a computer terminal (client terminal) used by a person in charge at a financial institution. The person-in-charge terminal 40 includes a control unit, an input unit (such as a pointing device and a keyboard), and an output unit (such as a display).

(帳票を用いた取引処理)
次に、図2を用いて、帳票(口座振替依頼書)を用いた取引処理の処理手順を説明する。
(Transaction processing using forms)
Next, a processing procedure of transaction processing using a form (account transfer request form) will be described with reference to FIG.

まず、支援サーバ20の制御部21は、学習処理を実行する(ステップS1−0)。具体的には、制御部21の学習処理部210は、教師情報記憶部22に記録された教師データを用いて、画像、位置、サイズ等の情報でモデル構築を行なう機械学習を行なう。これにより、帳票画像において、帳票種別に関連付けられた、項目領域を特定するための帳票モデルを生成し、学習結果記憶部23に記録する。   First, the control unit 21 of the support server 20 executes a learning process (step S1-0). Specifically, the learning processing unit 210 of the control unit 21 uses the teacher data recorded in the teacher information storage unit 22 to perform machine learning for building a model with information such as an image, a position, and a size. As a result, a form model for specifying the item area associated with the form type is generated in the form image and recorded in the learning result storage unit 23.

次に、顧客から受け取った帳票の対応処理を説明する。
この場合、支援サーバ20の制御部21は、帳票スキャン処理を実行する(ステップS1−1)。具体的には、スキャナ10を用いて、処理対象の帳票のスキャンを行なう。この場合、制御部21の項目認識部211は、スキャナ10から帳票画像を取得する。
Next, processing for a form received from a customer will be described.
In this case, the control unit 21 of the support server 20 executes a form scan process (step S1-1). Specifically, the form to be processed is scanned using the scanner 10. In this case, the item recognition unit 211 of the control unit 21 acquires a form image from the scanner 10.

次に、支援サーバ20の制御部21は、項目予測処理を実行する(ステップS1−2)。具体的には、制御部21の項目認識部211は、学習結果記憶部23に記録された帳票モデルを用いて、画像認識により、帳票画像に含まれる項目領域を予測する。   Next, the control part 21 of the support server 20 performs an item prediction process (step S1-2). Specifically, the item recognition unit 211 of the control unit 21 predicts an item area included in the form image by image recognition using the form model recorded in the learning result storage unit 23.

次に、支援サーバ20の制御部21は、項目抽出を完了したかどうかについての判定処理を実行する(ステップS1−3)。具体的には、制御部21の項目認識部211は、学習結果記憶部23に記録された帳票モデルに関連付けられたすべての帳票項目について、項目領域を特定できた場合には、項目抽出の完了と判定する。   Next, the control part 21 of the support server 20 performs the determination process about whether the item extraction was completed (step S1-3). Specifically, the item recognition unit 211 of the control unit 21 completes the item extraction when the item area can be specified for all the form items associated with the form model recorded in the learning result storage unit 23. Is determined.

項目抽出を完了できなかったと判定した場合(ステップS1−3において「NO」の場合)、支援サーバ20の制御部21は、担当者による項目指定処理を実行する(ステップS1−4)。具体的には、制御部21の項目認識部211は、担当者端末40に帳票確認画面を出力する。この帳票確認画面には、帳票画像及び帳票に含まれる帳票項目候補が出力される。この場合、担当者は、帳票画像に含まれる項目領域を確認し、帳票項目を割り当てる。そして、項目認識部211は、帳票画像において、担当者によって指定された各項目領域を取得する。   When it is determined that item extraction has not been completed (in the case of “NO” in step S1-3), the control unit 21 of the support server 20 executes item designation processing by the person in charge (step S1-4). Specifically, the item recognition unit 211 of the control unit 21 outputs a form confirmation screen to the person-in-charge terminal 40. On this form confirmation screen, a form image and form item candidates included in the form are output. In this case, the person in charge confirms the item area included in the form image and assigns the form item. Then, the item recognition unit 211 acquires each item region designated by the person in charge in the form image.

次に、支援サーバ20の制御部21は、教師データの登録処理を実行する(ステップS1−5)。具体的には、制御部21の項目認識部211は、帳票種別、帳票画像、項目領域及び帳票項目を含めた教師データを教師情報記憶部22に記録する。そして、支援サーバ20の制御部21は、この教師データを、再度、学習処理(ステップS1−0)に用いる。   Next, the control unit 21 of the support server 20 executes a teacher data registration process (step S1-5). Specifically, the item recognition unit 211 of the control unit 21 records teacher data including a form type, a form image, an item area, and a form item in the teacher information storage unit 22. Then, the control unit 21 of the support server 20 uses the teacher data again for the learning process (step S1-0).

一方、項目抽出を完了したと判定した場合(ステップS1−3において「YES」の場合)、支援サーバ20の制御部21は、担当者による項目指定処理(ステップS1−4)、教師データの登録処理(ステップS1−5)をスキップする。   On the other hand, when it is determined that the item extraction has been completed (in the case of “YES” in step S1-3), the control unit 21 of the support server 20 performs an item designation process (step S1-4) by the person in charge, and registration of teacher data. The process (step S1-5) is skipped.

次に、支援サーバ20の制御部21は、帳票項目毎に以下の処理を繰り返す。
ここでは、支援サーバ20の制御部21は、文字認識処理を実行する(ステップS1−6)。具体的には、制御部21の文字認識部212は、帳票画像の項目領域に含まれる各文字画像の文字認識を行なう。この場合、文字認識部212は、文字画像毎に、複数の文字候補と正解率とを算出する。
Next, the control unit 21 of the support server 20 repeats the following processing for each form item.
Here, the control part 21 of the support server 20 performs a character recognition process (step S1-6). Specifically, the character recognition unit 212 of the control unit 21 performs character recognition of each character image included in the item area of the form image. In this case, the character recognition unit 212 calculates a plurality of character candidates and a correct answer rate for each character image.

ここでは、図3に示すように、文字画像501〜507毎に、第1候補〜第3候補について各正解率を算出する。
そして、支援サーバ20の制御部21は、すべての帳票項目について処理を繰り返す。
Here, as shown in FIG. 3, each correct rate is calculated for the first to third candidates for each of the character images 501 to 507.
And the control part 21 of the support server 20 repeats a process about all the form items.

次に、支援サーバ20の制御部21は、正解率に基づいて登録情報との照合処理を実行する(ステップS1−7)。具体的には、制御部21の照合処理部213は、文字種類に応じて、予め定められた基準値を超える正解率の認識文字を組み合わせて文字列を生成する。この場合、各文字画像について、基準値を超える正解率の認識文字が存在しない場合には、正解率が高い順番で複数の認識文字を選択しておくことにより、正解率が低い文字画像について一致の許容範囲を広げる。そして、照合処理部213は、文字列と登録情報とを照合する。例えば、帳票項目「口座番号」、「名義人」については、ホストシステム30の口座情報記憶部32に記録されている口座番号及び名義人氏名と比較する。   Next, the control part 21 of the support server 20 performs the collation process with registration information based on a correct answer rate (step S1-7). Specifically, the collation processing unit 213 of the control unit 21 generates a character string by combining recognized characters having a correct answer rate exceeding a predetermined reference value according to the character type. In this case, if there is no recognized character with a correct rate exceeding the reference value for each character image, a plurality of recognized characters are selected in order of increasing correct rate, thereby matching character images with a low correct rate. Increase the tolerance of. And the collation process part 213 collates a character string and registration information. For example, the form items “account number” and “name holder” are compared with the account number and name of the name recorded in the account information storage unit 32 of the host system 30.

次に、支援サーバ20の制御部21は、認識完了かどうかについての判定処理を実行する(ステップS1−8)。具体的には、制御部21の照合処理部213は、認識文字列が含まれる登録情報を特定できた場合、帳票項目毎に、認識文字列と登録情報の文字列との一致率(一致文字数/全文字数)を算出する。そして、照合処理部213は、一致率が予め定められた照合判定基準値を超える場合には、認識完了と判定する。   Next, the control part 21 of the support server 20 performs the determination process about whether it is recognition completion (step S1-8). Specifically, when the registration processing unit 213 of the control unit 21 can identify the registered information including the recognized character string, the matching rate (number of matched characters) between the recognized character string and the registered information character string for each form item. / Total number of characters). And the collation process part 213 determines with recognition completion, when a coincidence rate exceeds the collation determination reference value defined beforehand.

認識完了でないと判定した場合(ステップS1−8において「NO」の場合)、支援サーバ20の制御部21は、確認処理を実行する(ステップS1−9)。具体的には、制御部21の照合処理部213は、担当者端末40に、帳票確認画面を出力する。この帳票確認画面には、帳票画像及び帳票項目の項目値の入力欄が出力される。この場合、担当者は、帳票画像に含まれる項目領域を確認し、項目値を入力する。そして、照合処理部213は、帳票画像において、担当者によって入力された項目値を取得する。   When it is determined that the recognition is not completed (in the case of “NO” in step S1-8), the control unit 21 of the support server 20 executes a confirmation process (step S1-9). Specifically, the verification processing unit 213 of the control unit 21 outputs a form confirmation screen to the person-in-charge terminal 40. On the form confirmation screen, input fields for form images and item values of form items are output. In this case, the person in charge confirms the item area included in the form image and inputs the item value. And the collation process part 213 acquires the item value input by the person in charge in the form image.

一方、認識完了と判定した場合(ステップS1−8において「YES」の場合)、支援サーバ20の制御部21は、帳票処理を実行する(ステップS1−10)。具体的には、制御部21の照合処理部213は、処理対象の帳票について、帳票項目毎に認識した文字列を用いて取引電文を生成し、ホストシステム30に送信する。なお、確認処理(ステップS1−9)を実行した場合には、担当者によって入力された項目値用いて取引電文を生成し、ホストシステム30に送信する。   On the other hand, when it is determined that the recognition is completed (“YES” in step S1-8), the control unit 21 of the support server 20 executes a form process (step S1-10). Specifically, the collation processing unit 213 of the control unit 21 generates a transaction message using a character string recognized for each form item, and transmits the transaction message to the host system 30. When the confirmation process (step S1-9) is executed, a transaction message is generated using the item value input by the person in charge and transmitted to the host system 30.

以上、本実施形態によれば、以下に示す効果を得ることができる。
(1)本実施形態では、支援サーバ20の制御部21は、学習処理を実行する(ステップS1−0)。そして、支援サーバ20の制御部21は、帳票スキャン処理(ステップS1−1)、項目予測処理(ステップS1−2)を実行する。これにより、機械学習した帳票モデルを用いて、項目領域を特定することができる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) In this embodiment, the control part 21 of the support server 20 performs a learning process (step S1-0). Then, the control unit 21 of the support server 20 executes a form scan process (step S1-1) and an item prediction process (step S1-2). Thereby, an item area can be specified using a machine-learned form model.

(2)本実施形態では、項目抽出を完了できなかったと判定した場合(ステップS1−3において「NO」の場合)、支援サーバ20の制御部21は、担当者による項目指定処理(ステップS1−4)、教師データの登録処理(ステップS1−5)を実行する。これにより、帳票モデルを用いて、項目領域を特定できなかった帳票画像について、人手作業で項目領域を特定し、教師データとして機械学習に用いることができる。   (2) In this embodiment, when it is determined that item extraction has not been completed (in the case of “NO” in step S1-3), the control unit 21 of the support server 20 performs an item designation process (step S1- 4) The teacher data registration process (step S1-5) is executed. As a result, it is possible to manually specify the item area for the form image for which the item area cannot be specified using the form model, and use it for machine learning as teacher data.

(3)本実施形態では、支援サーバ20の制御部21は、文字認識処理(ステップS1−6)、正解率に基づいて登録情報との照合処理(ステップS1−7)を実行する。これにより、文字認識が正しい可能性がある文字候補を用いて照合を行なうことができる。   (3) In this embodiment, the control part 21 of the support server 20 performs a character recognition process (step S1-6) and a collation process (step S1-7) with registration information based on the correct answer rate. Thereby, collation can be performed using the character candidate with the possibility that character recognition is correct.

(4)本実施形態では、認識完了でないと判定した場合(ステップS1−8において「NO」の場合)、支援サーバ20の制御部21は、確認処理を実行する(ステップS1−9)。これにより、登録情報を確認できなかった帳票について、人手作業で修正することができる。   (4) In the present embodiment, when it is determined that the recognition is not completed (in the case of “NO” in step S1-8), the control unit 21 of the support server 20 executes a confirmation process (step S1-9). Thereby, it is possible to manually correct a form for which registration information could not be confirmed.

(5)本実施形態では、支援サーバ20の制御部21は、帳票処理を実行する(ステップS1−10)。これにより、効率的に帳票を用いた取引を行なうことができる。   (5) In this embodiment, the control unit 21 of the support server 20 executes a form process (step S1-10). Thereby, it is possible to efficiently perform a transaction using a form.

本実施形態は、以下のように変更して実施することができる。本実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
・上記実施形態では、銀行で用いる帳票(口座振替依頼書)の読み取りを支援する場合を想定する。帳票を読み取り、帳票対応を行なう場合であれば、口座振替依頼書に限定されるものではなく、各種帳票を用いた処理に適用することができる。
This embodiment can be implemented with the following modifications. The present embodiment and the following modifications can be implemented in combination with each other within a technically consistent range.
In the above embodiment, it is assumed that reading of a form (account transfer request form) used in a bank is supported. If the form is read and the form is handled, it is not limited to the account transfer request form, and can be applied to processing using various forms.

・上記実施形態では、支援サーバ20の制御部21は、正解率に基づいて登録情報と照合処理を実行する(ステップS1−7)。具体的には、制御部21の照合処理部213は、予め定められた基準値を超える正解率の認識文字を組み合わせて文字列を生成する。正解率を用いた文字列の生成方法は、これに限定されるものではない。例えば、正解率の高い順番に複数の認識文字を組み合わせた組み合わせ候補を用いて、照合するようにしてもよい。   -In the above-mentioned embodiment, control part 21 of support server 20 performs registration information and collation processing based on a correct answer rate (Step S1-7). Specifically, the collation processing unit 213 of the control unit 21 generates a character string by combining recognized characters with a correct answer rate exceeding a predetermined reference value. The method of generating a character string using the accuracy rate is not limited to this. For example, matching may be performed using combination candidates obtained by combining a plurality of recognized characters in the order of the correct answer rate.

図4を用いて、組み合わせ候補を用いた照合処理を説明する。
ここでは、支援サーバ20の制御部21は、各文字の文字候補の特定処理を実行する(ステップS2−1)。具体的には、制御部21の文字認識部212は、文字認識処理により、各文字画像について、正解率の高い順番に複数の文字候補を特定する。例えば、正解率の上位2候補を特定する。
A matching process using combination candidates will be described with reference to FIG.
Here, the control unit 21 of the support server 20 executes character candidate specification processing for each character (step S2-1). Specifically, the character recognition unit 212 of the control unit 21 specifies a plurality of character candidates in order of the correct answer rate for each character image by character recognition processing. For example, the top two candidates for the correct answer rate are specified.

次に、支援サーバ20の制御部21は、各文字候補の組み合わせの生成処理を実行する(ステップS2−2)。具体的には、制御部21の照合処理部213は、各文字画像について特定した文字候補の組み合わせ候補を生成する。ここで、7文字からなる文字列の場合には、128通り(2の7べき乗)の組み合わせ候補が生成される。   Next, the control unit 21 of the support server 20 executes a generation process for each character candidate combination (step S2-2). Specifically, the matching processing unit 213 of the control unit 21 generates character candidate combination candidates specified for each character image. Here, in the case of a character string consisting of 7 characters, 128 (2 to the power of 7) combination candidates are generated.

次に、支援サーバ20の制御部21は、各組み合わせの正解率の合計値の算出処理を実行する(ステップS2−3)。具体的には、制御部21の照合処理部213は、各組み合わせについて、組み合わせ候補を構成する文字候補の正解率を合計した合計値を算出する。   Next, the control part 21 of the support server 20 performs the calculation process of the total value of the correct answer rate of each combination (step S2-3). Specifically, the collation processing unit 213 of the control unit 21 calculates a total value obtained by summing up the correct answer rates of the character candidates constituting the combination candidates for each combination.

次に、支援サーバ20の制御部21は、正解率の合計値が基準値以上の組み合わせの抽出処理を実行する(ステップS2−4)。具体的には、制御部21の照合処理部213は、帳票項目の文字列の文字種類に応じて基準値を特定する。例えば、数字やアルファベットについては、漢字や仮名文字よりも高い基準値を用いる。例えば、文字種類が数字の場合には98%、漢字や仮名文字の場合には90%を用いる。そして、照合処理部213は、特定した基準値よりも合計値の組み合わせを特定する。   Next, the control part 21 of the support server 20 performs the extraction process of the combination whose total value of a correct answer rate is more than a reference value (step S2-4). Specifically, the matching processing unit 213 of the control unit 21 specifies the reference value according to the character type of the character string of the form item. For example, for numbers and alphabets, higher reference values are used than for kanji and kana characters. For example, 98% is used when the character type is numeric, and 90% is used when the character type is kanji or kana. And the collation process part 213 specifies the combination of total value rather than the specified reference value.

次に、支援サーバ20の制御部21は、登録情報と照合処理を実行する(ステップS2−5)。具体的には、制御部21の照合処理部213は、基準値以上の合計値の組み合わせを用いて、登録情報(口座情報記憶部22に記録された情報)と照合する。
これにより、誤読み取りを考慮して、登録情報と照合することができる。
Next, the control unit 21 of the support server 20 executes registration information and collation processing (step S2-5). Specifically, the collation processing unit 213 of the control unit 21 collates with registration information (information recorded in the account information storage unit 22) using a combination of total values equal to or greater than the reference value.
Thereby, it is possible to collate with the registered information in consideration of erroneous reading.

・上記実施形態では、認識完了でないと判定した場合(ステップS1−8において「YES」の場合)、支援サーバ20の制御部21は、確認処理を実行する(ステップS1−9)。この場合、正解率に応じて、確認方法を変更するようにしてもよい。   In the above embodiment, when it is determined that the recognition is not completed (“YES” in step S1-8), the control unit 21 of the support server 20 executes a confirmation process (step S1-9). In this case, the confirmation method may be changed according to the accuracy rate.

図5、図6を用いて、この場合の確認処理を説明する。
ここでは、支援サーバ20の制御部21は、文字毎に以下の処理を繰り返す。
まず、支援サーバ20の制御部21は、ステップS1−6と同様に、文字認識処理を実行する(ステップS3−1)。
The confirmation process in this case will be described with reference to FIGS.
Here, the control unit 21 of the support server 20 repeats the following processing for each character.
First, the control part 21 of the support server 20 performs a character recognition process similarly to step S1-6 (step S3-1).

そして、図5に示すように、確認処理において、支援サーバ20の制御部21は、正解率に応じて表示方法の決定処理を実行する(ステップS3−2)。具体的には、制御部21の文字認識部212は、正解率に応じた出力形式を決定する。例えば、正解率が基準値以上の文字候補については、背景色(グレー)を濃くしたグレースケール表示を行なう。これにより、担当者は、正解率を考慮して確認することができる。一方、正解率が基準値未満の文字候補については、背景色と識別できるように表示する。また、認識文字と文字画像とを入れ替えて表示するようにしてもよい。例えば、正解率が基準値以上の文字候補については、認識文字を表示する。一方、正解率が基準値未満の文字候補については、文字画像を表示する。
そして、支援サーバ20の制御部21は、すべての文字画像について繰り返す。
これにより、担当者は効率的に確認作業を行なうことができる。
Then, as shown in FIG. 5, in the confirmation process, the control unit 21 of the support server 20 executes a display method determination process according to the accuracy rate (step S3-2). Specifically, the character recognition unit 212 of the control unit 21 determines an output format according to the accuracy rate. For example, for a character candidate with a correct answer rate equal to or higher than a reference value, grayscale display with a dark background color (gray) is performed. Thereby, the person in charge can confirm it in consideration of the accuracy rate. On the other hand, character candidates whose correct answer rate is less than the reference value are displayed so that they can be distinguished from the background color. Further, the recognized character and the character image may be switched and displayed. For example, for character candidates whose correct answer rate is equal to or higher than a reference value, recognized characters are displayed. On the other hand, a character image is displayed for a character candidate whose correct answer rate is less than the reference value.
Then, the control unit 21 of the support server 20 repeats for all character images.
As a result, the person in charge can efficiently perform the confirmation work.

・上記実施形態では、支援サーバ20の制御部21は、文字認識処理を実行する(ステップS1−6)。この場合、文字認識部212は、文字画像毎に、複数の文字候補と正解率とを算出する。ここで、正解率の高い文字画像を用いて学習するようにしてもよい。   In the above embodiment, the control unit 21 of the support server 20 executes character recognition processing (step S1-6). In this case, the character recognition unit 212 calculates a plurality of character candidates and a correct answer rate for each character image. Here, learning may be performed using a character image with a high accuracy rate.

図6に示すように、各文字画像511〜517において、文字候補と正解率を算出する。ここで、文字画像511,513,514の各正解率a1,c1,d1が基準値を超えている場合を想定する。   As shown in FIG. 6, in each character image 511-517, a character candidate and a correct answer rate are calculated. Here, it is assumed that the accuracy rates a1, c1, and d1 of the character images 511, 513, and 514 exceed the reference value.

この場合、支援サーバ20の制御部21は、正解率が高い文字を用いて学習処理を実行する(ステップS4−1)。具体的には、制御部21の文字認識部212は、正解率が高い文字画像511,513,514を用いて、文字特徴を学習する学習処理を実行する。ここでは、文字特徴としては、手書きのおける始筆,送筆,終筆、文字の傾き、大きさ等の筆致の特徴を用いる。   In this case, the control unit 21 of the support server 20 executes the learning process using characters with a high correct answer rate (step S4-1). Specifically, the character recognition unit 212 of the control unit 21 executes a learning process for learning character features using character images 511, 513, and 514 having a high accuracy rate. Here, as the character features, handwriting features such as handwritten initial writing, sending, finishing writing, character inclination, and size are used.

次に、支援サーバ20の制御部21は、学習結果を用いて再予測処理を実行する(ステップS4−2)。具体的には、制御部21の文字認識部212は、算出した文字特徴を用いて、正解率の低い文字画像の文字認識を、再実行する。
これにより、正解率が高い認識文字を用いて、書き手の特徴を把握し、この特徴を活かして正解率が低い認識文字の再認識を行なうことができる。
Next, the control part 21 of the support server 20 performs a re-prediction process using a learning result (step S4-2). Specifically, the character recognition unit 212 of the control unit 21 re-executes character recognition of a character image with a low accuracy rate using the calculated character feature.
As a result, it is possible to grasp the characteristics of the writer by using recognized characters with a high accuracy rate, and to re-recognize recognized characters with a low accuracy rate by using this feature.

・上記実施形態では、支援サーバ20の制御部21は、項目抽出の完了かどうかについての判定処理を実行する(ステップS1−3)。具体的には、制御部21の項目認識部211は、予め定められたすべての項目について項目領域を特定できた場合には、項目抽出の完了と判定する。ここで、他の方法を併用して項目を抽出するようにしてもよい。例えば、帳票項目を登録した項目辞書を準備しておき、帳票画像を文字認識した文字列により、帳票項目を特定するようにしてもよい。   In the above embodiment, the control unit 21 of the support server 20 executes a determination process as to whether or not item extraction is complete (step S1-3). Specifically, the item recognizing unit 211 of the control unit 21 determines that the item extraction is completed when the item area can be specified for all the predetermined items. Here, items may be extracted by using other methods in combination. For example, an item dictionary in which form items are registered may be prepared, and form items may be specified by character strings obtained by character recognition of form images.

図7を用いて、帳票処理方法を説明する。
ここでも、ステップS1−1〜S1−3と同様に、支援サーバ20の制御部21は、帳票スキャン処理(ステップS5−1)、項目予測処理(ステップS5−2)、項目抽出を完了したかどうかについての判定処理(ステップS5−3)を実行する。
The form processing method will be described with reference to FIG.
Here too, as in steps S1-1 to S1-3, has the control unit 21 of the support server 20 completed the form scanning process (step S5-1), the item prediction process (step S5-2), and the item extraction? The determination process about whether (step S5-3) is performed.

項目抽出を完了できなかったと判定した場合(ステップS5−3において「NO」の場合)、支援サーバ20の制御部21は、文字認識処理を実行する(ステップS5−4)。具体的には、制御部21の文字認識部212は、通常の文字認識処理により、帳票画像に含まれるすべての文字を認識する。   When it is determined that item extraction has not been completed (in the case of “NO” in step S5-3), the control unit 21 of the support server 20 executes character recognition processing (step S5-4). Specifically, the character recognition unit 212 of the control unit 21 recognizes all characters included in the form image by a normal character recognition process.

次に、支援サーバ20の制御部21は、文字の認識位置に応じてグループ化処理を実行する(ステップS5−5)。具体的には、制御部21の項目認識部211は、認識文字の配置に基づいて、文字列をグループ化する。ここで、項目辞書を用いて帳票項目を表わす文字列を検索する。更に、帳票項目を構成する文字列を特定した場合には、特定した文字列の位置から所定範囲に含まれる文字列や、連結された罫線で囲まれた範囲内の文字列をグループ化して項目領域を特定する。   Next, the control unit 21 of the support server 20 executes a grouping process according to the character recognition position (step S5-5). Specifically, the item recognition unit 211 of the control unit 21 groups character strings based on the arrangement of recognized characters. Here, a character string representing a form item is searched using the item dictionary. In addition, when the character string that constitutes the form item is specified, the character string included in the predetermined range from the position of the specified character string or the character string in the range surrounded by the connected ruled line is grouped as an item. Identify the area.

次に、支援サーバ20の制御部21は、項目抽出を完了したかどうかについての判定処理を実行する(ステップS5−6)。具体的には、制御部21の項目認識部211は、認識文字の文字列を含む項目領域を特定できた場合には、項目抽出の完了と判定する。   Next, the control part 21 of the support server 20 performs the determination process about whether the item extraction was completed (step S5-6). Specifically, the item recognition unit 211 of the control unit 21 determines that the item extraction is completed when the item region including the character string of the recognized character can be specified.

項目抽出を完了できなかったと判定した場合(ステップS5−6において「NO」の場合)、支援サーバ20の制御部21は、ステップS1−4、S1−5と同様に、担当者による項目指定処理(ステップS5−7)及び教師データの登録処理(ステップS5−8)を実行する。   If it is determined that item extraction has not been completed (NO in step S5-6), the control unit 21 of the support server 20 performs item designation processing by the person in charge as in steps S1-4 and S1-5. (Step S5-7) and teacher data registration processing (Step S5-8) are executed.

一方、項目抽出を完了したと判定した場合(ステップS5−3,S5−6において「YES」の場合)、項目指定処理(ステップS5−7)及び教師データの登録処理(ステップS5−8)をスキップする。
そして、支援サーバ20の制御部21は、帳票項目毎に文字認識処理(ステップS5−9)以降の処理を実行する。
On the other hand, when it is determined that the item extraction has been completed (in the case of “YES” in steps S5-3 and S5-6), an item designation process (step S5-7) and a teacher data registration process (step S5-8) are performed. skip.
And control part 21 of support server 20 performs processing after character recognition processing (Step S5-9) for every form item.

これにより、機械学習を用いて生成した帳票モデルにより帳票項目を推定できない場合にも、文字認識を利用して項目領域を特定することができる。   Thereby, even when a form item cannot be estimated by a form model generated using machine learning, an item area can be specified using character recognition.

次に、上記実施形態及び別例から把握できる技術的思想について以下に追記する。
〔a〕帳票に含まれる項目領域の配置を学習した帳票モデルを記憶した学習結果記憶部と、
帳票に含まれる項目値が記録された登録情報記憶部に接続される制御部とを備えた帳票対応システムであって、
前記制御部が、
帳票画像において、前記学習結果記憶部に記録された帳票モデルにより予測した項目領域毎に文字認識した文字候補と、前記文字候補の正解率とを算出し、
前記正解率に基づいて、各項目領域において項目値を特定し、
前記特定した項目値と、前記登録情報記憶部に記録された項目値とを照合し、
前記照合の結果に応じて、前記項目値を用いた帳票処理を行なうことを特徴とする帳票対応システム。
〔b〕帳票種別について、項目領域が設定された帳票画像を教師データとして用いて、項目領域を特定するための帳票モデルを生成し、前記学習結果記憶部に記録する学習処理を更に実行することを特徴とする〔a〕に記載の帳票対応システム。
〔c〕前記制御部が、前記学習結果記憶部に記録された帳票モデルにより項目領域を予測できない場合、前記帳票画像に含まれる文字画像を用いて文字認識を行ない、
前記文字認識した文字列の配置に基づいてグループ化を行ない、
前記グループ化された文字列を用いて前記項目領域を予測することを特徴とする〔a〕又は〔b〕に記載の帳票対応システム。
〔d〕認識文字の正解率の高さに応じて複数の文字候補を特定し、
前記正解率を用いて、複数の文字候補の組み合わせを生成し、
前記組み合わせを用いて、前記登録情報記憶部に記録された項目値の照合を行なうことを特徴とする〔a〕〜〔c〕の何れか一項に記載の帳票対応システム。
〔e〕帳票に含まれる項目領域の配置を学習した帳票モデルを記憶した学習結果記憶部と、
帳票に含まれる項目値が記録された登録情報記憶部に接続される制御部とを備えた帳票対応システムを用いて、帳票対応を支援するための方法であって、
前記制御部が、
帳票画像において、前記学習結果記憶部に記録された帳票モデルにより予測した項目領域毎に文字認識した文字候補と、前記文字候補の正解率とを算出し、
前記正解率に基づいて、各項目領域において項目値を特定し、
前記特定した項目値と、前記登録情報記憶部に記録された項目値とを照合し、
前記照合の結果に応じて、前記項目値を用いた帳票処理を行なうことを特徴とする帳票対応方法。
〔f〕帳票に含まれる項目領域の配置を学習した帳票モデルを記憶した学習結果記憶部と、
帳票に含まれる項目値が記録された登録情報記憶部に接続される制御部とを備えた帳票対応システムを用いて、帳票対応を支援するためのプログラムであって、
前記制御部を、
帳票画像において、前記学習結果記憶部に記録された帳票モデルにより予測した項目領域毎に文字認識した文字候補と、前記文字候補の正解率とを算出し、
前記正解率に基づいて、各項目領域において項目値を特定し、
前記特定した項目値と、前記登録情報記憶部に記録された項目値とを照合し、
前記照合の結果に応じて、前記項目値を用いた帳票処理を行なう手段として機能させることを特徴とする帳票対応プログラム。
Next, the technical idea that can be grasped from the above embodiment and other examples will be described below.
[A] a learning result storage unit that stores a form model that has learned the arrangement of item areas included in the form;
A form-corresponding system comprising a control unit connected to a registration information storage unit in which item values included in the form are recorded,
The control unit is
In the form image, calculate the character candidates recognized for each item area predicted by the form model recorded in the learning result storage unit, and the correct rate of the character candidates,
Based on the accuracy rate, identify the item value in each item area,
Collating the identified item value with the item value recorded in the registration information storage unit,
A form correspondence system that performs form processing using the item value according to the result of the collation.
[B] For a form type, using a form image in which an item area is set as teacher data, generate a form model for specifying the item area, and further execute a learning process of recording in the learning result storage unit The form corresponding system as described in [a].
[C] When the control unit cannot predict the item area by the form model recorded in the learning result storage unit, character recognition is performed using a character image included in the form image,
Grouping is performed based on the arrangement of the recognized character strings,
The form correspondence system according to [a] or [b], wherein the item area is predicted using the grouped character strings.
[D] Identify a plurality of character candidates according to the accuracy rate of recognized characters,
Generating a combination of a plurality of character candidates using the accuracy rate;
The form correspondence system according to any one of [a] to [c], wherein item values recorded in the registration information storage unit are collated using the combination.
[E] a learning result storage unit that stores a form model that has learned the arrangement of item areas included in the form;
A method for supporting form correspondence using a form correspondence system comprising a control unit connected to a registration information storage unit in which item values included in a form are recorded,
The control unit is
In the form image, calculate the character candidates recognized for each item area predicted by the form model recorded in the learning result storage unit, and the correct rate of the character candidates,
Based on the accuracy rate, identify the item value in each item area,
Collating the identified item value with the item value recorded in the registration information storage unit,
A form handling method, wherein a form process using the item value is performed according to the result of the collation.
[F] a learning result storage unit that stores a form model that has learned the arrangement of item areas included in the form;
A program for supporting a form correspondence using a form correspondence system including a control unit connected to a registration information storage unit in which item values included in a form are recorded,
The control unit
In the form image, calculate the character candidates recognized for each item area predicted by the form model recorded in the learning result storage unit, and the correct rate of the character candidates,
Based on the accuracy rate, identify the item value in each item area,
Collating the identified item value with the item value recorded in the registration information storage unit,
A form correspondence program that functions as means for performing form processing using the item values according to the result of the collation.

10…スキャナ、20…支援サーバ、21…制御部、210…学習処理部、211…項目認識部、212…文字認識部、213…照合処理部、22…教師情報記憶部、23…学習結果記憶部、30…ホストシステム、32…口座情報記憶部、40…担当者端末。   DESCRIPTION OF SYMBOLS 10 ... Scanner, 20 ... Support server, 21 ... Control part, 210 ... Learning process part, 211 ... Item recognition part, 212 ... Character recognition part, 213 ... Collation process part, 22 ... Teacher information storage part, 23 ... Learning result memory | storage 30: Host system, 32: Account information storage unit, 40: Person in charge terminal.

Claims (4)

帳票画像に含まれる各項目領域を示した教師データを用いて、帳票に含まれる項目領域の配置を学習させ、前記項目領域を特定するための帳票モデルを記憶した学習結果記憶部と、
帳票に含まれる項目値が記録された登録情報記憶部に接続される制御部とを備えた帳票対応システムであって、
前記制御部が、
帳票画像において、前記学習結果記憶部に記録された帳票モデルにより、各帳票項目の項目領域を予測し、前記予測した項目領域毎に文字認識した文字候補と、前記文字候補の正解率とを算出し、
前記正解率に基づいて、各項目領域において項目値を特定し、
前記特定した項目値と、前記登録情報記憶部に記録された項目値とを照合し、
前記照合の結果に応じて、前記項目値を用いた帳票処理を行ない、
前記学習結果記憶部に記録された帳票モデルにより項目領域を予測できない場合、前記帳票画像に含まれる文字画像を用いて文字認識を行ない、
前記文字認識した文字列の配置に基づいてグループ化を行ない、
前記グループ化された文字列を用いて前記項目領域を予測することを特徴とする帳票対応システム。
A learning result storage unit that stores the form model for specifying the item area by learning the arrangement of the item area included in the form using the teacher data indicating each item area included in the form image;
A form-corresponding system comprising a control unit connected to a registration information storage unit in which item values included in the form are recorded,
The control unit is
In the form image, the form model recorded in the learning result storage unit predicts the item area of each form item, and calculates the character candidates recognized for each predicted item area and the correct rate of the character candidates. And
Based on the accuracy rate, identify the item value in each item area,
Collating the identified item value with the item value recorded in the registration information storage unit,
Depending on the result of the collation, form processing using the item value is performed,
If the item area cannot be predicted by the form model recorded in the learning result storage unit, character recognition is performed using a character image included in the form image,
Grouping is performed based on the arrangement of the recognized character strings,
A form correspondence system, wherein the item area is predicted using the grouped character strings.
認識文字の正解率の高さに応じて複数の文字候補を特定し、
前記正解率を用いて、複数の文字候補の組み合わせを生成し、
前記組み合わせを用いて、前記登録情報記憶部に記録された項目値の照合を行なうことを特徴とする請求項1に記載の帳票対応システム。
Identify multiple character candidates according to the accuracy rate of recognized characters,
Generating a combination of a plurality of character candidates using the accuracy rate;
2. The form correspondence system according to claim 1, wherein the combination is used to collate item values recorded in the registered information storage unit.
帳票画像に含まれる各項目領域を示した教師データを用いて、帳票に含まれる項目領域の配置を学習させ、前記項目領域を特定するための帳票モデルを記憶した学習結果記憶部と、
帳票に含まれる項目値が記録された登録情報記憶部に接続される制御部とを備えた帳票対応システムを用いて、帳票対応を支援するための方法であって、
前記制御部が、
帳票画像において、前記学習結果記憶部に記録された帳票モデルにより、各帳票項目の項目領域を予測し、前記予測した項目領域毎に文字認識した文字候補と、前記文字候補の正解率とを算出し、
前記正解率に基づいて、各項目領域において項目値を特定し、
前記特定した項目値と、前記登録情報記憶部に記録された項目値とを照合し、
前記照合の結果に応じて、前記項目値を用いた帳票処理を行ない、
前記学習結果記憶部に記録された帳票モデルにより項目領域を予測できない場合、前記帳票画像に含まれる文字画像を用いて文字認識を行ない、
前記文字認識した文字列の配置に基づいてグループ化を行ない、
前記グループ化された文字列を用いて前記項目領域を予測することを特徴とする帳票対応方法。
A learning result storage unit that stores the form model for specifying the item area by learning the arrangement of the item area included in the form using the teacher data indicating each item area included in the form image;
A method for supporting form correspondence using a form correspondence system comprising a control unit connected to a registration information storage unit in which item values included in a form are recorded,
The control unit is
In the form image, the form model recorded in the learning result storage unit predicts the item area of each form item, and calculates the character candidates recognized for each predicted item area and the correct rate of the character candidates. And
Based on the accuracy rate, identify the item value in each item area,
Collating the identified item value with the item value recorded in the registration information storage unit,
Depending on the result of the collation, form processing using the item value is performed,
If the item area cannot be predicted by the form model recorded in the learning result storage unit, character recognition is performed using a character image included in the form image,
Grouping is performed based on the arrangement of the recognized character strings,
A form correspondence method, wherein the item area is predicted using the grouped character strings.
帳票画像に含まれる各項目領域を示した教師データを用いて、帳票に含まれる項目領域の配置を学習させ、前記項目領域を特定するための帳票モデルを記憶した学習結果記憶部と、
帳票に含まれる項目値が記録された登録情報記憶部に接続される制御部とを備えた帳票対応システムを用いて、帳票対応を支援するためのプログラムであって、
前記制御部を、
帳票画像において、前記学習結果記憶部に記録された帳票モデルにより、各帳票項目の項目領域を予測し、前記予測した項目領域毎に文字認識した文字候補と、前記文字候補の正解率とを算出し、
前記正解率に基づいて、各項目領域において項目値を特定し、
前記特定した項目値と、前記登録情報記憶部に記録された項目値とを照合し、
前記照合の結果に応じて、前記項目値を用いた帳票処理を行ない、
前記学習結果記憶部に記録された帳票モデルにより項目領域を予測できない場合、前記帳票画像に含まれる文字画像を用いて文字認識を行ない、
前記文字認識した文字列の配置に基づいてグループ化を行ない、
前記グループ化された文字列を用いて前記項目領域を予測する手段として機能させることを特徴とする帳票対応プログラム。
A learning result storage unit that stores the form model for specifying the item area by learning the arrangement of the item area included in the form using the teacher data indicating each item area included in the form image;
A program for supporting a form correspondence using a form correspondence system including a control unit connected to a registration information storage unit in which item values included in a form are recorded,
The control unit
In the form image, the form model recorded in the learning result storage unit predicts the item area of each form item, and calculates the character candidates recognized for each predicted item area and the correct rate of the character candidates. And
Based on the accuracy rate, identify the item value in each item area,
Collating the identified item value with the item value recorded in the registration information storage unit,
Depending on the result of the collation, form processing using the item value is performed,
If the item area cannot be predicted by the form model recorded in the learning result storage unit, character recognition is performed using a character image included in the form image,
Grouping is performed based on the arrangement of the recognized character strings,
A form correspondence program that functions as means for predicting the item area using the grouped character strings.
JP2019089296A 2019-05-09 2019-05-09 Form handling system, form handling method and form handling program Active JP7118923B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019089296A JP7118923B2 (en) 2019-05-09 2019-05-09 Form handling system, form handling method and form handling program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019089296A JP7118923B2 (en) 2019-05-09 2019-05-09 Form handling system, form handling method and form handling program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018012285A Division JP6527256B1 (en) 2018-01-29 2018-01-29 Report support system, report support method and report support program

Publications (3)

Publication Number Publication Date
JP2019133719A true JP2019133719A (en) 2019-08-08
JP2019133719A5 JP2019133719A5 (en) 2021-03-25
JP7118923B2 JP7118923B2 (en) 2022-08-16

Family

ID=67546377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019089296A Active JP7118923B2 (en) 2019-05-09 2019-05-09 Form handling system, form handling method and form handling program

Country Status (1)

Country Link
JP (1) JP7118923B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021103581A (en) * 2020-06-12 2021-07-15 北京百度網訊科技有限公司 Method for extracting form in image, device for extracting form in image, electronic apparatus, computer readable storage medium, method for training form extraction module, and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05307639A (en) * 1992-04-30 1993-11-19 Toshiba Corp Device for detecting address area of postal matter
JP2001283150A (en) * 2000-03-28 2001-10-12 Fuji Data Processing Co Ltd Data inputting method and image entry system
US7149347B1 (en) * 2000-03-02 2006-12-12 Science Applications International Corporation Machine learning of document templates for data extraction
JP2010009440A (en) * 2008-06-30 2010-01-14 Fujitsu Frontech Ltd Character recognition program, character recognition apparatus, and character recognition method
JP2017010069A (en) * 2015-06-16 2017-01-12 シャープ株式会社 Information processor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05307639A (en) * 1992-04-30 1993-11-19 Toshiba Corp Device for detecting address area of postal matter
US7149347B1 (en) * 2000-03-02 2006-12-12 Science Applications International Corporation Machine learning of document templates for data extraction
JP2001283150A (en) * 2000-03-28 2001-10-12 Fuji Data Processing Co Ltd Data inputting method and image entry system
JP2010009440A (en) * 2008-06-30 2010-01-14 Fujitsu Frontech Ltd Character recognition program, character recognition apparatus, and character recognition method
JP2017010069A (en) * 2015-06-16 2017-01-12 シャープ株式会社 Information processor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021103581A (en) * 2020-06-12 2021-07-15 北京百度網訊科技有限公司 Method for extracting form in image, device for extracting form in image, electronic apparatus, computer readable storage medium, method for training form extraction module, and computer program
JP7278321B2 (en) 2020-06-12 2023-05-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Method for extracting tables in images, apparatus for extracting tables in images, electronic devices, computer readable storage media, methods and computer programs for training table extraction modules

Also Published As

Publication number Publication date
JP7118923B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
CN104834996B (en) Order filling method and device
WO2021208696A1 (en) User intention analysis method, apparatus, electronic device, and computer storage medium
US11830269B2 (en) System for information extraction from form-like documents
JP6357621B1 (en) Accounting processing apparatus, accounting processing system, accounting processing method and program
CN108984578A (en) Computer, document recognition methods and system
JP6527256B1 (en) Report support system, report support method and report support program
JP2015118488A (en) System, method and program for inputting account data
JP2016048444A (en) Document identification program, document identification device, document identification system, and document identification method
US20220335073A1 (en) Fuzzy searching using word shapes for big data applications
US20080008391A1 (en) Method and System for Document Form Recognition
CN117114514B (en) Talent information analysis management method, system and device based on big data
JP7118923B2 (en) Form handling system, form handling method and form handling program
CN113362162A (en) Wind control identification method and device based on network behavior data, electronic equipment and medium
CN113255767A (en) Bill classification method, device, equipment and storage medium
CN115907778A (en) Intelligent order examination method, device, terminal and storage medium
JP2020046860A (en) Form reading apparatus
CN113168527A (en) System and method for extracting information from entity documents
JP6993032B2 (en) Accounting equipment, accounting systems, accounting methods and programs
JP6087879B2 (en) Reception support system and reception support method
JP2022029398A (en) Data processing device, data processing method and data processing program
CN111310588A (en) Online account opening application processing method and device, equipment and medium for gas system
JP4185681B2 (en) Transfer processing method
CN111680513B (en) Feature information identification method and device and computer readable storage medium
TW202319961A (en) Building method for key-item detection model, identification system and method for business-oriented key-item especially for identifying a plurality of document image files according to business sub-models
US20220327502A1 (en) Enhanced image transaction processing solution and architecture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220803

R150 Certificate of patent or registration of utility model

Ref document number: 7118923

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150